сквид на виртушке

Обсуждение настройки и работы сервисов, резервирования, сетевых настроек и вопросов безопасности ОС для молодых и начинающих системных администраторов.

Модераторы: SLEDopit, Модераторы разделов

Аватара пользователя
RUMMY
Сообщения: 40

сквид на виртушке

Сообщение RUMMY »

привет ребята
не могу решить одну задачу, стоит виртушка (VMware ESX 4.1) а на нем CentOS 5.5 + Squid-2.6.STABLE21 пользователей около 70-80 все работает в норме, вот сейчас должен подключить еще 200-250 и на следующий год тоже придется добавить, вообшем всего будет где то 1000 пользователей. реально ли виртушка сможет работать?
и еще посоветуйте документацию как настроит сквид для таких количество пользователей и режим failover, standby и т.д

Hard: HP ProLiant DL360, 2x2.0CPU(4Core), RAM 8GB, HDD SAS 15k rpm 2x300GB RAID-1
Спасибо сказали:
Аватара пользователя
KiWi
Бывший модератор
Сообщения: 2521
Статус: статус, статус, статус

Re: сквид на виртушке

Сообщение KiWi »

Вопрос не в количестве пользователей, а в количестве запросов, насколько тяжёлые запросы, как кешируются и так далее.

Берите какой-нибудь ab и тестируйте(и squid с нужными запросами, и свою "виртушку" -- что такое второе, честно, не представляю, vmware esx знаю, а "виртушку" -- не знаю).
Спасибо сказали:
Аватара пользователя
RUMMY
Сообщения: 40

Re: сквид на виртушке

Сообщение RUMMY »

виртушка - виртуальный хост ))
запросы будут очень много, все пользователи активные
Спасибо сказали:
Аватара пользователя
KiWi
Бывший модератор
Сообщения: 2521
Статус: статус, статус, статус

Re: сквид на виртушке

Сообщение KiWi »

RUMMY писал(а):
19.12.2010 21:21
запросы будут очень много, все пользователи активные

Значит, ещё одно узкое место -- канал.

А, ещё размер кеша может повлиять(то есть -- насколько разными будут сайты пользователей) -- если много разного, то велика вероятность, что что-то будет выкидываться из кеша до его протухания.

Так что нет ничего лучше, чем брать и смотреть.
Спасибо сказали:
Аватара пользователя
RUMMY
Сообщения: 40

Re: сквид на виртушке

Сообщение RUMMY »

канал до сервера будет хорошим, на это будет работать сетевой администратор.
мне интересует уже сквид, как мне настроить високо надежный прокси сервер
Спасибо сказали:
Аватара пользователя
mandreika
Сообщения: 217
ОС: Debian 3,4,5,6

Re: сквид на виртушке

Сообщение mandreika »

норм будет - вынеси кэш на tmpfs раздел и будет норм сам тестировал -
правда объем около 100гб в месяц было - примерно 100 - 150 юзверов
правда оперативки 3 гига минимум по кэш придется выделить и пару под сквид.
Спасибо сказали:
Аватара пользователя
KiWi
Бывший модератор
Сообщения: 2521
Статус: статус, статус, статус

Re: сквид на виртушке

Сообщение KiWi »

mandreika писал(а):
22.12.2010 12:21
норм будет - вынеси кэш на tmpfs раздел

Абсолютно бесполезное занятие, которое, к тому же, сильно уменьшает максимальный размер кеша.
squid прекрасно умеет часть кеша держать в памяти, а часть -- на диске.
Спасибо сказали:
Аватара пользователя
RUMMY
Сообщения: 40

Re: сквид на виртушке

Сообщение RUMMY »

у меня кеш будет выглядеть вот так, больше не хочу

Код: Выделить всё

cache_dir aufs /var/spool/squid 10240 16 256
cache_mem 1024 MB
Спасибо сказали:
Аватара пользователя
mikes
Сообщения: 294
ОС: ubuntu

Re: сквид на виртушке

Сообщение mikes »

сильно будет зависеть от количества и качества правил при большом количестве клиентов и широком канале (на пример если regexp используем, то соотв загрузка проца будет увеличиваться) ну и от параметров кеширования.. для виртуалок вообще как правило дисковая система узкое место. 2 диска хоть и sas это по сути ничто... что бы сгладить это, можно либо увеличить количество дисков, либо подключить отдельный физический диск непосредственно к виртуальной машине.

ну и есть брутальный вариант - оключить кеширование нафиг.. если канал широкий и от сквида нужны только его acl ну и авторизация

ЗЫ
у меня щас 700-800 пользователей загружают hp dl385g1 на 35%-40% но иногда бывают массовые акции когда приходится включать второй такой же и делать dns round robbin для нормальной работы.. так что в случае чего виртуалка будет отбирать неплохо cpu у других машин на этом хосте.
Спасибо сказали:
Аватара пользователя
Ленивая Бестолочь
Бывший модератор
Сообщения: 2760
ОС: Debian; gentoo

Re: сквид на виртушке

Сообщение Ленивая Бестолочь »

mikes писал(а):
05.01.2011 20:48
у меня щас 700-800 пользователей загружают hp dl385g1 на 35%-40% но иногда бывают массовые акции когда приходится включать второй такой же и делать dns round robbin для нормальной работы.. так что в случае чего виртуалка будет отбирать неплохо cpu у других машин на этом хосте.

интересно. а у вас там много правил накручено?
у нас на dl180g5 (два проца) запущена машинка в ксене, со сквидом и сквидгардом.
в сквиде - ntlm авторизация (winbind), немножко групп в ldap-е + пара тройка костылей какихто, типа windows update.
сквидгард - по группам несколько наборов правил.
около 300 юзеров, работает очень ровно, до 35% очень далеко.
(сама виртуалка лежит на iscsi хранилище)
Солнце садилось в море, а люди с неоконченным высшим образованием выбегали оттуда, думая, что море закипит.
Спасибо сказали:
Аватара пользователя
mikes
Сообщения: 294
ОС: ubuntu

Re: сквид на виртушке

Сообщение mikes »

Ленивая Бестолоч... писал(а):
06.01.2011 13:53
интересно. а у вас там много правил накручено?
у нас на dl180g5 (два проца) запущена машинка в ксене, со сквидом и сквидгардом.
в сквиде - ntlm авторизация (winbind), немножко групп в ldap-е + пара тройка костылей какихто, типа windows update.
сквидгард - по группам несколько наборов правил.
около 300 юзеров, работает очень ровно, до 35% очень далеко.
(сама виртуалка лежит на iscsi хранилище)

правил много.. ибо народ разномастный, да и согласитесь dl385g1 это не совсем тоже самое что dl180g5, вот и получается что где то на 35-40 мбит/сек сервер с 1 процом немного напрягается :)
Спасибо сказали:
expdot
Сообщения: 176
ОС: Fedora 13, Win Vista

Re: сквид на виртушке

Сообщение expdot »

двухядерный xeon поколения pentium4
1500+ пользователей 80 мбит. нормально работает ), правда + openvz и др.

я думаю и у вас нормально будет :)
Спасибо сказали: