FastCGI коннекторы
Я раньше думал, что для питона есть только один FastCGI коннектор - входящий в состав flup.
Однако выяснилось, что, например MoinMoinWiki использует собственный FastCGI коннектор.
И, например, при нагрузочном тестировании он выдает более 2000 rps на странице (значительного размера) из кэша на FS против максимум 1500 на странице 'Hello, world' для связки flup + web.py на,примерно, 25% от Core Duo 2 .4Ghz + 512 (макс) памяти - короче, все инсталировано в VPS.
Upd для тестирования использовал ab -n 5000 -c 50 и lighttpd
Кстати, кода в MoinMoin реализации FastCGI - всего-то 600 строк примерно.
Кстати, коннектор MoinMoin - threaded, т.е. там GIL во весь рост. web.py - preforked.
Нахожусь в мучительных раздумьях.
Upd2 раскопки показали, что есть еще:
и еще куча всего: http://wsgi.org/wsgi/Servers
Кому нибудь доводилось использовать что-то, кроме flup для FastCGI и как оно вообще?
В дебиановских пакетах только flup и python-scgi.
Остальное - совсем заброшенное/нестабильное/неприемлемое?
Однако выяснилось, что, например MoinMoinWiki использует собственный FastCGI коннектор.
И, например, при нагрузочном тестировании он выдает более 2000 rps на странице (значительного размера) из кэша на FS против максимум 1500 на странице 'Hello, world' для связки flup + web.py на,примерно, 25% от Core Duo 2 .4Ghz + 512 (макс) памяти - короче, все инсталировано в VPS.
Upd для тестирования использовал ab -n 5000 -c 50 и lighttpd
Кстати, кода в MoinMoin реализации FastCGI - всего-то 600 строк примерно.
Кстати, коннектор MoinMoin - threaded, т.е. там GIL во весь рост. web.py - preforked.
Нахожусь в мучительных раздумьях.
Upd2 раскопки показали, что есть еще:
- python-fastcgi
- fcgiapp
и еще куча всего: http://wsgi.org/wsgi/Servers
Кому нибудь доводилось использовать что-то, кроме flup для FastCGI и как оно вообще?
В дебиановских пакетах только flup и python-scgi.
Остальное - совсем заброшенное/нестабильное/неприемлемое?
