В смысле так же придется выбирать - или ждать пока ответ ляжет в кэш (а контент может быть очень большой), или параллельно что-то делать, например проксировать напрямую клиентам. То что при этом ничего лишнего не будет лоby c0re - Nginx Mailing List - Russian
Спасибо за советы. > Хотя по прежнему не > решается проблема bandwidth > reduction (i.e. > один запрос идёт на бекенд, > остальные ждут появления > ответа в > кеше). Реализация нативных busylock'ов для proxy_cache в nginx'е эту проby c0re - Nginx Mailing List - Russian
Sorry guys. There's problem with workaround for proxy_cache. So it works with proxy_store only.by c0re - Nginx Mailing List - English
Подтверждаю. Пробовал в @fake добавить proxy_pass на 127.0.0.1 отдающий 404. Результат тот же. В таком случае для proxy_cache решения до сих пор нет. Правильно работает только для proxy_store. Может есть идеи, как без сторонних модулей опредby c0re - Nginx Mailing List - Russian
proxy_cache workaround: http{ proxy_cache_path /cache keys_zone=localcache:10m; limit_zone perUri $uri 10m; } server { location /remote/ { try_files $uri @fake @proxy-remote; } location @fake { root /notexists; } location @proxy-remote { limit_conn perUri 1; proxyby c0re - Nginx Mailing List - English
Пробема поднималась неоднократно и у нас и у буржуев. Кто не понимает о чем речь - ищите по 'nginx busylocks'. workaround для proxy_cache: http{ proxy_cache_path /cache keys_zone=localcache:10m; limit_zone perUri $uri 10m; } server { location /remote/ { try_files $uri @fake @proxby c0re - Nginx Mailing List - Russian
Доброй ночи При возникновении подобных проблем (а вы далеко не первый, столкнувшийся с этой вопиющей несправедливостью), рекомендации ведущих собаководов =] не изобилуют разнообразием. Как правило, во всех подобных сby c0re - Nginx Mailing List - Russian