Здравствуйте, Alexandr.
>>>> Суть заключается в том, чтобы отбрасывать запросы на основе
>>>> данных, которые атакующие не могут знать и соответственно не
>>>> могут прикинуться реальными посетителями.
>> чтобы так сделать - надо запрос принять, распарсить и прогнать
>> через некую логику. есть подозрение, что отдать статический
>> документ будет дешевле.
> Да не, все ок. И задача в общем-то такая: без капчи, без деградации
> и от умных вэбкит ботов неотлечимых от реальных браузеров.
> Ниже пару paper'ов на тему. Я глянул оба, если собирать статистику и
> вычислять корреляции - можно очень точно отличить атаку от всплесков
> и сбрасывать запросы атакующих без деградации сервиса.
А оно сработает, если боты заранее скачают миллион страниц сайта и
начнут делать следующее: взять случайную страницу, качнуть её
вебкитом, взять все ссылки со страницы, перейти по случайной ссылке,
качнуть её, опять взять ссылки и опять перейти по случайной и т.д.
Это поведение очень похоже на случайный сёрфинг. По какой корреляции
тут можно вычислить ботов и не отсечь юзеров, пришедших по закладкам
или ссылкам из аськи/аутлука?
--
С уважением,
Михаил mailto:postmaster@softsearch.ru
_______________________________________________
nginx-ru mailing list
nginx-ru@nginx.org
http://mailman.nginx.org/mailman/listinfo/nginx-ru