Здравствуйте, Alexandr.
>> А оно сработает, если боты заранее скачают миллион страниц сайта и
>> начнут делать следующее: взять случайную страницу, качнуть её
>> вебкитом, взять все ссылки со страницы, перейти по случайной
>> ссылке, качнуть её, опять взять ссылки и опять перейти по случайной
>> и т.д.
>> Это поведение очень похоже на случайный сёрфинг. По какой
>> корреляции тут можно вычислить ботов и не отсечь юзеров, пришедших
>> по закладкам или ссылкам из аськи/аутлука?
> Ну пускай ходят, они же все равно не знают статистику реальных
> посетителей. Даже если нагенерируют искуственно трафик и повлияют на
> статистику, т.е. появятся для этих ботов какие-то группы/кластеры
> трафика, с них же все равно будет приниматься только небольшое
> количество запросов за определенный промежуток времени - к примеру
> 10 запросов от ботов принято, а 10000 отброшено.
А в чём именно отличие то? Я описал атаку, которая, как мне кажется,
обходит преложенную защиту. Она ИМХО вполне полценно имитирует
небольшую группу постоянных посетителей сайта. Фильтрация отсечёт и их
тоже.
А если специально под какой-то сайт ботов затачивать, то можно ввести
весовые коэффициенты для ссылок с разными css-классами, разным
положением в коде страницы и т.д.
Или вот ещё как: сначала атакующий сам заходит на сайт, проводит на
нём пол часика и полностью записывает все свои действия. Потом
прогоняет их через статистический анализатор и выявляет признаки
элементов страниц, на которые он нажимал (ссылки и формы). Потом на
основе этой статистики боты под вебкитом ведут атаку.
> Да и капчу можно попросить ввести всех тех, кого приняли за ботов.
> Если это будет для меньше 1% посетителей и только во время атаки -
> это ж не страшно уже.
Капча успешно пробовается. Руками и глазам небогатых людей.
--
С уважением,
Михаил mailto:postmaster@softsearch.ru
_______________________________________________
nginx-ru mailing list
nginx-ru@nginx.org
http://mailman.nginx.org/mailman/listinfo/nginx-ru