Просто Девушка
февраль 2017.
674

Почему сайты боятся роботов?

Ответить
Ответить
Комментировать
0
Подписаться
0
4 ответа
Поделиться

Сайты, а точней владельцы этих самых сайтов - сосредоточены на живых юзерах. Ну и соответственно, что бы в случае чего /понять/ кто сидит по ту сторону провода. Это нужно для того, чтобы боты не выполняли на автомате те или иные действия на сайте. Не рассылали спам например.

Андрей Горбенкоотвечает на ваши вопросы в своейПрямой линии
3
0
Прокомментировать

Поисковых ботов никто не боится, хотя был у меня случай когда какой-то китайский бот меня почти что ДДосил (и пришлось его запретить).
А вот спам-боты откровенно достали. Живые спаммеры, конечно, тоже не сахар, но спам бот запросто может за день запостить 1000 сообщений и больше. А если их прорывается несколько, то потом все это вычищать, мягко говоря, утомительно, даже если в админке сайта есть какая-то автоматизация.
Другие типы ботов на сайте практически не появляются (по крайней мере у меня).

2
0
Прокомментировать

Иногда стоит бояться. В этом месяце бот Яндекса решил обойти сайт клиента. А это 2 500 000 страниц в индексе. В первые минуты бот положил выделенный сервер. Потом мы сделали простую настройку, бот обошел сайт за 4 дня, без проблем для пользователей.

0
0
Прокомментировать

Этот ответ написан и доступен на

Этот ответ написан и доступен на Яндекс Кью

Роботы могут сильно нагружать ресурсы сайта, и хостеры могут блокировать такие сайты. Соответственно - если на сайте много роботов или ботов, может не хватать ресурсов на реальных пользователей, которые будут видеть ошибку вместо сайта. По этому выбирайте правильный тариф на хостинге. Если ваш сайт уже требует больше ресурсов, повышайте тариф. И не обращайтесь к сомнительным компаниям, которые могут продавать вам за большие деньги - такие же ограниченные ресурсы.

0
0
Прокомментировать
Ответить
Читайте также на Яндекс.Кью
Читайте также на Яндекс.Кью