Антипарсинг контента или "не все то хорошо, что хорошо индексируется".
Недавно я столкнулся с массовым наплывом ботов-парсиров на свой новый (сырой) проект (сайт) и за специфичности контента (списки прокси)
Подобные проги используют поисковые системы для нахождения жертв, после чего "налетают как пчелы на мед" и трафик взлетает
Пришлось попотеть - скрыл контент в javascript
А кто то сталкивался с подобными прогами паразитами?
в моем случае, это проги которые ищут прокси на просторах интернета, а потом сливают эти списки владельцу
вот и за этого мне пришлось потратить время на то, чтобы лишить возможности автоматизации парсинга моего сайта
а какой можно профит поиметь с не уникального контента?
Ну смотри допустим у тебя на сайте есть ключи к антивирям к примеру но ты знаешь что где-то там на индийском сайте ети ключи постоянно обновляются и пишется парсер который вытягивает их от туда на твой сайт. А вобще вариантов куча
Ну смотри допустим у тебя на сайте есть ключи к антивирям к примеру но ты знаешь что где-то там на индийском сайте ети ключи постоянно обновляются и пишется парсер который вытягивает их от туда на твой сайт. А вобще вариантов куча