Если вы до сих пор не верите, что Гугловский фильтр идентичного содержимого существует, то я уже имею яркое доказательство того, что такой фильтр существует и работает довольно эффективно

5 июля 2005 года я опубликовал статью под названием «7 способов защиты от воровства ссылок», которая была одобрена и включена в качестве контента на других веб-сайтах. Перед тем как опубликовать статью, я проверил результаты, выдаваемые Гуглом, на предмет наличия подобных статей, а именно на наличие фразы «7 способов защиты от воровства ссылок», и не нашел ни одной ссылки по этому выражению. Следующие несколько недель я следил за результатами Гугла в ожидании как много заголовков моей статьи он выдаст. Через неделю после публикации Гугл выдал 6760 результатов, еще через неделю уже было 14100 и пик – 17000 результатов пришелся на 26 июля 2005 года. Через 4 недели после публикации количество ссылок в выдаче упало до 16600, а почти через 6 недель осталось всего 44 ссылки.

Меньше, чем за две недели количество результатов поиска, выданное Google.com упало с 16600 до 44!

Если вы думаете, что причина этого то, что моя статья сказалась на рейтинге этих других сайтов и была заменена чем-то другим, то я замечу, что поиск в Yahoo.com в этот же самый день все еще показывал 14300 результатов по моей статье. Более того половина из этих 44 ссылок, выданных Гуглом состояла из тех же самых сайтов. Другими словами некоторые сайты содержали эту же самую статью на разных страницах. Таким образо, Гугловский фильтр содержимого не используется для удаления дублицирующихся результатов с определенных сайтов.

28 августа 2005 года, т.е. 8 недель спусти после первой публикации я распределил статью снова на новых сайтах, дабы повторить процесс. Спустя 6 недель эта же самая статья достигла пика 5620 результатов на Гугле. Менее, чем за 2 недели после этого количество результатов упало до 217.

Как для меня это яркое доказательство того, что фильтр повторябщегося Интернет-содержимого активен и очень эффективен. Если вы зададитесь вопросом, а имеют ли такие фильтры другие поисковые системы, я могу подтвердить, что Yahoo точно использует. Та же статья, которая была включен в список из 14300 результатов, сейчас содержится только среди 344.

Исходя зи результатов можно заметить, что Гугл тратит от 6 до 8 недель для удаления повторяющегося содержимого из своих результатов.

Однако вопрос остается, на основании чего Гугл из 16000 результатов оставляет одни сайты и отклоняет другие?

Я был свидетелем, когда мои собственные статьи появлялись в результатах на других сайтах, тогда как на моих сайтах нет. Т.е. Гугл не рассматривает кто создатель и автор статьи, когда решает какие сайты оставлять в результатах. Также не имеет значение, где ту или иную статью Гугл нашел. Некоторые статьи я опубликовал на своем сайте перед тем как регистрировать их на других сайтах. В то же время спайдеры Гугла посещали мой сайт несколько раз и у Гугла было достаточно времени, чтобы определить, что статья изначально была найдена на моем сайте.

Было бы интересно узнать, возможно ли вычислить факторы, которые использует Гугл в своем фильтре, определяющие какие сайты оставить в выдаче, а какие удалить. Но это уже другая статья.

Автор статьи: Тони Симпсон (Tony Simpson)
Перевод: Fakeman

Тино Симпсон – веб-дизайнер и специалист в области посковой оптимизации, который принес ощущение реальности в строительство веб-бизнеса. Здесь находится отчет о продукте: Article Announcer Review – Testing Product Claims


Вы прочитали статью и она Вам понравилась?
Подпишитесь на обновления!

Pаспечатать эту статью Pаспечатать эту статью