Танцы Google по-флоридски

С чего все началось

16 ноября итоги поиска в Google начали выглядеть безусловно иначе. Первоначально знатоки сочли это первым в последствии долгого перерыва Google Dance, в ходе которого и раньше встречались самые неожиданные результаты, но затем выяснилось, что ситуация не похожа на типовой дэнс, который как правило представлял собой процесс обновления базы и пересчета PageRank.

Что было странно - исчезновение с привычных местов многих сайтов, занимавших лидирующие позиции продолжительное время, причем никаких нормальных признаков бана, вроде обнуления PageRank, не было - элементарно конкретные страницы переставали выдаваться в числе первых по конкретным запросам.

Первые гипотезы трогали в главном идеи наложения на итоги поиска некоего фильтра по оптимизированности страниц. Google, как один из крупных поисковик в мире, подлинно давно нуждается в средстве противодействия усилиям оптимизаторов, коие далеко не всякий раз способствуют беспристрастному ранжированию сайтов. помимо того, PageRank, технология, с появлением коей и связан триумф Google, в ее классическом облике чрезвычайно подвержена манипулированию. Это отмечали в последнее время слишком многие специалисты.

Ситуация выглядела собственно как попытка квалифицировать случаи “переоптимизации” страниц и нивелировать их воздействие на ранжирование итогов поиска. максимальный эффект наблюдался на страницах, коие содержали искомую фразу во всех разрешенных местах - когда-то title, метатэги, тэги заголовков, alt у картинок, тексте ссылок на страницу или же сайт, и даже в доменном имени - такие сайты выглядели слишком оптимизированными и не проходили через фильтр.

едва позже ситуация ещё более усугубилась. Выглядело все так, как словно Google ещё сильнее ужесточил условия фильтра, и по ряду запросов вместо списков коммерческих сайтов начали выдаваться информационные сайты, сайты правительственных учреждений и страницы больших каталогов.

Это повлекло за собой выпадение из итогов поиска сайтов, коие находились там в течение нескольких лет и целиком подпадавших под воздействие фильтра - в самом деле, так как ничего необычного, что главное слово содержится в доменном имени, наименовании компании и, соответственно, и ссылки на такой интернет-сайт будут ставиться с упоминанием этого слова.

враз было замечено, что речь, собственно, идет не о процессе апдейта базы, а о новом алгоритме. Дело в том, что, в случае если при запросе по привычному набору главных слов итоги поиска были новыми, то попытка уточнить запрос с поддержкой оператора исключения ( - любое слово) неизменно приводила к демонстрации давних результатов поиска.

попытаемся разобрать данный случай подробнее. Задается запрос из одного или же двух слов. потом к нему добавляется любое слово, необязательно существующее в действительности. Естественно, так как по умолчанию Google изготовляет поиск с оператором AND, число страниц основательно уменьшится или, в случае выбора несуществующего слова, станет равно нулю. в случае если же сейчас мы попытаемся применить оператор исключения с несуществующим словом - т.е. исключим из области розыска страницы, содержащие такое слово, а их нет, как мы уже убедились, - то итоги поиска, хотя, по логике, обязаны совпадать с первоначальными, в действительности будут слишком серьезно отличаться.

Версий, так или же иначе объясняющих новые итоги поиска, выдвинуто достаточно. Остановимся на 2-х из них.

Теория SEO-фильтра

В соответствии с ней, все происходящее есть итог применения Google разных алгоритмов, направленных на очистку итогов обычного, т.н. “алгоритмического”, розыска от влияния манипуляционных техник, применяемых оптимизаторами.

трезво предположить, что более пострадавшими от таких приемов оптимизаторов встанут наиболее увлекательные в коммерческом отношении слова. Этим теория разъясняет явную избирательность работы фильтра, так как далеко не все коммерческие требования оказались задетыми апдейтом.

Google весьма под силу квалифицировать “коммерциализованность” запросов - так как в его постановлении громадная их библиотека, составленная самими вебмастерами - Google AdWords. Логично предположить, что, в случае если по определенному запросу имеется некоторое количество объявлений, то данный запрос с высокой вероятностью является увлекательным с коммерческой точки зрения, а, следовательно, есть значение более заботливо посмотреть на сайты, коие присутствуют в итогах поиска, и отфильтровать слишком оптимизированные.

Google еще может предопределять переоптимизированность сайтов с поддержкой своего тулбара. Очевидно, что, в случае если посетители, переходя на сайт, задерживаются на нем ненадолго, то интернет-сайт не весьма отвечает их ожиданиям, следовательно, его релевантность не так высока. Напомним, что при аппарате тулбара Google приглашает включить расширенную функциональность плагина, которая предусматривает отсылку данных на серверы Google.

В постановлении Google имеются еще несколько запасных алгоритмов, коие так или же иначе имеют все шансы использоваться для определения реальной “авторитетности” сайтов.

Ряд знатоков в рамках дополнений к этой теории высказывают еще мнение, что одной из причин использования фильтра является хотение Google заставить вебмастеров приобретать платную рекламу на итогах поиска. такие настроения не являются новыми - довольно вспомнить, что любое редактирование в выдаче Яндекса вызывает элементарно шквал обвинений в попытках принудить купить контекстную рекламу со стороны вебмастеров. При данном вебмастеры нечасто учитывают в своих доводах тот факт, что поисковые системы как раз имеют все шансы с той или же иной степенью точности квалифицировать релевантность выдачи или, в больше простом случае, степень удовлетворенности пользователей итогами поиска.

Впрочем, основная масса специалистов сходятся на мысли, что вряд ли аналогичный эффект был целью знатоков Google. итоги манипуляций оптимизаторов давным-давно и достаточно публично обсуждались и, даже в случае если последний апдейт и привел к увеличению объемов размещения контекстной рекламы, то это быстрее побочный эффект.

LocalRank, Hilltop, стемминг и другие

Вторая версия происходящего озвучена крупнейшим в мире специалистом по оптимизации - Дэнни Салливаном. Он указывает на кое-какие технологии, имеющиеся в постановлении Google, и готовит вывод, что происходящее - итог их хотя бы частичного внедрения.

Для начала поясним сущность этих технологий.

LocalRank - это сравнительно новая разработка знатоков Google, защищенная патентом и базирующаяся на идее PageRank. В упрощенном виде, LocalRank близка к идее тематического PageRank, на величину которого обязана оказывать не лишь абсолютная авторитетность страниц, но и близость тематик этих страниц. Собственно, LocalRank основывается на подсчете цитируемости страницы не по всем страницам, популярным поисковику, а только по тем, коие найдены по конкретному запросу. собственно так поступает Teoma, в свое время сумевшая составить уникальный алгоритм расчета такого параметра на лету.

аналогичная технология подлинно обеспечивает защиту итогов поиска от манипуляций со ссылками - в частности, от расстановки ссылок на любых ресурсах, безотносительно к их тематике. На первый план при ней выйдут ссылки с тематических сайтов. впрочем ресурсоемкость такой технологии тяжело переоценить. Речь идет о расчете локального для предоставленного запроса параметра - отсюда наименование LocalRank - на лету при ранжировании сайтов.

Hilltop - это наименование другого алгоритма расчета ссылочного цитирования, который основывается на определении группы экспертных сайтов и учета ссылок с них с большущим весом. В классическом облике этот алгоритм не предусматривает учета каких-либо иных ссылок вообще - он элементарно не отдает никаких итогов при узких запросах, неохваченных экспертными наборами сайтов. Это еще позволяет вывести из рассмотрения многочисленные мусорные ссылки и ceти сайтов, перелинкованных меж собой.

Стемминг, или же говоря иначе, учет при розыске различных форм одного слова и производные от него слова, запущен Google в ноябре месяце и также вполне может оказывать воздействие на итоги поиска.

Дэнни Салливан на этой неделе высказал предположение, что все эти алгоритмы уже запущены Google и работают, хотя, возможно, и в ограниченном или упрощенном виде. При данном именно LocalRank ответственен за большую часть изменений - так как вряд ли кто сумеет заявить, что итоги стали резко нерелевантными, хотя из итогов поиска и исчезли сайты, набравшие PageRank за счет ссылок с самых разных ресурсов. Ограниченность же изменений вызвана собственно ресурсоемкостью алгоритма - Google элементарно не может себе разрешить применить его на больше широком поле запросов. Этим же вызван феномен с минусованием слов - так как фактически всякий расширенный запрос обозначает многократный поиск, использование расширенного запроса выключает наложение LocalRank.

Тот факт, что зачатки Hilltop давным-давно используются Google, сомнению не подвергается - давным-давно известно, что ссылки с DMOZ и Yahoo используют особым интересом Google.

Стемминг же может подействовать на итоги поиска безусловно иначе - он элементарно расширяет запрос, фактически подключая в него слова в разных формах, и, по-видимому, точность словоформы необязательно имеет предпочтение перед другими причинами релевантности.

При данном Салливан не исключает, что Google может еще использовать те добавочные факторы ранжирования, о коих мы говорили в предыдущем разделе. Тем более, отмечает он, что представители Google, раньше отрицавшие применение данных тулбара в ранжировании, сейчас просто отказываются от комментариев на эту тему.

Что дальше?

Я склонен больше доверять версии Салливана. сначала всего потому, что теория с фильтром на деяния оптимизаторов страдает одним - непродуманностью подхода и искусственностью мер. помимо того, в рамках этой теории непросто объяснить, отчего столь ограничена область использования фильтра - ведь, наладив работу фильтра на 500 запросах, его с легкостью можно наложить на всю массу запросов.

Салливан цитирует слова одного из разработчиков Google, который мимоходом подтверждает использование новых алгоритмов и добавляет, что в течение ближайших 2-х месяцев будут введены ещё несколько алгоритмов, коие позволят одержать победу влияние поискового спама на итоги поиска.

Ряд знатоков высказывают предположение, что Google применяет методику фильтра Байеса, который уже широко используется в борьбе с почтовым спамом.

коротко рекомендации знатоков в сложившей ситуации можно свести к банальному предложению делать сайты для людей, а не для поисковиков. больше детальные совета еще предстоит выработать, хотя уже теперь ясно, что замен ссылками с сайтами, близкими по тематике и обладающими ненулевой авторитетностью, в множестве случаев предпочтительнее клубов обмена ссылками.