Поисковая оптимизация: от внешнего к внутреннему

Что самое тяжелое в работе оптимизатора? Вопрос риторический. Для профессионала, будь то вакантный специалист или же целая компания, вывод интернет-сайта по перспективным запросам на первую страницу или же в первую пятерку - не проблема. Это - стандартные трудовые будни. Никто и не обещал, что станет легко. А вот когда клиент, вложивший в продвижение собственного ресурса немалые средства, замечает, что «за один день и бедственную ночь» его интернет-сайт вывалился за пределы первой двадцатки, начинаются реальные проблемы. Как разъяснить человеку, что все его вложения аннулированы одним-единственным фактором: незначительной сменой поискового алгоритма, каким-то крошечным новшеством в учете наружных факторов?

Раньше всё было проще. Тогда, на заре интернет-бизнеса, поисковые машины были не больше разумны, чем, например, функция розыска в «Ворде». Впрочем, и Всемирная Сеть была не такой уж и глобальной, и пользователь мог решить задачу розыска нужной информации элементарным перебором дословных совпадений. тогда и в самом деле можно было за адекватное время пересмотреть все сайты соответственной тематики. давным-давно это было…  

Потом пришли первые оптимизаторы. Назывались они когда-то по-другому, но разве теперь это важно? Пришли оптимизаторы, и работа ископаемых поисковиков была парализована. облапошить кондовые алгоритмы оказалось не просто, а слишком просто, чем новоявленные бизнесмены и пользовались. Пользователи поисковых систем, однако, новшество в должной мере не оценили. Так и началась беспрецедентная гонка поисковиков и оптимизаторов - гонка, выгодная для обеих сторон. Кроме, разумеется, владельцев сайтов.

Найти контент, наиболее соответствующий поисковому запросу (то есть, содержащий информацию, необходимую пользователю поисковика) - задача, к решению коей можно подойти с самых различных сторон. Можно идти вдогон за оптимизаторами (напомним, речь идет о наших предках - об оптимизаторах, главная задача коих заключается в подлоге поисковых машин) и «учить» поисковые алгоритмы различать самые известные методы «накруток». Это делалось и делается до сих пор: очень многие белые способы оптимизации на наших очах приобретают серый оттенок, а затем и совсем чернеют. Можно гипнотизировать какие-то добавочные факторы, например, критерии оптимизации, исключающие вероятность обмана, и наружные показатели вроде индекса цитируемости, позволяющие (в идеале) оценить «авторитетность» ресурса. Это также делалось и делается. Проблема в другом: и разработчики поисковых систем, и оптимизаторы, все понимали, что это - только костыли, позволяющие урегулировать какие-то приватные проблемы, и совместно с тем открывающие дорогу для задач новых.

Казалось бы, явление безусловно очевидное и предсказуемое. Но лежащую на поверхности истину, гласящую, что магистральный дорогу развития розыска в интернете - совершенствование алгоритмов анализа самого текста, - мало кто воспринял всерьез.  

Многие специалисты, по долгу службы или же по велению сердца отслеживающие все веяния в этой области, серьезно насторожились не так давно, возле года обратно - когда стало очевидно, что Google коренным образом сменил алгоритмы ранжирования. Сайты, владеющие хорошим контентом, очень быстро полезли вверх, вытесняя неплохо оптимизированные, состоятельные внешними ссылками ресурсы куда-то в подвал. Это подметили все, кого хоть сколько-нибудь интересует этот вопрос. подметили - и пожали плечами. Да, Google, при всей собственной популярности, «продажного» трафика практически не дает. или же дает, но в количествах, несопоставимых затратам на оптимизацию под прогрессивный алгоритм.

Всё бы это было, наверное, правильно, в случае если бы не один нюанс: неплохо известно, что собственно Google идет в авангарде поискового прогресса. И алгоритмы, используемые этим поисковиком, рано или же поздно вынуждены копировать разработчики других, больше коммерциализированных поисковых машин. В том числе и всенародно любимого Яндекса. И для тех оптимизаторов, коих этот интересный момент не обошел стороной, внезапное «падение» в Яндексе сайтов с высоким показателем цитируемости неожиданностью не стало. Поисковые алгоритмы совершенствуются и всё меньше нуждаются в «костылях» наподобие учета наружных факторов. 

Дальше будут неожиданности. Или, напротив, весьма предсказуемые перемены - в зависимости от уровня информированности наблюдателя. Задача, стоящая перед поисковиком - сыскать контент, наиболее релевантный запросу, - станет решаться всё лучше. И роль технических обстоятельств в самом обозримом времени станет сведена к минимуму. Поисковые машины, подключая Яндекс, всё больше уверенней различает хороший контент от плохого. добрый - разумеется, в контексте запроса.  

Характерно, что для этого поисковая машина совсем не обязана обладать искусственным интеллектом. Всё намного проще: миссия может быть благополучно решена (и уже решается тем же Гуглом, в меньше степени - Яндексом) при поддержке обыкновенного контекстного анализа. Скажем, релевантность текста запросу «Наполеон» может быть вычислена элементарно на базе анализа слов и словосочетаний, более часто употребляемых в данном контексте. Например, «торт», «полководец», «коньяк», «император». Так, текст, рассказывающий о Наполеоне Буонапарте, станет несравнимо больше релевантен, чем повествование о новом ресторане «Наполеон». А разве не этого хочет пользователь, набравший «наполеона» в строке поисковика?

Преимущество способа контекстного анализа текста заключается в том, что углублять его можно до бесконечности - разрешали бы машинные ресурсы, да была бы обширная основа данных. Контекстные базы пополняются день за днем, да и с ресурсами у больших поисковых систем задач особых не возникает. А это означает, что уже в самом обозримом времени роль наружных факторов и даже метатэгов может быть низведена буквально до нуля. Поисковик получает вероятность работать с контентом напрямую, всё больше уверенно отличая качественный информативный текст от «мусора». Так что у нас есть все основания полагать, что недалек тот день, когда мнения «оптимизация» и «разработка контентного наполнения» встанут синонимами.

Надолго ли - господь его знает. быстрее всего, надолго. Может быть, совсем - в случае если в постановлении оптимизаторов не попадут полные и надежные контекстные базы, что буквально исключено. А следовательно, единственная способ поискового продвижения сайтов, которая выживет в новых условиях, единственная методика, на коию стоит делать ставку - это SEO-копирайтинг.

По крайней мере, мы в данном твердо уверены.

Евдокимов Николай Владимирович

С 2003 года является коммерческим директором и совладельцем “Лаборатории Контента”. между клиентов — РИА РосБизнесКонсалтинг, М-Видео, Эдил, РУСКАРТ, Федеральный кадастровый центр, группа фирм ПИК. До 2003 г. — зам. директора по маркетингу издательского объединения “Аванта+”.

Перепечатано