12 ЗАПОВЕДЕЙ РАСКРУТКИ В ПОИСКОВЫХ МАШИНАХ

Если вы пойманы за "грешки" против поискового сервера, то рискуете понести одну из нескольких степеней наказания:

1. Страница помечается красным для больше пристального исследования      рецензентом.

2. Снижается ранжирование страницы.

3. Негодная страница исключается из поисковой базы.

4. Поисковый сервер запрещает интернет-сайт полностью.

Большинство поисковых машин неопределенно относится к тому, что же считать спамом. К тому же алгоритмы поисковых машин непрерывно меняются. Вы можете сказать, что замечали, что для одних это является приемлемой игрой, а для иных - спамом. Разница состоит в степени и намерении это использовать.

Несмотря на неуправляемую двусмысленность, мы полагаем, что обозначили 12 заповедей, по коим вы обязаны жить.

Поисковые машины не стремятся обслуживать страницы - дубликаты или же похожие страницы. кое-какие неэтичные веб - профессионалы затопляют поисковый сервер тысячами сходных страниц, стараясь доминировать над каждым линком розыска по главным словам, относящихся или же не относящихся к их сайтам. очень многие машины деятельно ищут оглавление и пропускают (или понижают в ранжировании) страницы или же домены с слишком похожим контентом.

К сожалению, эти механизмы вычисления обманщиков имеют все шансы ловить и тех, кто и не старался создавать дублирующий контент. В свое время даже общеизвестный Amazon.Com был нечаянно запрещен Альта-Вистой. Дело в том, что очень многие филиалы Амазона имели подобные страницы с описанием книг, и dup-checker Альта-Висты понижал такие страницы до тех пор, покуда кто-то не пожаловался.

Многие сайты-каталоги предлагают аналогичные продукты со подобным описанием. Вы не старались делать спам, но паук поискового сервера может рассудить иначе. потому убедитесь, что скорректировали содержание своих описаний в наиболее возможной степени. в случае если вы все же беспокоитесь, что паук может прийти к ложным заключениям, добавьте произвольное пустое пространство и "благоприятные" тэги к странце, дабы поменять размер файла. Вы можете поменять свои мета-тэги, альт-тэги, заголовок и так далее.

Если вы формируете разные версии страниц, настроенные для всякого поискового сервера, то можете привлечь нежелательное интерес механизма отслеживания обманщиков (dup-checker). Можно применить протокол robots.Txt для предотвращения индексации страниц, специализированных для поисковой машины А, для поисковой машины В и так далее.

Возможно, что это самая огромная из всех заповедей: не искажайте личный сайт! в случае если вы оптимизируете страницу для главных слов, коие имеют мало общего с тем, что посетитель увидит на странице, то напрашиваетесь на неприятности. Для справки. Для того, дабы находить соответственные целевые главные слова, я советую сервис WordTracker.

Поисковые машины не доверяют скрытым главным словам. При всем при том, что машины типа Google будут произносить о категорическом запрете на сокрытые главные слова, они обязаны мириться с реальностью. Например, за главные слова в мета - тэгах, даже при том, что они скрыты, вас не запретят и не пометят как спаммера. То же самое и с другими скрытыми областями наподобие тэгов alt, noframes, URL гиперссылок и комментариев. Сокрытие же главных слов с применением текста под краска фона рассматривается как очевидный спам.

Некоторые веб-мастера лишь немного изменяют код цвета, дабы не обнаружилась их уловка, но, применяя эту стратегию, вы берете на себя риск.

В клоакинге концепция сокрытия доведена до крайности. в случае если говорить упрощенно, то клоачное программное снабжение предъявляет одну страницу посетителю, а другую - поисковому серверу. Оно действенно скрывает действительную страницу, индексируемую поисковиком, от посетителя.

Если вы когда-нибудь натыкались на страницу, которая, так или же иначе, не занимала высоких позиций без каких-либо бесспорных причин, то это, быстрее всего, клоачная страница. Этика и угрозе практики клоакинга горячо обсуждаются в кругах маркетинга поисковых серверов в течение ряда лет. основная масса поисковых машин сегодня высказывается против клоакинга.

Однако данная практика продолжает процветать, оттого что поисковые серверы проводят слабую работу по обнаружению и штрафованию сайтов, практикующих клоакинг. Google сделал заявление о том, что улучшил способы обнаружения клоакинга, так что остерегайтесь.

Если вы набиваете в свою страницу чересчур много главных слов, то можете иметь проблемы за спам. Худшее нарушение - множественное повторение одного и такого же слова в строке. Но и злоупотребление вашим главным словом может понизить ваше ранжирование. Есть ли чародейное число? Оно варьирует, в зависимости от пространства страницы и от поискового сервера. WebPosition Page Critic несомненно поможет вам остаться в пределах привилегированных ранжирований поисковых машин.

Некоторые веб-мастера стараются скрыть "уродливое" оглавление страниц, специализированных для поискового сервера. Как лишь на такую страницу попадает посетитель - человек, он станет переадресован к реальной странице через мета - тэг Refresh (например: <META HTTP-EQUIV="Refresh" CONTENT="подождите 5 секунд; URL=http://ваш сайт"> - М. Д.), ява-скрипт или же иной трюк. В собственной основе, это слабая версия клоакинга.

Если поисковый сервер решит, что ваша мишень состояла в том, дабы облапошить его, то он может запретить вашу страницу. Но, так как существует очень много законных причин переадресовать страницу, наподобие случая, когда интернет-сайт перемещен, то поисковые машины как правило избегают резких наказаний. Вместо этого они как правило индексируют лишь страницу, к коей был переадресован пользователь.

Большинство фирм пытается пародировать основным элементам страниц, окружающих на верху результатов по поисковым запросам, дабы повысить ранжирование собственное. Это безусловно приемлемая стратегия. впрочем неэтично копировать целый текст и HTML топ - страниц у одного из своих конкурентов, размещая все это на своем сайте. дабы не быть пойманными на этом, очень многие скрывают информацию о личной компании. сначала чем вы начнете мыслить о том, что это блестящая идея, имейте в виду, что это нарушение законов об авторском праве в множестве стран! наилучший способ выявить страницу, сворованную на вашем сайте, - установить программу WebPosition. тогда вы сможете испытать уникальную фразу или же иную строку, содержащуюся на ваших страницах, которая, по-вашему, не может быть найдена ещё где-либо в ceти Интернет. WebPosition скоро покажет все страницы, отысканные в соответствии с запросом, и заприметит подозрительные страницы.

Спросите у всякого администратора поискового сервера, что он размышляет о дорвеях, и его первая реакция станет зачастую отрицательной. в случае если вы оптимизируете свою страницу, то поисковые машины начинают опасаться, не намереваетесь ли вы зайти чересчур вдали или не сделаете ли чего-то такого, что может повредить опыту розыска их посетителей. потому хорошая идея - избежать применения страниц - дорвев, входных страниц и так дальше (существует полдюжины терминов), использующихся для взаимосвязи с поисковым сервером.

К дорвеями мы относим всякую страницу, разработанную с целью взять в долг неплохое место в поисковом сервере и деятельную как дверной проем или же вход на ваш сайт. Но когда мы раскрываем любую страницу итогов машинного поиска, то она действует как дорвей к найденному сайту, преднамеренно или случайно! Очевидно, все эти страницы не были спамом?

К чему все это сводится? Важно не то, как вы именуете страницу, а важно, какой контент она содержит и как вы намереваетесь ее продвигать. в следствии негативного стереотипа, вкладываемого в термин дорвей, я нахожу предпочтительным создание "дружественных к поисковым серверам" страниц, нежели дорвеев. Таким образом вы минимизируете возможности для недоразумений.

Вы обязаны создать ссылки, коие "путешествуют" от вашей домашней страницы до всех иных страниц, подлежащих индексации. в случае если у вашей оптимизированной страницы есть лишь исходящие ссылки и никаких входящих, вы рискуете быть оштрафованным поисковым сервером за такую страницу, "пахнущую" как "однонаправленный" дорвей или же входная страница. Хотя это чуть ли запретит ваш сайт, но может мешать индексации страницы или же высокому ее ранжированию.

Взаимные ссылки - великолепное средство для усовершенствования ваших ранжирований. впрочем будьте опасливы в соединении с услугами "питомников ссылок", специализированных для искусственного раздувания вашей линк популярити. Google и, в меньшей степени, другие поисковики, как сейчас говорят, заносят в черный перечень сайты "link farm". в случае если вы поймаетесь на связях с такими сайтами, то будете признаны виновным.

В многократной повседневной регистрации вашего URL нет ни малейшего прока. В то время как основная масса поисковых серверов, как полагают, неохотно запрещает неоднократно регистрируемые сайты, но они с удовольствием игнорируют сабмиттинг сайтов, коие превышают их лимиты. К сожалению, они нечасто сообщают о размерах своих лимитов и нечасто предупреждают, когда вы превышаете эти лимиты. Программа WebPosition Gold, поддерживающая основание данных лимитов безопасного сабмиттинга, способна предотвратить вас, в случае если вы стараетесь превысить эти ограничения.

Поисковые машины недолюбливают страницы с незначительным или же бесполезным содержанием, оттого что такие страницы приносят неудобства их постоянным пользователям. обычно интернетовские коммерсанты настолько заняты усовершенствованием позиций своих страниц, что забывают об эстетике, богатом содержании и дружественности. не обращая внимания на то, что у поисковых серверов нет чародейного маркера для фильтрации "мусорных" страниц, все точно также желательно следовать этой заповеди. Что неплохого в том, дабы привести посетителя на интернет-сайт только затем, дабы тот через миг ушел прочь разочарованным?