Великолепная пятерка среди поисковиков
В статье автор открывает основные принципы и подходы к оптимизации веб-сайтов для поисковых машин.
триумф веб-сайта наступает не с поисковой машины, а с наполнения вашего интернет-сайта и верно выбранной оптимизационной стратегии. Не много пользы доставит засевание поисковиков линками сайта, в случае если на сайте не навсегда четко описано то, что вы предлагаете, и кому вы это предлагаете. Как лишь вы определитесь с вашими поручениями и целевой аудиторией, можно начинать.
Итак, первое, что нам надо сделать — составить перечень услуг и сделать свой выбор с аудиторией.
Перед тем, как начинать свою кампанию, у вас надлежит выработаться четкое представление о том, чего вы желаете достичь. Это может быть или повышение трафика на вашем сайте, или увеличение численности новых посетителей, или же же увеличение процента целевых заходов, то есть численности клиентов.
за пределами зависимости от размера вашего бюджета, расходы и стремления должны быть соизмеримыми с ожидаемой результатами, то есть вы обязаны реально оценить возможности достижения установленных результатов. Проделайте надлежащую процедуру: примерно оцените что каждый новый посетитель может доставить вам и поставьте настоящее желаемое численность посетителей. Из этих 2-х цифр выведите наибольший лимит затрат на вашу Интернет-кампанию. пытайтесь не гораздо превышать эти затраты, так как в случае, в случае если по той или же иной причине кампания не удастся, вы вряд ли сможете их себе вернуть.
Тщательно выбранные ключевые слова являются осевой частью всякий Интернет-кампании. ключевая цель здесь — верно предвидеть поисковые фразы, коие будут использованы вероятными посетителями сайта. главная причина того, что кое-какие хорошо сделанные и продуманные сайты не добиваются известности — неправильное применение ключевых слов.
Подумайте о том, что более точно описывает ваш вид деятельности, и что различает вашу деятельность от ваших конкурентов; какие слова описывают ваши услуги, месторасположение, трогают потенциальных покупателей и их интересов.
Составьте перечень слов, коие описывают ваш сервис. Задайте по ним розыск на популярных поисковиках и заботливо изучите полученные результаты. Просмотрите сайты ваших ключевых конкурентов в предоставленной области и подсмотрите в коде их страниц как это реализовано у них.
Overture предоставляет слишком ценную даровую услугу по розыску ключевых слов, коие встречаются чаще всего в комбинации с заданным, и сколько раз это слово искали на протяжении минувшего месяца. фирма Wordtracker приглашает аналогичную услугу, с некоторое количество расширенными возможностями, но уже за умеренную плату. Программа Page Promoter изготовления компании NetPromoter содержит модуль, который сооружает список главных слов по результатам анализа розыска на главных поисковых сайтах.
Разбейте оглавление вашего интернет-сайта на ясно очерченные страницы и секции, коие представляют наиважнейшие тематики. Разработайте карту сайта. любая страница обязана называться поэтому ключевому слову, на которое она направлена. Отталкивайтесь от составленной карты при создании сайта. Не прячьте главные страницы слишком глубоко. Разместите навигационные ссылки так, дабы минимизировать численность кликов при переходе от одной страницы на другую. Для сайта, содержащего, например, сто страниц нетрудно создать так, дабы одна страница была не дальше, чем в 2-х кликах от другой. Дело в том, что кое-какие поисковики индексируют лишь несколько первых страниц сайта, таким образом, в случае если вы сделаете навигацию как можно проще, вы облегчите им розыск и индексацию других страниц.
Если интернет-сайт содержит страницы, не имеющие отношения к основному назначению сайта, скажем, для другого рода вашей деятельности, их лучше разместить под другим доменом.
Основные методы для привлечения как роботов, так и людей, совпадают. И те и другие высоко оценят ваш сайт, в случае если он неплохо организован и насыщен полезной информацией.
В идеале любая страница обязана содержать надлежащие тэги: TITLE, DESCRIPTION и KEYWORDS. Тэг TITLE (заголовок) имеет максимальный вес при индексации. оглавление именно этого тэга выводится в итогах поиска, а следовательно, не лишь роботы, но и люди стремительней обратят интерес на грамотный и неплохо написанный заголовок. Заголовок обязан быть кратким и, при возможности, содержать главные слова. Не поддайтесь искушению внести наименование своей фирмы или начать заголовок с доброжелательного «Добро пожаловать…». ещё худший эффект станет иметь игнорирование этого тэга.
Тщательно оформите мета-тэг DESCRIPTION, так как именно данный тэг станет сопровождать наименование вашего интернет-сайта в множестве результатов поиска. Он обязан быть кратким — не более 150 символов, и как можно больше интересным. Повторите оглавление тэга TITLE и насытьте главными словами.
В последнее время вебмастера все более и более пренебрегают мета-тэгом KEYWORDS, ссылаясь на то, что поисковые роботы не индексируют их и не применяют в своем алгоритме при оценивании. Это не так. Действительно, Google не проиндексирует в данный тэг, в случае если в тексте страницы он не повторяется, так как начинка тэга главных слов словами на порнографическую тематику — один из распространенных методик спамирования, а знатоки поисковиков пытаются оградить людей от спама. Итак, как верно отформатировать тэг KEYWORDS? В принципе, основная масса поисковиков не учитывают регистр, но предпочтительно, дабы все слова были в нижнем регистре, так как поиск, как правило, делается собственно в нижнем регистре. Не следует дублировать слова с большущий и малой буквы, к примеру «Компьютер,компьютер» так как это станет воспринято как попытка искусственно повысить значимость слова. Разделяйте слова запятыми или же пробелами. При делении слов комами каждое слово станет учитываться отдельно. в случае если вы разделяете слова пробелами, то поисковик станет самостоятельно составлять фразы из слов. Правда, это гораздо легче осуществить в английском языке, где нет спрягаемых окончаний.
Первый же заголовок на странице обязан в той или же иной форме обыгрывать содержимое тэга TITLE — это важно придаст странице релевантности. хорошо бы почаще применить тэги заголовков H1-H3 для помещения в них главных слов. Это тем более важно для тех поисковиков, коие не учитывают или же придают мало смысла мета-тэгам.
Когда вы организовываете навигацию внутри сайта, делайте ссылки, ведущие к заголовкам. любая ссылка к тематически релевантному заголовку додает веса странице в целом. Так же обратите интерес на сам текст ссылок. Это ещё одно место, где главное слово станет иметь больший вес, чем в обычном тексте.
Изображения будут проигнорированы поисковиками, а вот альтернативный текст изображений — нет.
Не применяйте фреймы. кое-какие индексирующие роботы все ещё не научились их распознавать, и порой при просмотре итогов поиска по ключевому слову вы можете увидеть в них известие «Ваш браузер не поддерживает фреймы». Это вовсе не значит, что ваш браузер не поддерживает фреймы, это — всего только ответ, который получил поисковый робот при запросе некий страницы, содержащей фреймы. буквально невозможно указать дорогу к странице внутри фреймсета. Вебмастера пытаются обойти эту проблему, регистрируя на поисковике страницы, содержащие фреймсеты, но опять же, фреймовые страницы, состоятельные на содержание, имеют все шансы остаться непроиндексированными. в случае если же они и будут проиндексированы, то посетитель, пройдя по ссылке увидит не цельный фреймсет, а отдельный файл.
Также, следует сторониться чрезмерного применения JavaScript. Роботы не умеют отличать ссылки внутри JavaScript, в различие от нормальных посетителей, коие без задач проходят по такой ссылке. меж специалистами по веб-оптимизации ведется длинная дискуссия о том, в каком собственно месте страницы размещать код JavaScript. обычно вебмастера размещают код в пределах тэга HEAD. есть ли для этого какие-либо критерии разметки, или же его можно помещать где угодно. Каждый, кто когда-нибудь имел дело с JavaScript знает, что его можно размещать где угодно. Размещение же в тэге HEAD облегчает работу вебмастеру, но лишь не роботу. Вопрос состоит в том, как упростить роботу индексацию страницы, например, в случае если там располагаться несколько строк текста и сотня-другая строк кода JavaScript. так как робот обязан исследовать страницу от начала и до закрывающего тэга /HTML, следственно не имеет значения, где станет находиться JavaScript в коде HTML. Облегчить это поручение можно, поместив JavaScript в отдельный файл — он формируется в всяком текстовом редакторе и имеет расширение .Js. В заголовке страницы помещается только ссылка на данный файл:
Похожая ситуация обстоит и с Flash объектами. Я наблюдал сайты, навигация в коих осуществляется исключительно через Flash. итог — интернет-сайт остается целиком непроиндексированным. В лучшем случае поисковик выдает ссылку на домашнюю страницу сайта, далее же робот пройти элементарно не смог. Такая страница расценивается как dangling page — страница не содержащая наружных ссылок, и оценивается слишком низко. Избежать такой ситуации можно продублировав все ссылки в HTML-коде где-нибудь, скажем, внизу страницы.
Каскадные стили CSS так же рекомендуется выделять в отдельный файл. Это гораздо упрощает разметку страницы, готовит ее больше ясной, и экономит трафик. Можно запретить индексацию роботами этих файлов применяя robots.Txt — особый файл, помещаемый в корневом каталоге интернет-сайта и содержащий инструкции для роботов по индексации.
Каждая страница вашего интернет-сайта может оказаться входной страницей, то есть, в случае если робот ее оценит высоко, посетители будут притащиться к вам собственно через нее. потому следует наиболее тщательно обрабатывать каждую страницу. вначале испробуйте данные совета но нескольких страницах и испытайте их эффективность для вашего сайта. в случае если вы оптимизируете уже готовый сайт, а не формируете новый, вам имеют все шансы пригодиться кое-какие инструменты для оптимизации.
Регистрация на поисковых сайтах и директориях
Давайте незамедлительно же выведем различия меж тремя понятиями, коие постоянно путают, но которые, тем не менее, все же следует различать:
Поисковая машина. Это основа данных, которая применяет поискового робота, для изучения всемирной паутины. При оценивании релевантности интернет-сайта робот использует алгоритмом, популярным только его создателям. данный алгоритм, к тому же, непрерывно меняется, потому некоторые фирмы специально занимаются отслеживанием алгоритма поисковиков, в особенности же Гугла. Поисковая машина может обслуживать некоторое количество поисковых сайтов.
Поисковый сайт. Это веб-сайт, который использует результатами розыска поисковой машины. Он не непременно имеет собственного поискового робота, и может пользоваться данными нескольких поисковых машин и каталогов.
Веб-каталоги. Это базы данных сайтов, составляемые и редактируемые людьми, работниками фирмы или добровольцами, как в случае Open Directory (DMOZ). главная цель в существовании каталогов — предоставить людям непредвзятую беспристрастную информацию и оградить от спама. недочет — слишком долгий период времени, который проходит меж тем, как вы подали интернет-сайт на регистрацию, и появлением интернет-сайта в индексе каталога. Остановимся на нескольких более достойных интереса поисковых машинах и каталогах.
Согласно статистике фирмы OpenStat, состоянием на ноябрь 2003 года, рейтинг более популярных поисковых машин представлял собой следующее:
1. Google 56.1%
2. Yahoo 21.5%
3. MSN Search 9.4%
4. AOL Search 3.7%
5. Terra Lycos 2.3%
6. Altavista 1.9%
7. AskJeeves 1.6%
О том, что Google крепко укрепился на первом месте по известности вряд ли стоит говорить. данная компания, основанная двумя студентами Стенфордского университета, и которая только в сентябре 1999 сняла сигнал бета-версии со собственного веб-сайта, теперь осуществляет розыск по трем миллиардам веб страниц и готовит более 50 процентов всего трафика всякого веб-сайта.
Поисковая машина в собственной работе использует технологией PageRank главные принципы работы коей кратко изложены на веб-сайте Гугла. любая ссылка на интернет-сайт считается «голосом» за данный сайт и, соответственно, способствует ему поднять рейтинг. При данном оценивается не лишь сайт, к коему ведет ссылка, но и сайт, на котором располагаться ссылка, то есть оценивается релевантность интернет-сайта данной тематике. Под релевантностью следует воспринимать соответствие содержания интернет-сайта объявленной тематике. То есть, поисковая машина считает содержание страницы, содержимое мета тэга DESCRIPTION, и некоторое количество абзацев текста. Тэг KEYWORDS станет проигнорирован, она сама решит какие слова для предоставленной страницы являются ключевыми, проанализировав частоту повторений определенной фразы в тексте. Тем не менее, мы упорно рекомендуем не отказываться от этого тэга, так как другие машины все ещё пользуются им при оценке релевантности страниц. Также, следует обратить интерес на так званную «заметность, или же броскость» главных слов (keyword prominence). своеобразную важность будут иметь заголовки, заключенные H1-H3, слова выделенные полужирным шрифтом, а еще текст гиперссылок. Также, предполагается, что определенный авторитет будут иметь слова в альтернативном тексте изображений (атрибут ALT).
В Интернете есть множество публикаций, посвященных разгадыванию алгоритма. В последнее время много говорится о том, что Гугл оценивает не лишь количество ссылок, но и качество. Определив тематику страницы или же сайта по собственным собственным правилам, Гугл станет оценивать схожесть тематики вашего интернет-сайта и сайтов, коие содержат ссылки на ваш. Ссылки с сайтов со подобной тематикой будут оцениваться выше, чем случайные ссылки. Поэтому, как-то эффективный способ публикации ссылок на так именуемых «фермах» линков (FFA farms), где ваш сайт, пребывая кое-какое время в складе данных, мог быть замечен роботом и проиндексирован, теперь практически не приносит желанных результатов. Для этого есть некоторое количество причин. для начала в последнее время возникло много программ самодействующей регистрации, коие забросят вашу ссылку на тысячи ферм одновременно. так как тысячи людей во всем мире используют такими программами, время присутствия вашей ссылки в складе данных важно сокращается. Ваша гиперссылка просто «вытесняется» новыми регистрациями. Во-вторых, даже в случае если GoogleBot и наткнется на вашу ссылку, то ее ценность станет очень невысока, так как тематику таких ферм нельзя определить.
Yahoo! является самым старым поисковым порталом и располагаться на втором месте в последствии Google по популярности, хотя ещё несколько лет обратно казалось, что данный поисковый портал крепко посел 1-е место в поисковом рейтинге популярности. Он имеет свою директорию, регистрация в коей вам станет стоить 299 долларов, при чем, оплата ещё не ручается вам занесения в каталог. в случае если вы согласны уплатить данную сумму, то вам гарантируют, что интернет-сайт будет рассмотрен в течении семи бизнес-дней. На протяжении семи дней редактор директории побывает ваш интернет-сайт и решит, довольно ли ваш интернет-сайт актуален и увлекателен для того, дабы быть зарегистрированным. в случае если вы не готовы заплатить, то вы все же можете подать личный сайт на рассмотрение, но это одолжит намного более времени — от нескольких недель до полугода. Единственное, что мы можем посоветовать — сделайте личный сайт как можно больше информационно насыщенным и скрупулезно выберите категорию, в коей вы желаете зарегистрировать сайт. И последнее — не старайтесь регистрировать интернет-сайт на порнографическую тематику — Yahoo! элементарно не принимает на даровую регистрацию сайты такой категории. помимо своей директории, Yahoo! использует результатами поиска, предоставляемыми Гуглом. До 2000 года поисковая машина Inktomi обслуживала Yahoo!, но потом, бесспорно признав привилегия поисковой технологии Гугла, они перешли на его сервис. В июле 2003 года фирма выкупили поисковую машину Inktomi. быстрее всего, корпорация осознала, что из партнера Google помаленьку превратился в нешуточного конкурента, вытеснив на 2-е место.
У MSN есть как личная директория, так и поисковый робот — фирма Microsoft популярна своим влечением объять как можно большую часть рынка Интернет-технологий. Когда исполняется поиск по ключевому слову, команда знатоков компании отслеживает более релевантные на их взор сайты, вручную отбирают и классифицируют их, и вносят в определенные рубрики директории. При выведении итогов поиска вы можете видать некоторые результаты, обозначенные как «Popular Topics». Это так же работа редакторов, коие пытаются вывести больше точные и релевантные результаты. слишком часто между первых номеров в итогах поиска возникают ссылки на статьи из Майкрософтовской энциклопедии Encarta. Конечно, одним лишь людским коллективом здесь не обойтись, каким бы многочисленным он не был, потому MSN черпает данные для своих розысков еще и в каталоге Look Smart, который, в свою очередь, еще редактируется людьми. Для сервиса самых «сложных» запросов MSN использует услугами вышеупомянутой машины Inktomi. Для того, дабы гарантировать себе пребывание в итогах поиска предоставленной машины, следует зарегистрироваться в каталоге Look Smart и на сайте Inktomi.
Из каталогов, помимо вышеупомянутых Yahoo! и MSN особо следует припомнить проект Open Directory Project, он же DMOZ. В различие от всевозможных самопровозглашенных каталогов и так званных «ферм линков», каталог DMOZ является подлинно авторитетным источником информации. Регистрация в нем бесплатна, но для того, дабы ваш интернет-сайт начал возникать в итогах поиска, вам будет необходимо подождать от 2-х недель до 6 месяцев. Объясняются такие долгие задержки минусом редакторов для кое-каких категорий. На домашней странице интернет-сайта вы увидите что на DMOZе работает возле 60 тысяч редакторов, но это не текущее число редакторов, а численность людей, работавших там за всю историю существования проекта. Но даже когда ваш интернет-сайт появится в каталоге, не ждите сразу резкого повышения приплыва гостей — мало кто использует этим каталогом для осуществления поиска. Тем не менее, польза от регистрации есть, и значительна, хотя и не прямая. Дело в том, что Google использует каталогом DMOZ таким же образом, как Yahoo! или же MSN используют своими — по сути, каталог Google — это копия каталога DMOZ. Так что, не обращая внимания на то, что у вас не станет посетителей непосредственно с каталога, пребывание в нем может элементарно таки взвинтить ваш рейтинг к верхушке итогов поиска. помимо того, другие поисковые машины помимо Google сканируют каталог DMOZ, а это опять-таки следовательно увеличение трафика.
в случае если ваш интернет-сайт представляет тематику, в коей идет интенсивная борьба за первые места, и предложение слишком высоко, случается очень трудно, порой даже нельзя пробиться к верху поиска. В таком случае лучшим решением трудности может быть приобретение места в итогах поиска. более известными схемами платных подключений в итоги поиска являются Overture, Google AdWords, и каталог Look Smart.
Overture — наверное, самый общеизвестный из вселенских PPC (Pay Per Click) аукционов. фирма предоставляет платные итоги на таких поисковых платформах, как Yahoo!, MSN, AltaVista, AllTheWeb, и других. Система приобретения рекламы следующая: вы избираете поисковые слова, по коим хотите дабы вас находили, и сами назначаете стоимость за каждое прохождение по ссылке. 3 самые огромные ставки возникают на сайтах-партнерах Overture в рубрике Sponsored Links. выдающиеся качества данной системы в том, что вы сами можете предопределять цену, коию готовы уплатить за каждое вхождение. помимо того, публика, которая проходит по вашей спонсорской ссылке — целевая, люди знают что они там найдут. Overture так же содержит штат сотрудников, коие проверяют релевантность представленного на торги сайта заявленной теме, по этому это буквально исключает вероятность того, что это — спам. ключевой недостаток же в том, что вы в всякий момент можете вылететь из результатов, в случае если кто-то заявит ставку, большую чем ваша. В России ключевым и единым аналогом Overture является Бегун, предоставляющий платные итоги на Mail.Ru и Апорт.
LookSmart являет собой комбинацию платной директории и PPC аукциона. Он предоставляет рекламное место на MSN, Lycos и Road Runner. Для российского Интернета данный каталог представляет мало интереса, так как большая часть его аудитории — объединенные Штаты и Канада, где он занимает довольно-таки высокие позиции.
Хотя машинная регистрация и протоколирование рейтинга и считается нелегальным приемом, о чем напрямик заявляют знатоки поисковых сайтов, есть много программ, способных облегчить вебмастеру работу, тем более если он обязан вести непрерывный надзор над несколькими сайтами. Рассмотрим кое-какие из программ, облегчающие вебмастерам оптимизацию и сабмит сайтов на поисковые машины.
Признанным мировым лидером между программ регистрации является Web Position Gold. Программа содержит такие полезные модули, как протоколирование рейтинга по заданным главным словам, генератор дорвеев — специальных, оптимизированных под отдельные поисковики страниц, а еще анализатор существующих страниц. помимо того, программа автоматически подает интернет-сайт на регистрацию на всех главных международных и национальных поисковых машинах. ключевая проблема при пользовании предоставленной программой состоит в том, что Google засекает применение этой программы, и ваш IP может быть заблокирован на кое-какое время.
единый на российском рынке русифицированный пакет программ NetPromoter исполняет буквально все функции хоть каким-нибудь образом связанные с Интернет-промоцией. Все функции пакета можно поделить на надлежащие три группы:
Модуль Domain Name Checker разрешает производить розыск свободных доменов по протоколу WHOIS.
Анализатор лог-файлов отслеживает визиты поисковых роботов и разрешает создавать файл robots.Txt.
Модуль Page Promoter способствует производить самодействующую регистрацию интернет-сайта на главных мировых поисковых машинах и сайтах FFA. Также, программа подробно анализирует отдельные страницы веб-сайта и выводит отчеты с рекомендациями по оптимизации, в том числе по частоте главных слов и численности внешних ссылок на сайт.
Менее известная программа для самодействующей регистрации Search Engine Commando все же стоит того, дабы о ней упомянуть. Она, кроме функций самодействующего сабмита на 123 главных мировых поисковых машин и отслеживания рейтинга по заданным главным фразам, ещё и наблюдает за изменениями регистрационного статуса вашего доменного имени.
SubmitWolf Enterprise — слишком серьезная программа для самодействующего сабмита, которая к тому же «умеет» редактировать мета-тэги и отслеживать рейтинг. позитивным моментом в программе является то, что она разрешает добавлять личные адреса поисковых машин и FFA сайтов.
Перед тем, как начать процесс регистрации на более известных поисковых машинах и директориях, ещё раз просмотрите, неплохо ли оглавление тэгов TITLE и DESCRIPTION отражает цель и вид деятельности вашего интернет-сайта — вам затем будет слишком трудно переспорить тех же Yahoo! в необходимости перемены начальных данных. собственно содержимое этих тэгов станет создавать 1-е впечатление о сайте. Желательно, дабы они совпадали с той информацией, коию вы будете подавать при регистрации. в случае если вы основательно решили взяться за продвигание и раскрутку сайта, к этому занятию надо подойти со всей серьезностью и ответственностью, так как этот процесс порой может важно растягиваться во времени, и пройдет много времени, сначала чем вы обнаружите свои ошибки. И ещё больше времени одолжит их исправление.
стремлюсь вам успеха и высоких рейтингов!