Google реализует софистический алгоритм ранжирования сайтов, который включает в себя более 100 различных критериев с определенными весами. Так как алгоритм может измениться, технологии, применимые ранее, могут теперь не работать. Это важно помнить, когда ваш сайт вдруг поменяет позиции по непонятным причинам. Поэтому оптимизация веб-сайта — не однодневная задача. Вы всегда должны менять методы и пробовать новые способы.
Укажем четыре фактора, наиболее важные для Google в настоящее время.
• Ранжирование страницы — это абсолютная величина, которая регулярно вычисляется Google для каждой страницы, внесенной в его индекс. Необходимо помнить, что весьма важно количество и качество ссылок, ведущих к вам с других сайтов. Последнее означает, что для увеличения удельного веса вашего сайта, связанные с ним сайты должны иметь высокий уровень ранжирования станицы, быть богатыми контентом и регулярно обновляемыми.
• МиниРенк/Локал Ренк (MiniRank/LocalRank) — это модификация Пейдж Ренк (PageRank), основанная на структуре ссылок вашего единственного сайта. Так как поисковые машины ранжируют страницы, а не сайты, некоторые страницы вашего сайта будут ранжироваться с данными ключевыми словами выше, чем другие. Локал Ренк существенно влияет на общий Пейдж Ренк.
•Текст ссылок (Anchor текст) — это содержимое ссылок, ведущих на вашу страницу. Например, если кто-либо создает ссылку к вам со словами "посмотрите этот великолепный веб-сайт", то такая ссылка бесполезна. Однако предположим, что вы продаете автомобильные шины, и ссылка с другого сайта на ваш гласит автомобильные шины от ведущих производителей". Такая ссылка поднимет ваш уровень ранжирования, когда кто-то ищет автомобильные шины с помощью Google.
• Семантика — новый фактор, который приводит к наибольшим различиям в результатах. Это понятие относится к значению слов и их взаимоотношению. Google купили компанию, называемую Applied Semantics в 2003 г., и использовали ее технологию для своей контекстной рекламной программы. Согласно принципам прикладной семантики, краулер пытается определить, какие слова имеют одно и то же значение и какие всегда используются вместе.
Например, если есть некоторое количество страниц в индексе Google, гласящих, что рабочий стол является частью офисной мебели, то Google ассоциирует эти две фразы. После этого страница, посвященная рабочим столам, со словосочетанием "офисная мебель", не будет показываться в поиске по ключевым словам "рабочий стол" С другой стороны, страница, где есть слова "рабочий стол", будет ранжироваться выше, если содержит фразу "офисная мебель"
Теперь рассмотрим два других термина, связанных с методом ранжирования страниц в Google: Hilltop и SandBox.
Hilltop — это алгоритм, который был создан в 1999 г В основном он смотрит на взаимосвязи между страницами "Expert" и "Authority". "Expert" — это страница, которая связана ссылками с большим числом других релевантных документов. "Authority" — страница, которая имеет ссылки, указывающие на нее со страниц "Expert". Страницы на таких сайтах, как РБК, РИА Новости, DMOZ, сайты колледжей и библиотек могут рассматриваться как Expert.
SandBox— это достаточно большая проблема, с которой сталкиваются все SEO-специалисты, работающие над продвижением англоязычных веб-сайтов, поэтому я хочу остановиться на данном понятии более подробно. Вы обескуражены большим промежутком времени, разделяющим момент нахождения Google вашего нового англоязычного сайта и момент, когда он действительно станет рейтинговым? В действительности есть даже неофициальный термин, описывающий степень трудности, которую новые сайты обычно испытывают перед получением продвижения в системе ранжирования Google...
Это называется SandBox (песочница). Чтобы проиллюстрировать проблему, я приведу пример типичного вопроса от одного из слушателей курсов SEOStudy. "Я много читал на форумах про Google SandBox. Есть немало мнений относительно того, как избежать эффекта SandBox, и некоторые даже не уверены, существует ли "песочница" вообще. Как лучше всего поступать вебмастеру, чтобы избежать проблемы SandBox?"
Google SandBox— трудность, с которой новые англоязычные сайты обычно сталкиваются в ранжировании в Google для конкурентоспособных запросов поиска. SandBox — хитрая концепция по нескольким причинам. Во-первых, не все новые веб-сайты затрагиваются. Считается, что на русскоязычные сайты SandBox не распространяется. Из тех сайтов, что попали в SandBox, некоторые затрагиваются в большей степени, чем другие. И время, которое требуется, чтобы быть "выпущенным" из SandBox, варьируется от сайта к сайту (хотя наблюдения указывают, что сайты, попавшие в SandBox, обычно выходят оттуда некоторыми группами, а не поодиночке).
Во-вторых, что-то решает, как конкурентоспособные запросы поиска изменяются по различным обстоятельствам. В некоторых случаях сайт не может занять место ни при каком ключевом слове, которое возвращает больше чем 50 ООО результатов поиска. В другой раз он не может занять место ни при каком ключевом слове вообще. Вся эта двусмысленность приводит к сомнениям о характере SandBox и ставит вопрос о том, действительно ли он существует. Опираясь на опыт, я могу сказать, что определенно видел эффекты SandBox при раскрутке новых англоязычных сайтов. Кроме того, когда я подхожу к данной проблеме с точки зрения поисковой системы, что всегда пробую сделать, становится видно, что SandBox имеет смысл как эффективный инструмент борьбы со спамом.
Не позволяя новым сайтам раскрутиться в течение первых 6-12 месяцев, Google радикально уменьшает эффективность оптимизации нового сайта под быструю раскрутку. Несомненно, Google стремится разбить усилия тех, кто ожидает немедленных результатов их стратегий оптимизации раскрутки сайта. Многие новые оптимизаторы думают, что если они поместят достаточно ключевых слов на страницах, а затем купят несколько высокорейтинговых ссылок, то будут быстро продвигаться к вершине результатов поиска. Очевидно, Google не "хочет", чтобы их усилия были так легко оправданны. Поэтому Google SandBox делает такую быструю раскрутку очень трудной стратегией, "обламывая" новичков оптимизации с быстрой раскруткой сайта.
Но Google SandBox затрагивает не все новые сайты. Надо полагать, что помимо новизны есть другие факторы, которые учитываются при помещении в SandBox. Google, кажется, применяет множество фильтров, наподобие этих:
• норма, по которой новые ссылки добавляются к сайту (чтобы обойти SandBox, лучше всего использовать постепенный подход);
• степень, с которой эти ссылки прибывают от разнообразных IP-адресов (широкий диапазон IP предпочтителен);
• степень, с которой эти ссылки имеют идентичный текст (Anchor text) (попробуйте несколько его изменить).
Эти характеристики ссылок отличают переоптимизованный сайт спамера, от того, который сосредоточен на обеспечении хорошего содержания (контента) и накапливает и ссылки постепенно и естественно. Сайты, которые участвуют в опасных SEO-методах на странице, — типа дорвей-страниц с редиректом или перенасыщением ключевыми словами, — также, скорее всего, будут помещены в SandBox. Конечно, у таких сайтов вообще есть все шансы быть оштрафованными, просто из-за того, что они
реализуют "черные" методы оптимизации. Чтобы "лететь ниже радара" при запуске нового англоязычного сайта, следует избегать сверхоптимизации своих страниц и резкого увеличения входных ссылок.
Один подход для предотвращения попадания в SandBox состоит в том, чтобы запустить новый сайт на субдомене уже проиндексированного. После того как субдомен будет проиндексирован, используйте редирект 301, чтобы переадресовать паука Google (и посетителей вашего сайта), к домашней странице на новом домене. Конечно, нет никакой гарантии, что это будет работать сейчас, но я успешно применял такую стратегию в прошлом.
Однако самый полезный совет, который можно дать, чтобы избежать Google SandBox— необходимо придерживаться сдержанной позиции. Это означает — работать, чтобы постепенно строить естественно выглядящую структуру входящих ссылок.
Один способ стать SEO - ''гением" состоит в том, чтобы просто планировать все наперед. Всякий раз, при запуске будущего сайта, помещайте домен в эксплуатационный период как можно раньше — для индексирования Google.
Не так важно, что он еще не заполнен контентом, но вы уже начнете продвигаться вперед.
Создание небольшого шаблона с несколькими входящими и исходящими ссылками и небольшим количеством уникального контента покажет Google, что сайт существует. В таких случаях их паук, скорее всего, посетит ваш сайт и проиндексирует его, что приведет к началу отсчета часов SandBox, и вы будете вне SandBox, когда в действительности начнете серьезно заниматься доработкой сайта. Это одна из тех стратегий, которые не навредят, а могут
только помочь, она относительно недорога и требует очень небольших усилий для осуществления.
Недавно я принимал участие в создании совершенно нового англоязычного сайта, который был проиндексирован приблизительно через неделю в MSN. Однако потребовалось приблизительно 90 дней после посещения пауком Google, прежде чем сайт можно было найти в поиске по названию компании. Кроме того, потребовался еще месяц перед глубокой индексацией Google остальной части сайта. Все время мы медленно добавляли входящие ссылки, чтобы создать впечатление постепенного и естественного накопления ссылок.
Терпение — это достоинство...
Хотя есть способы уменьшить ваши шансы попадания в SandBox, нет никакого универсального метода. Просто учтите тот факт, что рейтингование в Google занимает время. Знайте, что даже если ваш сайт временно помещен в Sandbox, не давая возможности немедленно занять хорошее место для конкурентоспособных ключевых слов, вы тем временем можете что-то делать, планируя другие ключевые слова. Как только вы, наконец, уйдете из SandBox, то сразу же станете намного ближе к своей цели.
Подведем итог.
Что индексируется поисковой системой Google? Система индексирует следующий текст:


Что влияет на выдачу результата в поисковой системе Google?
Поисковый результат, выдаваемый Google, складывается из следующих факторов.
• Page Rank страницы. Число страниц с других сайтов, которые ссылаются на ваши страницы и их популярность. Например, ссылка с сайта www.kremlin.ru имеет больший вес, чем несколько ссылок с www.narod.ru/~vasya.
• Ключевые слова в Anchor-тексте (текст, расположенный над ссылкой, например, "книга по SEO").
• Плотность ключевых слов на странице.
• Близость ключевых слов друг к другу.
Ключевые слова имеют больший вес, если они выделены полужирным, имеют большой размер либо находятся внутри тега <Н1>.
Чего следует избегать при оптимизации сайта?
Google постоянно проверяет качество проиндексированных ресурсов и при нарушении ряда правил исключает их из своей базы. Поэтому никогда не прибегайте к следующим приемам:
• скрытый текст и скрытые ссылки;
• клоакинг и скрытая переадресация;
• автоматические запросы;
• слова, не относящиеся к теме;
•страницы, субдомены и домены, в значительной степени повторяющие содержание друг друга;
• страницы портала, предназначенные исключительно для поисковых систем, и другие отсекатели cookie, например, партнерские программы, где оригинальное содержание почти или совсем отсутствует.
В конце февраля 2007 г. Google шокировал SEO-сообщество, когда анонсировал комбинирование результатов поиска Google Personalized Search, Google Personalized Homepage и Google Search History в основные результаты поиска.
Это означает, что когда вы заходите в свой Google-аккаунт (например, Gmail), Google будет выдавать вам не обычные, а несколько модифицированные результаты поиска, базирующиеся на ссылках, на которые вы щелкали ранее, на ваших закладках (Google Bookmarks) и т. п.
Недовольство SEO-специалистов вызвано тем, что теперь будет сложно сказать, какой сайт находится на первой позиции в выдаче Google по определенному ключевому слову, а какой — на втором. Очень скоро каждому пользователю будут выдаваться свои собственные результаты поиска. Больше всего это пугает разработчиков, которые обещают своим клиентам раскрутку сайтов и определенные позиции в поисковой выдаче, например, если вы уверяете клиента, что его сайт будет на первом месте по какому-нибудь ключевому слову в результатах Google, а его поиск покажет, что он находится на 4-й или 40-й позиции.
Конечно же, все эти волнения понятны, однако не стоит сильно расстраиваться из-за этого по следующим причинам.
• Во-первых, Google и так уже давно этим занимался, пользователи получали персонализированные результаты с июня 2005 г., когда данная программа была придумана. Большинство людей даже не заметили изменений, т. к. они были очень незначительными. Единственное, что изменилось сейчас — Goolge увеличил количество ресурсов для индивидуализации, которые будет учитывать.
• Во-вторых, мы и так получаем различные результаты в Google, в зависимости от нашего местоположения, т к. используются различные информационные центры. Уже давно пора заканчивать работать с чистым SEO, а начинать использовать интернет-маркетинг, переставая ориентировать
свои кампании по оптимизации и продвижению сайта только на ранжирование и привлечение трафика. Интернет-маркетинг подразумевает не только привлечение трафика с поисковиков, но и превращение привлеченных посетителей в покупателей.
• В конце концов, переход на персонализированный поиск станет еще одной причиной для написания наилучших Title- и мета-тегов для каждой страницы сайта, т к. эти теги, если пользователи сочтут их наиболее интересными, принесут наибольшее количество кликов, и это будет решающим фактором, который повлияет на персонализированный поиск.
Не забывайте также про качество контента. Уже давно у всех на слуху главный постулат Google — Content is a King (контент — это король). Будет у вас уникальный и интересный пользователям контент — в аш сайт займет достойное место в выдаче Google.
Яковлев А.А.