Введение в SEO![]() Начать разговор следует с того, что SEO (поисковая оптимизация) это не совсем точная область знаний. Оптимизаторы опытным путем пытаются выявить алгоритмы, по которым поисковый механизм ставит один сайт выше другого в поисковой выдаче. Сложность заключается в том, что поисковики видят в лице оптимизаторов своих если не врагов, то, по крайней мере, не друзей, и всячески пытаются противодействовать любым искусственным попыткам повлиять на выдачу. Поисковые алгоритмы постоянно меняются. То, что еще вчера обеспечивало сайту первую позицию, сегодня может отбросить его на задворки или вообще выкинуть из выдачи. И никто не скажет точно, в чем же дело, и по каким признакам система вдруг решила, что этот сайт уже недостоин быть найденным. Обратитесь к любому из специализированных форумов для оптимизаторов, почитайте, что пишут. Вы убедитесь в том, что в подавляющем большинстве случаев, никто не может точно сказать, что происходит и что нужно делать. Есть только предположения. Происходит это потому, что поисковые алгоритмы это загадка, разгадать которую становится все сложнее и сложнее. Яркий пример тому система Яндекс. Ее оптимизаторы ругают больше всего. И ищет плохо и глюков много. Да и логично звучит утверждение, что самому Яндексу невыгодно за бесплатно выдавать отличные результаты поиска. Вот только возникает вопрос такого плана: а что нужно этому Яндексу, чтобы он высоко оценил сайт? - работе над контентом (содержанием) Многие оптимизаторы называют этот критерий очень важным, и я спорить с этим не буду, поскольку поддерживаю это мнение. Но есть один существенный момент. Этот критерий очень сложно поддается воздействию. Ну как можно повлиять на время? Либо побыстрее создать сайт и ждать, когда он повзрослеет, либо купить уже готовый, но плохо раскрученный и при этом перспективный сайтик. При этом думаю, вряд ли кто-то из оптимизаторов точно может сказать, в действительности ли непосредственно возраст сайта играет роль или же то, что с течением времени сайт становится большим и обзаводится солидным количеством внешних ссылок? Это Вопрос. Но вот что я точно могу Вам сказать, так это то, что если сайт плохой с точки зрения поисковой системы, то хоть ему десять лет, хоть двадцать, но посетителей с поисковиков на нем не будет. Теперь попробуйте встать на сторону поисковика, а точнее программиста, которому поставлена задача написать алгоритм, который бы позволил все сайты отсортировать по их значимости в соответствии с поисковым запросом. Очевидно, что этому программисту нужно найти критерии сравнения сайтов, которые можно легко считать. Именно считать, потому что ничего другого компьютер не умеет. Он может только считать и сравнивать. Тогда становится очевидным, что релевантность (соответствие поисковому запросу) контента определяется по количеству и плотности ключевых слов в тексте. Правильная структура сайта нужна для того, чтобы помочь поисковым роботам правильно индексировать сайт и повысить значимость страниц сайта за счет внутренних ссылок. Оттого, насколько качественно проиндексирован сайт, может зависеть то, на какой позиции в поиске он окажется. Иногда сайты сделаны так, что робот не находит всех страниц сайта или не может добраться до значимого контента на странице.
19.03.13 02:00 ⁄ Просмотров: 4010 ⁄ Печать
Тэги : В этом разделе14.04.13 Электричество17.03.13 Цвет26.02.13 Как оптимизировать для Google20.02.13 Что такое абак?13.02.13 Видеоплата![]() Сожалеем!
Комментарии могут добавлять только зарегистрированные пользователи. |
© 2023 All right reserved www.shack.ru | [ PG.t : 0.04 | DB.q : 8 | FR.q : 0 | DB.t : 0.00 ] | ![]() |