Искусство продвижения сайта. Полный курс SEO: от идеи до первых клиентов

~ 2 ~

Поисковые системы стремятся занизить и даже исключить влияние внешних ссылок, т. к. этот фактор уже давно можно просто «купить» на специализированных биржах. Однако не так то просто отказаться оттого фундамента, на котором до недавнего времени держались все алгоритмы ранжирования.

В этой главе обсуждаем борьбу поисковых систем с покупными ссылками.

Глава 11. Условно-белые способы набора ссылочной массы

После прочтения предыдущей главы у Вас не останется вопросов, почему я выбрал такой заголовок и почему способы увеличения ссылочный цитируемое™ не «белые», а именно «условно-белые».

Тем не менее, это те самые методы, которыми продвигаются 99 % сайтов в Рунете. Рассылка новостей, биржи ссылок, seo-агрегаторы, статьи, посты и постовые в блогах. Биржи Sape, RotaPost, MiraLinks, GetGoodLinks. Вечные и арендные ссылки.

Анализ ссылочного профиля конкурентов.

Глава 12. Принципы покупки ссылок

О естественности ссылок. Ссылки с ключевым словом (анкорные) или просто в виде адреса сайта (безанкорные). Как правильно выбирать сайты-доноры для размещения ссылок на свой проект, чтобы получить максимальную пользу в раскрутке и минимальные риски фильтра и пессимизации со стороны поисковых систем.

Глава 13. Два каталога, о которых нужно знать

Как уже неоднократно говорилось, поисковики крайне плохо относятся к тому огромному количеству каталогов сайтов, расплодившихся за последние годы, и число которых измеряется уже даже не тысячами, а десятками тысяч.

Тем не менее, есть каталоги, которые у поисковых систем на особом счету. Их в буквальном смысле можно пересчитать по пальцам – т. к. их всего два.

Это DMOZ и Яндекс Каталог. Каждый из них заслуживает индивидуального подхода.

В этой главе мы рассмотрим какие действия необходимы, чтобы разместить свой сайт в указанных каталогах и какая от этого может быть выгода.

Глава 14. Поведенческие факторы (ПФ)

Группа факторов, без которых невозможно современное продвижение. На хорошем сайте клиент голосует кошельком, а на плохом – ногами, т. е. попросту уходит.

Как поисковые системы учитывают поведение пользователей, как работать над ПФ, как поднять «кликабельность» сайта в результатах выдачи и число переходов с поиска – обо всем этом вы узнаете в данной главе.

Глава 15. Индексация сайта

Прежде чем сайт попадет в выдачу поисковых систем, он должен быть проиндексирован. Обычно с этим никаких проблем не возникает. Тем не менее, без знания некоторых технических тонкостей вам не обойтись.

Как не допустить дублей страниц на сайте, которые мешают продвижению. Как работать с robots.txt и зачем этот файл нужен.

И наконец – что делать, если сайт не индексируется в Google или в Яндекс?

Глава 16. Семантическое ядро сайта

Одна из последних по порядку глав в учебнике, но далеко не самая последняя по значимости. Я бы даже сказал – это самая важная глава, т. к. от правильно составленного семантического ядра зависит весь дальнейший успех.

Высоко-, средне- и низко-конкурентные ключевые слова. Высоко-, средне- и низко-частотные фразы. Как не запутаться в этих терминах и как составить правильное семантическое ядро. О конверсии – какие фразы приведут к нам на сайт покупателей, а какие просто зрителей. Как оценить уровень конкуренции и выбрать ключевики, которые по плечу нашим возможностям. Извините за каламбур, но правильный выбор ключевых слов – это и есть тот самый ключ к успеху продвижения.

Глава 17. Социальные сигналы для продвижения

Похоже, что уже весь Интернет забился в социальные сети и не хочет оттуда вылезать. Само собой, поисковые системы не могли пройти мимо столь важного явления. Twitter, ВКонтакте, Одноклассники, Facebook, Google+ – от изобилия выбора голова идет кругом.

В данной главе мы расскажем, как публикации в социальных сетях помогут вам продвинуть сайт. Уточню – речь пойдет именно о влиянии социальных сетей и социальных сигналов на органическую выдачу, а не о продвижении какого-либо товара или группы через социальные сети.

Глава 18. Региональное продвижение

Хрестоматийный пример – если вы ищете «доставку пиццы», то хотите получить результаты для своего города. А если «рецепты пиццы» – то вам неважно, в каком именно регионе находится сайт. Это примеры геозависимых и геоНЕзависимых запросов.

О разнице в способах продвижения таких запросов мы и поговорим в этой главе.

Глава 1
Философия современного интернет-продвижения

1.1.Поисковые системы против оптимизаторов

История отношений поисковых систем и seo-специалистов напоминает извечную проблему создания брони, защищающей от пушек, и вслед за этим создания новых пушек, пробивающих усовершенствованную броню.

Когда-то давно Интернет был «совсем маленьким» и не представлял коммерческого интереса. Доступ к сети был только у университетов и использовался он больше в исследовательских и научных целях, а также для быстрого обмена информацией.

Этап 1. Изначально для целей поиска информации был предназначен мета-тег Keywords. Именно там записывались ключевые слова, описывающие собственно информационный материал, и по ним в дальнейшем можно было проводить поиск. Это еще не было полноценным решением, а скорее напоминало поиск по карточкам или по названию книг в библиотеке.

Как вы понимаете, использование этого мета-тега быстро исчерпало себя. Keywords не давал никакой возможности отсортировать материалы в порядке важности, что создавало очевидную проблему в случае, если по заданной фразе находилось несколько десятков документов.

Этап 2. После этого и появился собственно настоящий, полнотекстовый поиск. Поисковики стали оценивать текст материала, а также html-оформление. Фразы, выделенные жирным шрифтом или тегами <Н> заголовков, считались более важными. Поисковые системы начали сортировать результаты по релевантности – т. е. старались высоко ранжировать (показывать первыми в результатах) страницы, максимально соответствующие заданной ключевой фразе.

Оптимизаторы ответили на это появлением нового направления деятельности- seo-копирайтинга. Интернет стал заполняться тысячами и тысячами новых статей, написанных правильным языком и вроде бы дающими подробный ответ на тот или иной вопрос. Но, по сути, большая часть этих текстов не несла никакой реально полезной смысловой информации, а создавалась лишь для получения высоких позиций в выдаче.

Это был период, когда на всех seo-форумах бурно обсуждались вопросы об идеальной процентной плотности ключевых слов, количестве прямых вхождений заданной фразы в текст материала, количестве выделений жирным шрифтом и т. п.

Этап 3. Принципиальный шаг к решению этой проблемы совершила компания Google, введя понятие ссылочной цитируе-мости. Допустим, имеется две схожих страницы, одинаково полно отвечающих на заданный вопрос. Анализ текста не позволяет выявить, какая из этих страниц лучше – обе идеально соответствуют заданной теме.

В основу нового алгоритма легла идея, что лучшей является та страница, на которую больше ссылаются другие сайты. Это и понятно – если на некоторую информацию есть ссылки с других ресурсов, пользователи и вебмастера рекомендуют ее другим людям-значит эта информация полезна. И напротив, если текст вроде бы хороший, но никто его не рекомендует для прочтения – значит реальной пользы от этого материала нет.

Учитывалось не только количество ссылок, но и важность самих ссылающихся страниц («голос» с сайта CNN явно более весом, чем голос с домашней страницы «Васи Пупкина»).

Подобный подход совершил революцию в качестве поиска, и до сих пор остается тем фундаментом, на котором строятся современные алгоритмы ранжирования. Очевидно, что ссылками, размещенными на других сайтах, манипулировать на порядок труднее, чем просто разместить псевдо-полезные статьи на своем ресурсе.

Пару лет новые алгоритмы работали хорошо. Но в дальнейшем начала развиваться индустрия продажи ссылок. Если раньше оптимизатор размещал 10 псевдо-статей у себя на сайте, то теперь под каждую статью создавалось еще по 10–50 псевдо-новостей, псевдо-статей, псевдо-постов на форумах-все для того, чтобы получить нужное количество ссылок и подняться в результатах выдачи. Этот процесс идет и до сих пор, создаются целые сайты, не несущие ничего полезного, а применяемые исключительно под продажу ссылок.

Этап 4. Поисковые системы стали отслеживать поведение пользователей на ресурсе. Сколько времени человек провел на сайте, сколько страниц посмотрел, вернулся ли обратно в поиск или же остался удовлетворен полученной информацией.

К сожалению, это стало лишь полумерой, т. к. поведенческие факторы легко поддаются накрутке. Накручивать можно автоматически, с помощью специальных программ, эмулирующих деятельность человека. А можно привлечь армию «школьников», готовых за копейки совершать нужные действия – искать заданные фразы, переходить на заданные сайты, кликать по заданным ссылкам – и такие сервисы действительно есть. Получается не подкопаться – реальные люди действительно просматривают реальные страницы, вот только выводы о полезности этих страниц оказываются ошибочными.

Этап 5. Очередным принципиальным шагом стало использование в алгоритмах элементов искусственного интеллекта, который позволяет «машине» видеть «глазами человека».