Часть 1. Тендеции SEO

О том, что SEO больше нет, мы говорим достаточно давно, фактически с 2010 года. Что мы под этим подразумеваем? Прежде чем разъяснить свою позицию, мы остановимся на самом термине SEO. Что это такое search engine optimization? С одной стороны, вроде бы все просто: SEO – это оптимизация сайта в поисковых системах. Возможна ли оптимизация сайта в поисковых системах? Да, возможна, и будет возможна всегда. Но любые слова – и все оптимизаторы знают об этом – значат ровно то, что мы имеем в виду, произнося их. Так получилось, что SEO в его классическом значении – это не просто оптимизация сайта, но определенные методы, за счет которых достигается эта самая оптимизация. Глобально таких методов всего лишь два (еще раз: мы говорим о «классическом SEO» – о SEO нулевых годов) – это соблюдение принципа семантической релевантности и накрутка ссылочной авторитетности сайта.

Далее пара абзацев уже для совсем-совсем «ламеров», их можно пропустить, если вы в курсе, что такое релевантность и ссылочное продвижение. Итак, что такое принцип семантической релевантности? Давайте разберем на примере. Вот приходит в SEO-контору клиент – пятистраничный сайт-визитка. Требования: хочу быть в топе по... и далее идет список из 15 ВЧ-запросов, 30 СЧ-запросов и 50 НЧ-запросов. Логика клиента понятна: вот вам сайт, вот список запросов, хочу быть в топах. На самом деле, продвигать сайт – невозможно. Возможно продвинуть только релевантную запросу страницу. Таким образом, под каждый запрос у нас должна быть страница, которая полностью отвечает запросу. Соответственно, прежде всего нужно подготовить сайт, создать посадочные страницы под эти запросы, а они – страницы – не могут существовать в безвоздушном пространстве, они должны быть вписаны в структуру сайта, причем логически и в полном соответствии с услугами, которые оказывает бизнес. Мы в своей практике создаем документ в экселе, который у нас называется «карта релевантности», – это фактически объединенное в единую смысловую структуру семантическое ядро плюс структура сайта (накладываем семантику на структуру).

Ну, с принципом ссылочной авторитетности все понятно: уже не осталось клиентов, не понимающих, что такое ссылочный бюджет. Принцип изначально очень простой: чем больше сайтов ссылаются на ваш сайт, тем лучше (в детали сейчас вдаваться не будем, скажем, что сам принцип видоизменялся все нулевые и сейчас видоизменен ну, практически, до неузнаваемости).

Вот, в общем-то, и суть всего SEO – в двух предыдущих абзацах.

Но проблема в том, что поисковые технологии развивались куда как стремительней SEO-индустрии все нулевые годы. В конце нулевых SEO перестало быть тем, чем было изначально. Здесь нужно учитывать четыре глобальных изменения – причем, они характерны для всех поисковых систем.

Первое: значительно возросло количество факторов ранжирования. Чтобы был понятен масштаб катастрофы SEO как индустрии – количество факторов возросло в сотни раз. Сегодня практически нет вещей, которые бы не влияли на ранжирование сайта в органической выдачи. При том, что SEO-конторы по-прежнему влияют на два фактора – принцип семантической релевантности и ссылочную авторитетность, – все больше и больше начинают «рулить» другие факторы – пресловутые поведенческие, юзабилити и даже дизайн. Не говоря уже о том, что поисковик учитывает достаточно большое кол-во факторов, на которые повлиять в принципе невозможно (например, возраст домена или история развития ссылочного профиля).

Второе: никакой формулы ранжирования больше не существует. Фактически уже сейчас даже сотрудники отделов веб-поиска Яндекса или Google не смогут вам сказать, почему один сайт в топе, а другой в *опе – при практически одинаковых показателях. Поиск использует самообучаемые алгоритмы, которые создают свою формулу ранжирования для каждого отдельного запроса на основании большого количества факторов ранжирования и консолидированных сигналов асессоров поисковых систем.

Третье: в алгоритмах ранжирования присутствует неконтролируемый фактор, речь как раз о тех самых пресловутых асессорах поисковых систем. Роль и влияние асессоров – тема до сих пор дискуссионная. Но бесспорный факт – они есть. Само по себе их наличие уже говорит о многом, на самом деле. Представьте себе на минуточку: поисковые технологии, проделав ошеломляющую эволюцию в сжатые сроки (буквально в десятилетие) вернулись к использованию ручного труда. Дико? На самом деле – нет. Надо понимать, что изначально веб-поиск – это технология. И Яндекс 1998 года – это сверхтехнологичная компания. Сейчас это, при всем прочем, – огромный бизнес (кстати, буквально вчерашняя новость – Яндекс сравнялся с ОРТ по выручке). И асессоры – это на самом деле не шаг назад, как кажется. Это шаг, необходимый не Яндексу как технологичной компании, а Яндексу как огромной машине по зарабатыванию денег. Роль асессоров – не только подавать сигналы поисковом алгоритму, роль асессоров – это доля хаоса в космосе рационального и алгоритмизированного. Робот просчитываем, человек – нет.

Четвертое: поисковики идут по пути персонализации и персонификации. Этот тренд долгосрочный, и поисковики уже на него встали. Это значит, что выдача будет все больше формироваться с учетом предпочтений запрашивающего, его половозрастных характеристик и соцдема в целом. Яндекс уже сейчас заявляет, что может определить, кто вводит запрос, если компьютером пользуются два пользователя – например, муж и жена.

Эти четыре фактора убивают классическое SEO как явление. Фактически, гарантировать результат в выдаче становится все труднее. Классические SEO-агентства по-прежнему могут влиять только на два фактора – семантическую релевантность и ссылочную авторитетность, а факторов гораздо больше. И роль SEO-ссылок, в общем-то, падает, это очевидно. С другой стороны, изменяется и бизнес. Компании больше не готовы платить за воздух, даже по схеме «без гарантий», за которую держатся SEO-компании как за спасительную соломинку. На обычный вопрос: «Что я получу через полгода на бюджете в 100 000 руб. в месяц?» – SEO-компании ответа дать не могут. Не могут они дать и ответ на такой вопрос: «Каким должен быть бюджет, чтобы вывести сайт в ТОП-3 Яндекса по запросу установка окон ПВХ, и в какие сроки сайт будет выведен?» Ответы на этот вопрос не могут быть даны в принципе. (Хотя это не значит, что компании этих прогнозов не дают – дают, еще как!)

Коллеги, не хотел вас расстраивать, но, перечитывая свою статью, решил все-таки внести еще один фактор, который уже сейчас убивает классическое SEO. На днях прочитал одну забавную статью, в которой идет речь о том, как избежать переоптимизации SEO-текста. На самом деле, больше всего меня в этой ситуации удивляет инертность мышления SEO-контор. В статье даются вроде дельные советы – ну, типа, поаккуратнее с плотностью ключей, а то текстовый переспам и т.д. Ребята, вы вообще в каком веке живете? Мы сами в свое время парсили выдачу, делали инструмент (им до сих пор очень многие пользуются), который рассчитывал плотность ключа по сайтам, присутствующим на первой странице выдачи по этому самому запросу - другими словами, рассчитывали ту самую плотность ключа не исходя из умозрительных заключений, а на основании сайтов, присутствующих в выдаче. Но надо двигаться вперед. Это работало пять лет назад и не работает сейчас. Поиску фактически уже сейчас не важна плотность ваших ключей, если текст востребован аудиторией и его читают (только вы попробуйте создать такой текст, чтобы он читался при этом). То есть важен опять-таки поведенческий фактор. Будьте открыты, снимите шоры – идите в выдачу, в ней уже есть все ответы.

По большому количеству запросов в результате выдачи вы найдете страницы без точных вхождений ключа. Даже примеры лень искать, их навалом. Если не верите, так и быть, в комментах дам ссылки на конкретные запросы, если будут вопросы по этой части.

По запросу «аренда загородных домов» будут сайты с посадочными ключами «аренда коттеджей». По запросу «товары для ребенка» будут в выдаче «товары для детей». По запросам «недвижимость в Голладии» – большинство сайтов про недвижимость в Нидерландах. И т.д. Это все примеры латентно-семантического индексирования. То есть выявление латентной (скрытой) семантики на странице, становящейся явной в определенном контексте. При этом «расширение коридора» по латентной семантике и возможно, и будет происходить. Технологически это возможно уже сейчас. Просто, по всей видимости, поисковикам еще не хватает накопленных данных.

Но итог такой. Сейчас о посадочных ключах думать необходимо. Но писать нужно для людей, для пользователей, а не для поисковых машин. И в целом поиск будет становиться более интеллектуальным в вопросе выявления латентной семантики. Это общемировой тренд.

Так что же делать в ситуации, когда классические SEO-конторы по сути ничего предложить не могут, помимо накрутки ссылочной авторитетности? Ведь трафик получать из органики надо. Контекст дорожает стремительно после последних изменений в Директе (прим. ред. – речь идет об изменениях, произошедших в 2013 году) – лично мы ждем очень серьезного роста ставок в Спецразмещении уже к концу лета. Вот вам ссылка на форум Директа - почитайте обсуждения, вообще похоже на бегство "конечников" с тонущего корабля. Корабль выплывает, никуда не денется. Но с небольшими бюджетами (до 30-50 тыс. руб. в месяц в Директе будет нечего делать). Насколько серьезны будут последствия? Думаю, если ставки повысятся вдвое уже к осени – это, считай, легко отделались. И что же делать?

Расскажу об этом в наших ближайших статьях – вероятно через 2-3 материала. Буду стараться избегать банальностей – что контент рулит и все такое. Но вывод, да, один – контент-маркетинг по сути – единственное, что у вас будет в ближайшее время. 

Часть 2. Факторы ранжирования

В продолжение разговора хотел бы остановиться на методах, которые работают и которые дают поисковый трафик сейчас. При этом будем оценивать те или иные факторы на возможность… ну, слово «манипулирование» тут использовать бы не хотелось, но скажем так – на возможность улучшения данной группы факторов именно с позиции увеличения поискового трафика. Да, при этом мы будем говорить именно о группах факторов, фактически все факторы можно выделить именно в группы.

Поведенческие факторы ранжирования

Часто приходится слышать, что для Яндекса поведенческие факторы работают лучше, чем для Google. На самом деле это не так. Просто у Яндекса и у Гугла разный подход к поведенческим факторам. А вот на этом остановимся поподробнее. Поведенческие факторы – это целая группа разных по своей сути факторов. Для Яндекса, на наш взгляд, наибольшее влияние на ранжирование оказывают кликовые поведенческие факторы и поведенческие факторы на странице выдачи. Для Google, напротив, роль поведенческих на стороне сайта будет более приоритетной. Это общие тренды, которые мы можем выделить. Но помним, что в каждом отдельном запросе ситуация может сильно отличаться от этих общих трендов.

Но сначала дадим свое определение поведенческим факторам. Итак, ПФ – это совокупность действий пользователей как на самом сайте, так и на странице выдачи поиска. Какое поведение на сайте оценивается? С нашей точки зрения, это будут следующие факторы:

  • кликовые факторы: кликабельность по запросу как сайта в целом, так и отдельного документа; общая кликабельность сайта и документа (включая переходы из закладок); кликабельность из конкретного региона (важно для ранжирования региональных сайтов);
  • поведение на странице поисковой выдачи (CTR документа на странице выдачи, общее число кликов за сессию), возвраты на страницу выдачи с текущим запросом (оценивается как время возврата, так и действие после первого клика и всех последующих) – отчасти является разновидностью кликовых факторов – но только отчасти, подробнее об этом как-нибудь в другой раз;
  • общая посещаемость сайта с оценкой источников трафика и их качества (здесь важно помнить – рост «закладочного» трафика будет работать и на рост поискового трафика);
  • длительность сессии пользователя в целом и время нахождения на конкретной странице;
  • pageview сайта в целом и просмотр конкретных страниц, особенно важных с точки зрения конверсии;
  • взаимодействие со страницей: поведение пользователя на странице, скроллинг, возвраты к тем или иным местам в тексте страницы, заполнение и отправка форм, заполнение полей и т.д.

Вывод № 1. Теперь главный вывод по поводу поведенческих факторов (прочитайте, пожалуйста, вслух и желательно по слогам): на подавляющее количество поведенческих факторов влиять невозможно, т.к. отсутствует цель улучшения – что улучшать и для чего.

Я говорю – «на подавляющее большинство», могу даже сказать, на какое. Влиять можно фактически только на кликовые факторы на странице выдачи. Здесь очевидно: чем выше кликабельность документа, тем лучше. Соответственно, очень простой вывод – надо улучшить сниппеты. Правда, мы сейчас не будет брать в расчет, что улучшение спиппетов – в целом достаточно трудоемкая работа. И она имеет смысл в случае, если у вас очень большое количество страниц в выдаче и вы можете каким-то образом автоматизировать работу по улучшению сниппетов (отсылаю к опыту и кейсам Викимарта). Улучшение сниппетов на одном десятке страниц особого эффекта вам не даст. И даже сотня страниц с хорошими сниппетами в выдаче особенно не повлияет на ситуацию, если в индексе у вас от 3 тыс. страниц.

Почему нельзя влиять на другие факторы? Давайте разбираться. В какую «сторону» pageview улучшать – увеличивать или уменьшать? Как влиять на длительность сессии – уменьшать или увеличивать? А как влиять на количество «закладочников» и ядро пользователей? Насколько влиять? Вот это вот очень важный момент. На самом деле, нужно понимать, что машинное обучение нивелирует логические обоснования ранжирования, при этом сохраняя качество выдачи. Сейчас ни сотрудники Яндекса, ни сотрудники Гугла не дадут вам ответ – почему тот или иной сайт находится выше или ниже по тому или иному запросу при видимом совпадении поведенческих (да и прочих тоже) факторов ранжирования. Идеального паттерна поведения пользователя на сайте не существует в природе. То есть фактически оптимизатор не имеет возможности оценить, что делать – увеличивать длину сессии или уменьшать ее (искусственно увеличить ее очень просто), увеличивать или уменьшать pageview и т.д.

Мало того, представители поисковиков, говоря о поведенческом, говорят, что паттерны поведения оцениваются ими только для понимания, было ли достигнуто «счастье пользователя» или нет. Термин интересный, на самом деле. Присмотритесь к нему. Лично я уже начал штудировать материалы по психологии в той ее области, которая изучает удовлетворение как критерий ценности.

Что можно и нужно делать, чтобы улучшить поведенческие факторы?

  • Первое. Целевая страница должна давать максимально исчерпывающий ответ на запрос. И в данном случае максимально исчерпывающий – это не значит, максимально подробный, с разжевыванием всей тематики, вовсе нет. В каких-то случаях максимально исчерпывающий ответ будет в виде словарной статьи, в каких-то – в виде таблицы с ценами, в каких-то – картинка-«демотиватор». Суть в том, что поиск знает, что ожидает пользователь и каким результатом он будет, скорее всего, удовлетворен (поиск обладает данными по «счастью» других пользователей, исследующих результаты по данному запросу), а оптимизатор такими данными не обладает.
  • Второе. Пользователь должен сайту доверять. Запомните это и примите на веру. А теперь, внимание, вопрос: так называемый оптимизатор может что-то сделать, чтобы увеличить доверие пользователя к сайту?
  • Третье. Сайтом должно быть удобно пользоваться. Навигация должна быть интуитивно понятна, вся максимально востребованная информация должна находиться в минимальное кол-во кликов и т.д. И это вопрос не только структурной иерархии сайта, но и в вопрос дизайна. А говоря еще более конкретно – все это вопрос пресловутого юзабилити. И что вам, извините, может предложить оптимизатор? Сразу предвкушаю ваш вопрос – нет, штатного юзабилити-специалиста на стороне агентства тут будет недостаточно. Юзабилити – это не умозрительная дисциплина, это постоянное А/B-тестирования и внедрения большее «юзабильного» варианта.

Вывод №2. Классические SEO-агентства будут совершенно бесполезны, когда речь идет об улучшениях поведенческих метрик. Но именно контент-маркетинг будет более эффективным методом. По крайней мере это касается таких факторов, как: создание максимально исчерпывающего ответа на запрос, доверие к сайту (хотя бы на уровне содержания).

Идем далее.

Ссылочные факторы ранжирования

– они никуда не делись и никуда не денутся впредь. Единственно, что нужно понимать, – поисковики уже сейчас с очень высокой степенью достоверности могут определять платные ссылки. Другой вопрос, как они к ним относятся. С нашей точки зрения, для Яндекса так называемые seo-ссылки работают лучше, чем для Гугла. Но это не значит, что Яндекс их хуже определяет. В любой момент Яндекс может «выкатить» ранжирование без учета seo-ссылок. Качество выдачи будет хуже – вот, в чем проблема. Да, последние десять лет все лидеры своих ниш, или «монстры уровня», как я их называю, так или иначе занимались seo-прессингом в той области, которая касается внешних ссылок. Гугл, вводя антиспам-фильтр Penguin, фактически не испугался понизить «монстров уровня», и сделал это. Как показала практика, ничего особенно не потерял. Но нужно понимать, что выбор сайтов в англоязычном сегменте интернета все-таки выше.

Мы уже много писали о том, как строить свою стратегию по линкбилдингу в новой эпохе поискового ранжирования (по крайней мере, эти две статьи я очень рекомендую вам к прочтению – раз и два). Основной принцип: линкбилдинг тоже существенно претерпел изменения, и не зря зарубежные оптимизаторы отказываются от термина link building в пользу нового термина link earning. Тут все просто – ссылки, которые вы можете купить на биржах – это как раз те самые ссылки, которые наименее ценны с точки зрения поисковиков. Что же делать?

  • Первое. Улучшайте качество вашего контента. Если ваш контент будет экспертным, он родит большое количество републикаций и, соответственно, «естественных» ссылок.
  • Второе. Будьте PR-активны. Увеличение качественных ссылок – а значит, ссылок, которые учитываются поисковиками, – на ваш ресурс возможно путем «классических» инструментов PR. Крайне желательно, чтобы на вас ссылались ресурсы, которые не продают ссылки на ссылочных биржах.
  • Третье. Контролируйте качество контента на сторонних площадках, особенно тщательно следите за вписанием ссылок в этих текстах. Это, как уже понятно, касается так называемых «гостевых постов», «партнерских размещений» и т.д. Суть в следующем. Важно не количество ссылок, а их качество. И тут гораздо важнее с точки зрения поиска получить ссылку с качественного и востребованного материала, при этом будет серьезным бонусом, если по ссылке будут реальные переходы «живых» людей (помним об алгоритме BrowseRank – разновидности классического Page Rank, но в основе которого лежат не ссылки, связывающие документы, а переходы с одного документа на другой).

Увеличение качественной ссылочной массы – той, которая сейчас максимально работает на улучшение видимости сайта в поисковиках, - как это ни странно, лучше произведут классические PR-агентства, а не оптимизаторские. Либо вы, как заказчик, должны взять на контроль ссылочную массу по проекту, что согласитесь, отнюдь не является нормой в отношениях между клиентами и SEO-агентствами. Не буду голословным, рекомендую прозвонить лидеров отрасли и задать им такой вопрос: вы готовы ежемесячно присылать отчет по нашим новым беклинкам?

Вывод №3. Классические SEO-агентства могут выполнять работу по увеличению качественной ссылочной массы, но должен быть жесткий контроль на стороне заказчика. Нормой отношений SEO-агентства и клиента является, скорее, скрывание внешней ссылочной массы. Понятно почему – она либо очень низкокачественная, либо ее нет вовсе.

Факторы ранжирования на основе семантической релевантности

Очень подробно рассматривал этот вопрос в прошлой статье. Пробегусь коротко. Да, текстовая релевантность важна – все эти вхождения ключа на странице, тайтлы, H1 и прочее. Но не переоценивайте, пожалуйста, их роль. Поиск в отношении текстовой релевантности гораздо интеллектуальнее, чем вам кажется. В целом поведение на странице и уровень вовлеченности читателя гораздо важнее, чем посадочные ключи. Что касается т.н. плотности ключей – она вообще не важна. Да, поисковики пока еще используют так называемые предфильтры, оценивающие текстовый переспам на странице. Но поведение пользователя на странице гораздо важнее. Я вам могу привести пример: сайт на втором месте в Яндексе по ВЧ запросу-однословнику. Количество вхождений на странице – более 70. Но это реально хорошая статья, разобранная по кускам и растащенная по всему интернету. Высокая плотность ключа совсем не режет глаз, ключи уместны и оправданы. И этот текст невозможно заказать у копирайтера, специфическая тематика, специфический продукт. Чтобы написать эту статью, наши копирайтеры брали интервью у 4 специалистов компании, для сайта которого писался материал. Общая длительность интервью – более 6 часов.

Классические SEO-агентства, как правило, не имеют мотива для такой глубокой проработки текста. А чаще и возможности. Рынок привык к т.н. «seo-копирайтингу» - банальному вписыванию ключей в банальные, ничего не значащие тексты. Более вредную услуги, чем «seo-копирайтинг», - еще поискать.

Вывод №4. Важно не качество вписания ключей – важная экспертиза в тексте. Поведенческие факторы на странице (взаимодействие со страницей) – гораздо важнее всего остального. Если ваше SEO-агентство справляется с это задачей – отлично. Но есть большие сомнения на этот счет. Наша практика показывает, что обычно заказчик с этой проблемой справляется лучше, чем его SEO-агентство. Либо привлекайте специальное агентство или копирайтеров, не знающих, что такое «seo-копирайтинг». Чем меньше в тексте будет SEO-заморочек, тем лучше.

Давайте подбивать итоги статьи. В нижеследующей табличке я хотел привести факторы ранжирования, которые важны для поисковых алгоритмов уже сейчас. Понятно, что мы включаем в наше исследование не все факторы, например, мы ничего не сказали о таких факторах, как: возраст документа, возраст сайта, trust домена, социальные сигналы и т.д. Потому что на эти факторы либо нельзя влиять вообще, либо влиять на них крайне сложно и финансово не оправданно. И вот, что у нас получилось:

SEO Контент-маркетинг
Поведенческие кликовые факторы влиять невозможно влиять невозможно
Поведение в SERPе возможно, но трудозатратно возможно, но трудозатратно
Общая посещаемость, "закладочный" трафик, последующие возвраты на сайт влиять невозможно можно влиять, во многом это зависит от качества контента
Длительность сессии, время нахождения на конкретной странице влиять можно, но непонятно, в какую сторону влиять можно, но непонятно, в какую сторону
Количество просмотров на посетителя влиять можно, но непонятно, в какую сторону влиять можно, но непонятно, в какую сторону
Уровень взаимодействия пользователя со страницей невысокий высокий, при должном качестве контента
Максимально исчерпывающий ответ на запрос возможен, но не прогнозируем возможен, прогнозируем
Доверие к сайту не контролируемо контролируемо, но не полностью, а только на уровне контента
Удобство пользования сайтом не контролируемо не контролируемо
Количество естественных ссылок очень низкое высокое при высоком качестве контента (наличие экспертизы в текстах)
Качество текстов на страницах донора очень низкое, контролируется исполнителем редко выше среднего
Уровень экспертизы в тексте как правило низкий как правило, выше среднего

Часть 3. Опыт в контент-маркетинге Нейла Пателя

«Я всегда повышал трафик естественной выдачи с помощью контент-маркетинга. Вы спросите: почему? Это быстрее и дешевле.

Мы могли запустить медиа и получать более 100 тысяч естественных посетителей в месяц только лишь благодаря ведению блога и созданию инфографик. Мы не создали ни одного линка вручную, а просто потратили время и деньги на контент-маркетинг.

Также я поступил и с сайтом Quick Sprout. Каждый месяц Google направляет около 90 тысяч посетителей в мой блог, хотя я сам не создал ни одного линка. Я просто написал много качественного контента… 311 постов, если быть точным.

Если вы до сих пор не верите, что контент-маркетинг – новая стратегия SEO, давайте взглянем на цифры.

Контент-маркетинг в цифрах

На сервисе KissMetrics мы создали в общей сложности 47 инфографик. Одна инфографика в среднем стоила нам 600 долларов. Это значит, что за последние два года на инфографику мы потратили 28 200 долларов.

За эти два года наш сайт получил 2 512 596 посетителей и 41 142 беклинка от 3741 уникальных доменов. И все благодаря тем самым 47 инфографикам.

Что касается соцсетей, то за последние два года наши инфографики упоминались в 41 359 твитах и заработали 20 859 лайков.

Если вы захотите привлечь 2 512 596 посетителей, вам придется потратить 125 630 долларов с учетом того, что каждый стоит 5 центов. Если захотите купить 41 142 линка на таком сервисе как Sponsored Reviews по ставке 20 долларов за штуку, это вам обойдется в 822 840 долларов. При этом, нет гарантии, что линки будут качественными.

Если вы пожелаете купить 41 359 твит, это будет стоить 82 718 долларов, с учетом, что один твит продается по 2 доллара. Если вы платите два доллара за лайк, придется выложить еще 41 718 долларов.

Если вы попытаетесь обмануть Google и получить результаты, сравнимые с нашими на KISSmetrics, то в общей сложности вы потратите больше миллиона долларов. Это огромная сумма, особенно если сравнивать ее с теми 28 тысячами, что мы потратили на инфографики».

Разница между контент-маркетингом и SEO-оптимизацией

Существует огромная разница между оплатой всех названных выше вещей и вложением средств в контент-маркетинг. И, знаете, какая?

Нет, дело не в деньгах. Подумайте получше…

Контент-маркетинг не зависит от обновлений поисковых алгоритмов, в то время как SEO-оптимизация зависит. Поисковые машины способны определить ценный контент, и, в конечном счете, именно такой материал и будет иметь высокие рейтинги.

Итак, вместо того, чтобы инвестировать во временное повышение рейтингов и трафика, лучше сделайте ставку на долгосрочное решение проблемы и вложитесь в контент-маркетинг.

Заключение

Теперь вы знаете, что контент-маркетинг – это новая стратегия SEO, а вложение большого количества денег в оптимизацию еще не гарантирует хороших результатов. За последние несколько лет я исследовал различные типы контента, и некоторые из них дают лучшие результаты, чем другие:

  • Детализированный контент. Короткие посты в блогах обычно получают меньше линков, чем детализированный основательный контент. Но не пытайтесь создавать сотни обширных постов каждый день, как это происходит в блоге Huffington. Делайте ставку на качество.
  • Простая для восприятия инфографика. Если вам удастся преподнести сложную информацию в понятном и структурированном виде, ваш сайт посетят миллионы пользователей.
  • Профили в соцсетях. Ключевое требование для успешного контент-маркетинга – создание профилей в соцсетях. Создайте аккаунт в Twitter и Facebook. Они пригодятся для распространения информации.
  • Ищите новые e-mail. Проверьте, имеются ли у вас опции «opt-in» (согласие на получения массовых рассылок) и «pop-up» (всплывающие окна), которые помогут расширить ваш список e-mail адресов. Если у вас много контактов, вы всегда можете отправить им электронное письмо с уведомлением о своем новом посте или статье. Это один из самых простых способов сделать контент популярным.
  • Будьте последовательны. Если вы не можете регулярно публиковать контент, то получить рентабельность от инвестиций в контент-маркетинг будет очень сложно. Поэтому обновляйте контент постоянно.
  • Заголовки имеют значение. Как бы хорош ни был ваш контент, если вы не напишите к нему заманчивый заголовок, никто читать его не станет. Учитесь писать хорошие заголовки.

И что теперь вы думаете о контент-маркетинге? Может это все таки новый вид SEO?

#
SEO Контент
© «TexTerra», при полном или частичном копировании материала ссылка на первоисточник обязательна.