Рассылка по интернет-маркетингу:

Анализ контента. Часть 1. Сбор метрик с помощью плагина Seo Tools

3 Июля 2014 Евгения Крюкова
Время чтения: 7 минут Нет времени читать? Нет времени? 14 комментариев
Отправим материал вам на:

У этой статьи есть продолжение – «Анализ контента. Часть 2. Обработка данных».

За последние два года в нашем блоге появилось более 600 материалов. Некоторые из них оказались крайне успешными и принесли нам огромное количество трафика и расшариваний (таких постов у нас было не много, по моим прикидкам, не более 40-50), в то время как остальные не оправдали наших ожиданий. Почему так происходит: из-за неинтересной темы, отсутствия вдохновения или неудачного дня публикации? И как сделать так, чтобы каждый новый пост более или менее стабильно попадал в точку?

Ответ до безумия прост – заняться веб-аналитикой.

Как только вы освоите азы веб-аналитики, ваша меткость увеличится многократно

Чтобы проанализировать весь контент, имеющийся на вашем сайте, вам потребуется пройти через два этапа: сбор данных и их анализ. Сегодня мы остановимся лишь на первом (так как объем информации большой, было решено подавать его порционно). Расскажем и наглядно покажем, как в автоматизированном режиме (с помощью простой таблицы Excel и одного потрясающего плагина) собрать все необходимые метрики, чтобы потом обработать их и понять, что именно хочет ваша целевая аудитория и как создавать контент, который будет неизменно пользоваться у нее популярностью.

1. Сбор ссылок

Первое, что нам необходимо сделать, – это собрать все ссылки на контент вашего блога и поместить их в таблицу Excel. Для этого воспользуемся программой Screaming Frog. Программа платная, а в бесплатной версии есть ограничения по нужным нам функциям. Поэтому придется купить лицензию. После того как установите приложением, делаем так, как показано на следующей гифке: вводим раздел, в котором находятся все ваши материалы, убираем галочки, ставим фильтр по HTML и нажимаем Start.

Сбор ссылок с помощью Screaming Frog Seo Spider

После того как программа просканирует ваш сайт, жмем Export и сохраняем отчет в формате Excel Workbook (.xlsx). Должно получиться следующее:

2. Создание таблицы

Анализировать контент мы будем по 4 параметрам:

  • Категория поста vs расшаривания в соцсетях / бэклинки / комментарии
  • День публикации vs расшаривания в соцсетях / бэклинки / комментарии
  • Длина заголовка vs расшаривания в соцсетях / бэклинки / комментарии
  • Длина статьи vs расшаривания в соцсетях / бэклинки / комментарии

Поэтому большинство метрик в отчете нам не нужны. Удаляем все, кроме: Address (ссылка на статью), Title 1 (заголовок), Title 1 Length (количество знаков в заголовке) и Size (количество знаков в статье). И добавляем новые: Категория, Дата, Комментарии, Facebook, Twitter, Google+, Вконтакте, Бэклинки. В итоге должно получиться следующее:

3. Установка плагина Seo Tools

Чтобы заполнить пустые разделы, воспользуемся плагином Seo Tools. Для его нормального функционирования потребуется последняя версия Microsoft .NET Framework. Чтобы скачать ее, необходимо перейти по ссылке.

Страница с последней версией Microsoft .NET Framework

Далее необходимо определить, какая версия MS Office у вас стоит: 32- или 64-битная. Для этого заходим в MS Word, Файл – Учетная запись – О программе Word.

Определяем версию MS Office

После того как вы узнали, какая версия у вашего MS Office, переходим по ссылке и нажимаем Download the latest version. Для получения ссылки на скачивание плагина Seo Tools, необходимо ввести email. Вводим и нажимаем Subscribe to list. Подтверждаем подписку и тут же попадаем на такую страницу:

Сообщение, которое приходит после подписки на блог автора Seo Tools

Скачиваем плагин нужной версии. Распаковываем его. Запускаем нашу таблицу и закидываем в пустое место файл под названием Seo Tools:

Все, плагин установлен. Если вы все сделали правильно, в меню, с самого правого края, должен появиться раздел Seo Tools. Осталось только собрать нужные метрики.

4. Дата

Начнем с самого простого, с даты. Переходим в раздел Seo Tools – Scraping – XPathOnURL и вводим в первую строку URL статьи.

Seo Tools – Scraping – XPathOnURL

Чтобы заполнить вторую строку, необходимо перейти в саму статью. Навести курсор на дату публикации. Сделать правый щелчок – Просмотр кода элемента. Еще раз правый щелчок – Copy Xpath.

Как работает функция XPathOnURL в плагине Seo Tools

После этого возвращаемся в Excel и вставляем скопированный код во вторую строку и все двойные кавычки заменяем на одинарные (апострофы). Запомните: это нужно делать всегда, иначе функция не сработает. В итоге должно получиться следующее:

Быстрый сбор данных с помощью Seo Tools

5. Категория

То же самое проделываем и с категорией. Поскольку на нашем сайте немного необычно реализована функция категорий, разберем на примере другого сайта. Делаем абсолютно все то же самое.

Сбор информации о категории страницы с помощью плагина Seo Tools

Как я уже сказала, на нашем сайте этот трюк проделать не удалось, потому что выбранная категория не прописывается в исходном коде. Но выход мы все-таки нашли. В наших статьях мы используем микроразметку Schema.org типа Article. И в ней мы каждый раз вручную прописываем категорию статьи. Поэтому эти данные нам все-таки удалось вытащить.

Заходим в код. Находим там микроразметку. Строку с категорией. Обратите внимание, у рубрики есть атрибут content (он нам понадобится позже).

Код одной из наших статей

Копируем Xpath и вставляем во вторую строку окошка. В третьей строке прописываем атрибут content.

Вытаскиваем данные из микроразметки

Почему в случае с датой мы не прописывали атрибут, а здесь прописали? Честно, не могу объяснить это грамотно, т.к. я не программист, в всего лишь маркетолог. Поэтому скажу просто: если функция не срабатывает, значит нужно попробовать прописать атрибут. Метод научного тыка всегда актуален :)

6. Комментарии

Количество комментариев добывается по такому же принципу и, по идее, не должно вызвать у вас трудностей. Однако здесь есть одно «но». Если вы используете Disqus или какой-либо другой сервис, который динамически меняет данные, эта функция не сработает. Как определить, входите вы в эту категорию или нет? Для этого зайдите в исходный код страницы (ctrl + u) и попробуйте поискать там фразу, которую вы видите в блоке с комментариями. Например, если Disqus пишет:

Disqus показывает 4 комментария

Заходим в исходный код и ищем там эту фразу. Как видите, там ее нет:

В исходном коде нет ни одного комментария

Как собрать эти данные, кроме как вручную мне, к сожалению, пока неизвестно. Как разберемся, обязательно поделюсь с вами этой информацией.

7. Facebook, Twitter, Google+

Расшаривания в Фейсбуке, Твиттере и Гугл+ собираются очень легко, буквально в два клика. Вы просто выбираете раздел Social, нужную соцсеть и вставляется в появившуюся строку URL страницы. Элементарно. Очень жаль, что создатели этого плагина не включили в свой список Вконтакте. Тогда цены бы ему не было.

Сбор расшариваний по всем соцсетям

8. Вконтакте

А вот здесь у большинства пользователей, не имеющих навыков программирования, может возникнуть проблема. Сколько мы ни бились над плагином Seo Tools, сколько ни пытались, но собрать расшаривания Вконтакте этим способом нам не удалось. Поэтому единственным решением этой проблемы стало создание специального скрипта, который отсылает запрос на сервер Вконтакте и получает ответ в виде количества расшариваний. Если кто знает, как это можно сделать по-другому, будем очень благодарны, если вы поделитесь с нами в комментариях. А тем, у кого нет возможности создания подобного скрипта, придется собирать вручную. Инструкцию по его созданию дать мы вам не можем, т.к. скрипт пишется индивидуально под каждый сайт.

9. Бэклинки

Плагин Seo Tools связан с сервисом Majestic Seo, с помощью которого можно собрать бэклинки. Но сервис платный и чтобы получить доступ к его возможностям, необходимо заплатить 2400 рублей.

Расценки Majestic Seo

Тем, у кого денег нет, кто продвигает свой сайт самостоятельно, придется собирать эти данные вручную. В этом вам поможет сервис ahrefs. Вводим ссылку и смотрим количество бэклинков. Очень удобно, но у данного сервиса (в бесплатной версии) есть один жирный минус – в день можно проверять не более 10 линков. Так что, если у вас большой сайт, все-таки придется раскошелиться.

Сервис ahref показывает количество бэклинков для каждой страницы

Что получилось?

В итоге у нас получилась вот такая табличка.

Пока это просто данные. И с первого взгляда непонятно, какая статья оказалась более эффективной, а какая – менее. Чтобы обработать эту информацию, прочитайте следующую часть этой статьи – «Анализ контента. Часть 2. Обработка данных».

P.S. Понравился материал? Поделитесь им со своими друзьями. Будем благодарны!

Маркетолог агентства «Текстерра», автор бесплатной электронной книги «100+ практических хаков для интернет-маркетологов». Пишу статьи, веду рассылку, постоянно ищу новые площадки и способы продвижения. Считаю, что качественный контент – мощнейшее оружие маркетолога, и уже 3 года успешно подтверждаю это на практике. Добавляйтесь ко мне в друзья в Facebook и «Вконтакте», я там периодически публикую очень занятные статейки по интернет-маркетингу.
Другие публикации этого автора
© «TexTerra», при полном или частичном копировании материала ссылка на первоисточник обязательна.
Нашли ошибку в тексте? Выделите нужный фрагмент и нажмите ctrl + enter.
Оцените материал:
Texterra – продвижение в интернете x
Заказать звонок:
Texterra – продвижение в интернете x
Заказать услугу: