Как инструмент «парсинг поисковых подсказок» поможет в работе seo-специалиста?

Содержание

Как чистить собранные ключи от мусора

Собранные ключи нужно чистить от мусорных запросов на каждом этапе работы над семантикой сайта. Многие сервисы предлагают свои инструменты, обычно для чистки используют минус-слова — маячки для программы, чтобы не пропускать нежелательные фразы в ядро. Даже при ручном парсинге в Вордстате можно использовать минус-слова с оператором «-».

Основная уборка происходит перед кластеризацией. Что чистить?

  • Ключи с нулевой частотностью.
  • Мусор, который можно убрать минус-словами:
    • товары, которых у вас нет;
    • не ваша геолокация;
    • не ваша специализация (стоп-слова типа бесплатно, скачать);
    • устаревшие данные;
    • ошибки и опечатки.
  • Витальные запросы, относящиеся к конкурентам.
  • Не подходящие по интенту запросы (информационные для коммерческих сайтов и наоборот).
  • Слишком общие запросы, которые приведут нецелевой трафик.

После любой автоматической чистки требуется контрольная ручная проверка.

Key Collector (Кей Коллектор)

 

Платный парсер, вобравший в себя практически все необходимые функции. Программное обеспечение собирает данные о ключевых фразах, снимает позиции сайта, выявляет ценность, уровень конкурентности фраз и предлагает дополнительные услуги.

Key Collector — полноценная система для продвижения сайта. Оптимизатору доступна возможность получать рекомендации по перелинковке между страницами сайта. Программное обеспечение предназначено для крупных проектов и опытных пользователей.

Данные о ключевых фразах собираются из множества источников. В том числе, оптимизатору доступны данные о поисковых подсказках. Семантическое ядро формируется в автоматическом режиме.

Основные преимущества:

  • Функциональность. Оптимизатору доступно огромное количество функций для автоматического формирования семантического ядра. Фактически, это полная оптимизация.
     
  • Удобство. Небольшие проблемы с использованием могут появиться у новичков. С другой стороны, ПО создано для опытных пользователей. Для них программа удобна.
     
  • Скорость. Информация обрабатывается очень быстро.

Программа платная. Необходимо приобрести лицензию – стоимость не более 1800 – 1900 рублей. При покупке нескольких лицензий предоставляется скидка. Одна лицензия устанавливается на 1 ПК.

Key Collector 9.2

Помощник (мастер) оформления производственного заказа

Обработка призвана помочь в создании документов и справочников при оформлении производственного заказа. По итогам заполнения помощника оформления производственного заказа автоматически будут созданы следующие данные:
1. Документ «Заказ на производство».
2. Элементы справочника «Номенклатура».
3. Постоянные (общие) и переменные ресурсные спецификации в справочнике «Ресурсные спецификации».
4. Этапы производства в одноименном справочнике.
5. В зависимости от условий будут созданы документы «Заказ переработчику» или «Заказ в цех».
Есть возможность загрузки данных из файла Excel (образец файла Excel для загрузки прилагается в архиве с обработкой).

1200 руб.

Советы и рекомендации по использованию программ для парсинга

Специалисты советуют сочетать ручной и автоматический выбор запросов для составления семантического ядра, особенно для новичков. Пользуясь штатным инструментом Яндекс Вордстат Ассистент, вы нарабатываете навыки интуитивного подбора поисковых фраз, которые приводят на сайт целевых клиентов с помощью средне- и низкочастотных ключей. Высокочастотные фразы не всегда работают, особенно в конкурентной нише.

Если у вас нет времени на ручной парсинг в Яндекс Вордстат, используйте специальные инструменты. В интернете можно найти различное программное обеспечение, но большинство русскоязычных специалистов по SEO-оптимизации делают парсинг выдачи Яндекса с помощью Key Collector.

Это десктопный продукт, позволяющий создавать и хранить в локальной памяти компьютера проекты для каждого сайта, загружать и сохранять файлы и делать парсинг ключевых слов в соответствии с региональными настройками. Программа требует привязки к аккаунту. Для работы с ключевыми поисковыми запросами в Кей Коллекторе имеются пиктограммы основных поисковых систем в Рунете (в нашем случае это Yandex-парсер, хотя можно выбрать Google, Bing и другие).

Среди других полезных сервисов для SEO такие:

  • Serpstat – многофункциональная платформа для профессионалов, имеющая триальную версию с ограниченным функционалом, а также платную подписку от 19 до 299$ в месяц;
  • Ahrefs – веб-сервис с множеством полезных опций, включая мониторинг ниши, анализ конкурентов и улучшение индексации сайта. Для сбора семантического ядра предусмотрен инструмент Keywords Explorer. Протестировать его можно от 7$ в неделю;
  • Semrush — аналог Ahrefs по части функционала, более дорогой по тарифам (от 99$ и выше).

Специалисты утверждают, что Кей Коллектор – это самая удобная и функциональная программа, позволяющая значительно облегчить жизнь оптимизатора. У нее есть множество полезных опций для точной настройки параметров парсера Yandex (например, глубины поиска, избирательного поиска запросов по базовой частотности и т.п.).

Но у программы есть нюанс – она платная. Стоимость лицензии составляет 1800-1900 рублей по электронному и безналичному расчету соответственно.

Совет! Если по какой-то причине вы не хотите пользоваться этим продуктом, можете попробовать его бесплатный аналог «Словоёб». Подойдет и более простой вариант — Букварикс – бесплатный сервис для сбора ключевых слов и формирования семантического ядра.

Парсинг Яндекс Вордстат можно делать самостоятельно и с помощью специальных программ. Ручной сбор посредством инструмента Wordstat Assistant оправдывает себя в том случае, если ваша ниша имеет узкую направленность и мало конкурентов, а перечень поисковых запросов относительно невелик. При больших объемах работ рекомендуется пользоваться специальными программами для парсинга и аналитики.

Десктопные и облачные парсеры

Облачные парсеры

Основное преимущество облачных парсеров — не нужно ничего скачивать и устанавливать на компьютер. Вся работа производится «в облаке», а вы только скачиваете результаты работы алгоритмов. У таких парсеров может быть веб-интерфейс и/или API (полезно, если вы хотите автоматизировать парсинг данных и делать его регулярно).

Например, вот англоязычные облачные парсеры:

  • Import.io,
  • Mozenda (доступна также десктопная версия парсера),
  • Octoparce,
  • ParseHub.

Из русскоязычных облачных парсеров можно привести такие:

  • Xmldatafeed,
  • Диггернаут,
  • Catalogloader.

Любой из сервисов, приведенных выше, можно протестировать в бесплатной версии. Правда, этого достаточно только для того, чтобы оценить базовые возможности и познакомиться с функционалом. В бесплатной версии есть ограничения: либо по объему парсинга данных, либо по времени пользования сервисом.

Десктопные парсеры

Большинство десктопных парсеров разработаны под Windows — на macOS их необходимо запускать с виртуальных машин. Также некоторые парсеры имеют портативные версии — можно запускать с флешки или внешнего накопителя.

Популярные десктопные парсеры:

  • ParserOK,
  • Datacol,
  • Screaming Frog, ComparseR, Netpeak Spider — об этих инструментах чуть позже поговорим подробнее.

Кластеризация

Очищенное от мусора семантическое ядро необходимо кластеризовать — распределить ключи по смысловым группам. Под каждый кластер создается отдельная страница. Контент на странице должен соответствовать ключам из кластера и полностью раскрывать тему. В этом случае продвижение сайта будет эффективным.

В каждом кластере определяется основной ключ, который нужно правильно вписать на странице:

  • в заголовок H1;
  • в первом-втором абзаце текста;
  • в метатегах Title, Description, Alt.

Остальные ключи гармонично распределяем по странице. Чтобы найти и проверить ключевые слова в тексте, используйте бесплатные онлайн-сервисы типа Advego. Сюда можно скопировать статью и посмотреть частоту вхождения ключей в отчете «Семантическое ядро». Нужно, чтобы основные ключи были в самом начале списка, но по частоте не зашкаливали выше 3 %.

Виды парсеров по сферам применения

Для организаторов СП (совместных покупок)

Есть специализированные парсеры для организаторов совместных покупок (СП). Их устанавливают на свои сайты производители товаров (например, одежды). И любой желающий может прямо на сайте воспользоваться парсером и выгрузить весь ассортимент.

Чем удобны эти парсеры:

  • интуитивно понятный интерфейс;
  • возможность выгружать отдельные товары, разделы или весь каталог;
  • можно выгружать данные в удобном формате. Например, в Облачном парсере доступно большое количество форматов выгрузки, кроме стандартных XLSX и CSV: адаптированный прайс для Tiu.ru, выгрузка для Яндекс.Маркета и т. д.

Популярные парсеры для СП:

  • SPparser.ru,
  • Облачный парсер,
  • Турбо.Парсер,
  • PARSER.PLUS,
  • Q-Parser.

Вот три таких инструмента:

  • Marketparser,
  • Xmldatafeed,
  • ALL RIVAL.

Парсеры для быстрого наполнения сайтов

Такие сервисы собирают названия товаров, описания, цены, изображения и другие данные с сайтов-доноров. Затем выгружают их в файл или сразу загружают на ваш сайт. Это существенно ускоряет работу по наполнению сайта и экономят массу времени, которое вы потратили бы на ручное наполнение.

В подобных парсерах можно автоматически добавлять свою наценку (например, если вы парсите данные с сайта поставщика с оптовыми ценами). Также можно настраивать автоматический сбор или обновление данных по расписания.

Примеры таких парсеров:

  • Catalogloader,
  • Xmldatafeed,
  • Диггернаут.

Как пользоваться сервисом для парсинга аудитории Pepper.Ninja?

Почему Pepper.Ninja? Просто в Pepper.Ninja есть все, что мне нужно, и даже больше. Например, с прямых трансляций во ВКонтакте он умеет собирать зрителей, а не только комментаторов, как другие сервисы.

В общем, это не обзор сервисов парсинга, поэтому покажу на примере Pepper.Ninja, которым пользуюсь сам. Конкретнее – функции «Кто мой клиент 3.0».

«Кто мой клиент 3.0» – это фильтр, который ищет похожую аудиторию из загруженного вами в сервис списка или пользователей, состоящих в тематических сообществах. Парсер:

  • проанализирует ЦА;
  • подготовит подробную аналитику;
  • соберет готовые базы для рекламной кампании;
  • найдет похожие сообщества с потенциальными клиентами.

У вас будет две группы пользователей: горячая и теплая аудитория. Еще – подробная статистика по каждой группе и список сообществ, на которые подписаны пользователи. Готовую базу вы сможете сразу выгрузить в рекламный кабинет или отфильтровать по более четким параметрам.

Как это выглядит на практике?

Поиск по ключевым словам. Предположим, что нам надо найти людей, увлекающихся настольным теннисом в Москве. Для этого заходим в парсер «Кто мой клиент 3.0», указываем ключевое слово «настольный теннис», выбираем страну и город.

Выбрали? Запускайте задачуПозже выгрузку можно будет отфильтровать по городу

Переходите в раздел «Задания». Жмите на значок воронки напротив выгрузки и применяйте нужные фильтры к найденной аудитории. Затем жмите «сэндвич» в той же строке и выбирайте «Посмотреть результаты».

Осторожнее, не удалите случайно, а то придется начинать сначала :–)

Откроется новое окно, в котором можно посмотреть количество найденной аудитории и подробную аналитику. Собираются данные по городам, странам, полу, возрасту, профессиям и университетам пользователей. Еще парсер покажет 300 самых популярных групп у людей из выгрузки.

Вы можете выбрать конкретные сообщества из перечня и добавить их в список для сохранения – создайте новый список или выберите уже существующий.

Изначально отмечены все найденные сообщества. Чтобы снять выбор, жмите на пустой квадрат в меню вверху списка. Теперь можно отметить только нужные паблики

Добавить в список для дальнейшей работы можно все выбранные сообщества или по одному. Для выгрузки нескольких групп жмите значок облачка со стрелкой, для выгрузки по одному – жмите «Добавить в список» под названием паблика.

Теперь вы можете парсить список, чтобы выгрузить нужную аудиторию групп. Или примените фильтрацию, например, чтобы сразу отсеять пользователей из регионов, которые бесполезны для вашей задачи.

Фильтровать паблики перед выгрузкой в список еще можно по числу участников в сообществе, полу, возрасту, интересам и по десяткам других характеристик

Вот и все.

Полученные данные вы можете скачать в форматах Excel или CSV – парсер выгрузит информацию профилей участников со всеми полями

Обратите внимание: «Кто мой клиент 3.0», даже если парсит во ВКонтакте, автоматически находит аккаунты пользователей в Инстаграме, то есть вы можете скачать ID, профили и ссылки на профили как во ВКонтакте, так и в Инстаграме. Или сразу выгружайте базу в рекламный кабинет во ВКонтакте

Что еще умеет Pepper.Ninja? Все, о чем говорил в статье, и кое-что еще. Например:

  • собирать аудиторию в обсуждениях под постом;
  • находить в сообществах контакты пользователей или сотрудников, которые указали в профиле паблик как место работы;
  • искать пользователей по статусу, месту работы, должности, религии, имени, фамилии и даже имени ребенка;
  • собирать сообщества, где еще есть ваша ЦА;
  • находить друзей и родственников пользователей.
  • собирать рекламные посты конкурентов, искать самые интересные и выделять активную аудиторию промопоста;
  • находить пользователей в Инстаграме по геоточке – сможете сконвертировать российскую аудиторию в емейл и телефоны для настройки рекламы в Фейсбуке.

Список можно продолжать еще долго, но лучше изучить возможности парсера на практике. Исключайте пассивную аудиторию, экономьте рекламный бюджет, изучайте самые популярные посты и повышайте эффективность своего контента!

Как используют полученные данные

У веб-скрапинга/парсинга очень широкий спектр применений. Например:

1. Отслеживание цен

Собирая информацию о товарах и их ценах, например, на Amazon или других платформах, вы сможете корректировать цены, чтобы опередить конкурентов.

2. Рыночная и конкурентная разведка

Если вы хотите поработать на новом рынке, то сначала нужно оценить свои шансы, а принять взвешенное решение поможет как раз сбор и анализ данных. 

3. Модернизация сайтов

Когда компании переносят устаревшие сайты на современные платформы, они используют скрапинг сайта для быстрой и легкой выгрузки данных.

5. Анализ эффективности контента

Блогеры и контентмейкеры используют скрапинг для извлечения статистики о своих постах, видео, твитах в таблицу. Например, в этом видео автор статьи получает данные из его профиля на сайте Medium, используя веб-скрапер:

Данные в таком формате:

  • легко сортируются и редактируются;
  • всегда доступны для повторного использования;
  • можно преобразовать в графики.

Парсеры сайтов в зависимости от используемой технологии

Парсеры на основе Python и PHP

Такие парсеры создают программисты. Без специальных знаний сделать парсер самостоятельно не получится. На сегодня самый популярный язык для создания таких программ Python. Разработчикам, которые им владеют, могут быть полезны:

  • библиотека Beautiful Soup;
  • фреймворки с открытым исходным кодом Scrapy, Grab и другие.

Заказывать разработку парсера с нуля стоит только для нестандартных задач. Для большинства целей можно подобрать готовые решения.

Парсеры-расширения для браузеров

Парсить данные с сайтов могут бесплатные расширения для браузеров. Они извлекают данные из html-кода страниц при помощи языка запросов Xpath и выгружают их в удобные для дальнейшей работы форматы —  XLSX, CSV, XML, JSON, Google Таблицы и другие. Так можно собрать цены, описания товаров, новости, отзывы и другие типы данных.

Примеры расширений для Chrome: Parsers, Scraper, Data Scraper, kimono.

Парсеры сайтов на основе Excel

В таких программах парсинг с последующей выгрузкой данных в форматы XLS* и CSV реализован при помощи макросов — специальных команд для автоматизации действий в MS Excel. Пример такой программы — ParserOK. Бесплатная пробная версия ограничена периодом в 10 дней.

Парсинг при помощи Google Таблиц

В Google Таблицах парсить данные можно при помощи двух функций — importxml и importhtml.

Функция IMPORTXML импортирует данные из источников формата XML, HTML, CSV, TSV,  RSS, ATOM XML в ячейки таблицы при помощи запросов Xpath. Синтаксис функции:

  
IMPORTXML("https://site.com/catalog"; "//a/@href")
IMPORTXML(A2; B2)
  

Расшифруем: в первой строке содержится заключенный в кавычки url (обязательно с указанием протокола) и запрос Xpath.

Знание языка запросов Xpath для использования функции не обязательно, можно воспользоваться опцией браузера «копировать Xpath»:

Вторая строка указывает ячейки, куда будут импортированы данные.

IMPORTXML можно использовать для сбора метатегов и заголовков, количества внешних ссылок со страницы, количества товаров на странице категории и других данных.

У IMPORTHTML более узкий функционал — она импортирует данные из таблиц и списков, размещенных на странице сайта. Синтаксис функции:

  
IMPORTHTML("https://https://site.com/catalog/sweets"; "table"; 4)
IMPORTHTML(A2; B2; C2)
  

Расшифруем: в первой строке, как и в предыдущем случае, содержится заключенный в кавычки URL (обязательно с указанием протокола), затем параметр «table», если хотите получить данные из таблицы, или «list», если из списка. Числовое значение (индекс) означает порядковый номер таблицы или списка в html-коде страницы.

Сервисы поисковиков

На начальном этапе работы основу семантики сайта можно заложить, используя общедоступные и бесплатные сервисы от поисковых систем:

  • Yandex. Вордстат. Сервис от поисковой системы Яндекс для анализа, статистики и подбора ключевых слов. Можно задать интересующий регион и проанализировать какие запросы на выбранной территории имели большую частотность. Для удобства работы с сервисом мы написали удобный бесплатный плагин.
  • Keyword Planner. Известный инструмент от Google, в котором можно настроить поиск запросов как из органической выдачи, так и из популярного видеохостинга YouTube.
  • Google Тренды. Помогает в поиске трендовых (набирающих популярность) запросов и показывает динамику их популярности в различных регионах и странах.
  • Google Correlate. Еще один сервис от известной корпорации с помощью которого можно подбирать слова, которые коррелируют (часто вводятся) с заданными. В основе работы сервиса лежат поведенческие особенности пользователей.
  • Статистика запросов от Mail.ru. Запросы из поиска Майла, которые показывают еще и демографическую статистику. Дает наглядное представление о высокочастотности или низкочастотности запросов.
  • Adstat.Rambler.ru. Статистика запросов Рамблера с возможностью выбора периода и проверки сезонность запросов.

Поищите XHR запросы в консоли разработчика

Кабина моего самолета

Все современные вебсайты (но не в дарк вебе, лол) используют Javascript, чтобы догружать данные с бекенда. Это позволяет сайтам открываться плавно и скачивать контент постепенно после получения структуры страницы (HTML, скелетон страницы).

Обычно, эти данные запрашиваются джаваскриптом через простые GET/POST запросы. А значит, можно подсмотреть эти запросы, их параметры и заголовки — а потом повторить их у себя в коде! Это делается через консоль разработчика вашего браузера (developer tools).В итоге, даже не имея официального API, можно воспользоваться красивым и удобным закрытым API. ️Даже если фронт поменяется полностью, этот API с большой вероятностью будет работать. Да, добавятся новые поля, да, возможно, некоторые данные уберут из выдачи. Но структура ответа останется, а значит, ваш парсер почти не изменится.

Алгорим действий такой:

  1. Открывайте вебстраницу, которую хотите спарсить

  2. Правой кнопкой -> Inspect (или открыть dev tools как на скрине выше)

  3. Открывайте вкладку Network и кликайте на фильтр XHR запросов

  4. Обновляйте страницу, чтобы в логах стали появляться запросы

  5. Найдите запрос, который запрашивает данные, которые вам нужны

  6. Копируйте запрос как cURL и переносите его в свой язык программирования для дальнейшей автоматизации.

Кнопка, которую я искал месяцы

Вы заметите, что иногда эти XHR запросы включают в себя огромные строки — токены, куки, сессии, которые генерируются фронтендом или бекендом. Не тратьте время на ревёрс фронта, чтобы научить свой парсер генерировать их тоже.

Вместо этого попробуйте просто скопипастить и захардкодить их в своем парсере: очень часто эти строчки валидны 7-30 дней, что может быть окей для ваших задач, а иногда и вообще несколько лет. Или поищите другие XHR запросы, в ответе которых бекенд присылает эти строчки на фронт (обычно это происходит в момент логина на сайт). Если не получилось и без куки/сессий никак, — советую переходить на автоматизацию браузера (Selenium, Puppeteer, Splash — Headless browsers) — об этом ниже.

Оффлайн парсеры

Возможность парсинга Яндекс Вордстат без доступа к интернету или при его низкой скорости – одно из требований к современным инструментам СЕО анализа. Технически это реализовано просто – на компьютер или аналогичное устройство, скачивается базы Wordstat и затем с помощью программы происходит выборка ключевых слов.

Букварикс десктопная версия

Впервые полноценный десктопный вариант представили разработчики «Букварикс». Однако уже в октябре 2017 года этот проект был «заморожен», ПО и базы данных не обновляются. Компания предлагает все инструменты в онлайн-режиме. Скачать приложение можно на старой версии официального сайта, использование бесплатное.

Что нужно учитывать при использовании десктопной версии:

  • скачиваемый объем – около 30 Гбайт;
  • скачать можно только с Яндекс.Диска, состоит из 20 частей;
  • последняя дата обновления БД – 1 октября 2017 г.

Информация в этой версии устарела, возможно использование как вспомогательного инструмента.

PromoPult

Еще один парсер, которым можно пользоваться онлайн. Бесплатно доступно 50 запросов чтобы пользователь мог познакомиться с инструментом, изучить его особенности. Для парсинга запросов можно использовать как файлы XLCX или вводить ключевые фразы вручную.

Можно выбирать конкретный регион для парсинга, а результаты проведенного исследования сохранять в облаке. Срок хранения неограничен. При необходимости, вы можете в любой момент обратиться к ранее созданному отчету и просмотреть его.

Полезная информация: сервис позволяет отказаться от необходимости вводить капчу или использовать прокси. Клиент просто запускает работу скрипта, а затем наслаждается полученным результатом. Уведомление об окончании работы приходит на указанный адрес электронной почты.

Цена различается от многих факторов среди которых общее количество запросов, использование дополнительных функций, очередность запросов. Конечная стоимость составляет от 2 до 12 копеек за съем одной позиции.

Основные преимущества:

  • Web-интерфейс и хранение информации в облаке с возможностью скачать файл XLCX. Неограниченный срок хранения данных по достоинству оценят оптимизаторы больших проектов.
     
  • Высокая скорость парсинга при гибкой ценовой политике.
     
  • Удобный интерфейс с возможностью заниматься своими делами пока система делает парсинг запросов.

PromoPult 8.1

Какие еще функции доступны в сервисе?

Кроме возможности собирать поисковые подсказки по нужной фразе и с нужной глубиной, можно добавлять дополнительные условия сбора: с пробелом или без пробела в конце фразы, с перебором букв кириллического или английского алфавита, а также с перебором цифр.

В этом случае, сервис автоматически переберет возможные добавления к поисковому запросу, начинающиеся на какую-либо букву или цифру, что еще более расширяет возможности для сбора широкой целевой семантики для продвижения сайта.

При выборе чек-бокса «Скачать результаты в виде CSV-файла», результаты выгружаются сразу для дальнейшей работы в формате CSV. Имеется возможность работать с результатами и прямо в интерфейсе инструмента и сортировать результаты по любой из колонок.

История парсинга сохраняется в таблице, откуда можно в любой момент скачать необходимый файл (до 30 последних сборов), переименовать его для большего удобства или удалить, если он потерял актуальность.   

В базовой версии инструмент является абсолютно бесплатным, если же требуется парсить большие объемы, рекомендуется перейти на PRO-тарифы, которые включают в себя большое число лимитов.

Rush Analytics

Еще один онлайн сервис. Клиент регистрируется в системе и получает доступ к инструментам, где создаются задачи.

Среди наиболее востребованных функций:

  • Подбор ключей и проверка частотности из Яндекс Wordstat и Google Adwords.
     
  • Подборка свежих подсказок из Яндекс, Google и Youtube.
     
  • Кластеризация и создание структуры сайта.
     
  • Проверка позиции запросов и подборка релевантного URL.
     
  • Проверка оптимизации страниц.

В системе реализована гибкая ценовая политика. Стартовый тариф можно приобрести за 999 рублей в месяц, PRO за 2 999 рублей, а PRO+ за 5 999 рублей. Также существует возможность получить индивидуальный тариф. Для этого надо обратиться в техподдержку.

Rush Analytics 9

Дополнительные возможности

На иллюстрации выше, цифрами отмечены: 1 — сам запрос, 2 — дата обновления статистики Яндекса по данным фразам, 3 — суммарное число показов по фразам которые соответствуют запросу, 4 — общее число показов по фразе.

Здесь очень важно не путать общее число показов из колонки 4 и число точных запросов по фразе, которое можно получить с использованием операторов «Кавычки», «Восклицательный знак» и «Квадратные скобки». К дополнительным возможностям WordStat отнесем изучение истории (сезонности) спроса в тематике, получение частоты в заданном регионе и анализ популярности фраз в мобильном поиске (планшеты, мобильные телефоны)

К дополнительным возможностям WordStat отнесем изучение истории (сезонности) спроса в тематике, получение частоты в заданном регионе и анализ популярности фраз в мобильном поиске (планшеты, мобильные телефоны).

Данные функции часто оказываются полезны при планировании рекламных кампаний.

История запроса

Можно быстро понять, как меняется интерес к выходу новой модели «IPhone 6S». К сожалению, в текущий момент история запросов не поддерживает операторы («ИЛИ», «Группировка», «Квадратные скобки»).

Изучение динамики по запросу . Хорошо видны резкие сезонные всплески и провалы после наступления января.

Частота в заданном регионе

Отдельного упоминания заслуживает получение частоты запроса в заданном регионе. С помощью разделения общей частоты запроса по регионам можно оценить как частоту заданного запроса в интересующей нас регионе (Москва, Москва и область, Санкт-Петербург и т.д.), так и относительную популярность того или иного запроса в регионе.

Из примера приведенного ниже видно, что запросы со словами «купить» и «Казань» преимущественно задают жители г. Казань, что весьма очевидно. Использование данной функции на практике иногда открывает и более неожиданные закономерности.

Сбор (парсинг) запросов заданной длинны

На практике бывает полезным использовать приём парсинга запросов заданной длинны (из 2, 3, 4 слов и так далее) с вхождением ключевого слова. Данная возможность оказывается особенно актуальной, если вы работаете в популярной тематике и сбор первых 41 страниц не позволяет получить все поисковые фразы.

Для сбора всех фраз с длиной в 3 слова используется конструкция вида:

«IPhone IPhone IPhone»

Данный запрос позволяет собрать уже не просто 41 страницу поисковых фраз произвольной длины, а 41 страницу фраз из трёх слов с вхождением «IPhone». Последовательный анализ запросов с длиной от 2 до 7 слов позволяет существенно увеличить охват целевой аудитории.

Для ускорения сбора частот, быстрого парсинга Яндекс.Вордстат и хранения целевых ядер, рекомендуется использовать программы и онлайн-сервисы автоматизации, к числу которых можно отнести «Пиксель Тулс». После быстрой настройки параметров сбора, можно получить широкое семантического ядро в рамках тематики.

Анализ проведён с помощью инструментов в сервисе Пиксель Тулс.

Детальный анализ словоформ для ВЧ-запросов

Для ВЧ-запросов длиной в 2 и более слов может пригодиться анализ частоты встречаемости словоформ. Для этого требуется ввести исходную фразу, скажем, «продвижение сайтов» и далее последовательно исключать точные популярные написания с помощью комбинации операторов вида — -«», что приводит к исключению наиболее частотной формы написания из статистики и появлению второй по популярности версии. Далее процедуру можно повторить.

Законен ли парсинг в принципе?

В законодательстве нашей страны нет статьи, прямо запрещающей парсинг. Есть запреты на взлом сайтов, DDOS-атаки, воровство защищенного авторским правом контента, но парсинг под эти статьи не попадает. А как известно, что не запрещено, то разрешено;)

Некоторые склонны видеть в парсинге DDOS-атаку. Однако профи парсинга настаивают, что всё не так. Аргументируют тем, что при парсинге они, наоборот, стараются создавать нагрузку на целевой сайт по минимуму, дабы бизнесу не навредить. Напрашивается сравнение со здоровым паразитизмом, когда паразит не станет слишком вредить «хозяину», чтобы не остаться без кормильца.

Интересно, что всем известные поисковики тоже «грешат» парсингом: ведь индексируют они сайты, регулярно наведываясь на веб-страницы и там собирая информацию. Парадокс в том, что по ясным причинам все желают, чтобы Гугл с Яндексом их сайты индексировали, однако никто не желает, чтобы их сайты парсили.

Вывод

Если вы – динамично развивающийся бизнес, продаете популярные товары, либо оперируете в высокомобильной среде (например, предлагаете услуги для отдельных категорий авторов объявлений или организуете найм персонала), то встретитесь с парсингом непременно. В качестве мишени, или в качестве заказчика.

Как работает парсинг и какой контент можно парсить своими руками или автоматически

Вам удастся получить любую информацию (текстовую или медийную), которая находится в открытом доступе, например:

Названия товаров, карточек и категорий, в которые они обобщены.
Характеристики

Особенно важно для бытовой техники, смартфонов.
Стоимость, наличие скидки.
Изменение товарного ряда, добавление новых позиций.
Описание услуг или продаваемых предметов.
Изображения. Но с ними следует работать аккуратнее, они могут быть авторскими, а значит, их использование уже будет незаконным.

Мы очень не рекомендуем перезаливать полученный текст на свою страничку в надежде, что он пройдет через фильтры поисковых систем. Скорее всего, они сразу вас забанят при попытке продвинуть такой неуникальный ресурс.

Вывод

У оптимизатора большой выбор парсеров на любой вкус. Для продвижения личных небольших сайтов лучше пользоваться бесплатными сервисами вроде Мутагена или Словоеба. В большинстве случаев предоставляемых функций более чем достаточно.

Если оптимизатор работает с крупными сайтами, лучше делать выбор в пользу проверенных систем с большим количеством дополнительных функций. Классический вариант — Key Collector.

Полезная информация: платный софт может стоить меньше 2 000 рублей, но предоставлять полный набор нужных сведений. Именно к такому софту относится упомянутый выше Key Collector.

Но главное, что нужно помнить оптимизатору — любое программное обеспечение — инструмент для облегчения продвижения. Решения все равно принимает оптимизатор на основе получаемой информации. Конкуренты пользуются теми же средствами в большинстве случаев.

Поэтому эффективность продвижения часто основывается не подбором соответствующего софта, а формированием более эффективной стратегии.

Автор статьи Дмитрий Профессиональный интернет-маркетолог. Имею богатый опыт работы над крупными и небольшими проектами. Полностью понимаю задачи клиентов и потребности целевой аудитории для проведения эффективной работы над проектом и достижения максимального результата. Являюсь сертифицированным специалистом Яндекс и Google. Работаю и развиваюсь в интернет-маркетинге более 8 лет. Всегда знаю о всех нововведениях в своей сфере. Постоянно повышаю квалификацию.