Подбор семантики, скажем, для интернет-магазина детской мебели или автосервиса обычно не вызывает проблем.
Загрузили перечень товаров/услуг в Вордстат и получили несколько тысяч запросов.
В «продвинутом» варианте дополнили список поисковыми подсказками и/или похожими фразами.
Но эта стандартная схема работает не всегда. Бывают случаи, исходных запросов мало, из-за чего собрать разнообразное ядро не получается. Пример — сайт фотографа. Здесь большинство запросов строится на двух словах: «фотосессия» и «фотограф». Из-за этого семантика получается однотипной. Даже если покопаться в похожих фразах в Яндексе/Google, разнообразить ключи не получится:
В подобных ситуациях полезен «шпионский» способ разнообразить семантику. Базируется он на гипотезе, что топовые конкуренты оптимизируют мета-теги и заголовки h1-h6 под основные запросы, по которым продвигаются. И если собрать мета-данные и заголовки и проанализировать их, то теоретически можно выделить семантику, которую вы могли упустить.
Как парсить мета-теги и заголовки конкурентов
Для начала соберите список конкурентов, данные по которым хотите проанализировать. Для этого введите в Яндексе и Google два-три наиболее важных запроса, по которым планируете продвигаться.
Выписывайте только те сайты, которые действительно являются вашими конкурентами. Например, Яндекс по запросу «фотограф сочи» в топе выводит агрегаторы вроде mywed.com или Яндекс.Услуги. Такие сайты не являются конкурентами сайта частного фотографа. Их в список не добавляйте. Также не добавляйте аккаунты в соцсетях.
Для мета-данных достаточно открыть исходный код интересующей страницы и найти теги «title», «description», «h1» и «keywords» (этот тег иногда все еще заполняют, хотя он давно утратил актуальность с точки зрения SEO).
Но вручную никто не занимается сбором мета-тегов. Ведь для получения разнообразной семантики нужно спарсить мета-данные хотя бы с 10 сайтов конкурентов. Даже если на сайтах по 30-50 страниц, общее их количество составит 300-500.
Для этой задачи используют парсеры мета-тегов и заголовков. Рассмотрим, как ими пользоваться, на примере инструмента от PromoPult.
Как парсить мета-теги и заголовки:
1. Зарегистрируйтесь на сайте promopult.ru (это нужно для доступа к результатам парсинга, которые хранятся в личном кабинете).
2. Откройте профессиональный инструмент Парсер мета-тегов и заголовков и в поле «XML-карта сайта» вставьте URL с указанием пути до XML-карты. Обычно такой URL имеет вид: http://www.site.ru/sitemap.xml. Проверьте вручную, по какому именно адресу доступны XML-карты выбранных доменов, чтобы спарсить данные по ним. Если XML-карты у сайта нет, загрузите конкретные URL списком. Но первый способ намного проще.
3. Укажите, какие именно данные хотите собрать. Лучше галочки здесь не убирать.
4. Запустите парсинг. Базовая стоимость инструмента — 0,04 руб. за сбор данных на одной странице (при сборе от 3 до 5 тыс. страниц стоимость уменьшается до 0,03 руб., от 5 до 10 тыс. страниц — до 0,02 руб., свыше 10 тыс. — до 0,01 руб.). Парсинг 500 первых страниц — бесплатный.
5. Загрузите отчет в «Списке задач» (он будет в формате XLSX).
Выглядит отчет так:
Скопируйте содержимое столбцов Title, Description, Keywords, h1-h6 и запустите семантический анализ с помощью advego.com или text.ru. Сервис выделит из загруженной «массы» ключевые фразы. Пройдитесь по списку и выберите те из них, которые вы не учли ранее.
В нашем примере интересными фразами, которые стоит включить к базисному ядру, являются «фотоконтент сайта», «фотопрогулка», «фотопроект сочи репортажная» и др. В списке вы наверняка найдете не только полезную семантику, но и идеи для практической реализации в бизнесе.
Заключение
Парсинг мета-тегов и заголовков конкурентов и их семантический анализ — это нетипичный способ подбора семантики. Для интернет-магазинов с широким ассортиментом он излишне трудоемкий (хотя при достаточном усердии применимый). Но если у вас сайт узкой тематики, то это хороший способ преодолеть дефицит идей и пополнить базисное ядро оригинальными словоформами.
Спасибо!)
Или можно получить почти тоже самое бесплатно буквариксом — до 3000 строк в отчете бесплатно выдает — для небольших сайтов как в примере — самое то. Можно парсить по 1 сайту или сравнивать сразу до 10 сайтов.
Буквариус хороший сервис, согласен. Но при подборе ключей лучше использовать все доступные методы.
Иногда собрать нормальное СЯ реально сложно. Как раз такой удобный парсер искал, спасибо!
Подглядеть, что там у конкурентов этож азы, ежу понятно, что кто повыше, получше оптимизирован. А вот за промопульт спасибки. Не знаю реклама или за так рекомендуют, но тема годная. У меня два скромных сайтика и я просто выгораю всех конкурентов прочекать. Все гадал, как те у кого по десять сайтов выживают. Оказывается у них парсеры специальные имеются. Короче спасибо, что подтянули в 21век, с этими вашими технологиями новомодными ))))
Уже давно хочу забыть о головной боли при составлении СЯ. Бывший сотрудник кричит о продвижении через НЧ запросы услуг, на которые вообще нет конкуренции, а начальству хочется результат без бюджета. Кину в закладки и опробую метод на конкурентах, а лишнее время потрачу на то, что нельзя автоматизировать. Спасибо!
Да пользовался для сбора мета тегов этим инструментом. удобно теги составлять и анализировать что у конкурента написано