Семантическое ядро сайта представляет собой ключевые слова (запросы) , которые используют пользователи в интернете для поиска услуг, товаров и любой другой информации, которую предлагает данный сайт. Для веб-мастеров, это план действий по продвижению ресурса. В идеальном плане семантическое ядро сайта создается один раз, перед тем, как начать оптимизацию и продвижение.


Семантическое ядро сайта составляется обычно в несколько этапов:

  1. Подбираются всевозможные слова (фразы) подходящие по теме сайта. Вначале можно ограничиться 100 – 200 поисковыми запросами. Для того чтобы знать какие запросы вам подходят, ответьте себе на вопрос «Чему я хочу посвятить свой сайт?»
  2. Расширение семантического ядра за счет ассоциативных запросов
  3. Следует отсеять неподходящие слова. Тут вы отсеиваете те фразы, по которым вы не будете продвигать ваш сайт. Таких слов обычно находится больше половины.
  4. Отсеиваются высококонкурентные запросы, по которым продвигать сайт нет смысла. Как правило, убирается три слова из пяти или более.
  5. И последнее, это правильное распределение списка поисковых запросов на страницах ресурса. Рекомендуется высококонкурентные запросы оставлять на главной странице ресурса, менее конкурентные необходимо группировать по смыслу и располагать на других страницах. Для этого нужно создать в Exel документ и разбить ключевые слова по страницам.

Подбор поисковых запросов и проверка частотности

Первое, что нужно сделать, это собрать как можно больше всевозможных запросов по вашей теме, которые интересуют пользователей в Сети. Для этого существует два метода:

  • Бесплатные, в которые входят: Wordstat Yandex, Словоеб, дедовский способ, подсказки от Google (External Keyword Tool), анализ семантики конкурентов и поисковые подсказки.
  • Платные которые включают Key Collector, Semrush, базы Пастухова и некоторые другие сервисы.

Данные инструменты подходят для различных целей (к примеру, Semrush лучше использовать для буржунета). Конечно, это все можно доверить оптимизаторам, но присутствует вероятность того, что вам составят неполное семантическое ядро.

Многие пользуются для сбора ключевых фраз базу Пастухова, но с Key Collector намного удобнее собирать запросы с сервисов статистики Яндекса и Гугла .

На начальном этапе сбор запросов лучше сделать в Excel, это выглядит так:


Если для вашего ресурса важнее будет Google, то акцент делайте на него, но также учитывайте и анализируйте ключевые слова из Яндекса. Еще очень важно собрать длинный хвост низкочастотных запросов, по ним вы получите трафик намного быстрее.

Можно воспользоваться и еще одним вариантом, это узнать ключевые фразы (слова) у конкурентов и воспользоваться ими. На этом этапе вы просто собираете как можно больше ключевых фраз (слов) подходящих по теме вашего ресурса, а затем переходите к следующему этапу – фильтрации.

Анализ запросов, удаление "пустышек"

Этот этап уже проще, здесь надо отфильтровать слова пустышки и те, что не связаны с тематикой сайта. К примеру, у вас доставка обедов в Киеве, а в списке присутствуют другие города.

Как определить пустые запросы? Зайдите в Яндекс Вордстат и введите ключевое слово:


Вы видите 881 показов в месяц, но если точнее определить:


Теперь вырисовывается совсем иная картина. Может это и не лучший пример, но главное, чтобы вы поняли суть. Есть большое число ключевых фраз, по которым виден достаточный трафик, хотя на самом деле там все отсутствует. Вот поэтому нужно и отсеять такие фразы.

К примеру, если человек перед тем (либо после того) как набрать запрос «доставка обедов» прописывал в поисковой строке еще какую-либо фразу (называется одна сессия поиска), то Yandex делает предположение, что эти фразы поиска как-то взаимосвязаны. Если такая взаимосвязь наблюдается у нескольких человек, то такие ассоциативные запросы показываются в правой колонке wordstat.


Такие поисковые запросы сортируются в окошке wordstat в порядке убывания частотности их ввода в связке с основным запросом в этом месяце (показывается частота их употребления в поисковике Яндекса). Вам надо воспользоваться такой информацией, чтобы расширить семантическое ядро вашего ресурса.

Распределение запросов по страницам

После этого необходимо распределить собранные вами ключевые слова (фразы) на страницах вашего сайта. Распределение проводить намного проще, когда у вас еще нет самих страниц.

Ориентируйтесь, прежде всего, на ключевые слова в поисковых запросах и их частотность. С конкурентностью следует поступить так: главную страницу выделите для одного-двух высококонкурентных запросов.

Для среднеконкурентных или низкоконкурентных запросов, оптимизируйте соответственно страницы разделов и статей.

Если в поисковых запросах присутствует семантическое сходство, просто соберите одинаковые фразы и определите их в одну группу. При составлении ключевых слов для продвижения ресурса всегда используйте не только стандартные инструменты, но и творческий подход.

Сочетая нестандартные и классические способы можно просто и быстро создать семантическое ядро сайта, подобрать наиболее оптимальную стратегию раскрутки и намного быстрее достигнуть успеха!

(11 )

В этом посте мы расскажем полный алгоритм сбора семантического ядра преимущественно для информационного сайта, но данный подход можно применять и для коммерческих сайтов.

Первоначальная семантика и создание структуры сайта

Подготовка слов для парсинга и первоначальная структура сайта

Перед тем как начать парсить слова, нам надо знать их. Поэтому нам надо составить первоначальную структуру нашего сайта и начальные слова для парсинга (их еще называют маркерами).

Первоначальную структуру и слова вы можете посмотреть:

1. Используя логику, слова из головы (если вы понимаете в теме).
2. У своих конкурентов, которых вы проанализировали при выборе ниш или введя ваш основной запрос.
3. Из википедии. Обычно это выглядит вот так:

4. Смотрим wordstat по вашим основным запросам и правую колонку.
5. Другие тематические книги и справочники.

Например, тема нашего сайта – болезни сердца. Понятно, что у нас в структуре обязательно должны быть все болезни сердца.

Вам не обойтись без медицинского справочника. Я бы не стал смотреть конкурентов, потому что у них могут быть представлены не все заболевания, скорее всего они не успели их охватить.

И ваши начальные слова для парсинга будут именно все болезни сердца, а уже исходя из ключей, которые мы напарсим, вы будете строить структуру сайта, когда начнете их группировать.

К тому же вы можете взять все препараты для лечения сердца, как расширение темы и т.д. Вы смотрите википедию, рубрики у конкурентов на сайте, wordstat, думаете логически и таким способом находите еще маркерные слова, которые будете парсить.

Структура сайта

Вы можете смотреть конкурентов для общего ознакомления, но не всегда вы должны делать структуру как у них. Вы должны исходить в большей степени из логики вашей целевой аудитории, они же вводят запросы, которые вы парсите у поисковиков.

Например, как поступить? Перечислить все болезни сердца, а от них уже вести симптомы, лечение. Или все-таки сделать рубрики симптомы, лечение, а от них уже вести болезни. Эти вопросы обычно решаются при группировке ключевых слов исходя из данных поисковых систем. Но не всегда, иногда вам придется делать выбор самостоятельно и решать, как сделать структуру наилучшей, потому что запросы могут пересекаться.

Вы должны всегда помнить, что структура создается на протяжении всего сбора семантики и иногда в первоначальном виде она состоит из нескольких рубрик, а уже при дальнейшей группировке и сборе она расширяется, так как вы начинаете видеть запросы и логику. А иногда вы сможете её составить и сразу не парся ключевые слова, потому что знаете хорошо тематику или она отлично представлена у конкурентов. Никакой системы по составлению структуры сайта нет, можно сказать это лично ваше творчество.

Структура может быть вашей индивидуальной (отличающейся от конкурентов), но обязательно она должна быть удобной для людей, отвечать их логике, а значит логике и поисковых систем и такой, чтобы можно было охватить все тематические слова в вашей нише. Она должна быть лучшей и удобной!

Думайте наперед. Бывает такое что берете нишу, а потом вам охота ее расширить, и вы начинаете менять структуру всего сайта. А созданную структуру на сайте, очень сложно и муторно менять. В идеале вам надо будет поменять урлы вложения и все это переклеить на самом сайте. Короче, это жесть какая нудная и очень ответственная работа, так что сразу определяйтесь окончательно по мужски, что и как у вас должно быть!

Если вы очень плохо знакомы с тематикой создаваемого сайта и не знаете, как будет строиться структура, не знаете какие начальные слова для парсинга взять, то 1 и 2 этап сбора вы можете менять местами. То есть сначала пропарсить конкурентов (как их парсить разберем ниже), посмотреть их ключи, на основе этого составить структуру и начальные слова для парсинга, а потом уже парсить wordstat, подсказки и т.д.

Для составления структуры я использую майнд менеджер - Xmind . Он бесплатен и в нем есть все основное.

Простенькая структура выглядит вот так:


Это структура коммерческого сайта. Обычно в информационных сайтах нет пересечений и всяких фильтров карточек товаров. Но и эта структура не сложная, составлялась для клиента, чтобы он понял. Обычно мои структуры состоят из множество стрелок и пересечений, комментариев - в такой структуре могу разобраться только я сам.

Можно ли создавать семантику по ходу наполнения сайта?

Если семантика легкая, вы уверены в теме и знаете её, то можно делать семантику параллельно с наполнением сайта. Но первоначальную структуру надо накидать обязательно. Я сам иногда такое практикую в очень узких нишах или в очень широких, чтобы не тратить много времени на сбор семантики, а сразу запускать сайт, но всё-таки не советовал бы так делать. Вероятность ошибок очень большая, если у вас нет опыта. Все-таки легче, когда вся семантика готова, вся структура готова и все разгруппировано и понятно. К тому же в готовой семантике вы видите каким ключам надо уделить первостепенное внимание, которые не имеют конкуренцию и принесут больше посетителей.

Еще здесь надо отталкивать от размера сайта, если ниша широкая, то нет смысла собирать семантику, лучше ее делать по ходу, потому что на сбор семантике может уйти месяц и более.

Так вот мы накидали первоначально структуру или не накидали, решили идти вторым этапом. У нас есть список начальных слов или фраз нашей тематики, которые мы можем начать парсить.

Парсинг и работа в keycollector

Для парсинга конечно же использую keycollector . Я не буду останавливаться на настройке keycollectora, вы можете почитать хелп этой программы или найти статьи по настройке в интернете, их очень много и там все подробно расписано.

При выборе источников парсинга стоит рассчитывать свои трудозатраты и их эффективность. Например, если вы будете парсить базу Пастухова или MOAB, то вы закапаетесь в куче мусорных запросов, которые надо будет отсеивать, а это время. И по моему мнению, это того не стоит, чтобы найти парочку каких-то запросиков. На тему баз есть очень интересное исследование от RushAnalytics, конечно же они там хвалят себя, но если на это не обращать внимание, весьма интересные данные по процентам плохих ключевых слов http://www.rush-analytics.ru/blog/analytica-istochnikov-semantiki

На первом этапе я парщу wordstat, adwords, их подсказки и использую базу ключевых слов Букварикс (десктопная версия бесплатна). Так же раньше просматривал подсказки из Youtube вручную. Но недавно keycollector добавил возможность их парсить, и это прелестно. Если вы полный извращенец, то можете сюда добавить другие базы ключевых слов.

Запускаете парсинг и понеслось.

Чистка семантического ядра для информационного сайта

Мы спарсили запросы и у нас получился список различных слов. В нем конечно же присутствуют нужные слова, а так же и мусорные – пустые, не тематические, не актуальные и т.д. Поэтому их надо почистить.

Ненужные слова я не удаляю, а перемещаю их в группы, потому что:

  1. Они в дальнейшем могут стать пищей для размышления и приобрести актуальность.
  2. Исключаем вероятность случайного удаления слов.
  3. При парсинге или добавление новых фраз, они не будут добавляться, если поставить галочку.


Я иногда забывал её ставить, поэтому настраиваю парсинг в одной группе и парсю ключи только в ней, чтобы сбор не дублировался:


Вы можете работать так или так, кому как удобно.

Сбор частотностей

Собираем у всех слов через direct, базовую частотность [W] и точную [“!W”].


Все что не собралось, дособираем через wordstat.

Чистка однословников и не формат

Фильтруем по однословникам, смотрим их и убираем не нужные. Есть такие однословники по которым нет смысла продвигаться, они не однозначные или дублируют другой однословный запрос.


Например, у нас тематика - болезни сердца. По слову “сердце” нет смысла продвигаться, не понятно, что человек имеет ввиду - это слишком широкий и неоднозначный запрос.

Так же смотрим, по каким словам не собралась частотность – это либо в словах содержатся спец символы, либо слов в запросе более 7. Переносим их в неформат. Малая вероятность что такие запросы вводят люди.

Чистка по общей и точной частотности

Все слова с общей частотностью [W] от 0 до 1 убираем.

Так же убираю и все от 0 до 1 по точной частотностью [”!W”].

Разношу их по разным группам.

В дальнейшем в этих словах можно найти нормальные логические ключевые слова. Если ядро маленькое, то можно сразу вручную все слова с нулевой частотностью пересмотреть и оставить, которые как вам кажется вводят люди. Это поможет охватить тематику полностью и возможно, по таким словам будут переходить люди. Но естественно эти слова надо использовать в последнюю очередь, потому что по ним большого трафика точно не будет.

Значение от 0 до 1 тоже берется исходя от тематики, если ключевых слов много, то можно фильтровать и от 0 до 10. То есть все зависит от широты вашей тематики и ваших предпочтений.

Чистка по полноте охвата

Теория здесь такова: например, есть слово – “форум”, его базовая частотность составляет 8 136 416, а точная частотность 24 377, как видим отличие более чем в 300 раз. Поэтому можно предположить, что данный запрос пустой, он включает очень много хвостов.

Поэтому, по всем словам, я рассчитываю, такое KEI:

Точная частотность / Базовая частотность * 100% = полнота охвата

Чем меньше процент, тем больше вероятность что слово пустое.

В KeyCollector эта формула выглядит вот так:

YandexWordstatQuotePointFreq / (YandexWordstatBaseFreq+0.01) * 100

Здесь тоже все зависит от тематики и количества фраз в ядре, поэтому можно убирать полноту охвата меньше 5%. А где ядро большое то можно не брать и 10-30%.

Чистка по неявным дублям

Чтобы почистить неявные дубли, нам необходимо по ним собрать частотность Adwords и ориентироваться по ней, потому что она учитывает порядок слов. Экономим ресурсы, поэтому будем собирать этот показатель не у всего ядра, а только у дублей.


Таким способом мы нашли и отметили все не явные дубли. Закрываем вкладку - Анализ неявных дублей. Они у нас отметились в рабочей группе. Теперь отобразим только их, потому что съем параметров происходит только тех фраз, которые у нас показаны в группе на данный момент. И только потом запускаем парсинг.


Ждем, когда Adwords снимет показатели и заходим в анализ неявных дублей.


Выставляем вот такие параметры умной групповой отметки и нажимаем – выполнить умную проверку. Таким способом у нас в группе дублей не отметятся только самые высокочастотные запросы по Adwords.

Все дубли лучше конечно еще пробежаться и глянуть вручную, вдруг там что-то выставилось не так. Особенно уделить внимание группам, где нет показателей частотности, там дубли отмечаются случайно.

Все что вы отмечаете в анализе неявных группах, это проставляется и в рабочей группе. Так что после завершения анализа, просто закрываете вкладку и переносите все отмеченные неявные дубли в соответствующую папку.

Чистка по стоп словам

Стоп слова я тоже делю на группы. Отдельно заношу города. Они могут пригодится в дальнейшем, если мы надумаем делать каталог организаций.

Отдельно заношу слова содержащие в себе слова фото, видео. Вдруг они когда-нибудь пригодятся.

А так же, “витальные запросы”, например википедия, отношу сюда и форум, а так же в мед теме сюда могут относится – малышева, комаров и т.д.

Все так же зависит от тематики. Можно еще делать отдельно и коммерческие запросы – цена, купить, магазин.

Получается вот такой список групп по стоп словам:

Чистка накрученных слов

Это касается конкурентных тематик, их частенько накручивают конкуренты, чтобы ввести вас в заблуждение. Поэтому необходимо собрать сезонность и отсеять все слова с медианой равной 0.

А так же, можно глянуть соотношение базовой частотности к средней, большая разница может тоже указывать на накрутку запроса.

Но надо понимать, что эти показатели могут говорить и о том, что это новые слова по которым только недавно появилась статистика или они просто сезонные.

Чистка по гео

Обычно проверка по гео для информационных сайтов не требуется, но на всякий случай распишу этот момент.

Если есть сомнения, что часть запросов геозависимые, то лучше это проверить через сбор Rookee, он хоть бывает и ошибается, но намного реже чем проверка этого параметра по Яндексу. Потом после сбора Rookee стоит проверить все слова вручную, которые указались как геозависимые.

Ручная чистка

Теперь наше ядро стало в несколько раз меньше. Пересматриваем его в ручную и убираем ненужные фразы.

На выходе получаем вот такие группы нашего ядра:

Желтый - стоит покопаться, можно найти слова на будущее.

Оранжевый - могут пригодиться, если будем расширять сайт новыми сервисами.

Красный - не пригодятся.

Анализ конкуренции запросов для информационных сайтов

Собрав запросы и почистив их теперь нам надо проверить их конкуренцию, чтобы понимать в дальнейшем - какими запросами надо заниматься в первую очередь.

Конкуренция по количеству документов, title, главных страниц

Это все легко снимается через KEI в KeyCollector.


Получаем данные по каждому запросу, сколько документов найдено в поисковой системе, в нашем пример в Яндексе. Сколько главных страниц в выдаче по этому запросу и вхождений запроса в заголовок.

В интернете можно встретить различные формулы расчета этих показателей, даже вроде в свежем установленном KeyCollector по стандарту встроена какая-то формула расчета KEI. Но я им не следую, потому что надо понимать что каждый из этих факторов имеет разный вес. Например, самый главный, это наличие главных страниц в выдаче, потом уже заголовки и количество документов. Навряд ли эту важность факторов, как то можно учесть в формуле и если все-таки можно то без математика не обойтись, но тогда уже эта формула не сможет вписаться в возможности KeyCollector.

Конкуренция по биржам ссылок

Здесь уже интереснее. У каждой биржи свои алгоритмы расчета конкуренции и можно предположить, что они учитывают не только наличие главных страниц в выдаче, но и возраст страниц, ссылочную массу и другие параметры. В основном эти биржи конечно же рассчитаны на коммерческие запросы, но все равно более менее какие то выводы можно сделать и по информационным запросам.

Собираем данные по биржам и выводим средние показатели и уже ориентируемся по ним.


Я обычно собираю по 2-3 биржам. Главное чтобы все запросы были собраны по одним и тем же биржам и выведено среднее число только по ним. А не так, что какие то запросы собрали одними биржами, а другие другими и вывели среднее.

Для более наглядного вида можно применить формулу KEI, которая покажет стоимость одного посетителя исходя из параметров бирж:

KEI = AverageBudget / (AverageTraffic +0.01)

Средний бюджет по биржам делить на средний прогноз трафика по биржам, получаем стоимость одного посетителя исходя из данных бирж.

Конкуренция по мутаген

Его нет в keycollector, но это не помеха. Без проблем все слова можно выгрузить в Excel, а потом прогнать через KeyCollector.

Чем же лучше Keyso? У него больше база по сравнению с конкурентами. Она у него чистая, нет фраз которые дублируются и пишутся в разном порядке. Например, вы не найдете там таких повторяющихся ключей “диабет 1 типа”, “1 типа диабет”.

Так же Keyso умеет палить сайты с одним счетчиком Adsense, Analytics, Leadia и др. Вы можете увидеть какие еще есть сайты, у владельца анализируемого сайта. Да, и вообще по поиску сайтов конкурентов, считаю это лучшее решение.

Как работать с Keyso?

Берем один любой сайт своего конкурента, лучше конечно побольше, но не особо критично. Потому что мы будем работать в две итерации.Вводим его в поле. Жмакаем - анализировать.

Получаем информацию по сайту, нам здесь интересны конкуренты, жмем открыть всех.


У нас открываются все конкуренты.


Это все сайты, у которых хоть как-то пересекаются ключевые слова с нашим анализируемым сайтом. Здесь будет youtube.com, otvet.mail.ru и т.д., то есть крупные порталы, которые пишут обо всем подряд. Нам они не нужны, нам нужны сайты чисто только по нашей тематике. Поэтому мы их фильтруем по следующим критериям.

Похожесть – процент общих ключей от общего числа данного домена.

Тематичность – количество ключей нашего анализируемого сайта в ключах домена конкурента.

Поэтому пересечение этих параметров уберет общие сайты.

Ставим тематичность 10, похожесть 4 и смотрим, что у нас получится.

Получилось 37 конкурентов. Но все равно еще их проверим вручную, выгрузим в Excel и если надо уберем не нужные.


Теперь переходим на вкладку групповой отчет и вводим всех наших конкурентов, которых мы нашли выше. Жмем – анализировать.

Получаем список ключевых слов этих всех сайтов. Но мы еще полностью не раскрыли тематику. Поэтому мы переходим в конкуренты группы.

И теперь мы получаем всех конкурентов, тех всех сайтов которые мы ввели. Их в несколько раз больше и здесь так же много общетематических. Фильтруем их по похожести, допустим 30.

Получаем 841 конкурента.


Здесь мы можем посмотреть, сколько страниц у этого сайта, трафика и сделать выводы, какой же конкурент самый эффективный.

Экспортируем всех их в Excel. Перебираем руками и оставляем только конкурентов нашей ниши, можно отметить самых эффективных товарищей, чтобы потом оценить их и глянуть какие у них есть фишки на сайт, запросы дающие много трафика.

Теперь мы опять заходим в групповой отчет и добавляем уже всех найденных конкурентов и получаем список ключевых слов.

Здесь мы можем список сразу фильтрануть по “!wordstat” Больше 10.


Вот они наши запросы, теперь мы можем их добавить в KeyCollector и указать, чтобы не добавлялись фразы, которые есть уже в любой другой группе KeyCollector.

Теперь мы чистим наши ключи, и расширяем, группируем наше семантическое ядро.

Услуги по сбору семантического ядра

В данной отрасли можно найти не мало организаций, которые готовы предложить вам услуги по кластеризации. Например, если вы не готовы тратить время на то, чтобы самостоятельно изучить тонкости кластеризации и выполнить ее собственными руками, то можно найти множество специалистов, готовых выполнить эту работу.

Yadrex

Одна из первых на рынке, кто начал использовать искусственный интеллект для создания сематического ядра. Руководитель компании сам профессиональный вебмастер и специалист по SEO технологиям, поэтому он гарантирует качество работы своих сотрудников.

Кроме того, вы можете позвонить по указанным телефонам, чтобы получить ответы на все интересующие вас вопросы относительно работы.

Заказывая услуги, вы получите файл, где будут указаны группы содержания ядра и его структура. Дополнительно вы получаете структуру в mindmup.

Стоимость работы варьируется в зависимости от объема, чем больше объем работы, тем дешевле стоимость одного ключа. Максимальная стоимость для информационного проекта будет 2,9 рублей за один ключ. Для продающего 4,9 рублей за ключ. При большом заказе предоставляются скидки и бонусы.

Заключение

На этом создание семантического ядра для информационного сайта завершено.

Советую вам мониторить историю изменений программы KeyCollector, потому что она постоянно дополняется новыми инструментами, например недавно был добавлен youtube для парсинга. С помощью новых инструментов, вы можете ещё больше расширить свое семантическое ядро.

Семантическое ядро – это множество ключевых слов, которые вводят в поисковую строку пользователи поисковых систем чтобы найти ответ на свой запрос.

Сбор семантического ядра необходим для того, чтобы найти все ключевые слова и фразы, по которым компания или сайт готова дать исчерпывающий ответ, удовлетворить потребность клиентов и по которым пользователи ищут (формулируют запрос) ответ на свой вопрос. Если у нас есть ключево слово, то пользователь попадет к нам на сайт, если нет — не попадет.

Объем ключевых слов в семантическом ядре зависит от целей, задач, особенностей бизнеса. От объема и глубины семантического ядра зависит охват целевой аудитории ее конверсия и стоимость. Полная семантика позволяет увеличить охват и снизить конкурентность.

Цели сбора семантического ядра

Поиск и подбор ключевых слов является одним из этапов электронного маркетинга. И сильно влияющего на дальнейший успех. На основании составленного семантического ядра будут разрабатываться:

  • Сайт:
    • «Идеальная» структура сайта, интернет-магазина, блога. Существуют 2 подхода к этому вопросу: SEO (search engine optimization) и PR (public relations). SEO подход заключается в первичном сборе всех ключевых запросов. Охватив максимальное количество ключевых слов ниши, мы разрабатываем структуру сайта, учитывая реальные запросы пользователей, их потребности. При PR способе сначала разрабатывается структура сайта на основе информации, которую мы хотим донести до пользователей. После собираются ключевые слова и разносятся по нашей структуре. Какую стратегию выбрать зависит от целей: если нужно в чем-то убедить, донести какую-то позицию и т.п., то выбирается PR способ. Если нужно получить как можно больше трафика, например, если делаем информационный сайт или интернет-магазин, то можно выбрать первый способ. А в целом, это фундамент для будущего продвижения: качественно проработанная структура сайта позволяет удобно сортировать информацию для пользователей (положительный пользовательский опыт) и возможность производить индексацию поисковым системам. Критериями принятия будущей структуры сайта являются цели и ожидания пользователей и результаты анализа успешных конкурентов.
  • Стратегия лидогенерации:
    • стратегия SEO . Определив поисковые запросы с наименьшей конкуренцией и наибольшим потенциальным трафиком, которые они могут принести, разрабатывается контентная стратегия по наполнению и оптимизации сайта.
    • контекстная реклама . При проведении рекламных контекстных кампаний в Яндекс Директ, Google Ads и т.п. собирается максимальное количество релевантных ключевых слов, по которым мы можем и готовы удовлетворить спрос.
    • карта информационных потребностей (контентный план). Имея сгруппированные ключевые слова по интентам (намерениям) пользователей составляется и выдается техническое задание копирайтерам на написание статей.

Исследование процесса поиска в поисковых системах

Психология поиска в интернете

Люди мыслят не словами. Слова — условные обозначения, через которые мы передаем свои мысли. Механизм трансформации мыслей в слова у каждого свой, каждый человек имеет свою особенность формулировать вопросы. Каждый запрос, введенный в строку поиска поисковой системы, человек сопровождает определенными мыслями и ожиданиями.

Если понять как люди ищут в интернете, то можно увязать свои маркетинговые мероприятия с их интересами. Зная как происходит поисковый процесс мы подбираем соответствующие ключевые слова и оптимизируем сайт, настраиваем контекстную рекламу.

После того, как пользователь ПС нажал на кнопку “Найти”, появившиеся поисковые результаты должны соответствовать его ожиданиям. Другими словами, результаты поиска (поисковая выдача и объявления контекстной рекламы) должны помочь решить вопрос пользователя. Следовательно, задача маркетолога настроить рекламное объявление и поисковый сниппет так, чтобы они были релевантны поисковому запросу.

  1. отражать поисковый запрос;
  2. учитывать стадия покупательского цикла.

Т.е. те слова, которые будут указаны в сниппетах и объявлениях, заложат основу ожиданий пользователя от вашего сайта. Следовательно, целевая страница, на которую он попадет кликнув по ссылке, должна соответствовать его ожиданиям. Оправдывая эти ожидания, мы увеличиваем вероятность положительного исхода. Реклама должна вести пользователя туда, где он сразу получит ответ.

Категории поисковых запросов:

  1. напрямую сформулированные (токарный станок по металлу, стоматолог);
  2. описание проблемы (чем выточить вал, болит зуб);
  3. симптомы проблемы (не работает коробка подачи токарного станка, раскрошился зуб);
  4. описание происшествия (хруст во время точения на токарном станке тв-16);
  5. название продукта, артикула, бренда, производителя.

Если внимательно изучить ключевые слова, то можно докопаться до сути проблемы: во время точения на токарном станке в коробке подач сломалась шестерня, поэтому мы можем предложить изготовить ее или предложить новый станок. Так как человек не лечил больной зуб и он раскрошился из-за кариеса, мы, как стоматология, предложим поставить имплант.

Классификация и типы поисковых запросов

По виду поиска:

  • информационные – запросы по поиску информации, например, «скорость света», «как сделать удочку своими руками», «почему земля круглая» и т.д.;
  • навигационные – запросы, по которым пользователи ищут организацию, бренд, человека и т.п. Например, «Coca-cola», «ресторан «Пяткин», «Лев Толстой»;
  • транзакционные – запросы, вводимые пользователями при намерениях совершить какое-либо целевое действие. Например, «купить телефон Samsung Galaxy S6», «скачать онлайн книгу «Веб-аналитика на практике»;
  • нечеткие запросы – все запросы, которые нельзя однозначно отнести к одному из вышеописанных типов, т.е. определить четко что именно ищет пользователь. Например, «Мейн кун» – не понятно, что хочет пользователь: узнать, что это за порода кошек или ищет где купить, а возможно еще что-то.

По геозависимости:

  • геозависимые – запросы, зависимые от местонахождения пользователя. Например, «продуктовые магазины», «шиномонтаж в центре».
  • геонезависимые – не зависят от месторасположения человека. Например, «рецепт котлет», «как установить сигнализацию».

По естественности:

  • естественные – запросы, вводимые пользователями на естественном человеческом языке: «цены на ноутбуки самсунг», «характеристики рычажных ножниц»;
  • телеграфные – запросы, вводимые на «телеграфном языке»: «ноутбуки самсунг цены», «рычажные ножницы характеристики».

По сезонности:

  • сезонные – ключевые слова чувствительные ко времени. Такими запросами являются «зимние шины», «новогодний салют», «пасхальные яйца» и т.п.
  • несезонные – ко времени никак не чувствительны, они популярны в любое время года. Примерами таких запросов являются: «наручные часы», «как приготовить пиццу», «установить винду».

По частотности:

  • ВЧ – высокочастотные запросы.
  • СЧ – среднечастотные запросы.
  • НЧ – низкочастотные запросы.
  • «Длинный хвост» (long tail) – микрочастотные поисковые запросы, как правило, состоящие из 4 и более слов и имеющие частотность 1-3 в месяц. Общий объем таких запросов дает в сумме ощутимый трафик с наименьшей конкуренцией в выдаче и практически без особых усилий в продвижении.

Сказать конкретно, что какое-то количество запросов соответствует высокочастотному запросу, а какое низкочастотному – нельзя, так как от ниши к нише эти значения сильно разнятся. Где-то 1000 запросов в месяц могут соответствовать низкочастотному запросу, а в другой нише он будет высокочастотным.

Значения частотности ключевых слов являются условными и предназначены для ранжирования по популярности.

По конкурентности:

  • ВК – высококонкурентные запросы.
  • СК – среднеконкурентные запросы.
  • НК – низкоконкурентные запросы.

Данная классификация позволяет составить список первоочередных ключевых запросов, по которым будет проводится поисковое продвижение. Кроме того, снизить стоимость клика в контекстных рекламных компаниях.

Общие цели пользователя, веб-мастера и поисковой системы

В процессе поиска информации через поисковую систему участвуют 3 стороны: поисковая система, пользователь и веб-ресурс. И каждая из сторон имеет свои цели: пользователю нужно найти ответ на свой запрос, а поисковой системе и веб-ресурсу заработать на этом.

Если вебмастера начинают каким-либо образом манипулировать работой ПС, при этом не давая требуемых ответов пользователям, то проигрывают все: пользователь не получает ответ на свой запрос и уходит искать в другую поисковую систему на другом сайте.

Следовательно, первичны потребности пользователей, т.к. без них не заработает ни ПС, ни веб-ресурс. В первую очередь удовлетворяя интересы пользователей ПС мы способствуем общему заработку. Поисковая система заработает на контекстной рекламе, веб-ресурс – на продажах товаров или услуг самим пользователям или рекламодателям. Все в выигрыше. Связывайте ваши цели с целями пользователей. Тогда вероятность положительного исхода резко возрастает.

Исследование ключевых слов

Как мы уже выяснили, ключевые слова — это выраженные в словесной форме мысли. Наша цель — выбрать ключевые слова, отражающие мысли потребителей и спрос по которым мы можем удовлетворить. Если у нас есть ключево слово, то пользователь увидит наше сообщение, если нет — не увидит.

Одни ключевые слова генерируют большой трафик, другие — маленький. Одни дают высокую конверсию, другие генерируют низкокачественный трафик.

Каждое ключевое слово составляет отдельный субрынок со своей клиентурой. За каждой ключевой фразой скрывается некие нужда, желание, вопрос или предложение, которое человек может и не осознавать.

Определив к какой стадии покупательского цикла относится ключевое слово мы поймем когда и для чего пользователь ищет его, следовательно, предоставим актуальную для него информацию, соответствующую ожиданиям.

Прежде чем начать свое исследование задайте себе следующие вопросы:

  1. Какие ключевые слова нам нужно использовать, чтобы добраться до своей целевой аудитории?
  2. Какие ключевые фразы используют интересные нам сегменты клиентов при поиске наших продуктов?
  3. Что происходит в голове пользователя при написании этого запроса?
  4. На каком покупательском цикле они находятся, используя эту ключевую фразу?

Цели исследования ключевых слов

  1. Получить представления о существующей “экосистеме” и выработать стратегию естественного и оплаченного поиска.
  2. Выявить потребности потенциальных клиентов и выработать на них соответствующую реакцию.

Анатомия запросов

Ключевые фразы состоят из 3-х элементов:

[тело]+[спецификатор]+[хвост],

где тело (также его называют “маской”) — это основа запроса, только лишь по которому невозможно понять намерения пользователей; спецификаторы определяют намерения пользователей и относят запрос к транзакционным, информационным или навигационным; хвост только лишь детализирует намерения или потребность.

Например, токарный станок купить, фрезерный станок 6Р12 характеристики, купить ленточную пилу по металлу биметаллическую в мск.

Знание анатомии поисковых запросов позволяет собрать все маски при проработке семантики, а также правильно разнести собранные ключевые слова согласно покупательскому циклу при проработке стратегии оплаченного и естественного поиска.

Сегментирование ключевых слов

При поиске масок и проработке уже собранного семантического ядра появляется необходимость сегментировать ключевые слова для более удобной последующей работы. Имея сегментированные ключи мы понимаем как ищут люди, следовательно, расширяем их дополнительными ключевыми запросами, оцениваем вероятность продаж и работаем согласно стратегии. Каких-то определенных правил сегментирования не существует, т.к. семантика может сильно отличаться от ниши к нише.

Здесь я только лишь приведу некоторые примеры по каким признакам сегментируют ядра семантисты:

  • по видам ключевых слов:
    • прямой спрос — ищут то, что мы продаем, например, фрезерный станок;
    • косвенный спрос — ищут фрезерный станок, а мы продаем фрезы к ним;
    • ситуативный — затопили соседи, мы сделали ремонт;
    • прочее — навигационные, витальные запросы.
  • по объектам поиска:
    • компания, объект (например, ремонтная бригада);
    • продукт (ремонт фрезерных станков);
    • производство, продажи (опт/розница) (изготовление запчастей для ремонта по чертежам);
    • действие над объектом (пусконаладочные работы);
    • специалист (инженер-коструктор);
    • часть объекта, подуслуга (разработка конструкторской документации на запасные части к фрезерному станку).
  • по ожидаемым чекам.

Long tail стратегия

Long-tail или концепция “длинного хвоста” была популяризирована в 2004 г. редактором журнала Wired Крисом Андерсоном. Суть концепции заключается в том, что компания продает редкие товары за счет широкого ассортимента на сумму большую чем бестселлеров.

Концепцию можно рассмотреть на примере книжной полки. Собственник магазина из-за ограниченности места будет стараться держать только товары, которые пользуются наибольшей популярностью. Если же мода на товар уже закончилась, то место книги занимает другая набирающая популярность.

В книжных интернет-магазинах полка не ограничена, в каталоге размещаются все доступные книги. Из проведенных исследований выяснилось, что благодаря широкому ассортименту объем продаж “непопулярных” книг превышает объем продаж бестселлеров. Эта концепция работает и в продажах музыки, фильмов, лекарственных препаратов и т.д., и само собой при составлении семантического ядра.

Как из примера с книгами, ключевые поисковые фразы из “длинного хвоста” могут принести объем трафика превышающий объем трафика по высокочастотным запросам.

Из практики long tail фразы обладают наибольшей конверсией, т.е. люди с наибольшей вероятностью находятся на этапе принятия решения о покупке.

Новые ключевые фразы

Если вы являетесь лидером мнений, имеете свою аудиторию и можете на нее влиять, попробуйте создавать новые ключевые поисковые фразы, вокруг которых будет строиться ваш контент. Если аудитория их подхватит, то вы первые будете выдаваться в поисковых результатах.

Сегментирование и воронка продаж

Сегментирование клиентов и ролевой принцип

Прежде чем собирать ключевые слова, компании нужно выяснить свою целевую аудиторию, сегменты и аватары своих клиентов. Чтобы было понятнее, сразу приведу пример: компания занимается продажей виброплит. Следовательно, ее целевой аудиторий будут строительные компании, а основными сегментами будут компании, осуществляющие дорожные работы, прокладку чего-либо под землей и т.д. Аватары — лица, принимающие решение о покупке и осуществляющие поиск товаров и услуг.

Здесь подробно на этом останавливать не будем.

Ролевой принцип заключается в том, что необходимо уделять внимание типу людей, которые могут искать ваш продукт, например, это может быть частное лицо, снабженец, инженер или генеральный директор. Люди, находящиеся в разных ролях могут употреблять различные ключевые слова. Поэтому, зная аватар своего клиента, учитываются его особенности поведения, ключевые слова подбираются с учетом требуемых ролей.

Например, если у вашей компании лицом, осуществляющим заказы, является инженер, то в его поисковых запросах могут встречаться специализированные технические термины.

Прежде чем начать нужно отметить, что у каждого бизнеса своя специфическая воронка продаж. Здесь рассматривается общая концепция. Состоит из 2-х частей: пропаганда и лояльность.

Этапы воронки продаж:

  1. Осведомленность — везде информировать о нашем продукте, чтобы люди узнали о нем. Данному этапу относятся ключевые слова обобщенного характера.
  2. Интерес — побудить потребителя задуматься как наш продукт сделает его жизнь лучше. На этом этапе транслируются выгоды и польза от продукта. Главная цель — вызвать желание получить продукт.
  3. Изучение — потребитель ищет информацию чтобы принять обоснованное решение: знакомиться с профессиональным жаргоном отрасли, в поисковых запросах появляются бренды, наименование специализированных услуг и т.п. Главная цель — максимально подробно донести выгоды и возможности продукта.
  4. Сравнение аналогов — потребитель сравнивает аналогичные продукты. Ключевые слова приобретают конкретный характер, указывая на наличие у потребителя определенного уровня знаний.
  5. Покупка — прежде чем принять решение о покупке покупатель изучает информацию о ценах, гарантиях, стоимости доставки, условиях обслуживания, возврата и т.д. Ключевые слова — низкочастотные запросы, запросы с продающими добавками.

Инструменты исследования ключевых слов

Алгоритм расширения ядра, сбор вложенных запросов

После того, как собраны все маски, переходим к сбору ключевых запросов вглубь.

Собирать вложенные запросы нужно для:

  • написания релевантных объявлений под КС;
  • выставления необходимой ставки для конкретного КС;
  • установки релевантной ссылки в объявлении, ведущую на необходимую страницу.

Инструментами автоматизированными сбора вложенных запросов являются программное обеспечение, устанавливаемое на ПК, онлайн-сервисы, расширения для браузеров. Их достаточно много, но мы используем самый популярный — Key Collector — программа парсер ключевых слов и их частотностей, устанавливаемая на компьютер, а также позволяющая производить все необходимые мероприятия по сбору семантического ядра.

Желательно каждую смысловую группу парсить отдельно.

Алгоритм расширения будет следующий:
  1. парсинг масок в Яндекс Wordstat;
  2. парсинг масок в Google AdWords;
  3. парсинг масок в базе данных Букварикс;
  4. парсинг масок в базе данных Keys.so;
  5. выгрузка ключевых слов из Яндекс Метрики и Google Analytics;
  6. чистка и сбор частотностей ключевых слов;
  7. пакетный сбор поисковых подсказок;
  8. пакетный сбор похожих поисковых запросов из поисковой выдачи;
  9. чистка и сбор частотностей.

При помощи инструментов Яндекс Wordstat и Google AdWords мы получим основные ключевые поисковые фразы, имеющие частотность и популярность в поисковых системах. Букварикс, Keys.so, выгрузка КС из Яндекс Метрики и Google Analytics, поисковые подсказки и похожие поисковые запросы дадут также “хвостатые” слова пользователей.

Адаптация семантического ядра под контекстную рекламу

Алгоритм подготовки выглядит следующим образом:

  1. выбрать продающие ключевые слова;
  2. сегментировать КС;
  3. проработать минус-слова и минус-фразы;
  4. поставить операторы.

Ключевики для РСЯ и КМС подбираются немного по другому принципу в отличие от ключевых слов на поиске.

Выбор продающих ключевых слов

Из имеющегося списка ключевых фраз нам нужно понять что хочет человек (его потребности), какой ответ он хочет услышать на свой вопрос. Наша задача ответить в контексте поиска на те вопросы человека, которые интересны нам, т.е. выбрать те ключевые слова, которые с наибольшей вероятностью могут привести к конверсиям.

Кроме того, при помощи грамотного отбора КС мы снизим нецелевые показы, что повысить CTR и уменьшит цену клика.

Встречаются ситуации когда смысл запроса не понятен. Чтобы нам понять смысл того, что хотят большинство людей в таких случаях, необходимо вбить этот запрос в строку поисковой системы и посмотреть на результаты поиска. Благодаря машинному обучению и др. технологиям настройки поиска Яндекс и Google уже знают что хотят люди при каждом конкретном запросе. Остается только проанализировать результаты выдачи и принять правильное решение. Вторым способом является просмотр вложений словоформы в Яндекс Wordstat, третьим — додумать смысл, но пометить для дальнейшей проработки.

Полнота КС является одним из важных факторов, влияющих на успех рекламной компании. Следовательно, от качества проработки ключевых слов будет зависеть будущий результат. В контекстной рекламе нужно стремится не к объему СЯ, а к его качественной проработке.

В зависимости от целей, в дальнейшем можно воспользоваться стратегией: определить самые конверсионные запросы, протестировать их, а дальше масштабировать рекламную кампанию.

Сегментирование КС

Каких-то четких сегментов выделить нельзя, т.к. все различается от ниши к нише. В большинстве коммерческих сайтов можно сегментировать на основании этапов покупательского цикла. Или вы можете самостоятельно выделить какие-то сегменты, изучив свое ядро.

Основная задача сегментирования — способность в будущем легко управлять компанией: назначать ставки и бюджеты, быстро найти объявление и включить/остановить его показы и т.д.

Проработка минус-слов и фраз

Еще на этапе сбора семантического ядра у вас были собраны минус-слова и фразы. Остается адаптировать их под вашу рекламную компанию и провести кросс-минусовку.

Простановка операторов

Операторы применяются для ВЧ-запросов для избежания черной конкуренции, а также для экономии бюджета в высококонкурентной тематике и более точного формулирования фразы. Операторы можно комбинировать между собой.

Операторы Яндекс Директ

+слово — фиксация стоп-слов, вспомогательные части речи: предлоги, союзы, частицы, местоимения, числительные.

!слово — фиксация словоформы.

[слово1 слово2] — фиксация порядка слов.

-слово — исключение слова.

минус-фразы — исключение фразы, .

Операторы Google AdWords: типы соответствий ключевых слов

Широкий тип соответствия — используется по умолчанию, объявление будет показано по синониму, при опечатке, по похожим словосочетаниям и одинаковым интентам, например, по запросу “офисы в Москве” может показаться по ключевому слову “недвижимость Москва”.

Модификатор широкого соответствия — объявления покажутся по запросам, содержащим знак “+” и их близким вариантам (но не синонимам), расположенным в любом порядке. Например, + автомобиль + hyundai + tucsan.

Фразовое соответствие — объявление покажется по фразам, точно соответствующим ключевым словам или содержащие близкие слова. Чувствителен к порядку слов. Например, по запросу “цены монитор Benq” может показать объявление по ключевому слову “ монитор Benq ” .

Точное соответствие — объявление покажется по запросам точно соответствующим ключевому слово или его близким вариантам. Например, по запросу “шиномонтаж для грузовиков” может показаться объявление по ключевой фразе [ грузовой шиномонтаж ] .

Минус-слова — объявления будут показываться по запросам, не содержащим минус-слова.

Адаптация семантического ядра под поисковое продвижение (SEO)

Ядро нам понадобится для разработки четкой логической структуры сайта и полноты охвата тематики (опишем нашу тематику определенными ключевыми словами, характерными ей).

Алгоритм подготовки КС для SEO выглядит следующим образом:

  1. удалить из СЯ информационные запросы (оставить только коммерческие);

Кластеризация семантического ядра

Кластеризация — объединение запросов в группы на основе намерений пользователей, другими словами, необходимо объединить разные запросы в одну группу по которым человек ищет одно и тоже. Запросы распределяются в группы таким образом, чтобы их можно было продвигать на одной и той же странице (объединенные интентом пользователя).

Как пример, нельзя продвигать информационные и коммерческие запросы на одной странице. Более того, рекомендуется продвигать эти запросы на разных сайтах.

Например, спец. одежда — рабочая одежда, зиг машина — зиговка — зиговочный станок, циркулярная пила — круглопильный станок — распиловочный станок.

Кластеризация может быть:

  • ручной — группировка происходит вручную в какой-либо специализированной программе или Excel. Человек, осуществляющий группировку просто обязан хорошо разбираться в теме, иначе ничего толкового не получится;
  • автоматической — группировка происходит в автоматическом режиме на основе поисковой выдачи. Этот метод позволяет ускорить разгруппировку семантического ядра, состоящего из огромного количества ключевых фраз. Группировка имеет высокую точность (намного точнее, если вручную занимался человек, не разбирающийся в теме). Основным преимуществом данного способа является объединение в группы запросов только соответствующего типа, т.е.коммерческие и информационные не будут объедены в одну группу (хорошо иллюстрируют ситуацию запросы “смартфон” и “смартфоны”: 1-й — информационный и геонезависимый, 2-й — коммерческий и геозависимый, а вот “ноутбук” и “ноутбуки” — оба коммерческих и геозависимые);
  • полуавтоматической — сначала создаются кластеры в автоматическом режиме, а после вручную до группироваться. Этот тип кластеризации объединяет как плюсы, так и минусы первых 2-х.

По виду кластеризация семантического ядра может быть:

Для коммерческих сайтов в большинстве случаев используется hard-кластеризация. В особых случаях можно использовать middle.

Карта релевантности

Карта релевантности необходима для планирования страниц и проработки структуры сайта. Основными элементами являются:

  • наименование элемента дерева (категория, тег, страница и т.п.);
  • наименование кластера;
  • ключевые слова кластера;
  • точная частота (“!ключевого!слова”);
  • Title;
  • Description;
  • предыдущий Title;
  • предыдущий H1;
  • предыдущий Description.

Для визуализации структуры сайта часто прибегают к помощи mind-карт.

Адаптация семантического ядра под информационные сайты

Информационные запросы, если их рассматривать со стороны коммерческого использования, скорее относятся следующим к этапам воронки продаж осведомленности, интересу, изучению, сравнению аналогов. Т.е. ключевые слова напрямую не дают конверсии в продажи. Но на их основе мы можем информировать и влиять на принятие решения покупателя.

Если же речь идет о создании сайтов для заработка на рекламе, то необходимо специализироваться на определенной тематике и раскрыть ее полностью. Сайт должен отвечать на все вопросы по теме благодаря грамотной проработке всей семантики.

Алгоритм подготовки КС для информационных сайтов:

  1. удалить из СЯ коммерческие запросы (оставить только информационные);
  2. провести кластеризацию оставшегося СЯ;
  3. подготовить карту релевантности на основе получившихся кластеров.

Как видим, алгоритм принципиально ничем не отличается от работы по адаптации под SEO. Основной нюанс — тип кластеризации. Для информационных сайтов выбирают soft- или middle-кластеризацию.

Семантическое ядро под заказ

Стоимость семантического ядра определяется из расчета 3-7 руб. за ключевое слово. Так, кластеризованное семантическое ядро под SEO или инфосайт из 10 000 ключевиков будет стоить в среднем 50 000 руб. Плюс цена возрастет если нужно сегментировать ключевики под контекстную рекламу. Цена сильно зависит от качество проработки. Если вам предлагают дешевле указанных расценок, то следует как минимум задуматься почему. Ведь на хорошую проработку только масок порой уходит до 16 часов работы. Сэкономив на сборе семантического ядра (не охватите всей полноты и глубины тематики), потом потеряете на контекстной рекламе (будете показываться по самым конкурентным тематикам) и недополучите клиентов из поисковой выдачи.

Вот простейший пример качества проработки семантического ядра: при запросе «зиговочный станок» вы будете конкурировать в поисковой выдаче между 36 конкурентами, при запросе «зиговочные машины» — 27 конкурентами, а «зиговка» — только 8 конкурентами.

Запрос «Зиговочный станок»

Запрос «Зиговочная машина»

Здравствуйте, уважаемые читатели блога сайт. Хочу сделать очередной заход на тему «сбора семядра». Сначала , как полагается, а потом много практики, может быть и несколько неуклюжей в моем исполнении. Итак, лирика. Ходить с завязанными глазами в поисках удачи мне надоело уже через год, после начала ведения этого блога. Да, были «удачные попадания» (интуитивное угадывание часто задаваемых поисковикам запросов) и был определенный трафик с поисковиков, но хотелось каждый раз бить в цель (по крайней мере, ее видеть).

Потом захотелось большего — автоматизации процесса сбора запросов и отсева «пустышек». По этой причине появился опыт работы с Кейколлектором (и его неблагозвучным младшим братом) и очередная статья на тему . Все было здорово и даже просто замечательно, пока я не понял, что есть один таки очень важный момент, оставшийся по сути за кадром — раскидывание запросов по статьям.

Писать отдельную статью под отдельный запрос оправдано либо в высококонкурентных тематиках, либо в сильно доходных. Для инфосайтов же — это полный бред, а посему приходится запросы объединять на одной странице. Как? Интуитивно, т.е. опять же вслепую. А ведь далеко не все запросы уживаются на одной странице и имеют хотя бы гипотетический шанс выйти в Топ.

Собственно, сегодня как раз и пойдет речь об автоматической кластеризации семантического ядра посредством KeyAssort (разбивке запросов по страницам, а для новых сайтов еще и построение на их основе структуры, т.е. разделов, категорий). Ну, и сам процесс сбора запросов мы еще раз пройдем на всякий пожарный (в том числе и с новыми инструментами).

Какой из этапов сбора семантического ядра самый важный?

Сам по себе сбор запросов (основы семантического ядра) для будущего или уже существующего сайта является процессом довольно таки интересным (кому как, конечно же) и реализован может быть несколькими способами, результаты которых можно будет потом объединить в один большой список (почистив дубли, удалив пустышки по стоп словам).

Например, можно вручную начать терзать Вордстат , а в добавок к этому подключить Кейколлектор (или его неблагозвучную бесплатную версию). Однако, это все здорово, когда вы с тематикой более-менее знакомы и знаете ключи, на которые можно опереться (собирая их производные и схожие запросы из правой колонки Вордстата).

В противном же случае (да, и в любом случае это не помешает) начать можно будет с инструментов «грубого помола». Например, Serpstat (в девичестве Prodvigator), который позволяет буквально «ограбить» ваших конкурентов на предмет используемых ими ключевых слов (смотрите ). Есть и другие подобные «грабящие конкурентов» сервисы (spywords, keys.so), но я «прикипел» именно к бывшему Продвигатору.

В конце концов, есть и бесплатный Букварис , который позволяет очень быстро стартануть в сборе запросов. Также можно заказать частным образом выгрузку из монстрообразной базы Ahrefs и получить опять таки ключи ваших конкурентов. Вообще, стоит рассматривать все, что может принести хотя бы толику полезных для будущего продвижения запросов, которые потом не так уж сложно будет почистить и объединить в один большой (зачастую даже огромный список).

Все это мы (в общих чертах, конечно же) рассмотрим чуть ниже, но в конце всегда встает главный вопрос — что делать дальше . На самом деле, страшно бывает даже просто подступиться к тому, что мы получили в результате (пограбив десяток-другой конкурентов и поскребя по сусекам Кейколлектором). Голова может лопнуть от попытки разбить все эти запросы (ключевые слова) по отдельным страницах будущего или уже существующего сайта.

Какие запросы будут удачно уживаться на одной странице, а какие даже не стоит пытаться объединять? Реально сложный вопрос, который я ранее решал чисто интуитивно, ибо анализировать выдачу Яндекса (или Гугла) на предмет «а как там у конкурентов» вручную убого, а варианты автоматизации под руку не попадались. Ну, до поры до времени. Все ж таки подобный инструмент «всплыл» и о нем сегодня пойдет речь в заключительной части статьи.

Это не онлайн-сервис, а программное решение, дистрибутив которого можно скачать на главной странице официального сайта (демо-версию).

Посему никаких ограничений на количество обрабатываемых запросов нет — сколько надо, столько и обрабатывайте (есть, однако, нюансы в сборе данных). Платная версия стоит менее двух тысяч, что для решаемых задач, можно сказать, даром (имхо).

Но про техническую сторону KeyAssort мы чуть ниже поговорим, а тут хотелось бы сказать про сам принцип, который позволяет разбить список ключевых слов (практически любой длины) на кластеры, т.е. набор ключевых слов, которые с успехом можно использовать на одной странице сайта (оптимизировать под них текст, заголовки и ссылочную массу — применить магию SEO).

Откуда вообще можно черпать информацию? Кто подскажет, что «выгорит», а что достоверно не сработает? Очевидно, что лучшим советчиком будет сама поисковая система (в нашем случае Яндекс, как кладезь коммерческих запросов). Достаточно посмотреть на большом объеме данных выдачу (допустим, проаналазировать ТОП 10) по всем этим запросам (из собранного списка будущего семядра) и понять, что удалось вашим конкурентам успешно объединить на одной странице. Если эта тенденция будет несколько раз повторяться, то можно говорить о закономерности, а на основе нее уже можно бить ключи на кластеры.

KeyAssort позволяет в настройках задавать «строгость», с которой будут формироваться кластеры (отбирать ключи, которые можно использовать на одной странице). Например, для коммерции имеет смысл ужесточать требования отбора, ибо важно получить гарантированный результат, пусть и за счет чуть больших затрат на написание текстов под большее число кластеров. Для информационных сайтов можно наоборот сделать некоторые послабления, чтобы меньшими усилиями получить потенциально больший трафик (с несколько большим риском «невыгорания»). Как это сделать опять же поговорим.

А что делать, если у вас уже есть сайт с кучей статей, но вы хотите расширить существующее семядро и оптимизировать уже имеющиеся статьи под большее число ключей, чтобы за минимум усилий (чуток сместить акцент ключей) получить поболе трафика? Эта программка и на этот вопрос дает ответ — можно те запросы, под которые уже оптимизированы существующие страницы, сделать маркерными, и вокруг них KeyAssort соберет кластер с дополнительными запросами, которые вполне успешно продвигают (на одной странице) ваши конкуренты по выдаче. Интересненько так получается...

Как собрать пул запросов по нужной вам тематике?

Любое семантическое ядро начинается, по сути, со сбора огромного количества запросов, большая часть из которых будет отброшена. Но главное, чтобы на первичном этапе в него попали те самые «жемчужины», под которые потом и будут создаваться и продвигаться отдельные страницы вашего будущего или уже существующего сайта. На данном этапе, наверное, самым важным является набрать как можно больше более-менее подходящих запросов и ничего не упустить, а пустышки потом легко отсеяться.

Встает справедливый вопрос, а какие инструменты для этого использовать ? Есть один однозначный и очень правильный ответ — разные. Чем больше, тем лучше. Однако, эти самые методики сбора семантического ядра, наверное, стоит перечислить и дать общие оценки и рекомендации по их использованию.

  1. Яндекс Вордстат и его аналоги у других поисковых систем — изначально эти инструменты предназначались для тех, кто размещает контекстную рекламу, чтобы они могли понимать, насколько популярны те или иные фразы у пользователей поисковиков. Ну, понятно, что Сеошники этими инструментами пользуются тоже и весьма успешно. Могу порекомендовать пробежаться глазами по статье , а также упомянутой в самом начале этой публикации статье (полезно будет начинающим).

    Из недостатков Водстата можно отметить:

    1. Чудовищно много ручной работы (однозначно требуется автоматизация и она будет рассмотрена чуть ниже), как по пробивке фраз основанных на ключе, так и по пробивке ассоциативных запросов из правой колонки.
    2. Ограничение выдачи Вордстата (2000 запросов и не строчкой больше) может стать проблемой, ибо для некоторых фраз (например, «работа») это крайне мало и мы упускаем из вида низкочастотные, а иногда даже и среднечастотные запросы, способные приносить неплохой трафик и доход (их ведь многие упускают). Приходится «сильно напрягать голову», либо использовать альтернативные методы (например, базы ключевых слов, одну из которых мы рассмотрим ниже — при этом она бесплатная!).
  2. КейКоллектор (и его бесплатный младший брат Slovoeb ) — несколько лет назад появление этой программы было просто «спасением» для многих тружеников сети (да и сейчас представить без КК работу над семядром довольно трудно). Лирика. Я купил КК еще два или три года назад, но пользовался им от силы несколько месяцев, ибо программа привязана к железу (начинке компа), а она у меня по нескольку раз в год меняется. В общем, имея лицензию на КК пользуюсь SE — так то вот, до чего лень доводит.

    Подробности можете почитать в статье « ». Обе программы помогут вам собрать запросы и из правой, и из левой колонки Вордстата, а также поисковые подсказки по нужным вам ключевым фразам. Подсказки — это то, что выпадает из поисковой строки, когда вы начинаете набирать запрос. Пользователи часто не закончив набор просто выбирают наиболее подходящий из этого списка вариант. Сеошники это дело просекли и используют такие запросы в оптимизации и даже .

    КК и SE позволяют сразу набрать очень большой пул запросов (правда, может потребоваться много времени, либо покупка XML лимитов, но об этом чуть ниже) и легко отсеять пустышки, например, проверкой частотности фраз взятых в кавычки (учите матчасть, если не поняли о чем речь — ссылки в начале публикации) или задав список стоп-слов (особо актуально для коммерции). После чего весь пул запросов можно легко экспортировать в Эксель для дальнейшей работы или для загрузки в KeyAssort (кластеризатор), о котором речь пойдет ниже.

  3. СерпСтат (и другие подобные сервисы) — позволяет введя Урл своего сайта получить список ваших конкурентов по выдаче Яндекса и Гугла. А по каждому из этих конкурентов можно будет получить полный список ключевых слов, по которым им удалось пробиться и достичь определенных высот (получить трафик с поисковиков). Сводная таблица будет содержать частотность фразы, место сайта по ней в Топе и кучу другой разной полезной и не очень информации.

    Не так давно я пользовал почти самый дорогой тарифный план Серпстата (но только один месяц) и успел за это время насохранять в Экселе чуть ли не гигабайт разных полезняшек. Собрал не только ключи конкурентов, но и просто пулы запросов по интересовавшим меня ключевым фразам, а также собрал семядра самых удачных страниц своих конкурентов, что, мне кажется, тоже очень важно. Одно плохо — теперь никак время не найду, чтобы вплотную заняться обработкой всей это бесценной информации. Но возможно, что KeyAssort все-таки снимет оцепенение перед чудовищной махиной данных, которые нужно обработать.

  4. Букварикс — бесплатная база ключевых слов в своей собственной программной оболочке. Подбор ключевиков занимает доли секунды (выгрузка в Эксель минуты). Сколько там миллионов слов не помню, но отзывы о ней (в том числе и мой) просто отличные, и главное все это богатство бесплатно! Правда, дистрибутив программы весить 28 Гигов, а в распокованном виде база занимает на жестком диске более 100 Гбайт, но это все мелочи по сравнению с простотой и скоростью сбора пула запросов.

    Но не только скорость сбора семядра является основным плюсом по сравнению с Вордстатом и КейКоллектором. Главное, что тут нет ограничений на 2000 строк для каждого запроса, а значит никакие НЧ и сверх НЧ от нас не ускользнут. Конечно же, частотность можно будет еще раз уточнить через тот же КК и по стоп-словам в нем отсев провести, но основную задачу Букварикс выполняет замечательно. Правда, сортировка по столбцам у него не работает, но сохранив пул запросов в Эксель там можно будет сортировать как заблагороссудится.

Наверное, еще как минимум несколько «серьезных» инструментов собора пула запросов приведете вы сами в комментариях, а я их успешно позаимствую...

Как очистить собранные поисковые запросы от «пустышек» и «мусора»?

Полученный в результате описанных выше манипуляций список, скорее всего, будет весьма большим (если не огромным). Поэтому прежде чем загружать его в кластерезатор (у нас это будет KeyAssort) имеет смысл его слегка почистить . Для этого пул запросов, например, можно выгрузить к кейколлектор и убрать:

  1. Запросы со слишком низкой частотностью (лично я пробиваю частотность в кавычках, но без восклицательных знаков). Какой порог выбирать решать вам, и во многом это зависит от тематики, конкурентности и типа ресурса, под который собирается семядро.
  2. Для коммерческих запросов имеется смысл использовать список стоп-слов (типа, «бесплатно», «скачать», «реферат», а также, например, названия городов, года и т.п.), чтобы заранее убрать из семядра то, что заведомо не приведет на сайт целевых покупателей (отсеять халявшиков, ищущих информацию, а не товар, ну, и жителей других регионов, например).
  3. Иногда имеет смысл руководствоваться при отсеве показателем конкуренции по данному запросу в выдаче. Например, по запросу «пластиковые окна» или «кондиционеры» можно даже не рыпаться — провал обеспечен заранее и со стопроцентной гарантией.

Скажите, что это слишком просто на словах, но сложно на деле. А вот и нет. Почему? А потому что один уважаемый мною человек (Михаил Шакин) не пожалел времени и записал видео с подробным описанием способов очистки поисковых запросов в Key Collector :

Спасибо ему за это, ибо данные вопрос гораздо проще и понятнее показать, чем описать в статье. В общем справитесь, ибо я в вас верю...

Настройка кластеризатора семядра KeyAssort под ваш сайт

Собственно, начинается самое интересное. Теперь весь этот огромный список ключей нужно будет как-то разбить (раскидать) на отдельных страницах вашего будущего или уже существующего сайта (который вы хотите существенно улучшить в плане приносимого с поисковых систем трафика). Не буду повторяться и говорить о принципах и сложности данного процесса, ибо зачем тогда я первую часть этой стать писал.

Итак, наш метод довольно прост. Идем на официальный сайт KeyAssort и скачиваем демо-версию , чтобы попробовать программу на зуб (отличие демо от полной версии — это невозможность выгрузить, то бишь экспортировать собранное семядро), а уже опосля можно будет и оплатить (1900 рубликов — мало, мало по современным реалиям). Если хотите сразу начать работу над ядром что называется «на чистовик», то лучше тогда выбрать полную версию с возможностью экспорта.

Программа КейАссорт сама собирать ключи не умеет (это, собственно, и не ее прерогатива), а посему их потребуется в нее загрузить. Сделать это можно четырьмя способами — вручную (наверное, имеется смысл прибегать к этому методу для добавления каких-то найденных уже опосля основного сбора ключей), а также три пакетных способа импорта ключей :

  1. в формате тхт — когда нужно импортировать просто список ключей (каждый на отдельной строке тхт файлика и ).
  2. а также два варианта экселевского формата: с нужными вам в дальнейшем параметрами, либо с собранными сайтами из ТОП10 по каждому ключу. Последнее может ускорить процесс кластеризации, ибо программе KeyAssort не придется самой парсить выдачу для сбора эти данных. Однако, Урлы из ТОП10 должны быть свежими и точными (такой вариант списка можно получить, например, в Кейколлекторе).

Да, что я вам рассказываю — лучше один раз увидеть:

В любом случае, сначала не забудьте создать новый проект в том же самом меню «Файл», а уже потом только станет доступной функция импорта:

Давайте пробежимся по настройкам программы (благо их совсем немного), ибо для разных типов сайтов может оказаться оптимальным разный набор настроек. Открываете вкладку «Сервис» — «Настройки программы» и можно сразу переходить на вкладку «Кластеризация» :

Тут самое важное — это, пожалуй, выбор необходимого вам вида кластеризации . В программе могут использоваться два принципа, по которым запросы объединяются в группы (кластеры) — жесткий и мягкий.

  1. Hard — все запросы попавшие в одну группу (пригодные для продвижения на одной странице) должны быть объединены на одной странице у необходимого числа конкурентов из Топа (это число задается в строке «сила группировки»).
  2. Soft — все запросы попавшие в одну группу будут частично встречаться на одной странице у нужного числа конкурентов и Топа (это число тоже задается в строке «сила группировки»).

Есть хорошая картинка наглядно все это иллюстрирующая:

Если непонятно, то не берите в голову, ибо это просто объяснение принципа, а нам важна не теория, а практика, которая гласит, что:

  1. Hard кластеризацию лучше применять для коммерческих сайтов . Этот метод дает высокую точность, благодаря чему вероятность попадания в Топ объединенных на одной странице сайта запросов будет выше (при должном подходе к оптимизации текста и его продвижению), хотя самих запросов будет меньше в кластере, а значит самих кластеров больше (больше придется страниц создавать и продвигать).
  2. Soft кластеризацию имеет смысл использовать для информационных сайтов , ибо статьи будут получаться с высоким показателем полноты (будут способны дать ответ на ряд схожих по смыслу запросов пользователей), которая тоже учитывается в ранжировании. Да и самих страниц будет поменьше.

Еще одной важной, на мой взгляд, настройкой является галочка в поле «Использовать маркерные фразы» . Зачем это может понадобиться? Давайте посмотрим.

Допустим, что у вас уже есть сайт, но страницы на нем были оптимизированы не под пул запросов, а под какой-то один, или же этот пул вы считаете недостаточно объемным. При этом вы всем сердцем хотите расширить семядро не только за счет добавления новых страниц, но и за счет совершенствования уже существующих (это все же проще в плане реализации). Значит нужно для каждой такой страниц добрать семядро «до полного».

Именно для этого и нужна эта настройка. После ее активации напротив каждой фразы в вашем списке запросов можно будет поставить галочку. Вам останется только отыскать те основные запросы, под которые вы уже оптимизировали существующие страницы своего сайта (по одному на страницу) и программа KeyAssort выстроит кластеры именно вокруг них. Собственно, все. Подробнее в этом видео:

Еще одна важная (для правильной работы программы) настройка живет на вкладке «Сбор данных с Яндекс XML» . вы можете прочитать в приведенной статье. Если вкратце, то Сеошники постоянно парсят выдачу Яндекса и выдачу Вордстата, создавая чрезмерную нагрузку на его мощности. Для защиты была внедрена капча, а также разработан спецдоступ по XML, где уже не будет вылезать капча и не будет происходить искажение данных по проверяемым ключам. Правда, число таких проверок в сутки будет строго ограничено.

От чего зависит число выделенных лимитов? От того, как Яндекс оценит ваши . можно перейдя по этой ссылке (находясь в том же браузере, где вы авторизованы в Я.Вебмастере). Например, у меня это выглядит так:

Там еще есть снизу график распределения лимитов по времени суток, что тоже важно. Если запросов нужно пробить много, а лимитов мало, то не проблема. Их можно докупить . Не у Яндекса, конечно же, напрямую, а у тех, у кого эти лимиты есть, но они им не нужны.

Механизм Яндекс XML позволяет проводить передачу лимитов, а биржи, подвязавшиеся быть посредниками, помогают все это автоматизировать. Например, на XMLProxy можно прикупить лимитов всего лишь по 5 рублей за 1000 запросов, что, согласитесь, совсем уж не дорого.

Но не суть важно, ибо купленные вами лимиты все равно ведь перетекут к вам на «счет», а вот чтобы их использовать в KeyAssort, нужно будет перейти на вкладку "Настройка " и скопировать длинную ссылку в поле «URL для запросов» (не забудьте кликнуть по «Ваш текущий IP» и нажать на кнопку «Сохранить», чтобы привязать ключ к вашему компу):

После чего останется только вставить этот Урл в окно с настройками KeyAssort в поле «Урл для запросов»:

Собственно все, с настройками KeyAssort покончено — можно приступать к кластеризации семантического ядра.

Кластеризация ключевых фраз в KeyAssort

Итак, надеюсь, что вы все настроили (выбрали нужный тип кластеризации, подключили свои или покупные лимиты от Яндекс XML), разобрались со способами импорта списка с запросами, ну и успешно все это дело перенесли в КейАссорт. Что дальше? А дальше уж точно самое интересное — запуск сбора данных (Урлов сайтов из Топ10 по каждому запросу) и последующая кластеризация всего списка на основе этих данных и сделанных вами настроек.

Итак, для начала жмем на кнопку «Собрать данные» и ожидаем от нескольких минут до нескольких часов, пока программа прошерстит Топы по всем запросам из списка (чем их больше, тем дольше ждать):

У меня на три сотни запросов (это маленькое ядро для серии статей про работу в интернете) ушло около минуты. После чего можно уже приступать непосредственно к кластеризации , становится доступна одноименная кнопка на панели инструментов KeyAssort. Процесс этот очень быстрый, и буквально через несколько секунд я получил целый набор калстеров (групп), оформленных в виде вложенных списков:

Подробнее об использовании интерфейса программы, а также про создание кластеров для уже существующих страниц сайта смотрите лучше в ролике, ибо так гораздо нагляднее:

Все, что хотели, то мы и получили, и заметьте — на полном автомате. Лепота.

Хотя, если вы создаете новый сайт, то кроме кластеризации очень важно бывает наметить будущую структуру сайта (определить разделы/категории и распределить по ним кластеры для будущих страниц). Как ни странно, но это вполне удобно делать именно в KeyAssort, но правда уже не в автоматическом режиме, а в ручном режиме. Как?

Проще опять же будет один раз увидеть — все верстается буквально на глазах простым перетаскиванием кластеров из левого окна программы в правое:

Если программу вы таки купили, то сможете экспортировать полученное семантическое ядро (а фактически структуру будущего сайта) в Эксель. Причем, на первой вкладке с запросами можно будет работать в виде единого списка, а на второй уже будет сохранена та структура, что вы настроили в KeyAssort. Весьма, весьма удобно.

Ну, как бы все. Готов обсудить и услышать ваше мнение по поводу сбора семядра для сайта.

Удачи вам! До скорых встреч на страницах блога сайт

Вам может быть интересно

Vpodskazke - новый сервис Вподсказке для продвижения подсказок в поисковых системах SE Ranking - лучший сервис мониторинга позиций для новичков и профессионалов в SEO Сбор полного семантического ядра в Топвизоре, многообразие способов подбора ключевых слов и их группировка по страницам Практика сбора семантического ядра под SEO от профессионала - как это происходит в текущих реалиях 2018 Оптимизация поведенческих факторов без их накрутки SEO PowerSuite - программы для внутренней (WebSite Auditor, Rank Tracker) и внешней (SEO SpyGlass, LinkAssistant) оптимизации сайта
SERPClick: продвижение поведенческими факторами