Без рубрики

Как не нужно собирать семантику: 8 советов и одна поучительная история

Партнерский материал

Вадим Захаров

Руководитель digital-агентства «Семантика Онлайн», автор SEO-блога delexp.net, спикер образовательный проект Пузат.ру

Сегодня я хочу рассказать вам историю про Саню, который решил зарабатывать на контентных сайтах, не утруждая себя тонкостями семантики. И стал образцовым объектом для разбора ошибок, которые иногда совершают все: и новички, и бывалые сеошники.

Во второй части статьи я остановлюсь на 8 ошибках из опыта Сани, которые и сам когда-то проходил, но теперь нашел решение и больше их не совершаю. Если вам не хочется читать про Саню, то переходите сразу к советам по делу.

Итак, жил-был парень по имени Саня

Жил он, в принципе, как многие из нас. Не бедно, но и не богато. Родители-работяги, бабушки-дедушки, двушка в спальном районе. Только с детства Саня чувствовал себя особенным, ну или хотел в это верить. Ему казалось, что именно он-то и создан для чего-то большего. Для чего именно, точно не знал, но только бы не повторить путь отца и матери, которые с 20 лет на одном и том же заводе — нет уж, спасибо.

Прошла школа, пролетел, как пуля, универ, и вот уже привет тебе, суровая реальная жизнь. Внезапного богатства на голову не обрушилось, и перспектива пойти на работу «как все» превратилась из детского кошмара в самую настоящую реальность.

Был, конечно, выход — найти место менеджера в какой-нибудь фирме, растить бороду, зарабатывать геморрой, копить кредиты. Чем не выход, многие так и живут. Только от детских стремлений отказываться ой как не хотелось.

Сане очень повезло, что люди придумали интернет. В интернете есть тьма тьмущая возможностей, чтобы наш герой хорошо зарабатывал, путешествовал и при этом не вставал в 6 утра, чтобы задыхаться в метро или в пробках по пути на работу. Это благодаря интернету есть люди, которые просто едят на камеру, имеют 2 млн подписчиков и считаются успешными. Сомнительная слава ютубера нашего героя не привлекала, но и не YouTube’ом единым жив интернет. Саня стал перебирать варианты: арбитраж, дорвеи, ссылки и так далее.

Выбор пал на контентные проекты, для дальнейшей их монетизации при помощи всего на свете. А что? Довольно пассивно, не так нервно, как арбитраж, и на первый взгляд не очень запарно.

Про сайты, ядро и вот это вот все

Для начала Саня наметил для себя план, как ему казалось, очень четкий:

1. Качаем на складчине какой-нибудь популярный курс.

2. Быстренько пробегаемся по верхам и выбираем нишу. Глубоко вникать некогда: время-то уходит, и моложе, чем сейчас, Саня уже не будет.

3. Регистрируем домен, ставим WordPress.

4. За вечерок собираем семантику.

5. Продаем старую карбюраторную 99ку, которую подарил батя. Деньги вкладываем в контент.

6. Пишем статьи.

7. Что в этом пункте, Саня сам до конца не продумал.

8. Profit!

Нишу наш герой выбрал «болезни простаты». На форумах он прочитал, что в медицине денег больше, поэтому над темой долго не раздумывал.

Саша не самый глупый пацан и кое-что шарит в компьютерах, так что покупка домена/хостинга, установка WordPress далась ему очень просто. Дальше нужно было собрать семант.

«Да на изи», — подумал он.

Быстренько протыкал уроки из курса, чтоб не терять время, а то там почему-то про семантику было 10 часов почти. Почитал, что пишет по этому поводу Википедия, и составил список вводных слов.

Потом он долго не хотел покупать Key Collector или пользоваться онлайн-сервисами (99ка уже продана, бюджет нужно экономить), но пришел к выводу, что без этого никак.

Пришлось раскошелиться.

Ну да ладно.

KeyCollector куплен и скачан. «Теперь меня никто не остановит», — подумал Саня. Правда, пришлось еще потратить три дня на изучение всех кнопочек, но это не беда. Нашего героя все равно было уже не остановить.

И начался парсинг.

Повторюсь, что Саня не самый глупый парень и решил делать ядро кусками (сегментами), чтобы можно было первую готовую часть сразу отдать в написание.

Начал наш герой с парсинга вводного слова «простатит» (это одно из заболеваний простаты, если что). Саша с предвкушением нажал кнопку парсинга Вордстата, ввел заветное слово и нажал «Начать». Парсинг продлился 4 дня. Пришлось, правда, еще перезагружать роутер пару раз, потому что Яндекс банил его айпишник за постоянные обращения.

Напарсилось 2000 ключей. Нужно было их почистить и разгруппировать.

«Да на изи», — снова подумал Саня.

По частотке было решено не резать (ну ведь чем больше ключей, тем лучше). Саня пробежался глазами по ядру, вырезал явный мусор и начал раскидывать слова по группам через «анализ групп» на основе своих представлений о простатите (напомню, что Саня в силу своего возраста про простатит знает мало), интуиции и еще Бог знает чего.

Часть разбилась, часть стало разбивать лень — долго и скучно, в итоге вышло 62 статьи, многие из которых состояли из одного ключа, многие имели суммарную частотку меньше 100 и так далее. Но разве это плохо? Чем больше, тем лучше, разве нет?

Пора заказывать тексты

Дальше все просто. Всякие генераторы ТЗ, LSI и прочая ерунда — это все маркетинг. Кому оно нужно? Пусть авторы пишут каждый ключ в прямом вхождении. Так больше релевантности (это модное слово он как раз узнал из курсов), следовательно, тексты будут лучше ранжироваться. Дальше выход сайта в ТОП, а за ним и обязательное богатство. 

Поэтому Саша набрал на бирже первых попавшихся авторов, раздал задания и стал ждать первых опусов.

Тексты готовы

Ну и отлично! Зачем их проверять? Это же очень долго! Авторы же не с улицы, а с биржи (я ей зря что ль комиссию плачу?). «Значит, они не могут написать бред», — в очередной раз совершенно безрассудно подумал Саня и закинул все тексты на сайт. Прописал какие-никакие метатеги, понадобавлял тематических картинок, скачанных с интернета, опубликовал.

Затем откинулся на спинку кресла, сложил руки на голове и начал ждать…

Что потом?

Нетрудно догадаться, что первый сайт не принес нашему герою желанного богатства. Вы уже наверно ждете трагической развязки в духе «Устроился грузчиком. Попал в плохую компанию, жизнь пошла под откос…». Но не тут-то было. Первая неудача Саню напрягла, но не сломила. Он нашел подработку, подкопил денег, запустил по старой схеме еще два сайта. Потом продал самый первый сайт и вложил их в три новых проекта. Сейчас Саня — не зеленый новичок, а опытный вебмастер.

Только подход к семантике у Сани остался на уровне того первого ядра, собранного наспех. Поэтому каждый следующий проект приносил больше головной боли, чем денег. У каждого из нас есть такой знакомый Саня — идет по своим граблям, и его вроде все устраивает, хотя все могло сложиться намного лучше. Но что уж теперь. Не такой он и особенный, как в детстве себе напридумывал.

Теперь по делу

Давайте разберем Сашины основные ошибки.

Семантическое ядро является основой продвижения любого сайта. И если с установкой WordPress справится любой, то в семантике довольно просто свернуть не туда, если подойти к сбору не слишком ответственно, да еще и без нужных знаний. Ну а если семант собрать криво, то и от статей будет не очень много толку. Будет много каннибалов (одинаковых по сути статей, которые жрут друг у друга релевантность), статей, которые никогда не окупят себя и т.д. Это как с уравнением: если ошибся где-то вначале, то дальше все решение будет неверным, и потом получится так, что у всего класса ответ х=1, а у тебя х=-146,6. Итак, вы готовы? Поехали.

1. Выбор выжженной ниши

Ниша, которую выбрал наш Саша (болезни простаты, если что), является очень конкурентной. Каждый уважающий себя вебмастер уже сделал себе такой сайт, а все потому, что в «простатите» при правильном подходе 1000 показов могут стоить 1000 руб. Это, конечно, не означает, что туда залезать уже поздно, но на входе лучше уже иметь практику и нормальный бюджет.

2. Составление вводных слов на основе одного источника

Практика показала, что если использовать только Википедию, то можно упустить здоровой кусок ниши. Не стоит забывать, что Википедию тоже заполняют люди. При сборе я рекомендую использовать следующие источники:

1. Википедия

2. Вордстат

3. Сайты конкурентов

4. Различные справочники и литература по теме

Вордстат может стать отличным помощником. Просто пройдитесь по основным ключам и посмотрите правую и левую колонку. Тут сразу видно и простатит, и аденому, и рак, и всякие пальпирования и т.д. Дальше, если покопаться еще глубже, можно будет найти еще что-нибудь. Это отлично дополнит ваш список из Википедии.

как не нужно собирать семантику(1).png

Затем смотрим конкурентов. Наверняка ваш конкурент заморочился и уже собрал свой список. Нужно зайти на его сайт, походить по категориям, посмотреть, что есть. Нужно сделать как минимум не хуже. Про справочники, думаю, пояснять не стоит. Берем и изучаем.

3. Ограничение Вордстата в 2050 ключей на парсинг

Многие новички об этом не знают. Но можете взять и проверить. Вбейте любой ключ, например, тот же «простатит», перейдите на последнюю страницу (на 41) и увидите, что частотка еще есть, а посмотреть дальше уже нельзя. Точнее кнопка есть, но если ее нажать, то чудо не случится.

как не нужно собирать семантику(2).png

И если в нашем случае на 40 странице и дальше нас ждут НЧ-шки (хотя в этой нише они как раз очень нужны), то в некоторых можно потерять прямо-таки здоровый «хвост». Например:

как не нужно собирать семантику(3).png

Тут уже можно набрать пару хороших групп.

Причем в Key Collector стоит по умолчанию парсинг вообще 40 страниц. То есть если его не настраивать, то мы соберем еще меньше минимума — 2000 слов.

Вариантов решения проблемы несколько:

1. Парсинг в несколько итераций. Это когда мы парсим, потом чистим и парсим то, что осталось.

2. Расписывание и минусация словоформ. Я бы с радостью расписал этот метод подробнее, но нужна еще одна большая статья, поэтому рекомендую посмотреть отличное видео Игоря Бакалова на этот счет.

3. Использование различных сторонних сервисов, которые имеют подобный инструментарий. Rush Analytics, например.

4. Очень подробное изучение и сегментация вводных слов. «Разделяем» простатит на хронический простатит, острый простатит, простатит симптомы, бактериальный простатит, калькулезный простатит, хламидийный простатит и т.д.

И подобные действия провести с каждым вводным ключом.

4. Использование в качестве источника ключевых слов только Вордстат

Да, еще одна проблема Вордстата в том, что даже если парсить правильно, то он не дает всех ключей, которые можно получить. Причем в некоторых нишах он позволяет получить всего 50–70% процентов от всех возможных ключей, что опять-таки очень грустно. Снова потерям хорошие НЧ-шки, снова тоска, поэтому полный список источников выглядит примерно так:

1. Вордстат

2. AdWords

3. Подсказки

4. База поисковых слов (лично я очень рекомендую Букварикс)

5. Поисковая видимость конкурентов (keys.so, SpyWords и т.д., но я рекомендую keys.so)

Букварикс рекомендую искренне, потому что он бесплатный (!), дает мало мусора и часто обновляется.

С keys.so почти такая же история. Дает много ключей (одна из самых больших баз, причем без мусора), хороший функционал и не супердорогой.

Можно, конечно, еще больше, например, добавить MOAB, но практика показала, что на выходе получается чуть-чуть больше ключей, но это влечет дополнительные расходы, так как базы платные, и лишний мусор, что не совсем рентабельно. Повторюсь, это все вариативно, я рассказываю так, как удобнее на мой взгляд, опираясь на свою практику (а это далеко за 1000 собранных ядер именно под контентные проекты).

5. Неверная кластеризация

Это вообще очень тонкая материя. Если плохо понимаете, как это работает, то лучше отдать специалисту или довериться автоматической кластеризации. Нельзя просто взять и раскидать слова по группам так, как тебе нравится. Дело в том, что поиск уже имеет представление о том, какие интенты (смыслы) могут продвигаться на одной странице, а какие нет. Нельзя просто скинуть все в кучу, написать огромную портянку текста под это дело. Нужно поглядывать на выдачу и смотреть, как сделано там.

Если в выдаче по двум запросам находятся одинаковые сайты, то, скорее всего, эти запросы должны попасть в одну группу и продвигаться на одной странице. Вот пример:

как не нужно собирать семантику(4).png

как не нужно собирать семантику(5).png

Если смотреть не скриншот, а браузер, то пересечений будет еще больше. Просто скрины уж слишком длинные получаются.

Эти пересечения говорят нам о том, что данные интенты лучше объединить в одну группу. Если этого не сделать, то получится так называемый каннибализм, когда одна статья будет мешать другой выйти в ТОП. Смотрите сами: сложно написать статью про алкоголь и не упомянуть про пиво, но при этом будет еще отдельная статья про пиво. И это все будет не очень. Если есть минимум 3 пересечения, то я рекомендую думать в сторону объединения.

Также хочу отметить, что выдача не всегда идеальна и часто перестраивается, особенно с выходами обновлений алгоритма. Поэтому выдача выдачей, но про здравый смысл тоже нельзя забывать. Если два интента имеют совершенно одинаковый смысл, но выдача разнится, то не стоит ее слушать. Часто это заметно в суперконкурентных тематиках. Скорее всего, чуть позже поиск наберет информации и объединит эти интенты, и вы будете на коне.

Выдачу слушать можно и нужно, но до тех пор пока это не противоречит здравому смыслу.

Да и не стоит еще забывать про простейшие ошибки, когда мы судим об интенте запроса просто по его написанию. Например, можно не знать, что гирудотерапия и лечение пиявками это одно и то же, но если заглянуть в выдачу, то она подскажет:

как не нужно собирать семантику(6).png

Кажется, что это крайне очевидно, но, к сожалению, многие новички допускают даже такие ошибки.

Есть три решения этой проблемы:

1. Самому внимательно проработать все ручками. Главное – все делать очень внимательно и не спеша.

2. Кластеризовать ядро сначала в любом автомате (Rush Analytics, Топвизор, KeyAssort или другом) и потом «добить» его руками.

3. Доверить это дело специалисту.

6. Работа без учета рентабельности

Еще одной ошибкой Саши была работа без привязки к рентабельности. Сайты — это бизнес, и как любой бизнес, он имеет свои метрики, KPI и т.д. Нужно понимать, что если мы тратим на написание статьи деньги, то, по-хорошему, она должна нам их вернуть.

Но вот если у нашей группы ключей (читай – статьи) суммарная «!» частотка будет, к примеру, 50 в месяц, а мы на ее написание потратим 300 рублей, а один уник приносит примерно 20 копеек (ну это такой минимальный показатель, к которому нужно стремиться), то, даже если статья соберет максимальную видимость по всем запросам (а такое бывает далеко не всегда), путем нехитрых расчетов получаем 30 месяцев окупаемости. ТРИДЦАТЬ МЕСЯЦЕВ, КАРЛ! И это при самом грубом подсчете. На деле все будет еще хуже. А за 30 месяцев может случиться все что угодно. Поэтому про это нужно не забывать.

7. Неверное ТЗ

Мало собрать семантику, нужно еще ее правильно «приготовить». Многие новички, как и наш герой, просто уверены, что каждый ключ нужно вписать в прямом вхождении (это, кстати, еще и рождает очень много вопросов в их голове, когда группы получаются довольно большими). Но мы-то с вами понимаем, что этот путь ведет в никуда. Сайт с такими текстами очень быстро зафильтруют, особенно в эпоху «Бадена».

Поэтому нужно составлять грамотные ТЗ (тут опять же LSI и план статей), что довольно долго, либо использовать специальные сервисы, коих сейчас появилось много. Лично я считал себя довольно крутым малым, думал, что все сервисы от лукавого, и делал ТЗ-шки сам, хотя меня это не совсем устраивало, так как отнимало много времени. Какие-то сайты стреляли, какие-то нет. Потом мне настоятельно рекомендовали поюзать TZ.BINET.PRO и сравнить. И я был приятно удивлен. Появилась некая стабильность. Сайты начали хорошо и уверенно расти, при условии, что ядро собрано нормально и тексты нормальные. Потом я психанул и переписал все свои старые сайты по новым ТЗ-шкам. В итоге видимость и KPI статей заметно улучшились (это не реклама, а тру стори), и, что самое главное, мне удалось поставить производство ТЗ на поток.

А потом случился «Баден-Баден», и требования к текстам снова пришлось пересматривать. Ни TZ, ни другие сервисы (хотя они и раньше не дотягивали) не давали нужного качества ТЗ. После прихода Бадена все стало зависеть только от авторов. Нужно было писать крутые тексты и масштабироваться, при этом не раздувая стоимость контента, нанимая профессиональных аналитиков с оплатой 1000 руб. за 1000 зн. Задача не из простых.

Можно писать тексты вслепую, без ключей. Но пока есть поисковики и методы ранжирования, основанные на алгоритмах и текстовых параметрах, я в подход без ключей не поверю. Нет ядра — теряем трафик, какими бы читабельными и якобы полезными ваши тексты ни оказались, их прочтет меньше людей. И это основная проблема в рынке и противостояние двух подходов: писать БЕЗ ключей или писать С ключами. Качество и ручной труд против скорости и масштаба.

«Баден-Баден» и многочисленные его исследования ясно дали понять: пора повышать качества контента в Рунете, но при этом не забывать про раскрытие темы. А как раскрыть тему без употребления нужных ключевых слов? Если у вас нет авторов за 1000 р. за 1 килознак, которые будут погружаться в тему настолько, насколько сам специалист не погружался, и при этом писать складно, как Дарья Донцова, (хотя и это не гарантия)… то никак. Ключи все-равно нужны. И тут самое время вспомнить про такое понятие, как план статьи.

И я рад, что в TZ об этом задумались и готовят обновление (участвовал в закрытом beta-тесте). Кажется, у них получилось объединить плюсы обоих подходов:

1. Нацелить принцип составления ТЗ на качественный текст и раскрываемость темы.

2. Вручную составлять план статьи, с учетом всех нюансов.

3. При этом делать это быстро и на полуавтомате.

4. Сохранить возможность масштабироваться, делая много ТЗ и без большого удорожания контента.

Вот вам и план статьи с раскиданными по нему ключевыми словами. В каком блоке статьи что и употребить. Теперь мне этот подход нравится еще больше.

Положа руку на сердце, я могу сказать, что TZ.BINET.PRO сейчас является одним из лучших сервисов для составления технических заданий на информационные тексты, заточенным под реалии Бадена. В основе — огромный опыт в SEO инфосайтов, заложенный владельцем сервиса. И теперь, как того требует ситуация на рынке, этот сервис не только автоматически генерирует ТЗ, но и позволяет вручную их дорабатывать, подключая ваши (или ваших специалистов) мозги и руки. К счастью, значимость ручного составления заданий для статей сейчас понимают все. Вот как будет выглядеть итоговое ТЗ после раскидывания ключевых слов по плану:

Новое ТЗ.png

Если вы ничего не слышали об этом сервисе раньше, ничего удивительного, доступ к нему не продается. Аккаунт в tz.binet.pro получают участники курсов по созданию и монетизации сайтов Пузат.ру. Я даже знаю ребят, которые специально покупают участие в Марафоне Начало, чтобы иметь доступ к модулю сбора ТЗ и к модулю анализа конкуренции статей.

8. Работа не оптимизирована

Саша так хотел сэкономить свое время, но экономил его совсем не на том. Он старался проскочить все этапы быстро, не вникая в тонкости, вместо того чтобы думать, как бы оптимизировать рутину.

Если бы он подключил дополнительные прокси и аккаунты, выставил побольше потоков, то парсинг бы растянулся не на 4 дня, а всего на пару часов. Ну или можно было бы использовать любой онлайн-сервис. В любом случае, если ядро большое, и вы никак не оптимизируете свои рабочие процессы, то потеряете кучу времени, а это, как известно, самый ценный ресурс. Купить проксиков будет куда дешевле. Ну и, как я уже сказал, проблема решается следующими способами:

1. Увеличение количества потоков за счет добавления прокси и аккаунтов.

2. Использование парсинга через онлайн-сервисы.

Эпилог

Если бы Саша придавал сбору ядра чуть большее значение, то с его здоровой наглостью и упорством он давно бы вышел из середнячков. Будьте умнее Саши — учитесь, не пренебрегайте чужим опытом. Пока проходите все уроки семантики на своих ошибках, время уходит. Знаю, о чем говорю, поскольку два раза в год веду уроки по семантике на онлайн-курсах и вижу результат тех, кто настроен «учиться и впахивать».

Лично я очень жалею, что не залез в контентные сайты пораньше, а после того как залез, был упрямым бараном и совершал много ошибок. Но я еще свое наверстаю 🙂

.