Бизнес-блог  
Александра Фёдорова

Всё о продвижении сайтов и инфобизнесе

   Я зарабатываю в Интернете больше
   100 000р. в месяц. Научу и Вас.

О главных ошибках вебмастеров или как не попасть под фильтры Google и Яндекс. Часть 1.

Пятница, 11 Июль 2014 11:56

Фильтры Google и SEO ошибки вебмастеров

Приветствую, уважаемый читатель!

На связи снова Александр Фёдоров и на этот раз с информацией очень высокой степени важности и интереса. Сегодня мы поговорим о том, какие ошибки совершают многие вебмастера при SEO-продвижении своих сайтов! Тема эта достаточно широкая и охватить все виды ошибок, конечно же, не представляется возможным, поэтому мы ограничимся только SEO-ошибками с точки зрения поисковых систем. В частности, поговорим о том, в каких случаях и за что на сайт поисковыми системами накладываются фильтры? Собственно, поговорим о том, какими эти фильтры бывают, основные принципы их работы, рассмотрим некоторые реальные истории из моей практики, ну и просто вспомним о классических ошибках, которые нередко совершают владельцы сайтов.

Начнём, пожалуй, с рассказа о фильтрах поисковой системы Google. В сущности, описание их работы будет сводиться к описанию ошибок и проблем, на которые эти ограничители поисковых систем и направлены. Скажу сразу, что в текущей статье будут рассмотрены далеко не все виды фильтров (или ограничителей - в дальнейшем, я буду использовать эти термины как синонимы). Во-первых, потому что их достаточно много, и многие из них носят технический характер; а во-вторых, потому что я в данный момент начал работу над отдельной статьёй, посвящённой схемам работы поисковых систем, где будет очень подробно описано и про алгоритмы поисковиков, и их ограничители, и про многое-многое другое. Статья будет основательной и полезной всем, кто хоть как-то связан с созданием и тем более - продвижением сайтов, а также Интернет-бизнесом в целом (включая и информационный). Итак.

Фильтры поисковых систем:

1. Фильтр Google Panda (Панда).

Данный ограничитель направлен исключительно на контент, т.е. он следит за качеством именно содержимого вашего сайта, в терминах SEO - за внутренней оптимизацией. При этом ограничения (читай - ошибки вебмастеров) могут быть следующих видов:

  1. Дублированный контент.
    Самая очевидная и известная ошибка начинающих вебмастеров. Но, внимание! Учтите такой факт: страница может быть признана дублем не только за то, что вы скопировали чужой текст или участок текста (!), а ещё и из-за технических дубликатов! Под последними я имею в виду одинаковый контент и в пределах только вашего одного сайта (одного домена)! Если у вас есть 2 и более разных (с разным URL) страниц, но с одним содержимым - фильтр вам обеспечен!
    Приведу пример из своей практики. У одного из моих клиентов был коммерческий wordoress-блог. Контент у него был уникальный, статьи все писал сам, ничего не копировал, следил за всеми правилами написания статей, однако в момент очередного обновления гугловского алгоритма Панды (а он случился в конце 2012 года) его трафик с Google резко упал. В чём же было дело? После анализа и выяснений, причина оказалась в модуле комментариев, который возле каждого комментария ставил ссылку "Ответить". Ссылка представляла собой текущий адрес страницы с комментариями + дополнение в конце: "?replytocom=123", где 123 - это id соответствующего комментария. Для поисковика "адрес" и "адрес?что-то ещё", чем бы это "что-то" ни было - это 2 совершенно разные страницы. А если сайт продвинутый и комментариев на нём море? Что тогда? Тогда при 50 комментариях имеем 50 дублей! Жёстко, не правда ли? Тем не менее, это так. В итоге, liveinternet-статистика трафика для этого сайта выглядела вот так:
    Фильтр Google Панда
    Когда мы переделали эти все ссылки на JavaScript и убрали эти самые доп. вставки в конец адреса, позиции в гугл снова пошли вверх! Мой опыт работы в SEO показывает, что около 90% информационных сайтов страдает проблемой дубликатов, так что учтите.
  2. Выводы: внимательно следите за видами внутренних ссылок и избегайте дублей (разных ссылок на одно содержимое)! Не размещайте у себя скопированных с чужих сайтов текстов и не делайте с них рерайт (или делайте его очень качественно).
  3. Чрезмерная оптимизация контента.
    Проблема также достаточно известная и нередко служит причиной наложения фильтра. Связана с чрезмерным и бездумным применением SEO-правил написания статей, о которых я писал вот здесь. Суть вот в чём: вы в погоне за хорошим отношением поисковиков => высокими позициями => огромными деньгами => домиком на Гавайях :) суёте в свой уникальный текст кучу ключевых слов, вовсю выделяете их жирным, подчёркиванием и всем таким прочим, перенасыщаете этими ключевиками заголовки H1-H3, title, тег description и всё такое прочее. Так вот этого делать не надо! Выделять текст нужно, но только то, на что реально нужно обратить особое внимание посетителя, объёмов такого выделенного текста не должно быть много. В качестве примера и оптимума можете использовать статьи моего блога: вот примерно так же должно быть и у вас.
    Ещё важный момент: не перенасыщайте текст ключевиками и просто следите за тем, чтобы не было множества повторений одних и тех же слов. Я сам напоролся некогда на эти грабли: когда писал статьи про внешнюю оптимизацию, везде употреблял слово "ссылка". Ну а как иначе, ведь вся статья посвящена правилам использования и методам добывания этих самых ссылок! Смотрю, а именно вот эта серия статей не находится в гугле вообще! Даже при прямо копировании в поисковик части текста или заголовка статьи. Чуть переписал текст, уменьшил плотность этого злосчастного слова и - о чудо! - статьи появились в поиске и на неплохих позициях! Чудеса, да и только. :)
    Выводы: оптимизируйте статьи (заголовки title, H1-H3, выделения, мета-теги и т.д.), но делайте это в рамках сохранения естественности текста и реальной пользы для читателей; следите, чтобы не было чрезмерно высокой плотности какого-либо слова или фразы.
  4. Чрезмерное количество рекламы.
    Из названия понятен смысл данной ошибки. Был у меня такой случай: занимался seo-анализом одного сайта по продаже видеокурсов. И смотрю, как-то у него многовато рекламы, а посещаемости особой нет. При этом трафик из поисковиков раньше опять-таки был выше. С контентом и технической частью вроде всё нормально. Проведу - думаю - эксперимент: выделил 5 наиболее релеватных по конкурентным высокочастотным запросам страниц на сайте клиента и по попросил его убрать рекламу хотя бы на этих вот 5 страницах. И снова чудеса: позиции этих страниц со 3-5 страниц в выдаче Google поднялись на первую-вторую! Вот вам и влияние рекламы. Конечно, я ни в коем случае не говорю, что рекламу использовать нельзя - можно, тем более и сами поисковики предлагают размещать её у себя (в виде Директа, РСЯ, AdWords, AdSense и т.д.). :) Однако читайте итог.
    Выводы: во-первых, не размещайте рекламу (вообще), пока сайт молодой и не очень посещаем; а во-вторых, размещайте её в умеренных количествах, только по теме вашего ресурса и не перед основным материалом (Google этого не любит), а в боковых модулях или ниже статьи / новости!
  5. Торговля ссылками.
    Смысл тоже ясен: продаёте на своём сайте ссылки - не ждите трафика с гугла - его не будет, ибо в гостях у вас будет фильтр Панда. В существенном количестве. Сюда попадает как реклама из предыдущего пункта, так и идея продажи неестественных ссылок внутри своих статей или в прямом виде, которая сильно отличается от размещения  внизу-сбоку отдельные рекламные блоки, сохраняя основной контент качественным. Учтите. ;) Ссылками торговать можно, но приобретя уже очень хороший авторитет у поисковиков (а соответственно, и трафик с них) и очень аккуратно с соблюдением принципа тематичности и естественности + слежения за высоким качеством тех сайтов, на которые вы ссылаетесь. Выводы, думаю, понятны.
  6. Поведенческие факторы.
    К ним в первую очередь относится показатель отказов - вещь, за которой можно следить как в Яндекс.Метрике, так и в Google Analytics. Означает вот что: если пользователь зайдя на ваш сайт, остался на нём надолго + если он переходит по ссылкам на вашем ресурсе, то всё очень здорово и показатель отказов равен 0. Если же пользователь зашёл и через 5-15 секунд вышел, значит, он не нашёл то, что искал и ушёл. Значит, этот ресурс плохой. Вот этот показатель и служит некой мерой удовлетворённости посетителей: посещение считается отказом, если пользователь не открыл более 1 страница и / или провёл на сайте менее 15-30 секунд (у Google и Яндекс они определяются чуть по-разному). Вот и всё. Следите за этим показателем в Метрике Яндекса или Аналитике Гугла (скоро напишу статью о том, как пользоваться этими инструментами).
    Выводы: стремитесь делать контент максимально полезным, заинтересовывайте посетителей и главное: пишите заголовки (title и H1) и description-описания точно соответствующие теме статьи, новости, товара.

2. Фильтр Google Penguin (Пингвин).

Этот вид фильтра, в отличие от предыдущего, работает с внешними факторами SEO. С какими же? Ну а что у нас входит во внешнюю оптимизацию? Внешняя ссылочная масса. Точнее будет называть этот фактор - ссылочный профиль - вещь очень важная и значимая. И не смотрите на разного рода дискуссии в Интернете на тему того, что Яндекс перестал учитывать тИЦ и всё такое прочее - одно слово: туфта! Внешние ссылки играли роль, играют и будут играть! И это неоспоримый факт! Роль и правила этой игры могут меняться, но само её существование будет всегда.

Итак, что же входит в понятие ссылочного профиля? А входит в него следующее:

  1. Траст сайтов-доноров (Trust Rank).
  2. Динамика ссылочной массы.
  3. Тематичность внешних ссылок.

Рассмотрим пока что первый пункт. Он состоит из двух составляющих:

  1. Число ссылок на сайт - Citation Flow (CF).
  2. Качество внешней ссылочной массы - Trust Flow (TF).

Вот именно эти два фактора определяют на ~45% (на момент написания данной статьи) отношение Google и Яндекс к сайту. Причём, если с количеством ссылок всё более менее понятно: это нечто вроде нормированного PageRank-а (т.е. измеряется от 0 до 100), то Trust Flow - их качество или, говоря коротко, траст, который определяется весьма сложной формулой. Подробно писать о ней здесь я не буду, т.к. собираюсь сделать это в своей уже начатой статье про алгоритмы работы поисковых систем (о которой упоминал вначале). Общая суть траста сайта (он определяется именно для всего ресурса - не для конкретной его страницы) сводится к определению числа ссылок на него от заведомо трастовых ресурсов с учётом их удалённости от заданного. Звучит страшно и непонятно. Приведу пример: сайт А - заведомо крут и всем известен. Он ссылается на сайты B и C. B и какой-нибудь E указывают на D. Тот в свою очередь указывает на F. Что имеем в итоге: на ресурс F прямых ссылок от трастового A нет, но есть цепочка, ведущая от А к F: A -> B -> D -> F. Значит, F не совсем уж потерян и немного доверия ему дать можно, а вот B и C - довольно крутые и явно лучше, чем F, т.к. их упоминает самый первый - точно трастовый. Вот примерно по такой схеме и вычисляется понятие трастового потока - Trust Flow, - который затем в совокупности с числом ссылок и определяет Trust Rank - общий траст ресурса (в общем-то, говоря грубо, почти совпадающий с Trust Flow). Мне известна даже формула для его определения, но не будем пока останавливаться на этом, а подумаем над тем, что же всё это дело может для нас означать.

А означает оно следующее: чем ближе в нашем окружении (исходя из длины цепочки ссылок) авторитетных (с высоким трастом) ресурсов, тем лучше. И чем больше нетрастовых ресурсов, тем хуже - вплоть до понижения сайта в ранжировании. Некачественными ссылками вы можете заработать себе позиции ниже, чем были в полном отсутствии каких-либо ссылок. Учтите это. ;) Лучше меньше, но качественнее, чем больше, но мусорных. 

Как же определить траст сайтов-доноров перед размещением на них своей ссылки? Для этого есть замечательный ресурс: http://majesticseo.com/ - регистрируетесь там (это бесплатно), переходите в раздел Tools -> Site Explorer:

Как вывести сайт из-под фильтра
И видите вот это:
Анализ траста сайта
Думаю, переводить не нужно. Слева - Trust Flow, справа - Citation Flow. Там есть ещё очень много интересных и полезных инструментов, о которых я расскажу чуть позже - в следующих статьях.
Итак, определять траст доноров мы научились. Теперь запомните: при покупке или бесплатном размещении очередной ссылки проверяйте этот сайт-донор на этом вот ресурсе: это и бесплатно, и удобно, и очень полезно.
Не так давно я, занимаясь анализом одного сайта, наткнулся на именно эту причину наложения санкций фильтром Пингвина: на анализируемый мною ресурс было слишком много нетрастовых ссылок. В итоге, гугл его сильно понизил в рейтинге. И его посещаемость на этапе анализа стабильно выглядела вот так:
Анализ траста ресурса
Пояснения, думаю, не нужны. После очистки нетрастовых ссылок (их удаления или помещения в спец. фильтр) пингвин был снят, и трафик с гугла, порой, даже обгонял Яндекс. :) Правда, произошло это только спустя примерно 7-8 месяцев. Быстро ничего не бывает.

Далее, рассмотрим второй пункт ссылочного профиля. Он сводится к слежению за динамикой ссылочной массы - она должна быть как можно более стабильной. В идеале - постепенный плавный рост. Резкая остановка роста - фильтр, очень резкий рост - также ждите Пингвина. Девиз понятен: плавно, качественно, стабильно.

И последний пункт нашего профиля - это тематичность ссылок. Ну, на этот счёт я уже говорил очень много и часто в своих предыдущих статьях, поэтому, дабы не повторяться, скажу лишь: не забывайте. ;) В том числе о рекламе, баннерах и т.д. - к ним тоже применим принцип тематичности. Не стоит размещать на своём сайте, посвящённому дизайну интерьеров, рекламу сноубордов. ;) Поисковые роботы не оценят, да и целевая аудитория сайта тоже. :)

Выводы: их очень много. :) Думаю, что перечитав ещё раз всё выделенное жирным и подчёркиванием вы всё поймёте.

Заключение

Что можно сказать под конец? Что я рассказал вам очень мало. Далеко не все виды ошибок и конечно же, не все виды фильтров. Элементарно я ничего не упомянул про Яндекс, хотя у него тоже есть много интересных алгоритмов и методик борьбы со спамом и ГС (говносайтами). О них поговорим во второй части данной статьи. Но на текущем этапе постарайтесь осознать и принять во внимание описанное выше. Оно на 90-95% применимо и к Яндексу. Учтите это и не совершайте ошибок, которые потом придётся исправлять месяцами, если не годами. ;) 

Вопросы, как и всегда, приветствуются.

С уважением, А.С.

Понравилась статья? Хотите читать этот блог?

Ваш e-mail: *

Ваше имя: *

Добавить комментарий


Защитный код
Обновить

Вы здесь: Home Карта сайта Продвижение сайтов О главных ошибках вебмастеров или как не попасть под фильтры Google и Яндекс. Часть 1.