Фильтры поисковых систем – неизбежная вещь. Только благодаря им (в идеале, в теории, конечно...) посетители, использующие поиск, получают релевантную выдачу; им выдаются те сайты, которые наиболее точно соответствуют введенным ими поисковым запросам. Увы, это всего лишь теория; на практике большинство фильтров очень далеко от совершенства. Их влияние приводят к тому, что на первых местах в поиске находятся не самые релевантные страницы, а те, которым удалось теми или иными способами обойти эти фильтры. Нет, конечно же, они нужны. Выдачу необходимо фильтровать, отсеивая говносайты и просто некачественные ресурсы, всяческие нарушения поисковой лицензии, обманы пользователей и т. п. Но вот, несмотря на постоянное развитие поисковых технологий, качественная эффективность фильтров не увеличивается. Их развитие и появление новых приводит лишь к всё большему и большему недовольству вебмастеров. Они перестают понимать правила поисковых систем, которые и так не написаны в явном виде. И чем дальше, тем они становятся все менее понятными. Непонимание усугубляется еще и выборочным действием фильтров. Часто в топах встречаются сайты с многочисленными нарушениями поисковых лицензий; при этом под санкции попадают и совершенно "чистые" ресурсы. Фильтры не накладываются сразу – может пройти много времени, прежде чем робот найдет на сайте нарушения и накажет его; это же касается и снятия санкций. Службы поддержки поисковых систем еще больше усложняют ситуацию, запутывая вебмастеров нечеткими ответами.

Панда

Панда "пришла" в Гугл в феврале 2011 года. Ее введение, точнее, его результаты, шокировало многих вебмастеров – и не удивительно, ведь трафик упал в несколько раз, причем на вполне "белых" сайтах для людей, которые до этого долго и успешно работали и находились на первых позициях.

Как всегда, никаких конкретных сведений о фильтре "Панда", о его особенностях и причинах, а также о методах выхода из-под него, Гугл не выложил. Через какое-то время представители Гугла поиздевались над вебмастерами, выложив список факторов, приводящих к наложению фильтра. И что мы с них видим? Да-да, все то же самое: - неуникальный контент, точнее, его большое количество;
- большое количество рекламы;
- высокий показатель отказов;
- низкое время пребывания посетителя на сайте;
- плохие исходящие ссылки;
- плохие входящие ссылки.

Универсальный ответ на вопрос "за что сайт попал под санкции", причем независимо от типа санкций, самого сайта и поисковой системы. Практической пользы от этого ответа ровно ноль, так как нормальные сайты и так избегают всех этих пунктов, но это не спасает от санкций.

В любом случае вывод можно сделать один:

Гугл ужесточил критерии к качеству сайтов в топе.

Критерии вроде бы и не изменились, но усилился контроль их соблюдения. Казалось бы, все эти принципы вполне очевидны – но следовать им всем в рамках одного сайта практически невозможно... "Ваши проблемы", говорит Гугл. Кто прав? Он, конечно; ведь именно от него зависит трафик и, как главное его следствие, прибыль, которую приносят сайты их создателям.

Но все же делать что-то надо. В первую очередь стоит обратить внимание на уникальность контента, причем не только вообще в интернете, а даже в рамках одного сайта. Вот несколько важных моментов; нелогичность некоторых из них налицо, но что поделаешь... 1. Следует избавиться от всех дублей контента. Это могут быть и краткие новости в виде фрагментов полных, и страницы с тегами, датами, разделами и т. п., в общем, все, где участки текста могут дублироваться. Все это нужно закрыть от индексации в robots.txt.
Не стоит, кстати, забывать о том, что Гугл (как и многие другие поисковые системы) не умеют определять первоисточник контента и не особо стремятся к этому. Если кто-то скопирует ваш текст, не факт, что именно его сайт попадет под санкции. Увы, вам придется переписать свои тексты, чтобы они снова стали уникальными. Да, по логике, тем самым вы поможете тому, кто скопировал ваши старые тексты – ведь они после этого тоже станут уникальными. Неприятный момент, о котором многие не думают. А многие думают – и специально копируют.
2. Также необходимо закрыть от индексации все страницы, не содержащие текстового контента, или страницы, предназначенные не для посетителей, служебные страницы и т. п. Например, такими могут быть страницы поиска по сайту, профили пользователей, списки поисковых запросов. Это же относится и к страницам с неуникальным контентом, скопированным с других сайтов, а также к нечитаемому генерированному тексту.
3. Даже несколько "плохих" страниц могут пагубно повлиять на судьбу всего сайта, остальных его страниц, в выдаче. Внимательно следите за содержимым сайта. Это особенно касается тех сайтов, контент которых создается пользователями – форумы, активно комментируемые блоги и т. п. Тщательная модерация – залог успеха. Не справляетесь сами – наймите модераторов или пригласите их из активных участников общения на сайте. Нужно сразу удалять весь спам, обсуждение тематик "на грани" (нарушения закона, порнография, наркотики и поисковый робот.), откровенно безграмотные и бессмысленные сообщения или комментарии. Были случаи, когда позиции сайта резко падали из-за одного подобного "нарушения".
4. Учитывается "социальная" активность посетителей сайта. Имеется в виду добавление ссылок на материалы ресурса в социальные сети. Для этого нужно разместить на страницах сайтах кнопки для такого добавления (Втеракте, фейсбук, гугл+, твиттер и т. п.)
5. Контента на страницах должно быть много, не пару абзацев. Да, далеко не всегда, не на всех сайтах можно обеспечить большое количество контента. Не на всех видах ресурсов оно будет полезно посетителям. Но это факт. Качество контента тоже играет большую роль – утверждается, что страницы с текстами, содержащими большое количество ошибок (орфография, пунктуация и т. п.) будут понижаться в поиске.
Длинные тексты должны быть качественно структурированы, впрочем, это логично и необходимо без всякой Панды. Никто не будет читать длинные "простыни". Нужно цеплять взгляд посетителя, используя разметку текста – заголовки, изображения (равномерно распределенные и расставленные в нужных местах), различные информационные вставки и т. п.
6. Реклама на сайтах должна дополнять контент, а не заменять его. Реклама должна приносить пользу посетителям сайта, а не раздражать их, вынуждая как можно быстрее покинуть сайт. Оптимальная реклама – тематические целевые баннеры от прямых рекламодателей и, конечно же, контекстная реклама. Впрочем, адекватность показа контекстных объявлений Адсенса зачастую вызывает вопросы.
7. Всё те же пресловутые поведенческие факторы тоже играют роль, судя по всему. А учитываются они по данным статистики Гугл Аналитикс. Вывод – не ставить вообще эту статистику – напрашивается сам собой, но верен ли он? Быть может, сайты без нее вообще будет понижаться или же поведенческие факторы для таких сайтов будут оцениваться косвенно и, следовательно, совершенно не точно. Эти данные, кстати, можно собирать через Гугл Тулбар или браузер Гугл Хром – такой себе троян получается...
8. Сайт должен быть интерактивным – его содержимое должно вызывать желание у посетителей его обсуждать, как на страницах сайта, так и на сторонних ресурсах – форумах, социальных сетях, личных блогах. Впрочем, у интерактивности есть обратная сторона. Думаю, все видели блоги, где сама запись занимает пару абзацев, а 90% содержимого страницы заполняют комментарии. Причем они идут сплошным текстом, без разбивки на треды, следовательно, если их десятки, то нереально отследить какие-либо дискуссии. Комментарии превращаются просто в поток низкокачественного контента, не приносящего никакой пользы посетителям сайта. Ну да, они могут высказаться – и что?.. высказаться можно много где. Считать ли большое количество комментариев как таковое позитивом – большой вопрос. Тем более, что это фактор, который тоже поддается несложным накруткам.

Самое неприятное - факт, что под этот фильтр попали и сайты, которые работали годами без всяких нареканий со стороны поисковых систем. Да, за такое время работы у них, вполне естественно, накопились тысячи страниц, не содержащих контента, содержащих какой-либо "непотребный" контент или же просто служебных материалов. Это могло стать следствием и недостатков движка, и недосмотра владельцев сайта. Все это не мешало и не стало вдруг мешать посетителям... ну, хотя бы потому, что просто все эти страницы не попадают на поисковые вершины и большинство людей просто их не видят, а даже если видят – сразу закрывают. У многих подобных сайтов дизайн и юзабилити могли не меняться лет десять – при этом вполне отвечать всем требованиям пользователей. При этом, повторюсь, эти сайты на все 100% удовлетворяли потребности посетителей, имели очень качественное и регулярно обновляемое текстовое содержимое и вообще долгое время являлись своего рода эталонами контентных проектов.

Так, спрашивается, чего вдруг они должны полностью меняться? Ради чего? Ведь они создавались и функционируют именно для посетителей – а посетители удовлетворены. Подстраиваться под поисковые системы? – увольте! Вот и теряется драгоценный трафик; а теряют от этого те, для кого создавались и поисковые системы – их посетители. Думаю, уже многие заметили, что если раньше требуемая информация находилась на первой странице поиска, а то и на первых 5 позициях, то теперь она может попасться и на третьей, и на четвертой странице. Неудобно, однако, и не логично.

Панда – не новый алгоритм ранжирования. Это именно фильтр, который время от времени проходится по топам и чистит их от нежеланных, по его скромному мнению, сайтов. Аналог – АГС у яндекса, причем аналогия усиливается, если понять полную нелогичность результатов работы обоих фильтров.

Можно сказать, что Панда является классификатором документов; она распределяет их по различным категориям, группам и, следовательно, "дает знак" поисковым алгоритмам для повышения или понижения их позиций, а также позиций остальных документов в рамках данного сайта. И этих категорий может быть множество... начиная от банального неуникального контента и заканчивая, казалось бы, безобидными и не влияющими на отображение, ошибками в коде страницы.

И к чему же в итоге приведет Панда и ее последующие "реинкарнации"? А к тому, что владельцы крупных сайтов начнут их забрасывать и станут заниматься "одномоментными проектами", суть которых заключается в быстром сборе трафика и денег с него. Такие сайты будут быстро попадать в топы, существовать там месяцами (ну, максимум пару лет) и потом тихо исчезать в недрах серпа. А на их место придут другие.

Она же привела к тому, что источники информации начали оказываться на более низких позициях в поиске, чем сайты, которые эту информацию копируют. Конечно, во многих ситуациях это оправдано – но все равно чаще всего хорошие новостные сайты, тем более, агентства, представляют свою информацию в отличной форме, куда лучше, чем те, кто ее просто парсит по RSS...

Если внимательно почитать вышеуказанные критерии, можно прийти к выводу, что идеальный сайт – это MFA. Да, любой современный сайт, созданный исключительно для заработка на контекстной рекламе, соответствует всем принципам "идеального сайта для людей". Но идеален ли он? – увы, нет. Его цель – не удовлетворение потребностей посетителей, а непосредственный заработок на кликах по рекламе. А потребности свои пользователи удовлетворяют на сайтах, на которые они попали по этой самой рекламе. Дорвей, по сути, но более окультуренный.

По заявлениям менеджеров Гугла, Панда использует так называемые "сигналы", которые говорят о качестве того или иного документа – среди этих сигналов не последнее место занимает реакция посетителей. И тут же указывают, что посетителям важен качественный контент.

Вскоре после введения Панды появилось официальное сообщение о том, что этот фильтр активно учитывает пользовательские отзывы, которые собираются плагином к браузеру Хром, автором которого является Гугл. Практически все сайты (84%), получившие негативные отклики, вскоре попали под "колеса" Панды. Несмотря на это, они утверждают, что блокировки сайтов пользователями сами по себе не приведут к понижению позиций – это всего лишь сигнал для алгоритма фильтрации. Но цифры говорят сами за себя...

Еще одним неприятным моментом является то, что, опять же, по заявлению представителей Гугла, Панда – алгоритм на 100% автоматический, и никакие запросы на пересмотр сайта не помогут вернуть прежние его позиции. Все решают алгоритмы. Исправите, мол, нарушения на сайте, он и вернет свои утраченные позиции сам по себе. Напоминает ответы службы поддержки Яндекса в лице Платона Щукина – "Наши алгоритмы приняли решение...", который присылали даже тогда, когда роботы на сайт и не заходили.

Как можно предположить, от Панды пострадали не только сами зафильтрованные сайты, а и те, кому они давали трафик. По цепочке, таким образом, посетителей потеряли совершенно "безобидные" ресурсы – только лишь потому, что на них ссылались сайты, попавшие под Панду. Это же касается и потери Page Rank, хоть сейчас его роль свелась к символической.

Многие, во время введения Панды, заметили, что упал также трафик и с других поисковых систем, например, Bing или Yahoo. Причин может быть несколько. Самая очевидная – эти поисковые системы используют в той или иной мере выдачу Гугла или его же методы фильтрации, или прямо, или косвенно. Менее очевидная, но более логичная причина – владельцы сайтов, попавших под фильтр, естественно, пытаются выйти из-под него, значительно видоизменяя сайт. Эти изменения могут войти в противоречия с требованиями Бинга или Яху, следовательно, в этих системах позиции сайта понижаются. Но факт остается фактом – Панда лишила трафика многих.

Есть множество рекомендаций для оценки статей, размещенных на сайте, с точки зрения или профилактики попадания под Панду, или же с целью выйти из-под нее. Нет смысла писать длинные списки, все они сводятся к одному:

Прочитайте статью и задумайтесь – стоящая она? Порекомендовали ли бы вы ее своим друзьям для ознакомления с темой? Оригинальна ли она? Хорошо ли читается?

В марте 2012 года вебмастера были "приятно" удивлены введением новой версии фильтра – 3.3. По заявлению представителей Гугла, в алгоритм было внесено более сорока изменений. Основной упор идет на изменение системы анализа и оценки ссылок – впрочем, никаких подробностей от них не последовало, кроме общих фраз об определении тематики страниц. Можно сделать вывод, что усиливается борьба с "неестественными", покупными ссылками. Эта борьба декларировалась уже давно, впрочем, никогда особо активно не велась по многим причинам. Главная причина – собственно, покупные ссылки и позволяют поисковым системам формировать релевантную выдачу. Еще одной причиной можно назвать возможность манипулирования этим фактором с целью понижения позиций конкурирующих сайтов – ведь никто не мешает накупить тысячи ссылок, ведущих на чужой сайт, и поисковая система никак не выявит это.

Пингвин

"Зоопарк" Гугла пополнился в апреле 2012 года новым алгоритмом фильтрации выдачи – Пингвином. Основной особенностью Пингвина, в отличие от прошлого алгоритма, Панды, является большая направленность на внешние факторы продвижения, а именно на ссылки. Он обращает внимание на их качество, количество, скорость изменения ссылочной массы, ее естественность и т. п. Обобщив, можно сказать, что Пингвин призван для борьбы с веб-спамом во всех его проявлениях.

В общем случае, веб-спам можно определить как любые действия, совершаемые для повышения позиций страницы без улучшения качества самой страницы и сайта в целом.

В описании алгоритма упоминается усиленное влияние естественных ссылок. Правда, ничего не говорится о том, какие именно ссылки считаются естественными и как их отличить от покупных. Как следствие, среди вебмастеров появилось новое понятие – "имитация естественности". Оно содержит внутреннее логическое противоречие, ведь как можно сымитировать естественность? Версий появляется много: - покупка ссылок с анкором, содержащим адрес сайта
- с анкором, содержащим название сайта
- с анкором в виде слов "тут", "здесь", "на сайте", "можете почитать" и т. п.

Такие ссылки называются "безанкорными", то есть, в их тексте не содержится традиционного поискового запроса. Есть ли в них смысл или же это просто трата времени и денег – большой вопрос.

Если обобщить причины, за которые сайты наказываются Пингвином, можно выделить следующее: - ему не нравится обилие ключевых слов в анкорах покупных (ну, или вдруг естественных) ссылок. Разбавляйте их, используйте околоссылочный текст... в конце концов, покупайте ссылки с анкорами, не касающимися непосредственно страницы, на которую они ведут. Также может учитываться и качество страниц-доноров, их заспамленность ключевыми словами и качество их контента.
- спаму нет! Один из немногих положительных моментов новых фильтров Гугла – это активная борьба со спамом. Автоматические прогоны Хрумером и подобными вредоносными программами, хочется верить, наконец-то уйдут в прошлое. Конечно, остается вопрос о негативном влиянии таких прогонов на сайты конкурентов... но факт остается фактом – продвижение путем агрессивного спама своих ссылок уже не будет иметь такой высокой эффективности, как раньше.
- высокая скорость наращивания покупных ссылок – плохо. Этот фактор давно уже обсуждался, но вебмастера так и не пришли к единому выводу. Например, если высокая скорость прироста ссылок это плохо, то таким способом, пусть и затратным, можно опускать в выдаче своих конкурентов. Да и что значит "высокая скорость" - сколько это ссылок в день? в месяц? Скорее всего, это понятие относительное, и в нем учитывается не только скорость сама по себе, а и качество этих самых ссылок, а также возраст и "траст" сайта-реципиента.
- место размещения ссылок тоже играет роль. Пресловутые "ссылки в футере" могут сыграть негативную роль.
- это же касается и внутренних ссылок. Если их большая часть будет содержать ключевые слова – придет Пингвин. Старайтесь делать их гармоничными и максимально естественными. Впрочем, в этом есть определенная логика и без оглядки на фильтры, ведь тексты, перенасыщенные ссылками с малочитаемым текстом, будут плохо восприниматься читателями.
- покупные статьи тоже могут быть некачественными. Например, для регистрациях в каталогах статей многие используют размноженные статьи, которые, естественно, "написаны" нечитаемым языком. Это является одним из негативных факторов для Пингвина.
- среди создателей МФА популярна регистрация длинных доменов, содержащих сразу несколько ключевых слов и фраз. Такие сайты тоже, вероятно, попадают под фильтры. Это же, скорее всего, касается и длинных адресов страниц с ключевыми словами.
- вполне вероятные негативные последствия после использования программ для обращения к Гуглу – анализ выдачи и ее парсинг, анализ позиций сайта и т. п.

Несмотря на все это, не стоит сразу же снимать все ссылки или их большинство. Стоит снять лишь откровенно плохие ссылки, и то после этого может быть временное падение позиций. Если в панели вебмастера вы не получили уведомление об "использовании некачественных ссылок", следовательно, дело в других факторах, скорее всего, внутренних, связанных с качеством самого сайта.

Внутренним фактором, как уже было сказано, могут являться внутренние ссылки – стоит внимательно просмотреть страницы сайта на предмет некачественной внутренней перелинковки. Ну, и требования по поводу уникальности и качества контента тоже остаются в силе, так как Панду никто не отменял.

Некоторые эксперты, в частности, Михаил Шакин, отмечают, что одним из факторов, влияющих на выход из-под Пингвина, являются переходы на сайт непосредственно со строки браузера, когда адрес туда вводится вручную или копируется. Следовательно, положительный эффект будет от расстановки "неактивных" ссылок в виде http://site.ru без тега a на популярных сайтах, где на такую ссылку обратят внимание люди. Ссылка, естественно, должна быть контекстной, размещенной в интересной статье.


PS Автор статьи к сожалению не Я