Перейти к содержанию
Проект Vsem Money
Сергей

Баден Баден - новый фильтр поисковой системы Яндекс-2017.

Рекомендуемые сообщения

Screenshot_5.png

В этой теме мы рассмотрим новый фильтр поисковой системы от Яндекса именуемый Баден-Баден.
Не двусмысленное название двух повторяющихся слов Баден-Баден говорит о том что фильтр направлен на борьбу с поисковым спамом. В очередной раз поисковая система Яндекс принуждает вебмастеров использовать белые техники продвижения, то-есть работать над качеством сайта, и не использовать переспамленные тексты и заголовки страниц.

Первый этап внедрения этого фильтра уже прошел, и многие вебмастера уже ощутили его на своих сайтах - позиции начали проседать и трафик падать.

Второй этап, который обещают внедрить разработчики поискового алгоритма, приведет к тому, что сайты будут понижены полностью в поиске.

То-есть если на первом этапе сайты понижаются только частично, в основном те страницы которые переоптимизированы, то второй этап приведет к понижению всего сайта пренебрегающего требования Яндекса. Произойдет это только в том случае, если будет превышена критическая отметка.

Screenshot_6.png

Такой политики придерживаются обе поисковые системы. К примеру Google в прошлом году сделал алгоритм Пингвин с частью своего поискового алгоритма. Если раньше фильтры отвечающие за поиск переспама на страницах сайта были как бы отдельной настройкой, то сейчас поисковые системы интегрируют эти настройки в ядро, модуль распознавания пере спама является частью основного алгоритма ранжирования сайтов.
Это приводит к тому, что анализируя по текстовой составляющей сайты конкурентов, и подгонять свой сайт под их критерии, просто теряет смысл, потому что поисковая система, определяет качество сайта на основе сотен факторов. И теперь одним из этих факторов стал и поисковый пере спам, который находится в тексте на страницах сайта. Если раньше по определенным запросам можно было найти лидера, и взять с него структуру оформления страниц сайта (контент), и сделать такую же оптимизацию - это помогало поднять позиции в поиске, то сейчас подобная схема просто перестанет работать, потому что кроме текстовой составляющей, у каждого сайта есть определенные критерии за счет которых он и занял высокие позиции. Теперь алгоритм выявления спама на страницах, является частью ядра поисковой системы и становится основным фактором, на основе которого определяется качество сайтов. Так же определяется на сколько релевантный сайт и на какую позицию в поиске он заслуживает.

Безусловно все эти нововведения усложняют общий алгоритм поисковых систем, но все это нацелено на то чтобы сделать результаты поиска более релевантными, качественными и полезными для пользователей.


Относительно нового алгоритма, мнение многих аналитиков поисковых систем сводится к тому, что этот алгоритм нацелен на борьбу с кластеризацией, попросту говоря на борьбу с автоматизированным продвижением сайтов. Если ранее поисковые системы внедрили алгоритмы с помощью которых смогли побороть автоматизированную покупку и размещение ссылок, то сейчас задача, в частности Яндекс, что бы перевести фокус вебмастеров и владельцев сайтов с автоматизированного продвижения (в части контента) на ручное, поэтому когда будем писать тексты в ручную, без переспама ключевых слов, тогда Яндекс будет любить наши сайты. А пока если пользуемся кластеризаторами и автоматизированными системами для продвижения сайтов, они будут их наказывать.
Что такое кластеризация? - это сбор ключевых фраз и группирование их по смыслу.

Например, собираем определенный список поисковых фраз, группируем их и на эти группы создаем отдельные страницы на сайте, на них пишутся тексты. В данные тексты включаются сгруппированные фразы, готовая страница публикуется на сайте и вскармливается поисковикам - по идеи эта страница должна занимать первые позиции по запросам входящим в группу, то-есть в ту группу под которую оптимизирована данная страница. Но так как вебмастера стали злоупотреблять этим способом, а поисковая система дала слабину в этом направлении и этот способ срабатывал, то они решили выпустить новый алгоритм, с помощью которой это та система продвижения перестанет работать.

Таким образом они сделали защиту от кластеризации, и теперь сервисы кластеризации тоже будут терять смысл.

Все сходится к тому чтобы работать над качеством сайта, писать тексты в ручную, не пихать туда много ключевых слов, делать все естественно и натурально для пользователя.
Разумеется у нового алгоритма есть и погрешности - это случае когда не винно страдают другие сайты, либо сайты которые имеют пере спам занимают более позиции. Так как сайтов в сети существует миллионы, ко всем универсального алгоритма создать и применить не возможно, но разработчики стараются как можно тщательней проработать алгоритмы, чтобы невинные сайты не страдали. Тем не менее на отладку нового алгоритма потребуется некоторое время, поддержке Яндекса придется отвечать на многочисленные письма вебмастеров, жалующихся на проседающие позиции. Больше всего конечно страдают коммерческие сайты, так как санкции к ним применяются более жесткие и более длительный период времени.

Вот такой вот новый фильтр от Баден-Баден.

TEXT.RU - 100.00%

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Для публикации сообщений создайте учётную запись или авторизуйтесь

Вы должны быть пользователем, чтобы оставить комментарий

Создать учетную запись

Зарегистрируйте новую учётную запись в нашем сообществе. Это очень просто!

Регистрация нового пользователя

Войти

Уже есть аккаунт? Войти в систему.

Войти


×