Перейти к содержанию
Сергей

Современное определение уникальности текста поисковыми системами.

Рекомендуемые сообщения

Как поисковые системы, в частности Яндекс, определяют не уникальность текста на сайте?

Screenshot_3.png


Что подразумевается под уникальностью текста, точнее что подразумевалось ранее? - поисковые системы ранее основывались только на математических вычислениях уникальности текста. То-есть чисто с технической стороны если мы берем один текст, переписываем его по иному, меняем местами предложения, фразы, в общем-то уникализируем его любыми способами и выкладываем на сайт. С технической точки зрения, текст будет считаться уникальным, если мы будем проверять его сервисами антиплагиата как texst.ru, txt.ru и т.д., то эти сервисы покажут уникальность 100%, но с нововведением Яндекса алгоритма Королев, который основан на нейронных сетях, сейчас стал применять эти самые НС в распознавании текста. И теперь уникальность текста определяется по его смыслу, то-есть не по компоновке и положению слов в тексте, а именно смысловому содержанию. Нейронные сети благодаря человеческому обучению, тем же самым асессорам и пользовательским данным которые поисковые системы собирают с компьютеров пользователей, научилась распознавать смысл текста, и теперь уникальность текста будет распознаваться именно по смыслу. Таким образом если мы будем переписывать тексты с других сайтов и устанавливать к себе, а когда со временем таких текстов на сайте наберется очень много, то доверие со стороны поисковых систем к сайту будет понижена и скорее всего он не будет получать трафика из поиска и вообще высоких позиций в поиске.
Если же мы будем публиковать качественный авторский контент, который сейчас становится создавать все сложнее и сложнее, нужны профессионалы в своей области, готовы и способны написать грамотные тексты, и это усложняет продвижение по части контента, то-есть наполнение содержимым полезными материалами.

Но с другой стороны если ваш сайт уже несколько лет существует в сети, он имеет доверие со стороны поисковиков, то за счет него можно выезжать, можно переписывать тексты с других сайтов и они будут выходить в поиске намного выше чем первоисточники этих материалов. Но если мы этим будем злоупотреблять, Яндекс поймет что мы копируем чужое авторство, нарушаем права, и просто понизит сайт в поиске.
Как Яндекс и хотел, от части они смогли сделать умную поисковую машину которая пытается осознавать, но пока все это основано на математических вычислениях. Тем не менее они научились вычислять смысл текста по которому определяется его уникальность, и на этой основе собственно сейчас выстроена система ранжирования сайтов в поисковой системе Яндекс.
Если на вашем сайте много так называемых отрерайченных статей взятые с других источников, переписанные и выложенные, и ваш сайт не получает высоких позиций в поиске и трафика, возможно стоит поэкспериментировать, отключить эти статьи, скрыть их из поиска и посмотреть что произойдет, если сайт начнет подыматься в поиске, значит он был наказан за дублирования контента с других источников.

TEXT.RU - 100.00%

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Поделиться

Для публикации сообщений создайте учётную запись или авторизуйтесь

Вы должны быть пользователем, чтобы оставить комментарий

Создать учетную запись

Зарегистрируйте новую учётную запись в нашем сообществе. Это очень просто!

Регистрация нового пользователя

Войти

Уже есть аккаунт? Войти в систему.

Войти

Поделиться

  • Последние посетители   0 пользователей онлайн

    Ни одного зарегистрированного пользователя не просматривает данную страницу

×