Top.Mail.Ru
Если авторизоваться не получается, то попробуйте восстановить пароль. Если у вас нет аккаунта на сайте, то вы можете зарегистрироваться.
Если авторизоваться не получается, то попробуйте восстановить пароль. Если у вас нет аккаунта на сайте, то вы можете зарегистрироваться.
Если авторизоваться не получается, то попробуйте восстановить пароль. Если у вас нет аккаунта на сайте, то вы можете зарегистрироваться.

LSI-контент: основные принципы

15 января 2019
Интернет-маркетинг

Война с поисковым спамом началась почти 10 лет назад. Тогда, в 2009 году, Yandex провел исследование и определил: четверть сайтов Рунета — это контент, созданный не для людей, а для поисковых машин для влияния на выдачу. Этой проблемой очень плотно занялись. И прорывом стал запуск «гугловского» алгоритма под названием «Колибри» - ориентированного на разговорные, «живые» запросы (как в голосовом поиске).

В постоянном взаимодействии поисковиков и SEO-специалистов контент, ориентированный на роботов, стал перерождаться в LSI. Что это такое и каковы основные принципы данной методики?

Историческая справка

LSI (латентное семантическое индексирование) — это принцип индексирования семантики в связи с контекстом, который позволяет ранжировать страницы по максимальной релевантности естественному запросу.

Возвращаясь к результатам анализа 2009 года, скажем, что тогда Яндекс получил следующие данные по Рунету: его текстовая информация в совокупности весила 140 000 Гб. Чтобы прорваться на первые позиции поисковой выдачи, специалисты по SEO использовали серые методы продвижения страниц и сайтов. Алгоритмы того времени позволяли этим заниматься, ведь они не вычленяли смысл информации, а ориентировались на ключевые слова: чем их плотность выше, тем страница считалась более релевантной. По такому принципу и формировалось поисковое ранжирование. На первые позиции попадал переспамленный ключами контент — бесполезный для пользователя и минимально релевантный запросу.

Алгоритмы совершенствовались и постепенно свели на нет эффективность подобных методик. Так зародился LSI, который защищает поисковики от серых манипуляций. Методика позволяет выстраивать ранжирование не на основе «ключевиков», а по общей семантике текста.

LSI-копирайтинг

В условиях работы современных алгоритмов сформировались основные принципы эффективного копирайтинга:

  • Адекватное раскрытие темы запроса. Плотность ключей — давно не показатель. Роботы анализируют текст комплексно (ключевые n-граммы со словоформами, их смысловые аналоги, околотематические слова). И чем точнее и полнее текст отвечает на вопрос, тем больше вероятность оказаться на вершине выдачи.
  • Создание интересного и уникального контента, который заставляет пользователя проводить больше времени на сайте. Это обусловлено анализом поведения: на верхние строки не попадают ресурсы, с которых гость быстро уходит.
  • Минимум воды. Она мешает роботам вычленять истинный смысл текста, а соответственно, понижает страницу в рейтинге. Чем яснее и точнее раскрыта мысль, тем выше релевантность.

Что дальше?

Поисковики становятся умнее с каждым годом. Пока не идет речь о тотально семантическом анализе, но машины уже учатся объединять слова по смыслу, распознавать запросы по единственному слову. Система становится настоящим помощником, который способен предугадывать потребности и отлично понимать человека. Развитие технологий заставляет отказываться от техник серых SEO-манипуляции и обращаться к здравому смыслу — качественному, интересному, полезному контенту, который обеспечивает и повышает ресурсу трафик.