LSI — Latent Semantic Indexing (латентно семантический индекс) позволяет проводить поисковым системам семантический анализ текста на релевантность (соответствие) тематике. LSI слова – это все слова связанные по смыслу с основной темой текста.
Уточнение: иногда встречается информация о том, что LSI слова это синонимы основного запроса. Но это не совсем так. Любые слова, которые встречаются в результатах поиска по основному запросу и имеют общий смысл, являются LSI ключами.
Примерно в середине 1960 годов был впервые описан метод факторного анализа (анализ влияния отдельных факторов на результативный показатель). В 1988 году была опубликована основополагающая статья по технологии LSI: «Совершенствование поиска информации с помощью скрытой семантической индексации». А уже через год был выдан оригинальный патент.
С тех пор технология LSI использовалась и для оценки знаний студентов, для назначения статей рецензентам, для анализа неструктурированного текста разведкой США. На определенном этапе развития поисковые системы взяли за основу технологию латентного семантического индексирования.
В 2009 году сотрудники поисковой системы провели исследование размещенной в Ру сегменте интернета информации. Получилась огромная цифра в 140 террабайт текста (картинки и видео в подсчете объема не учитывались). Для того чтобы получить первые места в таком огромном объеме информации SEO-специалисты придумывали новые методы продвижения. На первых местах выдачи начали появляться переспамленные тексты. Перегруженные SEO-ключами тексты не несли смысла и пользы для пользователей.
Сотрудники контроля качества в поисковых системах начали в срочном порядке искать пути решения. В 2011 году Google запустил алгоритм «Panda», главной целю которого было распознавание и снижение низкокачественного контента на сайтах. При этом увеличивался рейтинг сайтов с качественным контентом. В 2013 году в Google внедрили новый алгоритм «Hummingbird» (Колибри).
Благодаря этим алгоритмам поисковые системы начали лучше понимать не только контент, но и контекст страниц.
Для того чтобы понять логику работы поисковых систем, разберем пример: если ввести в поисковую строку слово «тачки», какие страницы должна поисковая система выдать пользователю?
- автомобили
- садовые тачки
- популярный мультфильм
Вариантов страниц с различным контентом может быть много. Поисковой системе необходимо понимать что описывает та или иная страница.
Каким образом поисковая система определяет контекст? Именно тут поисковые системы принимают решение на основе латентно семантического индекса. Когда поисковая система видит на странице слова: молния, онлайн, смотреть, cars, маквин и т.д. стразу понимает, что эта страница о популярном мультфильме. Если на странице есть слова: строительный магазин, доставка, недорого, цена и т.д. понятно, что страница о строительных или садовых тачках.
Раньше за основу работы брался SEO-копирайтинг. Основное требование – это ключевые запросы, их плотность на странице, расположение в тексте, виды вхождения и так далее. Тексты написанные по SEO техническим заданиям редко были красивыми, легко читаемыми и часто не несли полезную информацию.
По методике LSI большую важность приобрели варианты использования ключевых слов, слова задающие тематику, уместность их использования и структура текста.
Если раньше необходимо было описать мультфильм про Винни Пуха, то в текст, куда можно и нельзя вставляли слова «Винни Пух» и все! Сейчас очень важно использовать слова: пятачок, сова, хвост, ружье, неправильные пчелы и т.д. Именно по этим словам поисковая система определит качество текста.
- Раскрытие темы. Чем более точно и полно раскрыта тема, тем больше пользы он принесет посетителю. Чем лучше текст раскрывает определенную тему, тем больше у него шансов попасть ТОП выдачи.
- Ориентация на потребности ЦА (целевой аудитории). Один из важных критериев – удовлетворение потребностей посетителей. Поисковые системы анализируют поведенческие факторы посетителей. Тексты на которых люди не задерживаются, понижаются в поисковой выдаче. Создание действительно увлекательного и полезного контента, который заинтересует посетителя и ответит на все его вопросы по теме даст сайту очень хорошие поведенческие показатели и поможет выйти странице в ТОП.
- Отсутствие воды. Лишние слова, лишенные смысловой нагрузки, обороты речи усложняющие предложения усложняют понимание смысла текста. Особенно важным в последнее время становится возможность передать главную мысль текста. Дополнение: для проверки текстов стоит использовать такие инструменты как Главред и Тургенев.
Для каждого поискового запроса будет свой определенный набор LSI фраз. Найти эти слова и фразы достаточно легко. Вот список из основных инструментов:
- Подсказки поисковых систем Google. Вводите начало поискового запроса и поисковик выдаст вам список подсказок, что люди ищут чаще всего в рамках основного запроса.
- Рекомендации. После поиска по ключевому слову внизу страницы поисковики выводят блок что люди ищут вместе с основным запросом.
- Arsenkin Tools. Используя это инструмент позволяет найти дополнительные LSI ключи.
- Pixel Tools – Техническое задание для копирайтеров. Простой и удобный инструмент который позволяет для указанного запроса и региона собрать слова задающие тематику.
Сотрудники поисковых систем постоянно рекомендуют писать тексты для людей, а не для поисковиков. Это частично правильно и пересекается с техникой использования LSI слов. Но в то же время поисковые системы часто накладывают фильтры на тексты написанные непрофессиональными копирайтерами. Создать статью учитывающую все нюансы (использование слов задающих тематику, количество ключей, различные технические аспекты) неподготовленному автору достаточно сложно.