SEO-копирайтинг RELOAD. Часть 2. LSI-копирайтинг: продвигаем сайт с помощью текстов - страница 7

Шрифт
Интервал


Позже стали стараться употреблять прямое вхождение ключей. Что тоже уже относится к олдскульному SEO, хотя в некоторых тематиках до сих пор работает.

На данный момент чаще используют другой метод – следят за технической уникальностью, количеством вхождений ключевых слов, спамностью текста и т. д. Но и этот привычный способ продвижения уходит в прошлое и передает эстафету инновационному LSI-копирайтингу.


LSI-копирайтинг – что за фрукт?

Начнем с LSI или latent semantic indexing. В переводе на русский – «латентное семантическое индексирование». В переводе на более понятный язык – метод индексирования, благодаря которому поисковые роботы Яндекс и Гугл могут обращать внимание на общий смысл текста, а не только на уникальность и насыщенность ключевыми словами.

Например, вы ввели в строку поиска «LSI-копирайтинг». Робот найдет множество страниц со сходными терминами и аббревиатурами, названиями организаций. Но в результатах выдачи на первых местах будут качественные статьи про SEO и LSI-тексты. Все остальное – на последних страницах.

Теперь перейдем к LSI-копирайтингу – это написание текстов, основанных на технологии скрытого семантического индексирования. То есть таких текстов, в которых важно не наличие ключевого слова, а содержание.

Разница между традиционным SEO-копирайтингом и инновационным LSI-копирайтингом в нескольких словах:


SEO-копирайтинг

– Написание текста на основании списка ключевых слов (с обязательным их вхождением в теги, заголовки, первые абзацы).

– Работа с плотностью ключевых слов в тексте.

– Работа с технической уникальностью.


LSI-копирайтинг

– Написание текста на основании списка ключевых слов (с упором на смысл, а не на вхождение этих ключей).

– Добавление в текст слов, которые связаны с основными запросами.

– Работа над полезностью и смысловой уникальностью материала.


Когда поисковые роботы стали применять LSI?

Латентно-семантический анализ запатентовали в далеком 1988 году. Однако поисковые системы начали постепенно внедрять LSI примерно 5 лет назад.

В 2011 Google стал использовать поисковый алгоритм Панда. Его цель – борьба с текстами плохого качества. Панда оценивает взаимодействие пользователя с сайтом – уровень вовлеченности человека при изучении определенной страницы.

При формировании мнения человека о странице основную роль играет текст. Поэтому при введении Панды выдача избавилась от кучи сайтов с некачественным контентом – публикациями, которые были созданы не для людей, а для вписывания ключевых слов.