Первых большинство, вторые более убедительны. При этом обе стороны признают, что уникальность материала является одним из ключевых параметров, заложенных в алгоритмы индексирования поисковых систем.
Классически считается, что уникальность есть обязательный фактор для успешного продвижения интернет-ресурсов.
Какая должна быть уникальность
Существует мнение, что алгоритмы проверки уникальности у поисковых систем и антиплагиат-сервисов разные. Тем не менее, интернет-маркетологи и SEO-специалисты придерживаются значений, выведенных экспериментальным путем:
0 30% плагиат
30 50% синонимайз или некачественный рерайт
50 85% качественный рерайт
85 100% уникальный текст
Как проверить уникальность
Согласно собранной статистике, на долю Адвего плагиатус, Etxt антиплагиат и Текст ру приходится до 60% всех проверок статей на плагиат, рерайт и копии. Около 35% приходится на прочие сервисы от относительно известных (антиплагиат ру) до совершенно экзотических (плагиаризма ру). Оставшиеся 5% приходятся на собственные разработки больших SEO-студий.
Для чего обновлять контент
Чем выше позиция сайта в поисковой выдаче, тем он коммерчески эффективнее. Чтобы постоянно находиться на выгодных позициях, необходимо понимать, как поисковик индексирует и ранжирует веб-страницы в конкретный период времени.
Помните времена, когда попадание в Топ-10 достигалось хаотичным перечислением ключей? Высокая плотность ключевых фраз и закупка ссылок на относительно приличных площадках-донорах являлись гарантией успешного продвижения.
Затем приоритеты поисковых систем поменялись. На первые места стали выходить так называемые СДЛ-сайты. Владельцам ресурсов приходилось обновлять контент. При этом нужно было и грамотно распределить SEO-ключи по тексту для поисковиков, и писать текст так, чтобы он нравился читателю.
Далее у поисковиков появляется новая технология, позволяющая отсеивать переоптимизированный текст и низкокачественный рерайт. Потом появилась регистрация поведенческих факторов и т.д.
Каждое нововведение требует адекватного отклика в виде обновления контента, соответствующего новым требованиям.
Сейчас поисковые системы научились понимать не ключевые, а естественные запросы, которые вводят пользователи. Обрабатывая их, поисковик выдает максимально соответствующие запросу страницы.
LSI-метод создания контента позволяет эффективно играть по новым правилам поисковых машин. С одной стороны пользователь видит контент, наиболее приближенный к своему запросу, с другой стороны из выдачи удаляется нерелевантный информационный мусор.
LSI переводится как латентно-семантическое индексирование. Вся фишка такой технологии создания материала заключается в контексте. Благодаря ему поисковик понимает что именно хочет получить в выдаче потребитель. И чем больше слов, соответствующих введенному ключу, тем выше ранг страницы.
Оптимизация интернет-магазинов информационными и коммерческими запросами
Коммерческие запросы ставят конечной целью целевое действие: совершение покупки, заказ, подписание договора. Целью информационных запросов является использование требуемой информации.
По статистике последних лет видно, что оптимизация коммерческими запросами малореализуема. Поэтому рекомендуется продвигать интернет-магазины информационными запросами (например, обзоры продукции).
Пользователь, перейдя по такому запросу, с большей долей вероятности совершит необходимое действие, если он действительно является частью ЦА потребляемого продукта.
Страницы-дубли на сайте
Развитие сетевого маркетинга и менеджмента требует создания веб-страниц, которые будут предоставлять услуги или товары с ориентацией на широкие массы населения. При этом, создание веб-страницы сопровождается массой подводных камней, которые могут воспрепятствовать ее уникальности, а, соответственно, популярности и спроса. В результате этого, веб-ресурс будет считаться неактуальным и невыгодным для заказчика. Одним из таких нюансов являются страницы-дубли, которые могут появляться на веб-ресурсе.
Исходя из термина, становится понятным, что дубль страницы не что иное, как появление на веб-ресурсе идентичных страниц, которые обладают различными адресами. Они создаются как альтернатива качественному и дорогому продвижению веб-ресурса: чем больше дубляжей на вашем сайте располагается, тем быстрее поисковая система сможет его обнаружить и вывести в топ первых сайтов. Также дубляж может возникать как особенность работы некоторых базовых «двигателей», на которых создаются веб-ресурсы (в частности, «CMS»), и нередко как результат деятельности злоумышленников или третьих лиц.
Как это сказывается на востребованности сайта?
С учетом особенностей работы поисковых ботов и систем, страницы-дубли воспринимаются ими как спам, что приводит к наложению на веб-ресурс фильтра. Соответственно, по этой причине сам ресурс не попадает в топ первых по выводу страниц, что, в свою очередь, приводит к значительному падению его траффика. Поисковая система «Яндекс» еще более-менее лояльно относится к дубляжу, что может наоборот, повысить востребованность ресурса, чего не сказать о компании «Google». Последняя проводит кампанию по борьбе с шаблонными ресурсами и MFA (сокращ. от Made for Adsense), поэтому создавать дубли и продвигать ресурс в этой поисковой системе с надеждой на успех, не стоит.