Алексей Александрович Тюрин - 25 важнейших факторов продвижения сайта стр 2.

Шрифт
Фон

Первых большинство, вторые более убедительны. При этом обе стороны признают, что уникальность материала является одним из ключевых параметров, заложенных в алгоритмы индексирования поисковых систем.

Классически считается, что уникальность есть обязательный фактор для успешного продвижения интернет-ресурсов.

Какая должна быть уникальность

Существует мнение, что алгоритмы проверки уникальности у поисковых систем и антиплагиат-сервисов разные. Тем не менее, интернет-маркетологи и SEO-специалисты придерживаются значений, выведенных экспериментальным путем:

0 30% плагиат

30 50% синонимайз или некачественный рерайт

50 85% качественный рерайт

85 100% уникальный текст


Как проверить уникальность

Согласно собранной статистике, на долю Адвего плагиатус, Etxt антиплагиат и Текст ру приходится до 60% всех проверок статей на плагиат, рерайт и копии. Около 35% приходится на прочие сервисы от относительно известных (антиплагиат ру) до совершенно экзотических (плагиаризма ру). Оставшиеся 5% приходятся на собственные разработки больших SEO-студий.


Для чего обновлять контент

Чем выше позиция сайта в поисковой выдаче, тем он коммерчески эффективнее. Чтобы постоянно находиться на выгодных позициях, необходимо понимать, как поисковик индексирует и ранжирует веб-страницы в конкретный период времени.


Помните времена, когда попадание в Топ-10 достигалось хаотичным перечислением ключей? Высокая плотность ключевых фраз и закупка ссылок на относительно приличных площадках-донорах являлись гарантией успешного продвижения.


Затем приоритеты поисковых систем поменялись. На первые места стали выходить так называемые СДЛ-сайты. Владельцам ресурсов приходилось обновлять контент. При этом нужно было и грамотно распределить SEO-ключи по тексту для поисковиков, и писать текст так, чтобы он нравился читателю.


Далее у поисковиков появляется новая технология, позволяющая отсеивать переоптимизированный текст и низкокачественный рерайт. Потом появилась регистрация поведенческих факторов и т.д.


Каждое нововведение требует адекватного отклика в виде обновления контента, соответствующего новым требованиям.

Сейчас поисковые системы научились понимать не ключевые, а естественные запросы, которые вводят пользователи. Обрабатывая их, поисковик выдает максимально соответствующие запросу страницы.

LSI-метод создания контента позволяет эффективно играть по новым правилам поисковых машин. С одной стороны пользователь видит контент, наиболее приближенный к своему запросу, с другой стороны из выдачи удаляется нерелевантный информационный мусор.

LSI переводится как латентно-семантическое индексирование. Вся фишка такой технологии создания материала заключается в контексте. Благодаря ему поисковик понимает что именно хочет получить в выдаче потребитель. И чем больше слов, соответствующих введенному ключу, тем выше ранг страницы.


Оптимизация интернет-магазинов информационными и коммерческими запросами

Коммерческие запросы ставят конечной целью целевое действие: совершение покупки, заказ, подписание договора. Целью информационных запросов является использование требуемой информации.


По статистике последних лет видно, что оптимизация коммерческими запросами малореализуема. Поэтому рекомендуется продвигать интернет-магазины информационными запросами (например, обзоры продукции).

КОНЕЦ ОЗНАКОМИТЕЛЬНОГО ОТРЫВКА

Пользователь, перейдя по такому запросу, с большей долей вероятности совершит необходимое действие, если он действительно является частью ЦА потребляемого продукта.

Страницы-дубли на сайте


Развитие сетевого маркетинга и менеджмента требует создания веб-страниц, которые будут предоставлять услуги или товары с ориентацией на широкие массы населения. При этом, создание веб-страницы сопровождается массой подводных камней, которые могут воспрепятствовать ее уникальности, а, соответственно, популярности и спроса. В результате этого, веб-ресурс будет считаться неактуальным и невыгодным для заказчика. Одним из таких нюансов являются страницы-дубли, которые могут появляться на веб-ресурсе.



Исходя из термина, становится понятным, что дубль страницы не что иное, как появление на веб-ресурсе идентичных страниц, которые обладают различными адресами. Они создаются как альтернатива качественному и дорогому продвижению веб-ресурса: чем больше дубляжей на вашем сайте располагается, тем быстрее поисковая система сможет его обнаружить и вывести в топ первых сайтов. Также дубляж может возникать как особенность работы некоторых базовых «двигателей», на которых создаются веб-ресурсы (в частности, «CMS»), и нередко как результат деятельности злоумышленников или третьих лиц.



Как это сказывается на востребованности сайта?



С учетом особенностей работы поисковых ботов и систем, страницы-дубли воспринимаются ими как спам, что приводит к наложению на веб-ресурс фильтра. Соответственно, по этой причине сам ресурс не попадает в топ первых по выводу страниц, что, в свою очередь, приводит к значительному падению его траффика. Поисковая система «Яндекс» еще более-менее лояльно относится к дубляжу, что может наоборот, повысить востребованность ресурса, чего не сказать о компании «Google». Последняя проводит кампанию по борьбе с шаблонными ресурсами и MFA (сокращ. от Made for Adsense), поэтому создавать дубли и продвигать ресурс в этой поисковой системе с надеждой на успех, не стоит.

Ваша оценка очень важна

0
Шрифт
Фон

Помогите Вашим друзьям узнать о библиотеке

Скачать книгу

Если нет возможности читать онлайн, скачайте книгу файлом для электронной книжки и читайте офлайн.

fb2.zip txt txt.zip rtf.zip a4.pdf a6.pdf mobi.prc epub ios.epub fb3