Яндекс окончательно и безоговорочно отказывается от ссылочного ранжирования. А учитывая, что Google уже давно более активно индексирует сайты методом поиска и более высокой выдачи по запросам ресурсов с латентным семантическим ядром (LSI) – контентная оптимизация начинает занимать в среде СЕО-оптимизаторов преобладающее значение.
Такое положение дел ведет к серьезному переформатированию выдачи в пользу сайтов с качественной информационной нагрузкой. Количество внешних ссылок на ресурс перестает быть превалирующим. Если раньше это была пирамида, в которой подняться на вершину выдачи можно было исключительно при помощи раскрученных тяжеловесных доноров, которые откровенно зарабатывали на размещении в своих страницах ссылок, то теперь даже молодые сайты имеют возможность оказаться в выдаче выше известных ресурсов при грамотно организованном контентном наполнении.
С другой стороны, отмена ссылочного ранжирования может повергнуть в хаос существующую систему продвижения. При этом успеют достойно раскрутить свои ресурсы только те владельцы, которые сумели предвидеть такое отношение поисковиков к контенту еще несколько лет назад, и к сегодняшнему дню максимально забили свой сайт качественными LSI текстами. Это может стать серьезной преградой перед начинающими проектами, которые только стартуют в своем продвижении. Но специалисты из Гугл утверждают, что объем контента не имеет столько значения, насколько более важно его качество. Однако это утверждение имеет один очень интересный нюанс.
Какие же сайты имеют больше шансов на лучшие места в выдаче при равном качестве контентной оптимизации – те, которые наполнены большим количеством текстового материала, или сайты-одностраничники? Казалось бы, шансы равны, но… Элементарная теория вероятности может доказать обратное. И это уже не имеет никакого отношения к самому контенту (разумеется, при условии, что он соответствует требованиям к LSI текстам). Здесь вступает в действие обычная арифметика.
Предположим, что на коммерческом ресурсе размещено 10 коротких описаний товаров по 500 знаков. В противоположность такому сайту возьмем одностраничник-визитку с текстом в 5 000 знаков. Снова напомним, что на обоих ресурсах тексты идеальны с точки зрения семантического ядра и имеют аккуратно и грамотно вписанные ключевые фразы одинакового уровня частотности. Начинаем считать. Десять текстов в магазине позволяют разместить столько же ключевых запросов. На одностраничнике оптимально допустимый максимум, чтобы краулер не расценил контент переспамленным – 5 ключевых запросов. У кого больше шансов быть чаще востребованным? Ответ однозначен – у того ресурса, на котором больше текста, размещенного на разных страницах, чем у одностраничника. Вот и вся математика.
Возможно, это утверждение кому-то покажется необоснованным и спорным, но пока судить о его истинности немного рано – время покажет, насколько такое предположение имеет право на существование.
Пока нет четкой ясности, как Яндекс будет реагировать на контентную оптимизацию. Довольно большое число специалистов по продвижению настоятельно рекомендуют искать золотую середину и избегать недооптимизации также, как и излишеств в этом направлении. Чем обоснована такая позиция?
Оказывается, вероятность оказаться под фильтрами ПС одинакова в обоих случаях. Поэтому экспериментировать с оптимизацией текстами следует весьма осторожно. Все хитрые манипуляции очень быстро вычисляются поисковиками, и тогда бан практически гарантирован.
Однозначно не стоит пользоваться заимствованным контентом. Такое было не в чести у поисковиков до отмены ссылочного ранжирования, и еще жестче будет преследоваться в дальнейшем. Но в этом вопросе тоже достаточно нюансов. Один из них – как быть с текстами, официально разрешенными для перепечатки на других ресурсах со ссылкой на исходный сайт? И как будут реагировать поисковики на такую ситуацию? Возможно, ответ кроется в рекомендациях от Гугл по внедрению микроразметки текстов по schema.org. Яндекс, хоть и имеет в инструментах для вебмастеров рекомендации по внедрению в тексты этого способа оптимизации, пока четкого ответа на вопрос не дает. Поэтому с уникальностью лучше пока не рисковать и все-таки публиковать только уникальный контент (на радость копирайтерам, чей труд станет более востребованным).
Вторая сторона медали – переоптимизировать контент. Как это можно сделать даже с уникальным текстом? Вот уж где вариантов вообще существует великое множество! Здесь небезызвестный Платон Щукин за излишнее стремление угодить поисковикам наказывает по алгоритму, секрет работы которого настолько сложный своим умением оценивать не только факторы текстового содержания, но и такие, когда из двух одинаково равных по качеству контента сайтов на передовой окажется только один.
Но старайтесь избегать хотя бы наиболее распространенных ошибок при контентной оптимизации: не следует пользоваться уникальными текстами явно механической обработки (например, с помощью программ для их автоматического размножения). Также не стоит текст слишком засорять большим количеством ключевых слов или размещать на страницах портянки неимоверной длины. Повторимся – вариантов перестараться немало.
В заключение хотелось бы сказать, что поднятая нами тема имеет очень важное значение, а опубликованные размышления ни в коем случае не претендуют на истину в последней инстанции. Поэтому хотелось бы увидеть в комментариях ваше мнение по этим вопросам.