Умы оптимизаторов продолжает занимать обновление в поисковой системе Гугл, получившее кодовое имя "Panda". Новый алгоритм оценки качества страниц был разработан в прошлом г., введён в строй в феврале, и в апреле был распространён на сайты вне США, в частности и на отечественные.
Обновление предсказуемо привело к снижению рейтинга массы сайтов в поисковой выдаче, при этом пострадали не только лишь низкокачественные сайты. По наблюдениям отечественных оптимизаторов из выдачи вылетело много 'старых' конкурирующих сайтов и было оставлено немало молодых при приблизительно одинаковых качественных характеристиках. Компания как всегда не разглашает инженерные подробности, однако независимая аналитика продолжает появляться с завидной регулярностью.
В т.ч., недавно на SEOMOZ был опубликован любопытный обзор, в коем рассматриваются признаки 'слабого' контента и даются советы по его улучшению. Автор выделил 7 подобных признаков. Обо всём по порядку.
1. Точные внутренние дубликаты. Это полные копии страниц на одном и том же веб-ресурсе, которые попали в индекс поисковика. Невзирая на то, что дубликаты страниц не были основной мишенью обновления алгоритма оценки, большое их число на веб-ресурсе может значительно усложнить вашу жизнь. Избавиться от них возможно 2-мя основными способами: ч/з 301-й редирект, или ч/з атрибут rel='canonical', который сейчас поддерживается Яндексом (подробности - ниже).
2. Точные дубликаты м/у сайтами. Это солидная сложность, т.к. алгоритм не понимает разницу м/у легитимным дублированием контента и незаконным. Если вы владеете всеми сайтами, хранящими перекрёстные дубликаты, выберите, что является оригинальной публикацией, и используйте тег canonical. Иначе Гугл может сделать выбор за вас, и не факт, что выбор будет нужно вам по душе.
3. Практически точные внутренние копии. Тут автор рассматривает 2 примера: когда единожды написанная статья слегка видоизменяется (заголовок, ключевые слова) и в таком виде размножается на веб-ресурсе, и когда речь идёт об интернет-магазине с раздельными страницами вариантов одного и того же товара. В первом случае практически точные дубликаты будет нужно закрыть от индексирования, к примеру, ч/з META NOINDEX. Во II-м случае имеет смысл сконцентрировать внимание на позиции одной вариации товара и, вероятно, отыскать другие подходы к продвижению чем простая смена ключевиков. Блокирование страниц от индексирования может послужить решением и тут.
4. Практически точные копии м/у сайтами. Характерный пример - когда реселлер использует описания товаров, предоставленные производителем и уже доступные на веб-ресурсе изготовителя. Т.к. описание является ключевой частью контента, производитель получает естественное преимущество в поисковой выдаче. Решение тут одно: отчасти переписывать текст и разбавлять его отзывами клиентов или же своими комментариями. Начать возможно с описаний наиболее популярных продуктов.
5. Невысокий коэффициент уникальности. По сути это приблизительно то же, что и практически точные внутренние копии страниц на одном веб-ресурсе, однако сложность эта специфична для определённого класса сайтов, где собственно полезный контент занимает всего ничего, а главная масса информации приходится на элементы навигации и повторяющийся динамический контент. Совет тут тот же - или увеличивать объём уникального контента, или выносить страницы из количества индексируемых. Если на страницах 95 процентов информации занимает повторяющаяся обёртка к паре уникальных предложений, спросите себя, какую реальную ценность они представляют.
6. Избыточное число рекламы. Вам наверное знакомы сайты, увешанные баннерами со всех сторон. Видимо, Гугл может сопоставлять число уникального контента с количеством рекламы и считает, что на качественных страницах они обязаны быть сопоставимы. Потому требуется или убрать лишнюю рекламу, или компенсировать её увеличением объёма уникального контента.
7. Поиск в поиске. На массы больших сайтах результаты поиска доступны ч/з ссылки (категории, алфавитные списки, теги и пр.). Подобные страницы с позиции Гугл не представляют ценности в поисковой выдаче. Это крайне спорный миг, т.к. индексируемые результаты поиска могут быть значимыми и незначимыми. В общем случае, результаты внутреннего поиска создающие практически идентичные страницы, стоит заблокировать от индексирования.
Автор этой статьи подчеркивает, что любые перемены, влияющие на индексирование ресурса нужно тщательно продумывать. К тому же, он считает, что выделенные признаки не непременно возникли вместе с упомянутым обновлением и скорее отражают долгосрочную политику Гугл сравнительно 'слабого' контента.
Это мнение подтверждается недавней публикацией в Гугл Webmaster Central Blog, где отмечается, что Panda является только одним из приблизительно 500 изменений, которые запланировано в этом г. внести в механизм оценки качества страниц, при этом с момента запуска Panda в алгоритмы оценки уже внесено более 12 изменений. Отвечая на известный вопрос 'Что делать?', сотрудник Гугл предложил затронутой обновлением аудитории ответить на более чем 2 10-ка вопросов, помогающих понять, насколько качество ресурса соответствует требованиям Гугл.
К этому возможно добавить точку зрения отечественных специалистов, которые почти хором отмечают негативное влияние высокой плотности ключевиков в тексте на позицию ресурса в поисковой выдаче после введения 'панды'. Лишняя оптимизация положению ресурса в топе лишь вредит.
В это время Гугл выпустил небольшое обновление Panda с номером 2.1. Точные данные по проценту затронутых поисковых запросов в Гугл не называют. По независимым же оценкам этот апдейт затронуло самое малое число запросов с момента запуска нового алгоритма. Однако впереди Panda 3.0.
< Предыдущая | Следующая > |
---|