[Image] Четверг, 25.04.2024, 02:52 [Image]
SEO, технологии, игры, IT новости
[Image] Главная Регистрация Вход [Image]
[Image] Приветствую Вас, Гость · RSS [Image]
Меню сайта

Форма входа
Логин:
Пароль:
 Блог
Главная » 2011 » Апрель » 25 » Panda Update: Подробности нового алгоритма Google - моддинг
15:55
Panda Update: Подробности нового алгоритма Google - моддинг

Google выпустил еще один пакет изменений Panda Update, а также впервые выпустил этот алгоритм за пределы Великобритании. У множества людей появился повод для беспокойства относительно дальнейшего продвижения их seo-кампаний. Что несет за собой этот апдейт для оптимизаторов и интернет-маркетологов? Какие инструменты и тактические приемы сохранят эффективность? Не исключено, что кому-то даже придется приостановить свои SEO-кампании.

Самое худшее, что вы можете предпринять - это замереть, как это делает олень в свете автомобильных фар. Настоящий SEO-эксперт никогда не останавливается, и в этой статье мы обсудим, что именно изменилось и как можно дальше решительно продвигать вперед свои SEO-кампании.

Что такое новый апдейт?

Panda Update или Farmer Update - возможно, одно из самых крупных алгоритмических изменений Google, сделанных за последние 8 или чуть больше лет. Апдейт затронул более 16% всех поисковых запросов, которые мы наблюдали в последнее время. Это касается сайтов, представляющих собой нечто большее, чем простой набор статей, затем сайтов, предоставляющих сервис типа "сравнения цен”, а также некоторых Web 2.0 сайтов.

Результаты этого апдейта были довольно шокирующими. В той же степени, как и несколько лет назад, когда в 2008-м году Squidoo, Hubpages и Ezine Articles "сломали” алгоритмы Google. Я помню, что тогда использовал некоторые Squidoo-хаки, чтобы попасть в топ Google за несколько дней, однако через несколько лет подобные сайты потерпели массовый крах.

google-panda-updateНет, Панда, нет!

Когда Google выпускает важные изменения алгоритма, они элементарно не информируют о новых критериях поиска, которые вы могли бы легко использовать для оптимизации ваших SEO-кампаний. Тем не менее, они предлагают ряд тонких намеков, которые можно воспринимать как руководство к действию для вебмастеров. Мы также можем изучить эффективные сайты, чтобы проанализировать, чего хочет добрый Г. ("uncle G” в оригинале - прим. переводчика).

Анализируя сайты, получившие наибольший отрицательный эффект [от нового алгоритма], вы должны учитывать все факторы. Вы должны проверить их рекламные объявления, их контент, их бэклинки, анкоры ссылок, дублированный контент, мета-информацию и т.д..

Проверив огромное число крупнейших сайтов-лузеров в нашем Ping Kaching офисе, мы выяснили, что, по нашим ощущениям, является самым большим "нет-нет!” с точки зрения Google.

а) Реклама, похоже, стала фактором отрицательного рейтинга. Мы нашли множество сайтов, получивших негативный рейтинг вследствие слишком большого числа рекламных баннеров, блоков AdSense и т.п.. Поэтому, попробуйте ограничить рекламу на вашем сайте. Если вы зафиксировали падение позиций сайта, то я бы рекомендовал вообще удалить всю рекламу, пока уровень трафика не восстановится до прежних значений. Кажется, сказанное не касается реферальских ссылок в текстах статей. Пока же [с обильной рекламой на сайте] вы оказались "за бортом”…

б) Избегайте чрезмерного числа исходящих ссылок на сайте. Некоторые сайты, предоставляющие сервисы типа "сравнения цен” или предлагающие различные коды купонов, оказались в сильном провале. Большинство из них содержало огромное количество исходящих ссылок на другие сайты. Обязательно, убедитесь, что ваши ссылки не "битые”. Я обратил внимание, что на многих названных сайтах было множество нерабочих ссылок.

в) Проверьте все ваши отдельные страницы. Сейчас подходящее время, чтобы навести порядок на вашем сайте. Google заявил, что отдельные страницы могут понизить общую оценку сайта. Проверьте наличие устаревших материалов, плохо написанных статей, а также страниц, на которых вы пытались использовать "черные” приемы, например, перенасыщенность ключевыми словами. Сейчас пора удалить эти страницы, разместить на них 301-й редирект на новые посты и т.д.. Что касается страниц, которые вы действительно собрались удалить с сайта - см. пункт "г”.

г) Дублированный контент - это убийца вашего сайта! Сайты с большим объемом дублированного контента упали вниз очень сильно, в то время как сайты с оригинальным содержанием, как будто, продолжают процветать. Если на вашем сайте имеется дублированный контент - удалите его сейчас. Сделайте 301-й редирект с дублирующих страниц на страницы-первоисточники. Помните, что дублированный контент - это плохо, однако сказанное не касается синдицированных данных. Разницу вы поймете в одном из абзацев ближе к концу этой статьи.

Возможно, у вас есть уважительные причины, чтобы держать дублированный контент на сайте. Вы даже можете самонадеянно считать, что на вашем сайте нет дублей, но что вы скажете о двух версиях одной и той же статьи, одна из которых предназначена для чтения, а другая сформатирована для печати? Обе они имеют идентичный текст, но разные URL’ы. Эта проблема должна быть решена. Вот как JohnMu из Google предлагает нам справиться с подобными ситуациями:

Сделайте зачистку - запретите в robots.txt обработку одинакового содержания. Используйте команду "disallow” и наш сканер распознает, что вы не хотите индексировать дублированный контент. Например, у вас размещен одинаковый контент по ссылкам:

A) http://example.com/page.php?id=12
B) http://example.com/easter/eggs.htm

И предположим, что файл robots.txt содержит команды:

user-agent: *
disallow: /*?

Что запрещает сканировать URL (A), указанный выше. Используя подобную блокировку вы предотвратите распознавание нашим сканером двух ссылок с одинаковым содержанием. Но в случае, если мы найдем ссылки, ведущие на URL (A), возможно, что мы "тихо” проиндексируем их (без включения в результат работы сканера), и эти ссылки станут конечными для URL’а, который, по сути, неизвестен.

С другой стороны, если мы все-таки решили просканировать URL (A), то наша система, как правило, распознает, что по этим ссылкам находится идентичный контент, и сможет установить необходимые информационные связи (такие, как ссылки), опираясь на тот единственный URL, который было разрешено проиндексировать. Кроме того, вы можете использовать различные методы канонизации, чтобы убедиться, что мы индексируем те версии [ссылок], которые вы предпочли.

д) Единственный источник обратных ссылок. Если вы получили отрицательный эффект от этого апдейта, притом что у вас нет дублированного контента, исходящих ссылок и т.п., то, возможно, проблема кроется в существующих обратных ссылках. Например, если вы полагались на создание связующих страниц ("Hubpages” в оригинале - прим. переводчика) для ваших обратных ссылок, то могли получить провал на основном домене. Эти Hubpages с множеством обратных ссылок потеряли часть своего ссылочного вкуса. Теперь это не самая лучшая идея - держать весь банк вашей стратегии в единственном источнике ссылок. Используйте разные SEO-приемы, а не только Web 2.0 сайты или статейные бэклинки. Софт Ping Kaching использует несколько различных методов, таких как RSS, социальные закладки, размещение в каталогах, пингование и т.д. Располагая широкой базой обратных ссылок из различных источников, вы обезопасите свою позицию в результатах поиска от будущих изменений Google.

Помните, Google часто вознаграждает сайты, которые предлагают хороший пользовательский опыт. Занимаясь написанием статей для вашего сайта, или выкладывая новый контент, всегда думайте о клиенте. Обилие рекламы, плохая навигация, просроченные материалы и "битые” ссылки говорят Google о низком качестве сайта. Google будет продолжать совершенствовать свой алгоритм, чтобы отсеивать сайты, не предлагающие новый опыт своим пользователям. Поэтому, если вы используете "белые” ("White Hat” в оригинале - прим. переводчика) SEO-методы, меняете источник ваших ссылок и обеспечиваете качественное содержание, то вам никогда не придется беспокоиться о потере 90% вашего онлайн-бизнеса за одну ночь, как многим другим компаниям после этого апдейта.

Что делать, если я получил отрицательный эффект?

Если вас затронул этот апдейт и вы потеряли значительное количество трафика - не паникуйте. Хорошей новостью является тот факт, что эффект не затронул Bing или Yahoo и вы пока сохранили эти источники трафика. (Опять же, не следует немедленно менять свои источники ссылок, потому что разные ПС используют разные методы оптимизации. Если вы сосредоточились на Google и проигнорировали Bing, то вы можете не только потерять до 30% трафика, но и неосторожно сложить все яйца в одну корзину.)

Для восстановления вашего рейтинга Google проверьте настройки Google Webmaster Tools и дайте ему возможность заново "перелопатить” ваш сайт. Еще раз прочитайте пункты выше, чтобы разобраться в негативных моментах апдейта и внести в вебсайт необходимые изменения.

Теперь, когда устранены все проблемы, которые могли оказать отрицательный эффект, пришло время выяснить положительные стороны Panda Update и адаптировать к ним ваш сайт (см. следующий раздел). Единожды, когда вы все исправили, попробуйте связаться с Google Spam Team, чтобы отправить ваш сайт на пересмотр.


Категория: Оптимизация сайта | Просмотров: 1528 | Добавил: witkom | Рейтинг: 0.0/0
Всего комментариев: 0
Добавлять комментарии могут только зарегистрированные пользователи.
[ Регистрация | Вход ]
Copyright MyCorp © 2024
Категории
Оптимизация сайта [589]
Создание сайтов [355]
Заработать в интернете [505]
Технологии [44]
Полезное [368]
Услуги и сервисы [308]
Автоблог [100]
Скрипты для Ucoz [39]
Движок на сайт [10]
Все о Joomla и Drupal [20]
Все о PHP [91]
Поиск
Пользовательский поиск
Статистика


Онлайн всего: 2
Гостей: 2
Пользователей: 0
Seo сайт, технологии продвижения, мета теги, оптимизация сайтов, новости сео, Скрипты, Ucoz

Рейтинг@Mail.ru