Сегодня в рассылке «Тайны создания и продвижения сайтов в Интернете» рассмотрим этапы подготовки сайта к продвижению и то, чем отличаются в процессе совершения данной работы действия настоящих специалистов от действий начинающих оптимизаторов.
Когда нужны изменения
Задачу создать сайт вы решили. Перед тем, как осуществлять поисковое продвижение веб-ресурса, необходимо провести профессиональный анализ продвигаемого сайта и его технической базы с дальнейшим устранением всех выявленных ошибок. В противном случае все усилия и финансовые затраты клиента на раскрутку сайта, а также работа компании-оптимизатора могут иметь нулевой результат. Что, как вы сами понимаете, нежелательно как для одной, так и для другой стороны.
Все работы по этому направлению делятся на 3 этапа:
- анализ сервера, где расположен сайт, и используемой CMS (системы управления сайтом)
- анализ вспомогательных файлов сайта
- анализ внутренних файлов и документов сайта.
Сервер и CMS сайта
В настоящий момент существует огромное количество всевозможных серверов, на которых расположены веб-ресуры, и разнообразные системы управления сайтами (CMS). Было бы ошибочно полагать, что их создатели позаботились о клиентах и оптимизаторах и настроили свои системы в соответствии с требованиями поисковых систем. А раз так, то настройкой сервера и платформы сайта должен заниматься оптимизатор. Точнее говоря, профессиональный оптимизатор.
Неправильное формирование URL-адреса, дублирование разными адресами главной страницы, дублирование внутренних страниц, неправильная обработка 404 ошибки, индексация контента сайта – это не полный перечень возможных проблем и ошибок, которые выявляются оптимизатором в ходе изучения сервера и CMS сайта. Подробные настройки и устранения всех возможных проблем не привожу в данном выпуске, так как, с одной стороны, это тема для отдельной статьи (которая читателям-клиентам вряд ли будет интересна), а, с другой стороны, это информация, которой должен владеть любой опытный SEO-специалист.
Проверка и корректировка вспомогательных файлов
Файлы robots.txt и sitemap.xml являются вспомогательными файлами любого сайта.
Файл robots.txt нужен для того, чтобы «показать» поисковым системам как и какие страницы сайта нужно индексировать. Файл sitemap.xml является своего рода картой веб-ресурса, в нем содержится список страниц, которые роботам поисковых систем надо проиндексировать и внести в свои реестры. Начинающий «неискушенный» оптимизатор вряд ли будет проверять указанные файлы, однако профессионал никогда не оставит их без внимания. Чтобы не утомлять читателей, не будем углубляться в технические тонкости настройки и проверки данных параметров. Скажу лишь, что правильно настроенные файлы robots.txt и sitemap.xml позволяют поисковым системам индексировать именно тот контент, который нужен, не отвлекаясь на просмотр и обработку ненужных страниц (например, админки CMS). А некорректные файлы приводят к закрытию нужных страниц от индексации поисковиками.
Внутренние файлы и документы сайта
Каждая страница веб-ресурса имеет свой уникальный заголовок (содержимое тега TITLE). Он нужен, во-первых, для описания данной, конкретной страницы, по которой пользователи сайта ориентируются, где же они находятся, а во-вторых, заголовки страниц сайта очень хорошо воспринимаются поисковыми системами. Прописывать одинаковые заголовки на всех страницах веб-ресурса нельзя, т.к. это приведет к неинформативным заголовкам в результатах поиска. Мы рекомендуем их прописывать следующим образом: Название Фирмы – Название текущей страницы (с обязательным включением ключевых слов) - телефон. Профессиональный оптимизатор обязательно проверит заголовки на всех страницах и, при необходимости, внесет нужные изменения.
После этого опытный специалист внимательно изучит все ссылки. Например, если адрес вашего сайта выглядит как www.dom.ru , то и ссылки, используемые на сайте, должны начинаться на www. В противном случае роботы поисковых систем проиндексируют некоторые страницы с www, другие – без них, а в результате так называемый «ссылочный вес» будет распределен неравномерно и неправильно.
Другой немаловажный момент, который отслеживает опытный оптимизатор – связывание внутренними ссылками страниц сайта (этот процесс называют перелинковкой). Качественная перелинковка нужна для повышения релевантности (соответствия) страниц определенным запросам в поисковых системах.
Особое внимание следует уделить такой процедуре, как проверка корректности отображения страниц сайта в разных браузерах. Сегодня пользователи Интернета используют порядка 30 разных браузеров. Самые популярные из них – Internet Explorer, Firefox, Opera и Safari. Не надо тестировать все существующие разновидности. Возьмите хотя бы самые популярные браузеры и посмотрите, все ли страницы хорошо просматривается, нет ли каких-либо искажений, глюков или ошибок.
Не последнюю роль в этом играет правильная HTML-разметка страниц вашего сайта. Другими словами, специалист должен проверить валидность (правильность) используемой на сайте HTML-разметки. Существуют специальные правила создания HTML-страниц, нарушение которых ведет к негативной реакции со стороны поисковиков. В частности, некоторые страницы сайта по этой причине могут не индексироваться поисковой системой.
Тексты на сайте - на это всегда обратит свое внимание профессионал поискового продвижения. Насколько тексты уникальны? Насколько они оптимизированы? Есть ли на сайте тематические страницы, «заточенные» на продвижение тех или иных ключевых слов? Ответы на эти вопросы являются главными на этапе подготовки сайта к полноценному продвижению.
Зачастую начинающие специалисты либо недостаточно внимания уделяют проверке текстов на сайте, либо продвигают только главную страницу сайта (пытаясь создать небольшой текст, чрезмерно насыщенный ключевыми словами), либо просто надеются исправить положение с помощью одной-единственной ссылки, насыщенной ключевыми запросами. Во всех перечисленных случаях страдает заказчик и его сайт. Причем эти страдания начинаются уже на подготовительном этапе.
|