?

Log in

No account? Create an account

energo_slon


Энергослон анализирует динамику позиций сайтов


Previous Entry Share Flag Next Entry
TOP-10 must do SEO-шника
she-slon
energo_slon
У каждого специалиста по поисковой оптимизации свой алгоритм работы с новыми сайтами. И закон мирового свинства заключается в том, что если что-то упустишь, то потом по-любому боком выйдет.

Казалось бы, как можно что-то упустить, если делаешь это в сотый раз? Ан нет, память у меня девичья, обязательно что-то да забуду. Поэтому дабы не наступать на одни и те же грабли, я для себя составила список обязательных для выполнение пунктов.

magik-slon
1. Семантическое ядро и таблица контент-анализа
Обычно для одной страницы я выбираю от 3-х до 6-ти схожих запросов. Конечно, для взрослых сайтов, нужно спросить мнение поисковика, какую страницу он считает наиболее релевантной. Делается это простым поисковым запросом: ищем в Яндексе (или/и Google) "купить слона" на сайте energoslon.ru. Наиболее релевантной будет первая в поиске страница.
Для молодых сайтов подбираем страницы на свое усмотрение.
Подробнее этот этап описан в статье: С чего начинать продвижение сайта? Семантическое ядро и таблица контент-анализа

2. Мета-теги
Лично я и для молодых, и для зрелых сайтов придерживаюсь одного строгого правила: не двигать разные страницы для разных поисковиков по одному и тому же запросу.

Что делать, если Яндекс считает для запроса "купить слона" релевантной страницу А, а Гугл страницу Б?
Ответ прост: плюем на мнение одного из поисковиков. Обычно на мнение того, в котором на текущий момент позиция хуже. Но нюансов много, нужно смотреть по ситуации. Выбор зависит от массы параметров: частотности запроса, позиций схожих запросов и даже от вашей интуиции.

Все мета-теги я расставляю вручную. Работаю со всеми страницами, не только с теми, которые продвигаются. Конечно, если речь идет о сайте с большим каталогом или интернет-магазине, расставляем мета-теги по маске.

3. Вебмастера и счетчики

Добавляем сайт в вебмастер Яндекса и Гугла и тем самым отправляем новый сайт на индексацию. Устанавливаем счетчики.  Мне очень нравится Яндекс.Метрика и все показатели я обычно отслеживаю именно ей, но счетчик Аналитикса тоже добавляю, пусть Google следит за поведенческими факторами, лишним не будет.

4. Присваиваем регион

В вебмастере Яндекса регион сайту можно задать только после индексации. Конечно, регион сайту присвоится автоматически, однако присвоение региона вручную в разы ускоряет рост позиций.

5. Зеркало

Определяем главное зеркало для сайта: с www или без www. Это очень важный этап, нельзя его игнорировать. Указываем главное зеркало в панели вебмастера Яндекса, прописываем 301-й редирект для Гугла.
Подробнее в статье о настройке главного зеркала.

6. Robots

Создаем файл robots.txt. Закрываем ненужные для индексации разделы сайта (у меня таковые очень редко бывают) и задаем дерективу host в которой опять же указываем главное зеркало для Яндекса.

Вы наверное уже заметили, что я (возможно излишне) перестраховываюсь с главным зеркалом, но в моей практике были случаи, когда из-за смены главного зеркала рушились позиции, поэтому я предпочитаю не рисковать.

7. Sitemap

Не игнорируйте создание карты для робота, это занимает совсем немного времени (благо есть соответствующие сервисы), но улучшает качество индексации сайта.

8. Гугл-адреса и Яндекс-справочник

Добавить организацию в Яндекс.Спарвочник можно через панель вебмастера. Для добавления в Гугл-адреса вам необходимо указать пин-код, который в последнее время приходится заказывать по (обычной) почте.

9. Работа с текстами

Все тексты на сайте необходимо проверить на плагиат. При необходимости сделать рерайт. Но самое важно на этом этапе
работа с заголовками. Пожалуй, добавление заголовков очень серьезная тема и заслуживает отдельного поста.

10. Добавление проекта в сервис по контролю эффективности SEO

Мне нравится сразу же разбивать запросы на ВЧ, С
Ч и НЧ с присвоением соответствующих тегов. Также я присваиваю теги с url релевантных страниц, перенося таким образом в проект таблицу видимости. Это удобно, так как можно отфильтровать запросы по тегам и наблюдать за изменениями в рамках каждой страницы.

А каков ваш алгоритм работы с новыми сайтами?