Первичная оптимизация. Абсолютные и относительные ссылки. Прописываем title, description, keywords

Всем привет дорогие читатели! Тема этой статьи возникла из комментария постоянного читателя моего блога по поводу оптимизации сайта на практическом примере и сегодня я хочу разобрать как же своими руками самостоятельно провести внутреннюю seo (сео) оптимизацию сайта, не платя при этом специалистам, т. е сделать это совершенно бесплатно и эффективно.

Пост будет нести чисто практический уклон. Никакой воды, строго по списку. Приступим.

Самостоятельная первичная оптимизация сайта

Многие оптимизаторы порой допускают ошибку, продвигая исключительно целевые страницы сайта, совершенно забывая про непродвигаемые страницы. А ведь раскрутка это комплексный процесс, подобный механическим часам. Стоит упустить малейшую деталь и вся работа пойдет просто «коту под хвост». Чтобы этого не допустить предлагаю рассмотреть основные моменты внутренних работ по оптимизации и приведению сайта в удобный для продвижения вид. Да, кстати, можно . Хотите узнать? Тогда переходите по ссылке.

Прописываем title, description, keywords

Это основа основ. Любой оптимизатор это знает. Вот вам практический пример:

Эта статья пишется под следующие ключевые запросы я их специально выделил красным на скриншоте, писать сюда не хочу, ибо получится переспам ключей и поисковику это не понравится.

и вот еще один скрин

Всегда при составлении тайтлов делайте их большими, человекопонятными с вхождением всех ключевых фраз и чтобы это было смыслово, а не тупой набор слов из вордстата.

Важный нюанс:

Тайтл НЕ ДОЛЖЕН повторять название вашей статьи. В моем случае статья называется — 11 важных правил первичной оптимизации сайтов, а title — SEO (сео) внутренняя оптимизация сайта своими руками самостоятельно и бесплатно!

Количество символов в тайтле не должно быть длинным и не должно быть сильно коротким. Идеально — 4-5 слов, но не более 60-70 символов. Хотя это правило не исключение.

Твердо уясните это правило!

Теперь поговорим про description. Это как визитная карточка того, о чем мы хотим рассказать на странице сайта. Игнорирование этого пункта ставит под угрозу все ваши трудозатраты над проектом, в результате чего вы не получите нужных позиций в выдаче Яндекса и Гугла. Не особо хочется быть аутсайдером, не так ли?

С полем «описание сайта» (дескрипшен) немного попроще. Здесь вы можете либо придумать свой вариант, отличающийся от текста на самой странице статьи, либо взять прямо из текста. Я обычно беру из текста, хотя над коммерческими клиентскими проектами придумываю из головы. Вот как выглядит дескрипшен этой статьи

Важный нюанс:

При создании поля описание страницы старайтесь «вписываться» в требуемое количество знаков — 160 символов. Бывает так, что Яша и Гоша сами формируют нужный дескрипшен, выцепляя нужные участки с ключами.

По поводу keywords особо разглагольствовать не буду, ибо этот пункт давно уже утратил свою силу, когда для того, чтобы подняться на первое место в поиске достаточно было прописать длинную «портянку» нужных ключевых фраз и вы уже в ТОПе. Сейчас это уже не работает. Лучше думайте над удобством для читателя.

В связи с «якобы» отменой ссылочного Яндекс уверяет, что есть другие 750 факторов по которым сайты будут прекрасно чувствовать себя на верхних строчках, и причем выдача не пострадает. Сейчас рулят «поведенческие факторы», а именно удобство для читателя, понятное меню, доступность страниц в два клика и много других факторов. Об этом я думаю будет одна из статей.

Заголовки h1-h6

Про них тоже нельзя забывать они делают логичной структуру самого текста. Самый важный, который должен встречаться только один раз в тексте — это h1. Другие заголовки можно сколько угодно раз использовать на странице. Вот вам наглядный пример с моей страницы:

Создание карты сайта

Ее наличие помогает поисковым роботам быстрее проиндексировать содержимое вашего сайта. Можно использовать несколько вариантов карты либо XML формата, или же с помощью специальных плагинов (я говорю про Вордпресс). Можно поставить на несколько внешних ссылок, чтобы был вес, который будет в дальнейшем передан другим страницам. А это уже поможет продвинуться по низкочастотным запросам. На моем блоге карта сайта расположена прямо в главном меню, а также в шаблоне 404 ошибки.

Отсутствующие документы и битые ссылки

Для предотвращения ошибок со стороны популярных поисковых систем, ваш сайт следует проверить на наличие битых и нерабочих ссылок и документов. Если вы этого не сделаете, то к вашему сайту в последующем будут предъявлены санкции и могут наложить фильтры.

Подобный фильтр, который так и называется «Фильтр битых ссылок» есть у Гугла. Не поленитесь и произведите чистку. Вот рекомендую плагин, который очищает «авгиевы конюшни» из нерабочих урлов на блоге и называется он Broken Link Checker.Удобство еще и в том, что на почту к вам будут приходить уведомления об ошибках и будут указаны пути где это исправить. Мне он всегда помогает держать руку на пульсе. Рекомендую!

Валидный код HTML, CSS, RSS

Необходимо также проверить структуру вашего кода через специальные программы — валидаторы. Они существуют отдельно для Html кода, так и для . Сервис валидации находится вот по этой ссылке http://validator.w3.org/

Просто вводите урл сайта и нажимаете проверить («Check»). Если у вас версии DOCTYPE Strict, где используется строгое соответствие стандартам языка гипертекстовой разметки, тогда проверьте закрыли ли вы все теги слешами < br / > Иначе будет выдаваться ошибка

Использование Flash анимации и Javascript кода на сайте

Для того, чтобы ваш сайт индексировался и загружался быстрее нужно постараться сократить flash графику и джаваскрипты до минимума, поскольку они создают нагрузку при загрузке страниц сайта. Я не говорю, что их вообще лучше не использовать, нет. Просто выносите их в отдельный файл, как и каскадные таблицы CSS. Файл так и назовите JS и в него все складывайте. Скрипты лучше и правильнее выносить в подвал сайта (футер), а не в шапку сайта (header)

Абсолютные и относительные ссылки

Смысл в том, чтобы максимально сосредоточить вес страниц вашего сайта, чтобы исходящие (например с главной) вели на внутренние страницы (внутренняя перелинковка). Таким образом вес будет накапливаться и можно выдвинуть сайт без покупных ссылок по НЧ запросам. Другое дело если вы делаете dofollow блог, и с ваших страниц будет много разных внешних ссылок. Тут вес будет немного теряться. Для себя вы должны решить — или посещаемость, или ценность собственных ссылок. Выбор за вами. Мои комментарии скрыты от индексирования, поскольку может прилетать очень много спама и тупых комментариев. Я работаю на качество.

На некоторых сайтах в футере наблюдаю просто «потрясающую» картину. Здесь уже будет сарказм, простите…Вот нафига некоторые вебмастера «суют» по 7-10 счетчиков всякой разной статистики и рейтингов? От этого никакого эффекта никогда не будет, и мало того, такой сайт выглядит непрофессионально. Запомните: один, максимум два счетчика статистики и обязательно на сайте! Без нее никуда, таким образом вы увидите реальную посещаемость, процент отказов и поведение ваших посетителей, то над чем предстоит поработать. Это ОЧЕНЬ важный этап! Счетчики обязательно должны быть закрыты от индексации, вот пример как это следует делать:

Навигационная цепочка

Она используется, во-первых, для удобства читателей, чтобы знать на какой странице и на каком уровне вложенности от главной он сейчас находится. Также навигационная линейка урлов помогает в индексации сайтов. Их еще называют хлебные крошки. К сожалению они у меня на сайте не стоят, так как весь материал доступен в один клик от главной страницы. К тому моменту как вы будете читать эту статью «крошки» будут стоять на сайте. Вот, как они выглядят:

Всегда самый хороший способ внутренней перелинковки и самостоятельной оптимизации сайта выводить похожие материалы. Лучше делать это как на главной странице, так и на внутренних. Это удержит внимание читателя, ведь он реально увидит смежные статьи по теме и, вполне вероятно, продолжит проводить время на вашем сайте, улучшая поведенческие факторы.

Правильный файл robots.txt

Этот файл своеобразная инструкция для поисковых ботов, которая говорит какие страницы индексировать, а какие разделы сайта полностью закрыть. Как правило закрывают от индексации служебные и неинформативные страницы и каталоги, которые дублируют содержание сайта. Например от индексации можно закрыть «Архивы», папку с плагинами (если мы говорим про wordpress).

Вот и все, что я хотел рассказать вам про самостоятельную внутреннюю оптимизацию сайта своим руками да еще и бесплатно! Учитесь на блоге, всего хорошего

Оптимизация сайта по всем пунктам и правилам может занять много времени. А вернее, это непрерывный процесс: вы вносите изменения, тестируете, анализируете, усовершенствуете. Работа над оптимизацией сайта не должна останавливаться никогда, если вы не двигаетесь в ногу с современными требованиями к сайтам и тенденциями - вы остаетесь позади.

Но, есть ряд действий, корыте вы должны сделать в первую очередь. Первое, вам необходимо найти ошибки, которые можно быстро исправить и второе — определить перспективные точки роста, поработав над которыми можно достигнуть быстрого результата.
У каждого конкретного сайта будет свой список, но обычно начинаю со следующих пунктов.

Подбор семантического ядра

Работать с семантическим ядром надо на протяжении всей жизни сайта, добавлять и менять ключевые слова. Но основа и базис закладывается при первичной оптимизации сайта. Не пытайтесь сразу охватить сразу все запросы. Процесс сбора семантики надо разбивать на несколько этапов. Для большинства сайтов подходит большое количество ключевых слов, если вы захотите охватить все, вы сами себя зароете и процесс затянется на долго.

Начните с основных тем и запросов. Подбирайте уникальные запросы по которым люди могут искать ваш сайт и отбрасывайте все уточнения. Т.е. начните с высокочастотных и средне частотных запросов. Подробнее, как составить семантику для сайта, читайте .

Навигация сайта

Второе, что необходимо сделать, выбрать основные ключевые слова, которые займут место в основном меню. У вас должен быть список фраз, каждая из которых требует собственной посадочной страницы.

Возьмем в качестве примера магазин электроники. Стандартными категориями в нем могут быть холодильники, телевизоры и т. д. Однако, если у вас много однотипных категорий и они все не помещаются в главном меню, есть смысл объединить их в одну большую категорию «крупная бытовая техника», «видео и аудио». Также есть смысл дробить категорию на более мелкие. Но, помните что уровень вложенности товара (статьи) не должен быть больше 3 кликов (например: Крупная бытовая техника → Холодильники → Конкретная модель). Для удобства пользователя создавайте навигационные цепочки и фильтры, это поможет быстро переходить от товара к категориям и искать нужны товар.

Вы можете найти поисковые запросы имеющие одинаковый или близкий смысл (например ноутбуки и лэптопы). Не создавайте для них отдельные посадочные страницы, определите какие из запросов чаще запрашиваются и разрабатывайте страницу под них. Остальные запросы можно сохранить, чтобы в дальнейшем использовать в статьях. Не переборщите с количеством посадочных страниц, чтобы не запутать пользователя в навигации сайта.

Метатеги Title

Для всех посадочных страниц, будь их десять или сто, необходимо настроить теги title. Заголовки — один из факторов ранжирования в поисковых системах, а также первое, что видят пользователи в поиске, он также влияет на кликабельность.

Оптимизировать title можно двумя способами. Первый заключается в индивидуальном подборе текста для каждой страницы, второй - в создании правил автоматической приостановки тегов. Большинству сайтов подойдет первый способ, тогда как для интернет-магазины могут использовать правила (так как порой количество товаров превышает тысячи позиций).

В обоих случаях цель одна - необходимо прописать для каждой страницы уникальный убедительный заголовок, который будет включать ключевые слова и подтолкнет пользователей к переходу на сайт.

Метатеги Description

Метатеги description прописываются по таким же принципам, что и title. Сами по себе теги description не помогают улучшить позиции в выдаче. Тем не менее они могут оказать заметное влияние на кликабельность, поскольку содержимое этого тега отображается в сниппете.

Заголовки h1 — h6

Главная задача заголовка, особенно расположенного вверху страницы (обычно h1), дать понять пользователю на какую страницу он перешел. Если страница не отвечает на запрос пользователя, нет смысла его удерживать.

Но если пользователь попал на нужную страницу, он должен это понять об по заголовку. Остальные подзаголовки (h2 – h6) должны подкреплять собой главный (заданный тегом

) и вовлекать читающего во взаимодействие с контентом. Заголовок должен заставить пользователя прочитать текст на странице.

Не делайте заголовки «сеошными» — напичканными ключевыми словами. Создавайте заголовки, которые стоят того, чтобы их прочитали. Заголовки, которые заставят пользователя задержаться и не потерять интереса к сайту.

Вы сделали эти 5 пунктов - поздравлю, вы выполнили первичную оптимизацию сайта. На этом работа закончена? Конечно нет! Вам предстоит еще множество экспериментов и , пока вы выведите свою формулу успеха. Но этот базис который вы сделали, дает хороший старт для вашего сайта.

Автор статьи

SEO-специалист или просто seo-шник) За спиной более 5 лет опыта в сфере интернет-маркетинга. Начинала с контент-менеджмента и наполнения сайтов, затем узнала что такое SEO-оптимизация и понеслось... Сейчас работаю со всеми направлениями интернет маркетинга: seo, контекст, smm. Люблю писать, как по-работе, так и для души))) Постараюсь быть полезной для читателей этого блога.

Наши преимущества

  • Мы более 10 лет занимаемся любимым делом
  • Мы ценим Вас и Ваше время
  • Мы рядом с Вами
  • Мы понимаем, что Ваша цель - продажи

Первичной оптимизацией сайта называют ряд действий, которые осуществляют оптимизаторы на начальном этапе, когда сайт уже создан, но еще не наполнен содержимым. Важно осознавать, что при продвижении нужно смотреть на сайт как на единую концепцию, а не как на совокупность отдельно продвигаемых страничек. На сайт важно смотреть не только глазами роботов, но и глазами потенциальных пользователей. Первичная оптимизация - это что-то вроде расчески с редкими зубцами: вы просто берете и слегка причесываете страницы, чтобы ничего не торчало и не раздражало поисковых роботов.

Перед тем, как начинать этот процесс, важно понимать к чему его применять. Поэтому мы и решили написать этот материал.

  • Прежде всего, обратите внимание на Title, Description и Keywords. Все эти три категории должны быть уникальными у каждой из страниц сайта. Более того, они должны быть релевантными, то есть соответствовать содержимому. Уникальными их можно сделать либо вручную, либо же автоматически, наладив автоматическую генерацию (сейчас это не проблема, было бы желание). При этом не забывайте, что основные ключевые слова нужно помешать в Title. Заголовок должен быть не длиннее 10-12 слов, иначе поисковик воспримет его как спам.
  • Нельзя не учесть разметку страницы, и в особенности заголовки (H1-H6). Как вы понимаете, порядок заголовков должен быть последовательным, при этом заголовок типа H1 должен встречаться только один раз, и чем меньше лишних слов в нем будет, тем больший вес будет иметь ключевая фраза.
  • Не забывайте про карту сайта. Она может быть сгенерирована как XML, так и в HTML формате. Все зависит от того, с каким движком вы работаете и что вам ближе. Обычно на карту сайта ставится несколько внешних ссылок, что позволяет ей иметь вес, который она будет отдавать внутренним страницам.
  • Посредством какого-либо софта (например, программы XENU) необходимо предотвратить баги. Никаких битых ссылок и отсутствующих документов быть не должно.
  • Также проверьте сайт на валидный TML, CSS и RSS и сократите использование JavaScript и Flash анимации.

Что вы получите в итоге?

Мы проведём бесплатный первичный аудит вашего сайта, выявив основные проблемы, которые негативно сказываются на его продвижении. Даже если до этого сайтом занимались не сведущие в SEO-оптимизации люди, в течение нескольких недель мы сможем исправить все недочёты, допущенные на стадии разработки и продвинуть ваш ресурс в ТОП выдачи поисковых систем.

Сегодня рассмотрим блок, который непосредственно связан с работой на сайте. В этой статье описаны основы первичной seo оптимизации сайта, которые можно использовать как краткий чек-лист или инструкцию к действию. Конечно же, хорошо разрабатывать стратегию ещё до того, как вы спроектировали сайт, чтобы хорошо сделать его структуру и различные технические составляющие. Но для того, чтобы так делать, нужен немалый опыт и поэтому лучше начать с того, чтобы оптимизировать уже существующий ресурс. И для начала нам нужна первичная сео оптимизация сайта. Она подходит для всех существующих сайтов, в том числе для тех, которые только-только запустились.

Зачем нужна первичная сео оптимизация? И что она в результате дает?

Во-первых, мы настраиваем все необходимые must-have инструменты (далее опишем их более подробно).

Во-вторых, благодаря этим инструментам мы будем уверены, что сайт будет корректно индексироваться, что это будет происходить быстро, что в индекс будут попадать только качественные странички.

И, в-третьих, мы будем получать ранжирование или трафик по низкочастотным запросам. То есть, не было бы смысла делать первичную оптимизацию, если не было бы каких-то улучшений в плане поискового трафика. Они точно будут. Хорошо оптимизированный сайт облегчит работу с дальнейшим seo продвижением. Давайте рассмотрим этапы оптимизации.

Этапы первичной внутренней оптимизации сайта

Этап 1. Настройка сервисов: панели вебмастеров и системы аналитики

Первый этап поисковой оптимизации — это настройка сервисов. Необходимо добавить сайт в панель для мастеров, установить системы аналитики и связать их с панелью. У каждой поисковой системы есть своя панель для вебмастеров. Вы их можете найти по запросу “панели для вебмастеров”. В Google она называется Search Console и Вебмастер в Яндексе. И там и там рекомендуем зарегистрироваться, даже если вы продвигаете сайт под одну систему. Это необходимо для того, чтобы поисковик уже начинал накапливать данные, и вы с помощью панели в дальнейшем смогли отслеживать различные ошибки и смотреть рекомендации, которые поисковик даёт. Это бесплатные инструменты, которые предоставляют сами поисковые системы. Их нужно обязательно использовать.

По поводу систем аналитики: в зависимости от того, под какой поисковик вы продвигаетесь, вы можете установить себе либо Google Analytics, либо Яндекс Метрику, либо то и другое, в том числе еще и LiveInternet поставить или любые другие нужные системы отслеживания статистики. В любом случае, Метрика и Аналитика ставятся обязательно, потому что они будут собирать данные о посещаемости, которые вы не соберете другими системами, потому что поисковые системы шифруют ряд данных и не передают их третьим лицам.

Этап 2. Оптимизация структуры сайта: ЧПУ и Навигация (перелинковка)

После того, как вы настроите сервисы, необходимо оптимизировать структуру сайта (). Здесь подразумевается оптимизация Url, создание так называемых ЧПУ (ЧеловекоПонятныеУрл или ЧеловекоПриятныеУрл). Обратите внимание на адреса в поисковой выдаче (см скриншот ниже). Здесь нет айдишников, нет каких-то чисел. Здесь используются различные ключевые слова, которые понятны пользователю. Поэтому мы точно можем знать, куда попадем, перейдя по такой ссылке. Кроме этого, в адресе странички можно использовать ключевые слова. Например, «как установить Яндекс Метрику». Адрес или урл тоже является текстом и поисковик анализирует этот участок текста для ранжирования у себя в поисковой выдачи.

И второй момент — это организация удобной навигации по ключевым разделам, то есть настройка перелинковки. При первичной сео оптимизации сайта важно не просто настроить перелинковку, но сделать ее удобной для пользователей. Не нужно заморачиваться, как будут передаваться веса, продвигаете ли низкочастотку или высокочастотку. Здесь важно просто настроить все элементы навигации, которые будут удобны для пользователя. Сюда включено главное навигационное меню, хлебные крошки, блоки рекомендаций, различные контекстные ссылки и другие виды навигации. Вы можете проанализировать конкурентов, посмотреть какие элементы навигации они используют и использовать подобные методы. Навигация должна быть удобной, и ключевые разделы, которые вы продвигаете, должна быть доступны в один клик от главной страницы. Таким образом эта навигация будет максимально оптимизирована под поисковые системы. .

Этап 3. Оптимизация мета-тегов: title, description, alt

Следующий этап — оптимизации мета-тегов. Это те элементы, которые используются в html-коде странички и прописываются в участки . Допустим посмотрим пример кода текущий странички где есть мета-тег title, в котором используется название статей с ключевыми словами.

Также к мета-тегам относится тег description. Это уже текст до 250 символов. В него можно включать те слова, которые вы использовали в тайтл, но которые являются ключевыми. Причём это не просто список ключевых слов, это, как бы, сообщение пользователю, потому что мета-тег description и title будет появляться часто в сниппете поисковой выдачи.

То есть, оптимизируя структуру url, title и description, вы оптимизируете этот сниппет. И, конечно же, тайтл является важным участком для текстовой оптимизации. Дескрипшн тоже учитывается для ранжирования. Как оптимизировать тайтл? Во-первых, в нем необходимо использовать ваши ключевые слова (про анализ ключевых слов мы еще поговорим в других статьях). При этом нужно приоритетные ключевые слова ставить в начало заголовка. Тайтл должен быть привлекательным, так как он показывается пользователям поисковой выдачи и необходимо чем-то привлечь этого пользователя (привлечь внимание и заинтересовать его, чтобы он кликнул). В том числе мета дескрипшн играет подобную роль, но нет смысла дублировать title и description, потому что они будут одинаковые, а у вас есть возможность текст разнообразить.

Тайтл может включать сколько угодно символов или слов, но рекомендуют делать его не более 12 слов, особенно если вы оптимизируете сайт под Google. Мета дескрипшн должен быть не более 250 символов.

Этап 4. Оптимизация контента: h1, наполнение страниц и атрибут alt

Следующий этап — это оптимизация контента. На этом этапе необходимо оптимизировать тег h1. Оптимизировать — это значит уже использовать основные ключевые слова. Причем, если у вас ключевое слово — это какое-то неестественное выражение типа “доставка еды недорого в Москве”, то не нужно его вставлять в h1. Вставлять надо именно естественную фразу, например “доставка еды”. Остальные слова можно будет использовать в других частях контента. Не забывайте при оптимизации под поисковую систему, что она учитывает все поведенческие факторы и с другой стороны анализирует естественность текста. В большей степени надо уделять внимание оптимизации контента для пользователя. Тег h1 — это главный тег на страничке. Обычно это или названия статьи, или название страницы.

Также необходимо наполнить страницы качественным контентом, проверить все ли страницы содержат достаточное количество контента. Достаточным можно считать контент с количеством символов более 500. Это будет гарантировать, что они хотя бы попадут в индекс. Если у вас на страничке очень мало контента, подумайте какой контент туда можно добавить.

Также можно здесь оптимизировать атрибуты Alt у изображений. Например, в тексте могут использоваться разные изображения. И если мы будем оптимизировать alt, то есть прописывать специальный атрибут, то поисковик будет знать, что изображено здесь, и может давать трафик в поиске ещё и по изображениям. В том числе google учитываеь альты как обычный текст. Например, на странице товара в интернет магазине в тег Alt можно написать название товара максимально подробно.

Этап 5. Оптимизация краулинга: зеркала, адаптивная версия, xml-карта, robots.txt и парсеры

Следующий большой этап — это оптимизация краулинга или техническая оптимизация сайта . Все указанные этапы должны идти в работе последовательно. В оптимизации краулинга мы выбираем и настраиваем основное зеркало. Поисковик оперирует понятием зеркалов, когда у нас есть основной сайт и вспомогательные. Это могут быть поддомены вспомогательные, может быть отдельный ресурс, могут быть даже языковые версии. Например, если сайт на https и использует www, то мы считаем основное зеркало это https://www. А все остальные версии должны редиректить на основное зеркало 301 кодом статуса. То есть с не www на www, с http на https и так далее. В том числе для Яндекса мы должны написать обязательно директиву Host в robots.txt. Т.е. нам нужно настроить основное зеркало, чтобы поисковики понимали, с каким сайтом собственно мы работаем, чтобы в индекс не попадали различные дубли. Возможно эти дубли находится даже не на поддоменах, а на ip-адресе, по которому также доступен сайт и является дублем.

Обязательно нужно создать адаптивную версию. Процент пользователей, которые заходят в интернет с мобильных устройств, постоянно растет, а для некоторых тематик он превышает половину от всех пользователей. И для поисковиков это тоже очень важный сигнал, тем более при ранжировании в мобильном поиске. Поэтому если у вас еще нет адаптивной версии, ее нужно сделать.
Далее нужно настроить xml карту сайта. Это специальный файл, который содержит ссылки на ваши странички, которые вы хотите проиндексировать. Необходимо проверить теги meta-robots на страничках, посмотреть не закрыты ли страницы от роботов в no-index. Если в meta-robots написано no-index, то сайт не будет индексироваться.

Также нужно проверить файл robots.txt: что там закрыто, что открыто. Будет ли корректно индексироваться то, что вы хотите, чтобы попадало в индекс, и не индексироваться то, что вы не хотите.

Также полезно пройтись по сайту парсером или сканером, такими как Xenu, Screaming Frog или ComparseR. Парсер покажет дополнительные ошибки, если они есть. Например, битые ссылки, наличие дублей заголовков и так далее. То есть, вы уже перед тем, как запустить сайт или его новую версию, можете пройтись по нему парсером и посмотреть, нет ли там дополнительных ошибок.

Этап 6. Сервисы поисковых систем: индексация, справочники и сервисы

И после того, как мы все настроили, можно использовать сервисы поисковых систем. Нужно обязательно зайти в панель для вебмастеров, добавить сайт на индексацию. Для этого есть специальная форма, так называемая аддурилка, куда можно отправлять все странички, например, новые на вашем сайте, на которые робот зайдет в ближайшее время.

Далее необходимо добавить сайт в специальные справочники (этот этап больше подходит для внешнего продвижения сайта, но стоит его упомянуть, так как сделать его надо сразу после запуска). Например, коммерческий ресурс представляет из себя локальный бизнес и его можно добавить в Google Мой Бизнес и в Яндекс Справочник. Или, например, если вы продаете товары, то можно добавить сайт в Яндекс Маркет. У поисковиков есть еще много дополнительных сервисов. Например, если у вас новости, то нужно добавлять в тематические сервисы новостей. Если есть возможность зарегистрироваться в Яндекс Каталоге, то нужно зарегистрированное и там.

На этом первичная SEO оптимизация сайта будет закончена. Конечно, внутренняя оптимизация отнимет достаточно времени, особенно если речь идет о больших порталах или интернет-магазинах, но она того стоит. Правильно подготовленный к продвижению сайт — залог дальнейшего успеха!

В моей новой статье мне хотелось бы рассказать о таком понятии как первичная оптимизация сайта и собрать для начинающих вебмастеров все первичные средства оптимизации, которые просто необходимо сделать сразу после написания сайта и не только для того, чтобы облегчить работу будущему сео-оптимизатору, но и поднять свой статус как сайтостроителя или вебмастера в лице окружающих. Итак, начнем с самого начала с файла robots.txt.

Создание и наполнение файла инструкции для роботов поисковых систем robots.txt

Файл robots.txt представляет собой некое руководство для прохода вашего сайта поисковыми ботами. В нем мы так же выстраиваем и защиту от ненужных нам ботов, так как они могут существо нагружать наш хостинг, что приведет к отключению услуги. В качестве примера на одном из моих проектов боты ходили с разницей в секунду в количестве порядка 30 штук, что существенно нагружало хостинг (нагрузка выдавалась порядка 60%, при штатной в 10%).

Расшифровка данных файла robots.txt:

  1. User-agent – наименование конкретного бота, к примеру Googlebot или Mail.Ru.Для каждого из видов ботов пишется свой кусок в файле.
  2. Crawl-delay – промежуток времени между обращениями бота к вашему сайту. Нормальным считается промежуток равный 3, но для того, чтобы снять нагрузку на сервер нужно выставить параметр от 5 до 10.
  3. Disallow – запрет на посещение конкретного раздела или страницы. Каждый раздел или страница прописываются отдельно.

Стандартный вид файла robot.txt:

User-agent: *

Crawl-delay: 3
Host: адрес вашего сайта

Данный формат файла робот.тхт подойдет сайтам имеющим трафик менее 100 уникальных посетителей в сутки и количество страниц менее 1000.

Расширенный вид файла robot.txt:

User-agent: *
Disallow: админка или еще какие-либо страницы вашего сайта
Crawl-delay: 3
Host: адрес вашего сайта
Sitemap: ссылка на карту вашего сайта

Все тоже самое, но только добавляются дополнительные блоки для каждого из видов ботов. Я рекомендую сразу же заблокировать следующих ботов (блокировка прописывается вот так Disallow:/):

  • User-agent: sentibot
  • User-agent: MegaIndex.ru/2.0
  • User-agent: MegaIndex.ru
  • User-agent: AdvBot
  • User-agent: XoviBot
  • User-agent: publiclibraryarchive.org
  • User-agent: memoryBot
  • User-agent: SMTBot
  • User-agent: XoviBot
  • User-agent: Abonti
  • User-agent: meanpathbot
  • User-agent: SearchmetricsBot
  • User-agent: panscient.com
  • User-agent: IstellaBot
  • User-agent: EasouSpider
  • User-agent: Aboundexbot
  • User-agent: MixBot
  • User-agent: EasouSpider
  • User-agent: sogou spider
  • User-agent: BUbiNG
  • User-agent: LinkpadBot
  • User-agent: Aboundexbot
  • User-agent: heritrix
  • User-agent: SEOkicks-Robot
  • User-agent: WBSearchBot
  • User-agent: ScreenerBot
  • User-Agent: UnisterBot
  • User-agent: SeznamBot
  • User-agent: SemrushBot
  • User-agent: BPImageWalker/2.0
  • User-agent: lipperhey
  • User-agent: BLEXBot
  • User-agent: wotbox
  • User-agent: SiteExplorer
  • User-agent: turnitinbot
  • User-agent: netEstate NE Crawler
  • User-agent: FeedBooster
  • User-agent: Nutch
  • User-agent: Ezooms
  • User-agent: spbot
  • User-Agent: sistrix
  • User-Agent: ExB Language Crawler
  • User-agent: MJ12bot

Если вы не закроете доступ для выше перечисленных ботов сразу, то будете иметь проблемы в будущем с большой нагрузкой на ваш хостинг или сервер. Боты, которых я заблокировал никак не скажутся на скорости индексации и не повлияют на продвижение сайта, поэтому бояться закрывать свой сайт от них не стоит. Данный, расширенный файл робот.тхт подойдет для сайтов с посещаемостью от 100 человек в сутки и с объемом страниц более 1000 страниц.
Для сайтов, написанных на WordPress можно использовать плагин Multipart robots.txt editor – он имеет достаточно много настроек, с помощью которых можно исключить слишком активных ботов, а так же прописать разделы и страницы, доступ к которых вам нужно запретить.

Создание карты сайта (sitemap.xml)

Для чего нам нужна карта нашего сайта? Ответ очень прост – для того, чтобы роботы поисковых систем не заблудились и могли найти разделы вашего сайта достаточно быстро и сразу определить какие из них чаще обновляются, а кике не очень. С помощью карты сайта можно существенно сократить скорость индексации страниц ресурса, что положительно сыграет на динамике продвижения и увеличении трафика на сайт.

Создать карту сайта можно, как с использованием сторонних сайтов, так и с помощью плагинов. Но помните, что большинство сторонних сайтов бесплатно создают sitemap только на определенный объем страниц (от 100 до 500, больше я не встречал), а так же не всегда понятно, что вам могут положить в код (если вам лень проверять его полностью). Лично я использую на своем сайте (он построен на WP (wordpress)) плагин Yoast SEO , который помимо различных удобств в СЕО части, включает и создание карты сайта.

Установка социальных кнопок

На сегодняшний день очень важная часть оптимизации сайта, так как каждый репост записи дает вам 1 халявную, да еще и вечную ссылку с жирнейших ресурсов (vk.com, одноклассники, google+ и пр.). Плюс ко всему любой репост, если его сделал человек, имеющий хотя бы 100 человек в друзьях или подписчиках, может привести вам от 1 до 10 новых посетителей, а те в свою очередь могут сделать другие репосты и привести еще.
Лично я использовал и использую по сегодняшний день 3 варианта установки социальных кнопок на свои сайты и сайты своих клиентов:

Самый простой и действенный способ настройки качественной перелинковки включает в себя 2 варианта установки ссылок:

  1. При написании страниц, направленных на поднятие главных посадочных страниц необходимо установить с них от 1 до 10 ссылок, в зависимости от объема текста и количества нужных нам тематических ключевых слов. Данным подходом мы будем передавать вес второстепенной страницы на основную, которую мы будем усиленно продвигать, что, несомненно, сыграет свою роль в росте позиций.
  2. Установка блоков: похожее, новое, популярное на страницах вашего сайта:
  • Блок «похожее» можно подключить в настройках сайта при включенном плагине Jetpack от WordPress.com: панель администратора – настройки – чтение – выбрать «Показывать заголовок «Похожее», чтобы визуально отделить похожее содержимое от записей». В каждой из ваших записей (не страниц) в самом низу текста появится блок «похожее» (аналдогичный блок вы увидите и внизу этой статьи).
  • Блок «новое» можно подключить в настройках вашего сайта: панель администратора – внешний вид – виджеты – выбираем область виджета, куда хотим разметить блок (в моем случае это правый сайдбар) – выбираем виджет «Свежие записи». Никаких дополнительных плагинов для установки этого блока устанавливать не нужно.
  • Блок «популярное» можно подключить в настройках вашего сайта: панель администратора – внешний вид – виджеты – выбираем область виджета, куда хотим разметить блок (в моем случае это правый сайдбар) – выбираем виджет «Popular Posts» или «популярные записи» (в моем случае я установил плагин WordPress Popular Posts ). Пример размещения данного блока вы можете видеть на моем сайте.

Классические ссылки и установка блоков помогут вам не только качественно настроить перелинковку страниц, но и обеспечат удобное использование вашего сайта его посетителями, что отразится на поведенческих факторах. А как мы знаем они играют далеко не последнюю роль в определении качества вашего сайта.

Правильно прописываем метатеги

Итак, мы подошли к еще одному интересному моменту поисковой оптимизации сайта – это метатеги. Их мы разделим на 3 части и о каждой я кратко расскажу:

  1. Title или название страницы, ее видит только поисковый робот и поэтому постарайтесь без воды максимально четко назвать вашу страницу. Иногда (почти всегда) название страницы полностью совпадает с ее заголовком и поэтому помните, что как название так и заголовок должны полностью отражать содержание дальнейшего текста в противном случае страница никогда не выйдет в топ. В заголовке в обязательном порядке должно присутствовать фокусное ключевое слово, можно в другом падеже.
  2. Description или описание страницы, его, как и название страницы, так же видит только робот поисковой системы, но из него так же формируется сниппет (небольшой кусок текста сформированной поисковой системой автоматически под заголовком вашего сайта и ссылкой на его страницу, выданной в при введении поискового запроса). Описание не должно быть большим и так же не должно быть маленьким – это всего 1-2 предложения не более 150 знаков описывающее суть текста. В описании в обязательном порядке должно присутствовать фокусное ключевое слово, можно в другом падеже.
  3. Keywords или ключевые слова – и этот параметр будет доступен только роботам поисковых систем. Минимум, что должно быть прописано, это хотя бы одно фокусное ключевое слово или фокусное слово и производные от него. Например: оптимизация сайта, сео оптимизация сайта, оптимизировать сайт, оптимизация сайта для продвижения. Плотность ключевых слов по отношению к тексту не должна быть более 1 к 300 (1 ключевое слово на 300 знаков текста). Если плотность будет выше, то можете получите фильтр за спам ключами. Если плотность будет ниже, то у вас просто будет меньше ключевых слов на конкретной странице. В данном поле не обязательно прописывать все имеющиеся в тексте ключи, можно указать только фокусное.

Немного подведу итог правильности написания метатегов:

  1. Фокусное ключевое слово (или фраза) должно быть одно, например «продвижение сайтов».
  2. Фокусное ключевое слово должно присутствовать в названии, описании, ключевых словах, хотя бы в одном заголовке странице и встречаться 1 раз в тексте. Можно использовать разные словоформы (употреблять в различных падежах).
  3. Дополнительные ключевые слова подбираться по принципу фокусное слово (или фраза) плюс еще одно слово, например продвижение сайтов в яндексе.
  4. На 300 знаков текста должно быть не более 1 ключевого слова или фразы.

В качестве совета рекомендую тем, кто использует Google Chrome установить плагин на браузер под названием RDS bar. С его помощью вы сможете просматривать не только метатеги сайтов конкурентов, но и проанализировать их качество.

Настройка RSS ленты

Если сайт написан на WordPress, то практически во всех темах, используемых для создания сайта, уже есть встроенная РСС-лента, найти ее можно так: ваш сайт/rss.xml, ваш сайт/feed.xml или как в моем случае ваш сайт/feed/ . Зачем нужна RSS-лента? Все очень просто. Существуют ресурсы, которые так или иначе будут парсить (забирать ее к себе на сайт) вашу ленту записей и для упрощения такого мероприятия прекрасно подойдет наша РСС-лента. Это нужно нам для того, чтобы совершенно бесплатно получать ссылки на наш сайт, при этом данного рода ссылки считаются естественными, что положительно скажется на продвижении интернет сайта и поможет хоть немного, но поднять его позиции.
Помимо положительных моментов в RSS-ленте, есть и отрицательные:

  1. Невозможно изначально отследить качество сайтов, размещающих ваши статьи у себя. Это могут быть как плохие, так и хорошие ресурсы, но в любом случае общий итог будет положительным, особенно если удастся транслировать свои записи в крупных ПС или на крупных порталах.
  2. Невозможно самостоятельно отсеивать не желательные для вас сайты. Единственное, что можно сделать в таком случае – это самостоятельно прогнать свой сайт через качественный агрегаторы, потому как они это вряд ли сделают за вас (описывать их в данной статье не буду, да и не зачем, так как они постоянно меняются, кто попадает под АГС, а кто-то нет).
  3. О том, что с вашего сайта кто-то парсит статьи вы узнаете только в момент обновления (апдейта) текстовой базы поисковой системы.
  4. Удаление ваших текстов с чужих сайтов – это самое проблематичное и трудоемкое занятие, так как вам нужно будет выйти на вебмастера того сайта и уже просить его удалить ваш текст.

Может показаться, что RSS-лента подойдет больше для продвижения сайтов блогов или новостных порталов, но это не так. На сегодняшний день большую роль играет контент и большинство сайтов продающих товары или услуги или еще что-либо не относящиеся к информационной тематике создают разделы, которые наполняются различными тематическими текстами. А чем больше будет естественных ссылок на эти разделы, тем больше пользы они принесут основным продвигаемым страницам, отдавая им свой честно заработанный вес.

Настройка трансляции записей и страниц сайта в социальных сетях

Трансляция записей вашего сайта – это один из способов не только ускорить индексацию и продвижение, но и получить массу бесплатных ссылок с одних из самых трастовых сайтов не только Рунета, но и мира. Рассмотрим варианты настройки таких трансляций:

  1. Самый трудоемкий способ – набивать анонсы статей в каждом из аккаунтов социальной сети вручную. Не самый лучший вариант провести свое время с пользой, поэтому заострять внимание на нем я не буду.
  2. Самый простой способ – настройка RSS-ленты через сайт rsstranslator.net (есть платная регистрация и бесплатная) с выводом трансляции в социальную сеть, а конкретно сразу в нужную вам группу. Способ очень прост и не требует настройки API для каждой из социальной сети. Регистрируетесь, вносите свои РСС-ленты в свой каталог, далее настраиваете с них трансляцию на вашу группу в соцсети (группу, аккаунт) и получаете ежедневное наполнение вашей группы в контакте. Для того, что бы аккаунт на РССтрансляторе не заблокировали нужно 1 раз в 6 месяцев заходить в свой личный кабинет на сайте, о чем система сама напоминает (очень удобно). Этот способ хорош еще и тем, что у вас не будет стоять плагина на сайте, который грузил бы ваш хостинг или сервер.
  3. Средний по сложности – установка специализированных плагинов на ваш сайт с тонкой настройкой API поисковых система для трансляции статей. Скажу честно, что лично я использую второй способ и не имею никаких проблем, поэтому описывать тонкости настроек приложений в данной статье описывать я не буду, но постараюсь уделить время написанию о, них в другой статье посвященной продвижению сайта через социальные сети.

Итак, в качестве примера настройки трансляции записей приведу свой сайт. Как вы видите в шапке у меня есть всего 2 иконки социальных сетей: vk.com и twitter. Вы спросите, а почему так мало? Лично мне этого хватает.
В РССтрансляторе я настроил 1 канал RSS-ленты со своего сайта (он же общий канал всех рубрик), далее я направил трансляцию с него в свою группу в контакте, а уже из группы в контакте настроил трансляцию в твиттер. Настройка из вконтакте в твиттер делается практически в 1 нажатие и не вызвало лично у меня никаких вопросов.
В итоге я получил ежесуточное автоматическое наполнение группы в контакте и аккаунта в твиттере, что положительно сказывается на продвижении позиций моего сайта с самого начала его написания. Дополнительно скорость индексации моих страниц снизилась со стандартных 4-5 недель в Яндексе до 1-2 недель, по Google страницы попадают в индекс уже в течение 1 суток.
Для начала работы по продвижению сайта, на мой взгляд, приведенной информации будет вполне достаточно, а об остальном вы сможете прочитать на страницах моего блога.

Понравилась статья? Поделиться с друзьями: