Как продвигать сайт по SEO в поисковых системах

В предыдущей статье «Что такое SEO продвижение и оптимизация сайта» мы познакомились с основными понятиями что такое СЕО, какие виды бывают, алгоритм работы поисковых систем и тезисно, что из себя представляет комплекс мер по продвижению в топы по ключевым запросам.

В этой статье мы рассмотрим каждый момент более детально, думаю это будет для Вас полезно.

seo

Итак, SEO продвижение сайта в поисковых системах состоит из двух основных комплексов действий:
1) Внутренняя SEO оптимизация
2) Внешняя SEO оптимизация

Совокупность этих двух тезисов и образует само понятие «СЕО продвижение«.

Давайте разберем каждый пункт детально.

Внутренняя SEO оптимизация

Внутренняя SEO оптимизация — это комплекс мероприятий, направленный на улучшение содержимого сайта, а так же структурированию в нём информации.

Состоит понятие из:
1) Контента
2) Структуры
3) Интерфейса

Контент

Самый главный критерий оценки «удельного веса» в SEO это его содержимое.
Качественным содержанием считается контент, который помогает человеку получить нужную информацию и/или помочь решить проблему.

Здесь нужно понять, какой контент поисковые системы в комплексе с SEO считают качественным:

а) Составленный с технической точки корректно.

То есть соблюдающий принципы релевантности, ключевых слов в тексте, концентрацию «воды», с абзацами и линками.
Простыми словами, контент который понравится боту-обходчику, а ему нравится когда технически, текст составлен корректно и отвечает базовым параметрам построения SEO стандартам.

б) Содержательный и полезный для читателя.

Как ни странно, но и этот критерий невероятно важен. Робот может оценить техническую часть контента, но не содержательную. И в корпорациях об этом моменте прекрасно знают, а значит приняли меры.

Когда люди потихоньку начнут приходить к вам на страницу, робот будет отслеживать и оценивать совокупность поведенческих факторов посетителей.

Если ваши первые визитёры практически сразу будут уходить со страницы, значит что-то не так с качеством вашего содержимого, на что спустя какое-то время, ПС отреагирует, присвоив порталу другую совокупную оценку. Не факт что она вас удовлетворит.

в) Уникальный. 

Помимо технической и социальной составляющей оценки качества SEO ботами контента ресурса, важна и его уникальность.

Старайтесь избегать копирования чужих текстов на свой ресурс. Роботы-поисковики относятся негативно к наличию неуникального контента.

Чем больше плагиата — тем хуже публикация будет восприниматься search-алгоритмами.
То же касается и изображений, видео, аудио материалов.

Google и Yandex сейчас активно борятся с плагиатом и пиратским контентом. Гугл так вообще обнаружив контент, нарушающий авторские права, может полностью исключить страницу из запросов (добавить в чёрный список). Выйти из которого практически нереально. Проще будет начать всё но-новой.

сео анализ текста

Для оценки качества контента рекомендую использовать ресурс text.ru. С его помощью можно оценить SEO качество материала с технической точки зрения (SEO-анализ текста), а так же подобрать слова-синонимы для соблюдения правила вариативности (не повторять одни и те же слова множество раз).

сео анализ текста анализ

Структура

Удобство для навигации пользователей. Для улучшения навигации рекомендуется добавлять в ваш контент гиперссылки между вашими статьями и публикациями.

Вы как-бы ссылаетесь на собственный, ранее опубликованный, материал в своих новых статьях. Вашему посетителю будет гораздо проще ориентироваться в контенте, если он может сразу открывать ссылки и получать дополнительную информацию об интересующем его вопросе.

Такой подход прагматичен и с точки зрения технических аспектов. Роботу-обходчику будет проще собирать материал о новых публикациях.

Поисковые роботы заходят на портал примерно так же, как это делает обычный юзер, он лазает по всем публикациям, переходит по всем гиперссылкам и линкам, просматривает фотографии и вносит структуру сайта в свою базу данных.

Чем лучше будет логистика на платформе, тем выше будет оценка бота относительно юзабилити (удобство пользования ресурса для посетителя) сайта.

Не забывайте насыщать свой текст абзацами и типами заголовков (1-2-3-4 уровня), использовать выделения текста курсивом и полужирный текст, оформлять цитаты.

Информация должна быть как технически корректна, так и удобна в чтении и быть приятной для восприятия.

Интерфейс

Как я писал в предыдущей статье, бот оценивает поведенческие факторы посетителей вашего ресурса. И в большей степени на это влияет именно сам дизайн и интерфейс вашего ресурса.

Порой, в сайте с точки зрения оценки содержимого всё хорошо, но человеку может сильно не понравится какой-либо элемент в дизайне. Или будет корявая структура, в которой крайне не превычно ориентироваться.
Даже цветовая гамма может отпугнуть потенциального подписчика/покупателя.
В таком случае велика вероятность, что посетитель решить уйти с портала, даже не смотря на качественный контент и труды своего разработчика.

Для примера, расскажу о схожей ситуации у одной крупной компании по созданию landing page в России. Проводились эксперименты по изменению элементов и структуры лендинга с целью улучшения результативности целевых действий посетителей.

Простая смена цвета кнопки в низу сайта «Заказать» с красной на синюю, показала увеличение конверсии более чем на 20%.

Вроде бы ерунда, и никакого эффекта с точки зрения логики это принести не могло, но экспериментально было доказано обратное.

Поэтому прежде чем создавать свою web-страницу, определитесь с вектором, какую задачу он должен выполнять. Это может быть интернет-магазин, блог, информационный портал, развлекательный ресурс, страничка-визитка, лендинг, тематический ресурс, доска объявлений и многое другое.

После выбора тематики, нужно определится со стилистикой, то есть с дизайном и интерфейсом. В данном вопросе, ваши конкуренты — ваши самые лучше друзья.
Оцените с десяток топовых по ключевым запросам ресурсов, подчеркните интересующие моменты и нюансы. Представьте как будет выглядеть ваш дизайн и приступайте к действию — творите.

Внешняя SEO оптимизация

Это комплекс мер, направленный на работу со внешними программами для улучшения индексирования и позиций ресурса по ключевым запросам, а так же исполнения мониторинга за его корректной работой.

Что включает:
1) Работа с вебмасером поисковых систем
2) Техническая настройка
3) Взаимодействие со внешними ресурсами

Работа с вебмасером поисковых систем

Это один из самых важный моментов во внешней оптимизации.
Как скоро узнают поисковики о появлении нового контента, с какой частотой его индексировать (как часто планируются новые публикации), регистрация уникальных текстов, отслеживание статистики и метрики, подтверждение прав, наличие ошибок, региональность а так же загрузка товаров в справочники и многое другое.
Всё это делается в вебмастере поисковых систем.

Что необходимо сделать в вебмастере поисковой системы

Первым делом, подтвердить свои права. В основном, рекомендуется работать только с двумя поисковыми системами: Yandex и Google. Они в совокупности, имеют около 96% всего рынка.

Стоит ли регистрироваться в других проектах — решать Вам. Но с этими двумя монополистами необходимо связать свою дальнейшую деятельность.

После подтверждения прав, перед публикациями, всегда оповещайте системы о появлении нового уникального контента. Тогда при любом копи-пасте Вы будете идентифицированы как первоисточник, и по целевому запросу будете выше всех своих плагиаторов.

Бывали случаи, когда редактор получал статус плагиатора, если его контент успел кто-то скопировать и указать себя в системах как правообладатель. Увы, в таком случае сделать уже ничего нельзя. Думайте наперед.

Следующий аспект, указать путь к файлам robots.txt и sitemap.xml.
Sitemap — это карта сайта для поисковых систем. Там находятся все URL, которые вы хотите, что бы робот проиндексировал.
Робот может при обходе найти те сегменты сайта, которые нежелательны для индексации и оценки.

На такой случай существует пояснение в виде файла robots.txt.

Техническая настройка

Подразумевается формирование и разработка семантического ядра. А так же создание и настройка файлов sitemap.xml и robots.txt.

Семантическое ядро сайта
— совокупность ключевых запросов коррелирующих с тематикой сайта и его контентом. Проще говоря — специализация портала.
Ведение узкоспециализированной тематики на платформе, залог скорейшего попадания в топ по необходимым ключевым запросам.

Случается даже такое, что относительно молодой сайт высвечивается на позициях по конкретным запросам выше, чем его более старый и весомый конкурент. А причина этому бывает именно в узкой специальности конкретного ресурса.

Чем уже тематика, которую вы освещаете, тем выше шанс попасть в топ. Это работает даже по средне- и высокочастотным запросам, которые категорически не рекомендуются для работы новым блогам.

Если задача sitemap указывать что нужно индексировать роботу, то robots.txt наоборот, нужен для запрещений лезть в определенные разделы портала.

Настройка robots.txt нужна для сокрытия от обходчика конфиденциальной информации, а так же сегменты результатов поиска и все прочие динамические результаты, информационные страницы, системные файлы и подписчиков.

Настройки исключительно файла sitemap недостаточно для качественной работы обходчика. Его нужно использовать только в совокупности с поясняющим файлом — robots.txt.

Роботы могут залезть в коды страниц и перейти на те вкладки, которые не прописаны в sitemap и проиндексировать. Их оценка может негативно сказаться на совокупном рейтинге портала и понизить место в выдаче по целевым запросам.

Взаимодействие со внешними ресурсами

Самая последняя стадия по продвижению сайта в топы. Все предыдущие этапы, так или иначе, проводятся именно для этой ступени.

Одним из самых важных критериев рейтинга сайта (на ровне с Контентом) по поисковым запросам является его Удельный Вес. Яндекс и Гугл по разному называют этот коэффициент. У Yandex это ТИЦ (Текущий Индекс Цитирования), а у Google — PR (Page Ranking).

Свои корни этот коэффициент берет из научного сообщества, где рейтинг того или иного деятеля определяется количеством ссылочной массы на его труды. Чем он выше, тем авторитетней мнение специалиста.

В поисковых системах данный показатель оценивает качество контента первоисточника, с точки зрения всего интернет сообщества. Чем больше на ваш портал ссылается ресурсов, тем выше Ваш престиж в глазах роботов-поисковиков, и как следствие, выше рейтинг и позиции по ключевым запросам.

Учитывайте качество ссылающихся на Вас страниц. Если портал имеет негативную репутацию в глазах ПС, такая рекомендация сыграет только в минус. Для улучшения ваших позиций, ссылки должны быть с проверенных и авторитетных сайтов.

Так же немало важно, на какие источники ссылается и ваш сайт. Если первоисточник имеет негативный статус от ПС, вы как ссылающийся на него, то есть завлекающий посетителей перейти по непонятной или вредной ссылке, получите соответствующую оценку и своего ресурса.
Не рекомендуйте плохого и к Вам будут относится хорошо.

Всё прям как у людей… «Скажи мне кто твои друзья и я скажу кто ты«. Поисковые системы считают именно так.

Не бойтесь обмениваться ссылками с другими ресурсами, это выгодно для обоих. Если имеются сомнения в качестве и содержимом источника, на который ссылаетесь, помочь сможет атрибут «Nofollow».

Его задача указать ПС что вы не отвечаете за содержимое источника, на который ссылаетесь. Вреда для оценки вашего портала не будет.

Подробный разбор файлов sitemap.xml, robots.txt, атрибута «nofollow» и команды «noidnex» я буду проводить в других статьях. Подписывайтесь если хотите быть в курсе наших новостей самыми первыми.

Если вы нуждаетесь в помощи по консультации или обучению СЕО продвижению сайта, напишите мне в «Контакты» или перейдите во вкладу «Сотрудничество«.

1 Звезда2 Звезды3 Звезды4 Звезды5 Звезд (2 оценок, среднее: 5,00 из 5)
Загрузка...

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

Яндекс.Метрика