Subbay.ru
Четверг, 23.11.2017, 17:14
Мини-чат

Вход на сайт

Архив записей

Статистика

Онлайн всего: 1
Гостей: 1
Пользователей: 0

Главная » 2017 » Октябрь » 3 » Оптимизация сайта под поисковые системы. Часть 1.
11:32
Оптимизация сайта под поисковые системы. Часть 1.

Оптимизация сайта под поисковые системы -  это комплекс мероприятий, в результате которого улучшаются позиции сайта в поисковой выдаче.

Оптимизация сайта состоит из двух этапов:

  1. Внутренняя оптимизация.
  2. Внешняя оптимизация.

Давайте рассмотрим подробнее, что включает в себя каждый из этапов.

Первый этап: Внутренняя оптимизация – это комплекс мер, который поможет поисковым системам быстро индексировать ваш блог.

Что она в себя включает:

1Семантическое ядро сайта – это список слов и фраз, которые будут характеризовать ваш блог, и которые в дальнейшем будут использоваться для продвижения. Такой список в дальнейшем поможет вам быстрее найти темы для будущих статей.
2Оптимизация статей. Статьи — это основа вашего будущего успеха. Но мало просто написать обычный текст, нужно соблюдать определенные правила, которые приведут вашу статью в ТОП10 поисковой выдачи.
3Оптимизация картинок. Тут тоже мало просто вставить картинку в текст. Нужно добиться того, чтобы она была уникальна и правильно оформлена в тексте. При добавлении картинки в строке Alt нужно указывать ключевое слово.
4Перелинковка страниц. Это когда страницы сайта ссылаются на другие страницы того же сайта. Также есть перелинковка автоматическая, которая составляется благодаря плагинам.
5. Создание ЧПУ. ЧПУ- это человекопонятный урл. URL это то, что пишется в строке браузера. Неправильный адрес статьи такой: subbay.ru
/?p123 , а правильный такой — subbay.ru/kak-sozdat-sait. Настроить ссылки можно с помощью плагина Rus-To-Lat.
6. Карта сайта. Необходимо, чтобы на блоге было две карты: одна для поисковиков, а вторая для посетителей. Обе карты можно создать с помощью двух плагинов: Google XML Sitemaps и Dagon Design Sitemap Generator.

7. Файл robots.txt. Данный файл указывает поисковым машинам, что нужно индексировать. То есть благодаря такой инструкции можно и даже нужно закрывать определенные папки, для того, чтобы скрыть от поисковиков дублированный контент (хотя по собственному наблюдению, хочу сказать, что поисковые машины не обращают на указания в файле robots.txt, например, я закрывал архивы от поисковиков, но они их все равно проиндексировали).

Просмотров: 29 | Добавил: Rockfeller
Всего комментариев: 0
avatar
Бегущая строка в HTMLWWW.SUBBAY.RU
Copyright Subbay.ru © 2017
uCoz