В прошлой статье мы рассмотрели:
В этой статье рассмотрим:
Как Вы думаете, что чаще всего занимает ТОП Яндекс? Да, это сервис Яндекс.Картинки. При всей, на первый взгляд, незначительности данного сервиса, мы очень настоятельно рекомендуем серьезно отнестись к картинкам. В некоторых наших проектах посещаемость из такого рода сервисов достигает 5% от всего трафика.
Картинки очень полезно использовать в контенте. Поисковые системы считают, что контент при наличии графики является более проработанным и полезным для пользователей.
Есть и более простая цель у графических материалов: благодаря параметрам title и alt они могут добавить вес в «тематичность», что также помогает поисковым системам понять, о чем именно наша посадочная страница.
Параметр title — это подсказка по картинке. Вы можете увидеть его в виде подсказки при наведении. Является не обязательным параметром для SEO, но мы его рекомендуем заполнять.
Параметр alt — это альтернативное описание. Пользователи могут увидеть его, только если картинка не отображается. Важный параметр для поисковых систем.
Параметры title и alt должны содержать ключевую фразу либо часть ключевой фразы, либо близкие по смыслу слова.
Как мы уже поняли из предыдущих статей, поисковые системы приходят на сайт и занимаются его индексацией. Но на сайте может быть множество страниц, которые мы не хотим отдавать для индексации. Более того, поисковые системы сами не в восторге, когда им приходится тратить время и ресурсы на индексацию ненужных страниц. Это могут быть служебные страницы, версии для печати, страницы с неуникальным контентом и т.д.
Для того, чтобы рассказать поисковым системам, какие страницы можно или нельзя индексировать, был придуман файл robots.txt. Это обыкновенный текстовый файл, который обязан находиться в корневой папке.
Структурно robots.txt состоит из трех частей. В первой мы обращаемся к роботу конкретной поисковой системы, во второй мы описываем команды запрещающие или разрешающие индексацию и в третьей мы даем дополнительные уточнения. Обращение к поисковому роботу производится командой “User-agent:”. После двоеточия мы можем написать название робота, например googlebot, либо оставить знак *, чтобы показать, что мы обращаемся ко всем роботам сразу. В случае небольших сайтов, обычно используется User-agent: *. Ну а при работе с большими порталами, конечно, необходима разработка более персонализированных правил.
Может возникнуть резонный вопрос — почему не создать одни правила для всех поисковых систем? Причин может быть несколько. Для наглядности мы приведем одну. В мире довольно большое количество поисковых систем. И когда поисковый робот начинает индексировать Ваш сайт, происходит определенная нагрузка на сервер. И, в отличии от пользователя, робот может работать параллельно по всему сайту. А представьте, что будет, если роботов много и страниц сотни тысяч? В лучшем случае Ваш сайт будет очень тормозить, в худшем — он может просто лечь. Для этого мы создаем правила индексации для важных нам поисковых систем, а остальным просто запрещаем индексировать наш сайт. Поверьте, от того, что вы запретите индексацию паре китайских роботов, посещаемость сайта не пострадает.
Оператором для запрета индексации того или иного раздела является “Disallow:”. Дальше вы указываете наклонную черту и тот раздел или страницу, которую хотите запретить.
Disallow: ⁄catalog
Заметьте, мы не указываем название сайта, т.к. по умолчанию поисковые системы понимают, о каком сайте мы говорим.
Альтернативной командой выступает “Allow:”. Она используется, когда мы закрываем какую-либо директорию, но внутри ее есть файл или подпапка, которую мы хотим открыть для индексации.
Disallow: ⁄catalog
Allow: ⁄catalog ⁄mobile
В данном примере не будет индексироваться весь каталог, кроме раздела mobile.
Если Вы хотите закрыть определенный тип страниц, то в разных категориях можно воспользоваться спецсимволом *. Он так же, как и в случае с user-agent, будет подставлять любые значения.
Disallow: ⁄*stranica.php
В данном примере для индексации будут запрещены все ссылки заканчивающиеся на stranica.php.
Давайте представим ситуацию, когда нам необходимо запретить только сам каталог, но не последующие разделы. Конечно, можно начать использовать команду allow для всех разделов внутри, но проще использовать спецсимвол $. Он позволит объяснить поисковым системам, что нельзя индексировать только тот раздел, который мы указали.
Disallow: ⁄catalog$
В третьей части мы указываем путь к нашей карте сайта sitemap.xml и основному зеркалу.
Указать путь к файлу sitemap.xml необходимо, т.к. он может находиться в любой папке или вообще на другом сайте. В отличии от robots.txt, он даже может называться по-другому. Например, map.xml. Оператор для указания “Sitemap:”
https: ⁄⁄site1.ru ⁄catalog ⁄map1.xml
Еще нам необходимо указать для поисковой системы, какой из наших сайтов является основным. Это необходимо делать даже если у Вас один сайт, т.к. для поисковых систем www. site1.ru и site1.ru это два разных зеркала с дублированным контентом. Для этого используется оператор “Host:”
Host: https: ⁄⁄site1.ru
Заметьте, в случае с директивами Sitemap и Host мы указываем url полностью.
Для того, чтобы проверить правильность подготовленного вами файла, существуют специальные сервисы. Мы рекомендуем работать с панелью Яндекс.Вебмастер https: ⁄⁄webmaster.yandex.ru ⁄tools ⁄robotstxt ⁄.
Поисковые роботы, как путешественники, гуляют по интернету в поисках новых ссылок. Ссылки — это как портал для входа на новую страницу. Без них в SEO все становится очень трудным.
Ситуация не меняется даже когда поисковые роботы приходят на Ваш сайт. После главной страницы им также нужны ссылки, чтобы проиндексировать более глубокие уровни. Учитывая, что время и ресурсы поисковых роботов ограничены, есть большая вероятность, что проиндексировать, например, интернет-магазин просто не успеют. Далеко не факт, что и во вторую индексацию поисковик сможет проиндексировать весь сайт.
Для решения такой проблемы был создан замечательный файл sitemap.xml. По сути, это простая карта сайта со списком ссылок. Только без красивого оформления и написанная по стандартам xml.
Файл может находиться в любом месте как на сайте, так и вне его. Более того, он может состоять из двух и более файлов, и все с разными именами. Но мы рекомендуем придерживаться стандартов: сохранять под именем sitemap.xml и хранить файл в корневой папке сайта.
Как правило, данный файл должен генерироваться вашей CMS. Но бывает, что данный файл либо не генерируется, либо генерируется неправильно, ведь возможностей у него больше, чем просто быть списком ссылок.
<?xml version=«1.0» encoding=«UTF-8»?>
vurlset xmlns=«http: ⁄⁄www. sitemaps. org ⁄schemas ⁄sitemap ⁄0.9»>
<url>
<loc>http: ⁄⁄www. example. com ⁄page1.html< ⁄loc>
<lastmod>2018-01-01< ⁄lastmod>
<changefreq>monthly< ⁄changefreq>
<priority>0.5< ⁄priority>
< ⁄url>
...
< ⁄urlset>
Структура языка XML похожа на HTML. Когда-то ему даже пророчили прийти на замену. Суть проста, мы заключаем в важные для нас теги информацию для поисковых систем.
Важными для нас являются четыре тега:
Стоит помнить, что манипулировать напрямую файлом sitemap.xml не получится. Поисковые системы относятся к нему как к карте сайта с рекомендациями, но не командами в отличии от robots.txt.
Загружать и проверять данный файл необходимо через панели вебмастеров.
Что Вы чувствуете, когда сайт, на который Вы заходите, грузится долго? Думаю, что-то похожее происходит и с поисковыми системами.
Скорость загрузки и работы сайта — это очень важные параметры для SEO продвижения. Поэтому следует обозначить важнейшие направления в работе над скоростью сайта.
Основным сервисом для анализа скорости работы сайта является Google Pagespeed. Зачастую, он не дает реальную скорость загрузки, но выдает список всех проблемных мест и рекомендации по сайту. Стремитесь к 80 и выше баллам по данному сервису.
Для определения реальной загрузки сайта используйте сервис www. pingdom. com. Он позволит проследить скорость из различных точек планеты. В сервисе присутствует платные тарифы для постоянного отслеживания по нескольким сайтам.
Очень часто, анализируя сайты, мы видим, что перелинковка либо не сделана на сайте, либо сделана недостаточно. Простым языком — это когда Вы вставляете ссылки в тексте или на странице на другие Ваши страницы.
Давайте рассмотрим почему это настолько важный параметр в SEO продвижении, хотя о нем забывают.
Общие рекомендации:
Одной из разновидностей перелинковки могут быть хлебные крошки. На каждой странице перед областью основного контента указывается путь. Каждый элемент пути является ссылкой.
Также Вы можете настроить на сайте вывод рекомендуемых товаров, услуг, статей или новостей.
В различных CMS есть возможность установить плагины, позволяющие производить автоматическую перелинковку. Мы советуем использовать вариант ручной работы, т.к. качество автоматической оставляет желать лучшего.
Схемы перелинковок весьма разнообразны. Мы подобрали примеры в зависимости от частотности запроса:
Когда Вы переходите на какую-либо страницу, но Вас автоматически перебрасывает на другую — это работает редирект. В области SEO это важная функция, решающая ряд проблем. Примеры использования:
Вариантов использования большое количество как и самих типов редиректов. Необходимо с осторожностью подходить к этому вопросу, т.к. поисковые системы с подозрениям относятся к редиректам. Когда поисковый робот переходит на страницу, его не перебрасывает дальше, в отличии от пользователя, что во-первых мешает индексации, а во-вторых настораживает робота, ведь пользователь может получить запрещенный или нецелевой контент. Такая ситуация возникает, когда редирект производится на стороне клиента.
Исключением является 301 редирект на уровне сервера. В данном случае и поисковые роботы, и пользователи перебрасываются на итоговую страницу. Это считается хорошим тоном и поисковые системы относятся к данному варианту положительно.
301 редирект указывается в файле .htaccess. Это специальный файл для сервера Apache, в котором указываются правила для работы сервера. На начальных этапах не рекомендуется редактировать его самостоятельно. Либо, если все же необходимо отредактировать, то делать это на тестовом сервере. В большинстве случаев маркетолог или владелец бизнеса заказывает формирование редиректов у компании разработчика.
Пример очень простого 301 редиректа выглядит так:
Redirect 301 ⁄url1 ⁄ https: ⁄⁄primersite.ru ⁄url2 ⁄
В данном примере мы делаем перенаправление из раздела url1 на раздел url2
Также важно на сайте использовать редирект на 404 страницу. Это страница указывающая на то, что пользователь ввел несуществующий адрес. Если не перенаправлять пользователей и поисковых роботов на страницу 404, то поисковики могут воспринять все пустые страницы как дубли.
Не забудьте правильно оформить эту страницу. Обязательно наличие ссылки на главную страницу, страницу навигации и поиска по сайту.
Поисковые системы любят уникальный контент. И дело даже не только в том, что они уважают авторское право. Ресурсы поисковых роботов не бесконечны и тратить время на индексирование и анализ страниц, которые уже есть в базе, просто не выгодно.
Но хуже всего, когда контент дублируется не с чужих сайтов, а на одном и том же. Ведь поисковой системе придется еще и определять, какая из Вашей дублирующих страниц релевантнее. Это негативно влияет на результаты SEO продвижения. Более того, сайт может попасть под фильтр.
Существует два типа дублирования — полное и частичное. При полном дублировании одна и та же страница доступна по различным url адресам. Яркий пример — это когда главная страница сайта открывается с приставкой www. и без нее. Более того, часто на таких сайтах главная страница может быть открыта еще и по ссылкам формата testsite.ru ⁄index, testsite.ru ⁄index.php, testsite.ru ⁄index.html и т.д.
Полное дублирование также можно встретить на сайтах с ошибочной структурой. Например, у сайта есть каталог. К одной и той же странице товара можно зайти через разные директории.
testsite.ru ⁄catalog ⁄tovar1
testsite.ru ⁄archive ⁄tovar1
Еще одним классическим примером являются ссылки с добавлением различных реферальных или аналитических меток. Различные “utm”, “yclid”, “gclid”, “ref.” И само добавление в ссылки дополнительных параметров — это нормально, но если поискового робота не перенаправят на основную страницу — он посчитает это дублем.
В качестве последнего примера можно привести проблему с 404 страницей. Если Вы вводите неправильный или несуществующий url на сайте, Вас обязательно должно перенаправлять на страницу с ошибкой 404. В ином случае поисковая система посчитает, что у Вас бесконечное количество дублей.
В случае с частичными дублями ситуация сложнее. В первую очередь с их формированием и определением. Один из самых распространенных примеров частичного дублирования является версия для печати. Данная страница имеет отличный url от оригинальной страницы, а изменения на ней совсем незначительные.
Второй по распространенности пример — это страницы пагинации. Под пагинацией на сайтах стоит понимать многостраничный вывод информации. Например, в каталоге Вы можете в рамках одного раздела переключать страницы с товаром. Зачастую внизу данного раздела написан продающий или SEO текст. И когда Вы выбираете различные номера страниц ваш url меняется, а большая часть контента остается, что является частичными дублями.
Похожая ситуация не только с нумерованными страницами каталога, но и с любыми закладками на страницах. При условии, что Вы находитесь на странице с товаром и после выбора закладки отзывов у вас немного изменился url, а общая страница осталась та же, это будет считаться частичным дублем.
Для поиска дублей существует несколько методов:
Все способы, кроме ручного или полуручного, к сожалению, не позволяют найти частичные дубли. Для поиска частичных дублей необходимо тестировать сайт. Избавиться от них быстро — не удастся.
Наконец, давайте перейдем к решению такой проблемы, как дубли.
В данной книге собраны самая актуальная на данный момент информация о продвижении сайтов в поисковых системах, а также полезные советы для предпринимателей или интернет-маркетологов.
получить книгу