12 сервисов для проверки сайта на соответствие правилам Google

Смотрим на страницу глазами Googelbot и проверяем синтаксис robots.txt. И поднимаемся в результатах поиска!

Этот материал — продолжение статьи 20 фишек, как узнать все про любой сайт. Сегодня речь пойдет о веб-сервисах, проверяющих особенности сайтов/страниц, которые влияют на их ранг в поисковой выдаче.

Содержание
  1. Зачем мне это нужно?
  2. 1. Есть ли «битые» ссылки?
  3. 2. Достаточно ли оптимизированы картинки?
  4. 3. Корректно ли составлен файл robots.txt?
  5. 4. Валиден ли HTML-код?
  6. 5. Нет ли перебора с ключевыми словами?
  7. 6. Есть ли ссылки без анкоров и с атрибутом “nofollow”?
  8. 7. Нет ли на сайте вирусов?
  9. 8. Правильно ли настроен редирект?
  10. 9. Все ли в порядке с метатегами?
  11. 10. Как видит текст страницы поисковый робот?
  12. 11. В каком состоянии была страница когда на нее последний раз приходил Googlebot?
  13. 12. Какой уровень доверия Google к домену? Чем выше уровень доверия к домену, тем выше ранг страниц, которые на нем находятся. Trust Rank зависит от возраста домена, его истории и т.д. На smallseotoolz.com можно проверить этот показатель для любого ресурса. Адрес сервиса: smallseotoolz.com/domain-authority-checker-tool Все эти инструменты можно попробовать не имея доступа к файлам сайта. Если этот доступ у вас есть, то для проверки этих же параметров лучше использовать Google Search Console. Оптимизируя страницы для поисковых систем, следуем помнить о том, что главным критерием ранжирования являются поведенческие факторы: время проведенной пользователем на странице, его активность и т.д. Каким бы идеальным не был html-код и авторитетным домен, если посетители убегают с сайта через 10 секунд, то и поисковики не будут ценить ее высоко. Помимо повышения качества контента, для улучшения поведенческих факторов полезно наблюдать за тем, как ведут себя пользователи на сайте. Делать это позволяет технология «Вебвизор», встроенная в счетчики Яндекс.Метрики. «Вебвизор» записывает все действия пользователей (движения мыши, нажатия клавиш) и генерирует видео имитирующие их поведение во время визита. Наблюдение за посетителями и забота об их удобстве, на порядок важнее всех технических моментов, упомянутых в статье. Источник: iphones.ru

Зачем мне это нужно?

Если у вас есть сайт, но вы не интересуетесь поисковой оптимизацией, и у вас нет специалиста, который занимается его продвижением, то иногда могут возникать вопросы наподобие:

Почему мой сайт ниже в поисковых выдаче, чем аналоги, хотя качество контента выше?

Скорее всего, на сайте есть какие-то технические проблемы, важные для поисковиков (битые ссылки, ошибки в html-коде). Найти такие проблемы поможет статья ниже.

Читайте также  iTunes Store В сердце моря. Самая правдивая история Моби Дика

В интернете есть множество блогов с советами по SEO, многие из которых давно устарели или изначально являлись фантазией автора. Занимаясь оптимизацией сайта, лучше ориентироваться на официальные гайдлайны для вебмастеров Search Engine Optimisation Starter Guide. Там четко прописано, какие технические особенности имеют реальное влияние на поисковую выдачу.

Если сайт содержит качественную и полезную информацию, а также соответсвует требованиям, прописанных в этих гайдлайнах, то с ростом поискового трафика должно быть все ОК. А вот подборка инструментов, которые помогут быстро найти на сайте (своем или чужом) незаметные на первый взгляд нюансы, негативно влияющие на отношение к нему поисковиков.

1. Есть ли «битые» ссылки?

Битые ссылки негативно воспринимаются пользователями, поэтому Google применяет санкции к страницам с их большим количеством. На deadlinkchecker.com можно получить полный список URL-адресов на странице и статусы их доступности.

Адрес сервиса: deadlinkchecker.com

2. Достаточно ли оптимизированы картинки?

На wepagetest.org можно получить список картинок с указанием их размера и примененных способов сжатия для каждой картинки. Там же можно почитать советы по оптимизации изображений для сайтов.

Адрес сервиса: webpagetest.org

3. Корректно ли составлен файл robots.txt?

Robots.txt — это файл, в котором владелец сайта указывает, какие разделы сайта индексировать поисковому роботу. Очень важно, чтобы в нем не было ошибок, так в случае их наличия Google может проиндексировать лишние страницы.

alterlinks.com/robots-txt-validator/

4. Валиден ли HTML-код?

Если html-код не содержит ошибок, то страница будет быстро загружаться и одинаково отображаться во всех браузерах. С помощью валидатора от консорциума w3 (организации, которая регулирует технологические стандарты в интернете) можно найти ошибки и получить рекомендации по их исправлению.

Адрес сервиса: validator.w3.org

5. Нет ли перебора с ключевыми словами?

Избыточная плотность ключевых слов иногда может влиять на ранг в поисковой выдаче хуже, чем их отсутствие/недостаток. На pr-cy.ru можно проверить число вхождения слов на страницу.

Адрес сервиса: pr-cy.ru/analysis_content/

6. Есть ли ссылки без анкоров и с атрибутом “nofollow”?

Анкор — это текст ссылки между тегами “” и ““. Google плохо относится к сайтам, которые делают ссылки картинками, с пустыми анкорами или анкорами без смысловой нагрузки («читайте тут», «смотреть здесь»). Также Google против указания в ссылках атрибута rel=”nofollow” (запрет роботы переходить на страницу), так как он мешает поисковику воплотить идею об индексации всего интернета. Подробнее об этом можно почитать в гайдлайнах, упомянутых в начале статьи. А pr-cy.ru можно проверить все ссылки на сайте на наличие анкоров и запретов на индексацию.

Читайте также  5 косяков, которые нужно исправить в Samsung Galaxy S9

Адрес сервиса: pr-cy.ru/analysis_content/

7. Нет ли на сайте вирусов?

Обнаружив на сайте вредоносное ПО Google начинает ставить рядом с заголовком страницы надпись «Этот сайт может нанести вред вашему компьютеру», отбивая желание посетителей заходить на него. Если поисковый трафик внезапно снизился на порядок, то одной из самых вероятных причин может быть появление на сайте вредоносного контента.
Адрес сервиса: google.ru/transparencyreport/safebrowsing

8. Правильно ли настроен редирект?

Иногда, из-за такой мелочи, как неправильно настроенное перенаправление с одной страницы (которая уже есть в базе Google) на новую (которая пока неизвестна поисковому роботу), сайт может ощутимо потерять в трафике. Всегда стоит проверять этот момент.

Адрес сервиса: webconfs.com/redirect-check

9. Все ли в порядке с метатегами?

Здесь можно проверить указаны ли на странице заголовок и описание, а также оценить соответствие ключевых слов ее содержимому.

Адрес сервиса: metatagscheck.com

10. Как видит текст страницы поисковый робот?

Google не индексирует текст, созданные с помощью Flash, JavaScript и изображенный на картинках. Этот сервис поможет понять какой текст на странице учитывается поисковиком при ранжировании результатов, а какой нет.

Адрес сервиса: smallseotools.com/spider-simulator/

11. В каком состоянии была страница когда на нее последний раз приходил Googlebot?

Здесь можно узнать когда на странице последний раз был Googlebot и в каком виде она сохранена в кеше Google.

Адрес сервиса: smallseotools.com/google-cache-checker/

12. Какой уровень доверия Google к домену?

Чем выше уровень доверия к домену, тем выше ранг страниц, которые на нем находятся. Trust Rank зависит от возраста домена, его истории и т.д. На smallseotoolz.com можно проверить этот показатель для любого ресурса.

Адрес сервиса: smallseotoolz.com/domain-authority-checker-tool

Все эти инструменты можно попробовать не имея доступа к файлам сайта. Если этот доступ у вас есть, то для проверки этих же параметров лучше использовать Google Search Console.

Оптимизируя страницы для поисковых систем, следуем помнить о том, что главным критерием ранжирования являются поведенческие факторы: время проведенной пользователем на странице, его активность и т.д. Каким бы идеальным не был html-код и авторитетным домен, если посетители убегают с сайта через 10 секунд, то и поисковики не будут ценить ее высоко.

Помимо повышения качества контента, для улучшения поведенческих факторов полезно наблюдать за тем, как ведут себя пользователи на сайте. Делать это позволяет технология «Вебвизор», встроенная в счетчики Яндекс.Метрики. «Вебвизор» записывает все действия пользователей (движения мыши, нажатия клавиш) и генерирует видео имитирующие их поведение во время визита. Наблюдение за посетителями и забота об их удобстве, на порядок важнее всех технических моментов, упомянутых в статье.

Источник: iphones.ru

ITC infotech