Стоит доверять автоматическим SEO-аудитам | Статьи SEOnews

Стоит доверять автоматическим SEO-аудитам | Статьи SEOnews
Артем Дорофеев Управляющий SEO-отдела Original Works Существует масса автоматических анализаторов SEO сайта. Довольно вбить адресок онлайн – и вы получаете громадный перечень разных характеристик, традиционно разделенных на примитивные «хорошо», «плохо», «для информации». Неоспоримо следовать таковым советам точно не стоит, а принимать во внимание – с великий осмотрительностью. Главные варианты ошибочной интерпретации результатов таковых анализов мы осмотрим в данной статье.

Длина мета-тегов

Это чуток ли не 1-ая ошибка во всяком аудите. Title и meta-description на вашем проекте могут быть просто забракованы «анализатором», поэтому что тег «слишком длинный» или «слишком короткий». Не стоит расстраиваться. Лучшая длина тега та, которая непосредственно на данной страничке дозволит включить в него все главные ключевики и сделать его симпатичным для юзера. То, что в ранжировании учитываются лишь 60-70 знаков – миф. В сниппете – да, отображается ограниченное количество знаков, но в ранжировании не учитывается. В неких вариантах просто невероятно написать тег, который бы подошел под эти рамки. К примеру, ежели заглавие продаваемого продукта «Очиститель воздуха Xiaomi Smartmi Fresh Air System Wall Mounted (VTS6001CN) » теснее состоит из 75 знаков.

Длина title данной странички - 228 знаков. Позиция - ТОП-3. Точно ли длина имеет значение?

Что делать: пишите осмысленные title и meta-description с содержанием всех главных ключевиков из семантического ядра странички не оглядывайтесь на их длину.

Анализ лишь основной страницы

Большая часть онлайн-сервисов требуют ввести адресок сайта и делают выводы лишь на базе анализа основной странички. Беря во внимание, что на сайте могут быть 10-ки тыщ страничек (да и еще более главных для SEO, к примеру, в каталоге) , именовать таковой анализ полным нельзя.

Занимательно, Ламода знает, что у нее все плохо с SEO?)

Что делать: пользуйтесь парсерами (Screaming Frog, Netpeak, Comparser и аналоги) , которые получат исчерпывающие данные обо всех страничках сайта. А выводы на базе этих данных будете делать теснее вы сами или профессионалы.

ТИЦ, PR, Яндекс.Каталог, DMOZ

ТИЦ=0, PR=0, сайт не находится в Яндекс.Каталоге и DMOZ. Таковой вывод на данный момент можнож сделать о любом сайте в вебе, даже не используя анализатор. Поэтому что:

  • ТИЦ – отличен и заменен параметром ИКС;
  • PR – укрыт от юзеров и его невероятно выяснить;
  • Яндекс.Каталог – закрыт;
  • Каталог DMOZ – не обновляется.

Почти все сервисы анализа издавна не обновляются и все еще выдают значения по несуществующим характеристикам.

Маркетплейс Беру не зарегистрирован в DMOZ и Яндекс.Каталоге – не дивно.

Что делать: не обращать внимание.

Скорость загрузки сайта

Некие полезные выводы из анализа всего, что соединено со скоростью загрузки сайта, вправду сделать можнож. К примеру, ежели время ответа сервера обыкновенной HTML-страницы с текстом катастрофически великое (больше 3 секунд) , то на это стоит направить внимание. А ежели у вас страничка со трудным обслуживанием и великим количеством картинок, которые нельзя убрать без утраты свойства странички?Все не так однозначно. Неувязка утежеляется тем, что нередко в анализ вставляются данные прибора Google PageSpeed Insights, который просто может выдать низкую оценку даже страничке, которая загружается чрезвычайно живо. Разберемся по пт.

  1. Google PageSpeed Insights – это не сервис для измерения скорости сайта. Он лишь указывает способности оптимизации скорости загрузки странички. При всем этом может существовать множество характеристик, которые можнож ввести по его советам, но какой в этом смысл, ежели страничка и на данный момент загружается за 100 мс?
  2. Оценка Google PageSpeed Insights не влияет на ранжирование. Это вытекает из первого пт, поэтому что на ранжирование может влиять настоящая скорость загрузки, но не условная оценка оптимизации кода странички. Чтоб в этом убедиться, довольно проверить фаворитов из вашей темы – оценки их страничек могут быть еще ужаснее.

Даже «сильные мира сего» получают нехорошие оценки.

Что делать: оценивать настоящую скорость загрузки сайта, которая влияет на его удобство. К примеру, с поддержкою приборов WebPageTest и GTMetrix.

Анализ ссылочного профиля

Нередко в автоматические аудиты вставляется статистика по динамике ссылочной массы сайта. Такие данные могут быть полезны, но лишь ежели они нередко обновляются и лишь ежели сопоставлять их с соперниками в одном и том же сервисе. Неувязка в том, что полнота базы ссылок сервисов – различная. Скорость обновления данных – различная. Достоверность – постоянно меньше 100%. Ресурсы ограничены, и невероятно иметь данные в настоящем медли обо всех имеющихся сайтах в вебе (а ведь теоретически ссылка на ваш сайт может показаться на любом ресурсе) . Статистику ссылок по собственному проекту идеальнее всего глядеть в кабинетах Яндекс и Google. Даже там данные обновляются не сходу, но желая бы в ресурсах этих компаний и полноте базы страничек колебаться не приходится.

Что делать: применять для анализа соперников приборы с более полной базой данных. На данный момент в порядке убывания это:

  • Ahrefs (платно) ,
  • NeilPatel Backlinks (безвозмездно) ,
  • Serpstat (ограничено безвозмездно) ,
  • Megaindex (ограничено безвозмездно) .

Данные сервиса LinkPad являются менее достоверным и изредка обновляются, но почему-либо непосредственно их нередко употребляют в автоматических аудитах.

Анализ запросов в поисковике и конкурентов

Данные о запросах и соперниках чрезвычайно ценны. Их можнож и необходимо применять при составлении семантического ядра, при поиске соперников, при оценке динамики сайта по конкретным запросам. Но, есть 2 аспекта, которые следует непременно учесть.

  1. Хоть какой сервис содержит данные не обо всех имеющихся запросах. Просто невероятно иметь все данные, потому что по статистике 40% каждодневных запросов неповторимы, они никогда ранее не спрашивались. О какой-нибудь статистике по таковым запросам (ежели они не станут массовыми и неизменными) речи не следует. Таковая неполнота данных приводит к тому, что запросы из тесных тем вообщем могут не находиться в сервисах. И по проектам из таковых тем можнож получить нулевой график (желая в реальности переходы из поисковых систем есть) . Автоматический сервис просто заявит вам, что «все плохо».
  2. Сервисы не классифицируют запросы по нишам. Это приводит к веским искажениям, когда в статистику по вашему сайту попадает «не ваш» запрос. Пример: сайт по ремонту и обслуживанию компрессоров. Он растет и в некий момент даже возникает в ТОП-50 по запросу «компрессоры». Этот ВЧ-запрос сходу же перекладывает картину: по пересечению с сиим запросом в перечне ваших соперников возникают магазины по продаже компрессоров. Их видимость больше (окончательно, ведь они занимаются продажей и интент запроса «компрессоры» больше про продажу, ежели про ремонт) . Ваша удельная видимость по запросам, которые сервис избрал релевантными сайту, падает. Анализатор рапортует, что все плохо, и у вас есть запросы вне ТОП-30.

Что делать: собирать полное релевантное сайту семантическое ядро и отслеживать позиции взыскательно по нему. При необходимости отслеживать и соперников, но лишь вправду пригодных благодаря чему же списку запросов. Да, запросы изменяются, также ядро может не содержать каких-либо НЧ-запросов, но корректный маркерный перечень покажет картину точно лучше, чем анализ по всему обилию не постоянно пригодных сайту запросов.

Выводы

К хоть какой автоматической оценке в SEO стоит подходить с осмотрительностью. Получать информацию из автоматических сервисов можнож и необходимо, но делать выводы на ее базе обязан лишь спец.

Лучшее решение для тех, кто не в состоянии сделать без помощи других выводы о тех или других параметрах – это поглядеть собственных соперников и проверять по сиим же характеристикам. У фаворита вашей темы тоже длиннющий title, нехорошая оценка в PageSpeed Insights, а по анализу запросов он не фаворит совсем?При всем этом вы все также видите своими очами его в ТОП-3 по всем запросам из вашего семантического ядра?Означает причина неудач вашего проекта не в этих параметрах.

Ежели бы существовал таковой сервис, который делает лишь правильные выводы, то на его базе бы теснее сделали автоматический оптимизатор страничек. Все бы сиим воспользовались и все сайты стали бы оптимизированными. Но мест в ТОП-10, как ни дивно, лишь 10, и даже в таком случае без ручной работы профессионала было бы не обойтись?.

Статьи

Добавить комментарий

Нам важно знать ваше мнение. Оставьте свой отзыв или ответ

Комментариев 0

Обновления на форуме