Как беречь данные по оптимизации сайта: сводная таблица | SEO кейсы: социалки, реклама, инструкция

В обсуждении с сотрудниками из иных компаний был поднят вопросец, о том, как комфортно беречь данные по оптимизации сайта(семантическое ядро, метатеги, данные по ТЗ и их внедрению и т.п.). Я предложил свое решение данной задачки, которое мне кажется более комфортным для работы и восприятия.

Я именую это решение «Сводная таблица оптимизации сайта» — это хабовая таблица, агрегирующая в себе более главные данные, дотрагивающиеся оптимизации сайта и подсобляющая контролировать его продвижение.

О том, какие данные содержатся в данной таблице, расскажу в данной статье.

1. Инструменты

Сходу проговорюсь, что мы работаем в облаке Google Drive и его прибавлениях. Этому есть несколько обстоятельств:

  1. С проектом работает несколько профессионалов(оптимизатор, проект-менеджер, копирайтеры и т.д.). Работать в облаке веско прытче, чем перекидываться копиями документов по почте.
  2. Время от времени данные могут потребоваться, когда спец физически находится не у рабочего компа, а телефон либо планшет постоянно под рукою.
  3. Возможность легкой передвижения данных меж документами.

У нас есть стандартизированная структура, как беречь данные по проектам в Google Drive, чтоб можнож было брать подходящую информацию, не отвлекая иных от работы.

Структура смотрится последующим образом:

  • У каждого профессионала есть папка «Проекты».
  • Для каждого проекта заводится своя папка с подходящим заглавием.
  • Снутри папки проекта есть несколько обычных подпапок и неповторимые папки под потребности проекта.

Рис. 1 Структура папки проекта

2. Структура таблицы

Мы сочиняем сводную таблицу сначала работы над проектом и дополняем ее в протяжении всей работы.

Обычные столбцы, используемые в таблице:

  • URL — адреса страничек. Данные из столбца также могут употребляться в качестве якоря для функций(ВПР, СУММЕСЛИ и т.п.);
  • Структура — место странички в структуре сайта. Аналог классических хлебных крошек;
  • Тип — к какому типу относится страничка. Необыкновенно актуально для интернет-магазинов, в каких мы выделяем такие типы, как «Каталог», «Тег», «Фильтр», «Карточка», «Информационная» и «Вспомогательная»;
  • H1 — h1 заголовок странички;
  • Title — title странички;
  • H2 — перечень заголовков h2 для странички;
  • Текст — пометка о статусе текста на страничке в формате «Есть», «Нет», «ТЗ»;
  • Месяц — когда в заключительный разов производились(в)работы либо планируются проводиться(п)работы над страничкой, в формате “ММ.ГГГГ”
  • Семантическое ядро — в столбце выкладывается ссылка на файл, в каком содержится семантическое ядро для подходящего раздела.

Не считая обрисованных столбцов, в зависимости от задачки, таблица дополняется и иными данными, к примеру:

  • Запрос — главной запрос для странички;
  • Группа столбцов по частотностям запроса — в зависимости от сайта, могут содержаться как классические частотности(Ч, “Ч”, “!Ч”, “[!Ч]”), так и с наложением коэффициента по поисковым системам;
  • Группа столбцов сезонности за заключительные 12–24 месяца;
  • И иные.

С шаблоном таблицы вы сможете ознакомиться по ссылке.

3. Наполнение первичных данных



Заполнить таблицу первичными данными можнож и руками.

Но данный метод не постоянно лучший, потому мы в собственной работе используем Screaming Frog SEO Spider.

Я буду демонстрировать пример работы, основываясь на содействии с данным прибором.

3.1. Парсим данные с сайта

Перед началом парсинга отключаем все напрасные функции, которые нам не пригодятся(Configuration — Spider):

  • Проверку изображений;
  • Проверку ресурсов(js, css и swf);
  • Проверку наружных исходящих ссылок.

Рис. 2 Настройка Screaming Frog

Дальше копируем XPath корневого блока хлебных крошек на сайте, ежели они там есть.

Для этого:

  1. Раскрываем внутреннюю страничку, на которой есть хлебные крошки в Google Chrome.
  2. Раскрываем консоль(Ctrl + Shift + i).
  3. Выделяем инспектором корневой блок хлебных крошек.
  4. В контекстном меню избираем Copy XPath.

Рис. 3 Копирование XPath

  1. В Screaming Frog переходим в Configuration — Custom — Extraction.
  2. В открывшемся окне:
  • Избираем XPath
  • Вставляем скопированный путь
  • Extract Text.

Рис. 4 Extraction в SCSS

И парсим сайт.

3.2. Сведение данных

Опосля того как сайт спарсится, выгружаем отчеты:

  • Информация по HTML(Internal — HTML);
  • Хлебные крошки(Custom — Exctraction).

И переносим данные отчета в сводную таблицу.

Чтоб не перепутались данные и колонки не «поехали», можнож пользоваться функцией ВПР.

Нас интересуют:

  • Url
  • H1
  • Title
  • Хлебные крошки

Рис. 5 Заполненная первичными данными таблица

Пример таблицы, заполненной первичными данными по ссылке, на вкладке «Пример».

Метод последующей работы вполне зависит от типа проекта, цели продвижения и выбранной стратегии.

Заключение



Опосля внедрения данного прибора в свою работу мы решили почти все задачки, которые остро стоят перед каждым профессионалом(все метатеги в одном месте, контроль исполнения задач и т.п.).

Полагаюсь, вам сходственная сводная таблица тоже будет полезна.

Ежели у вас есть вопросцы, готов их обсудить. 

Добавить комментарий

Нам важно знать ваше мнение. Оставьте свой отзыв или ответ

Комментариев 0

Обновления на форуме