Расчет трафика по небрендовым запросам при поддержки R | SEO кейсы: социалки, реклама, инструкция

Не так давно на SEOnews вышла статья о методе расчета части небрендового трафика из поисковых систем. В комментах я кратко поделился своим методом получения данных, который заинтересовал читателей. Что ж, попробую поведать о нем подробнее.

Чтоб не напрягать себя сбором данных из различных интерфейсов систем аналитики, воспользуемся примечательной R Studio. Для начала короткая справка из Википедии.

R — язык программирования для статистической обработки данных и работы с графикой, также вольная программная среда вычислений с открытым начальным кодом в рамках проекта GNU.

Нам же будет нужно минимум его способностей.

Опустим подробности установки R и приступим к выгрузке данных. Для работы нам пригодятся последующие библиотеки:

Расчет трафика по небрендовым запросам при поддержки R | SEO кейсы: социалки, реклама, инструкция

Загружаем и устанавливаем их один разов. При последующих пусках эта часть скрипта нам не пригодится. RGoogleAnalytics была удалена из CRAN, но есть ее архив, который можнож вручную распаковать в подходящую директорию. Ссылка на библиотеку: https://github.com/Tatvic/RGoogleAnalytics(здесь же можнож будет отыскать всю подходящую документацию по формированию запросов).

Подключаем установленные библиотеки:

Lubridate приобщается автоматом.

Чтоб возникла возможность выгружать из Google Search Console наиболее 5000 рядов, прописываем последующие функции для библиотеки:

Дальше необходимо получить client id и client secret для работы с API Google Analytics. Для этого необходимо зарегистрировать свое прибавление тут.

Запишем даты в переменные, которые будут дальше употребляться во всех запросах к API(формат – YYYY-NN-DD). При следующей работе в идеале необходимо будет задавать лишь их:

Формируем запрос к API Яндекса. По сути, это обыденный GET запрос.

В 36 строке необходимо указать номер счетчика метрики.

В 42 строке – постоянное выражение, исключающее брендовые запросы, где маски разделяются вертикальной чертой. К примеру ‘бренд|brand|брэнд’

В 43 строке необходимо вставить токен. Аннотации по получению токена можнож отыскать тут.

Дальше несколько обычных манипуляций, при поддержки которых мы обрабатываем приобретенные данные по небрендовому трафику Яндекса и сумму записываем в переменную «х».

Часть этих шагов нужна, чтоб была возможность просмотреть промежный итог.

Переходим к выгрузке данных из Google Analytics. Ранее мы теснее берегли токен. Сейчас мы его загружаем и проверяем валидность.

Дальше выстраиваем запрос к API GA для выгрузки органических сессий из Яндекса. В строке 79 прописываем номер счетчика GA, откуда будем выгружать данные.

Делаем запрос к API и записываем данные в датафрейм. Настройка split_daywise = T дозволяет выгружать данные по дням, что исключает семплинг.

Суммируем сессии из Яндекса в переменную «y» и соединяем их с «x» в одном датафрейме.

Переходим к данным из Google Search Console.

Авторизуемся, при поддержки функции scr_auth формируем запрос к API. Для dimensionFilterExp необходимо каждую маску указывать как отдельный фильтр. К примеру: dimensionFilterExp =c( ‘query!~бренд’, ‘query!~brand’, ‘query!~брэнд’). Документацию по формированию таковых запросов можнож отыскать тут.

Суммируем небрендовые запросы Google и записываем их в переменную x_sum.

Подобно органическому трафику из Яндекс выгружаем сессии из Google. Их сумму записываем в переменную y_sum:

Еще несколько обычных событий, в каких мы соединяем все наши данные в одну табличку:

На выходе получаем последующее:

Можнож прямо в R посчитать долю в процентах, но мне необходимы данные в выгрузке конкретно в таком виде.

Дальше прописываем путь к файлу и формируем его заглавие. И, фактически, бережём файл в xlsx.

Главно держать в голове, что этот способ тоже не дает безусловно четкий итог. Данные в том же Google Search Console по кликам довольно ощутимо различаются от данных по трафику google / organic. Скрипт просто дозволяет довольно живо смонтировать данные из различных интерфейсов, обработать их и выдать итог.

Также стоит направить внимание на то, что данные в GSC обновляются с задержкой в 2–3 дня.

Добавить комментарий

Нам важно знать ваше мнение. Оставьте свой отзыв или ответ

Комментариев 0