GA в R?
попробуйте поиск по чату :)
Вопрос в чём?
Перед использованием самой функции GoogleanalyticsR, которая выкачивает данные из GA, для авторизации и обновления протухающих токенов сервисного приложения используется функция googleAuthR То есть в коде сначала идут пара строк типа : # обращаемся к json файлу в котором client_id , client_secret, project_id , uri и проч , касающиеся приложения в google cloud googleAuthR::gar_set_client(json = "C:/app.json") ## и обращаемся ко 2му json файлу с private_key сервиного аккаунта в google cloud ga_auth(json_file = "C:/service.json") Эти два json файла лежат на локальном компе или сервере и когда запускаешь код , то сначала функция googleauthR обращается к этим файлам , чтобы рефрешнуть протухшие креды, если они протухли , а потом уже функция googleanalyticsR вытягивает данные... Вопрос такой: Как сделать эту авторизацию и рефреш токенов , так , чтобы она проходила не через обращение к json файлам с ключами на локальном компе , а через обращение к этим же json файлам расположенным например в гугл- диске или еще как-нибудь без участия локального компа ? Дело в том , что я использую скрипт на R как коннектор к GA прямо внутри MS Power BI , чтобы заливать в него датасет из GA и дальше строить павербиаевские дашборды . А сам файл Power BI расположен не на этом же локальном компе , а на неком облачном сервисе и когда в этом сервисе запускается обновление файла Power BI и соответственно запускается скрипт R внутри него , то функция googleauthR , которая хочет рефрешнуть токен , не может достучаться до json файлов с секретами , которые лежат другом на локальном компе ... Поэтому , ищу какой-то другой способ авторизации , чтобы без обращения к json файлам на локальном компе...
Как на облако повесить не скажу. У меня все данные сперва в bigquery ложатся, а уже оттуда тянутся в отчеты на облаке через обычный коннектор.
Да, все говорят про то, что это нормальная схема , когда данные в бигквери ... Но это платная штука... Поэтому приходится костыли придумывать
Вопрос в объеме данных. Тот же bq стоит 0.02$ за GB хранения и 5$ за TB запросов. Есть квота на бесплатный объем каждый месяц. Если данных немного, то можно вообще не выйти за пределы
Ну или воспользоваться Google Sheets как прослойкой. Они бесплатные
данных там 10млн строк всего. гигов на 200. Но их надо выкачать 1 раз, а потом можно инкрементальное обновление по 3-7 дней делать... Там вообще получится по 5 мегабайт... А где почитать как настроить трансляцию в бигквери из GA&
Если речь про Gav4, то в каждой второй статье. Там нативная интеграция Если про UA, то наверное у Марка Эдмондсона или на Нетпике. Я такие задачи делал через виртуальную машину или сторонний сервис типо OWOX
Селезнев тоже про OWOX говорил, но он тоже платный:)) Насчет Марка Эдмондсона, как раз его функцию googleanalyticsR и юзаю .Она и с UI и c GA4 работает...Спасибо спрошу
Мой ответ. Хранить свойства, которые лежат в этом файле в виде системных переменных на сервере, где запускается скрипт. Я их в TeamCity, например, указываю, а локально в Renviron храню.
Обсуждают сегодня