Интеграция Snowflake с Fabric - получение таблиц Tulip в Snowflake
  • 07 Jun 2024
  • 2 Минуты для чтения
  • Авторы

Интеграция Snowflake с Fabric - получение таблиц Tulip в Snowflake


Вводный текст

Упорядочить получение данных из Tulip в Snowflake для расширения возможностей аналитики и интеграции.

Цель

В этом руководстве пошагово описано, как получать данные из таблиц Tulip в Snowflake с помощью Microsoft Fabric (Azure Data Factory).

Ниже приведена высокоуровневая архитектура:image

Важно отметить, что Microsoft Fabric можно использовать в качестве конвейера данных для синхронизации данных из Tulip с другими источниками данных - даже не из Microsoft.

Контекст Microsoft Fabric

Microsoft Fabric включает в себя все необходимые инструменты для сквозного получения, хранения, анализа и визуализации данных.Microsoft Fabric

Ниже приведена краткая информация о конкретных услугах:* Фабрика данных - получение, копирование или извлечение данных из других систем * Data Engineering - преобразование и манипулирование данными * Хранилище данных - хранение данных в SQL Data Warehouse * Data Science - анализ данных с помощью размещенных блокнотов * Аналитика в реальном времени - использование потоковой аналитики и средств визуализации в рамках единой структуры Fabric * PowerBI - использование PowerBI для бизнес-аналитики.

Дополнительную информацию о Microsoft Fabric можно найти по этой ссылке.

Однако определенные возможности можно использовать и в сочетании с другими облаками данных. Например, Microsoft Data Factory может работать со следующими хранилищами данных, не принадлежащими Microsoft: * Google BigQuery * Snowflake * MongoDB * AWS S3

Ознакомьтесь с этой ссылкой для получения дополнительной информации

Создание ценности

В этом руководстве представлен простой способ пакетной выборки данных из Tulip в Snowflake для более широкой аналитики в масштабах предприятия. Если вы используете Snowflake для хранения других корпоративных данных, это может стать отличным способом контекстуализировать их с данными из цеха для принятия более эффективных решений на основе данных.

Инструкции по настройке

Создайте конвейер данных на Data Factory (в Fabric) и сделайте источник REST, а сток Snowflake

Настройка источника:

  1. На главной странице Fabric перейдите к Data Factory
  2. Создайте новый конвейер данных на Data Factory
  3. Начните с "Copy Data Assistant", чтобы упростить процесс создания.
  4. Copy Data Assistant Details:
    1. Источник данных: REST
    2. Базовый URL: https://[instance].tulip.co/api/v3
    3. Тип аутентификации: Базовая
    4. Имя пользователя: API-ключ от Tulip
    5. Пароль: Секрет API от Tulip
    6. Относительный URL: tables/[TABLE_UNIQUE_ID]/records?limit=100&offset={offset}
    7. Запрос: GET
    8. Имя опции пагинации: QueryParameters.{offset}
    9. Pagination Option Value: ДИАПАЗОН:0:10000:100
  5. Примечание: при необходимости предел может быть меньше 100, но инкремент в пагинации должен совпадать.
  6. Примечание: значение пагинации для диапазона должно быть больше, чем количество записей в таблице.

Настройка стока (назначения):

Snowflake - Fabric Auth

Обновите настройки Snowflake OAuth2.0 с помощью формы выше. Затем настройте триггеры на соответствующее действие, вручную или по таймеру.

Следующие шаги

Как только это будет сделано, изучите дополнительные возможности, такие как очистка данных внутри fabric с помощью потоков данных. Это поможет уменьшить количество ошибок в данных перед их загрузкой в другие места, например в Snowflake.


Была ли эта статья полезной?