Integración de Snowflake con Fabric - Fetch Tulip Tables to Snowflake
  • 07 Jun 2024
  • 2 Minutos para leer
  • Colaboradores

Integración de Snowflake con Fabric - Fetch Tulip Tables to Snowflake


Resumen del artículo

Agilice la obtención de datos de Tulip a Snowflake para ampliar las oportunidades de análisis e integración.

Propósito

Esta guía explica paso a paso cómo obtener datos de las tablas de Tulip en Snowflake a través de Microsoft Fabric (Azure Data Factory).

A continuación se muestra una arquitectura de alto nivel:image

Es fundamental tener en cuenta que Microsoft se puede utilizar como una tubería de datos para sincronizar los datos de Tulip a otras fuentes de datos - Incluso las fuentes de datos que no son de Microsoft.

Contexto de Microsoft Fabric

Microsoft Fabric incluye todas las herramientas relevantes para la ingestión, almacenamiento, análisis y visualización de datos de extremo a extremo.Microsoft Fabric

Los servicios específicos se resumen a continuación:* Data Factory - ingiere, copia o extrae datos de otros sistemas * Data Engineering - transforma y manipula datos * Data Warehouse - almacena datos en un almacén de datos SQL * Data Science - Analiza datos con cuadernos alojados * Real Time Analytics - Utiliza herramientas de análisis y visualización en tiempo real bajo un único marco de Fabric * PowerBI - Habilita la visión empresarial con PowerBI para inteligencia de negocio.

Consulte este enlace para obtener más información sobre Microsoft Fabric

Sin embargo, también se pueden utilizar capacidades específicas junto con otras nubes de datos. Por ejemplo, Microsoft Data Factory puede trabajar con los siguientes almacenes de datos ajenos a Microsoft: * Google BigQuery * Snowflake * MongoDB * AWS S3

Consulte este enlace para obtener más contexto

Creación de valor

Esta guía presenta una forma sencilla de obtener datos por lotes de Tulip en Snowflake para un análisis más amplio de toda la empresa. Si está utilizando Snowflake para almacenar otros datos de la empresa, esta puede ser una gran manera de contextualizar con los datos de la planta para tomar mejores decisiones basadas en datos.

Instrucciones de configuración

Cree una canalización de datos en Data Factory (In Fabric) y convierta la fuente en REST y el sumidero en Snowflake

Configuración de la fuente:

  1. En la página de inicio de Fabric, vaya a Data Factory
  2. Cree una nueva canalización de datos en Data Factory
  3. Comience con el "Copy Data Assistant" para agilizar el proceso de creación
  4. Detalles del Asistente de Copia de Datos:
    1. Fuente de datos: REST
    2. URL base: https://[instance].tulip.co/api/v3
    3. Tipo de autenticación: Básica
    4. Nombre de usuario: API Key de Tulip
    5. Contraseña: API Secret de Tulip
    6. URL relativa: tables/[TABLE_UNIQUE_ID]/records?limit=100&offset={offset}
    7. Petición: GET
    8. Nombre de la opción de paginación: QueryParameters.{offset}
    9. Pagination Option Value: RANGE:0:10000:100
  5. Nota: El límite puede ser inferior a 100 si es necesario, pero el incremento en la paginación debe coincidir.
  6. Nota: el valor de paginación para el rango debe ser mayor que el número de registros de la tabla.

Config:

Snowflake - Fabric Auth

Actualice la configuración de Snowflake OAuth2.0 con el formulario anterior. A continuación, configure los desencadenantes para que estén en una acción relevante, manual o temporizador.

Siguientes pasos

Una vez hecho esto, explorar características adicionales, tales como la limpieza de datos dentro de la tela utilizando los flujos de datos. Esto puede reducir los errores de datos antes de cargarlos en otras ubicaciones como Snowflake.


¿Te ha sido útil este artículo?