Integração do Snowflake com o Fabric - Obter tabelas do Tulip para o Snowflake
  • 07 Jun 2024
  • 2 Minutos para Ler
  • Contribuintes

Integração do Snowflake com o Fabric - Obter tabelas do Tulip para o Snowflake


Resumo do artigo

Simplifique a obtenção de dados do Tulip para o Snowflake para oportunidades mais amplas de análise e integração

Objetivo

Este guia explica passo a passo como buscar dados das tabelas do Tulip para o Snowflake por meio do Microsoft Fabric (Azure Data Factory).

Uma arquitetura de alto nível está listada abaixo:image

É importante observar que a Microsoft pode ser usada como um pipeline de dados para sincronizar dados do Tulip com outras fontes de dados, inclusive fontes de dados que não sejam da Microsoft.

Contexto do Microsoft Fabric

O Microsoft Fabric inclui todas as ferramentas relevantes para ingestão, armazenamento, análise e visualização de dados de ponta a ponta.Microsoft Fabric

Os serviços específicos estão resumidos a seguir:* Data Factory - ingestão, cópia ou extração de dados de outros sistemas * Data Engineering - transformação e manipulação de dados * Data Warehouse - armazenamento de dados em um SQL Data Warehouse * Data Science - análise de dados com notebooks hospedados * Real Time Analytics - uso de ferramentas de visualização e análise de streaming em uma única estrutura do Fabric * PowerBI - viabilização de insights empresariais com o PowerBI para business intelligence

Confira este link para obter mais informações sobre o Microsoft Fabric

No entanto, recursos específicos também podem ser usados em conjunto com outras nuvens de dados. Por exemplo, o Microsoft Data Factory pode trabalhar com os seguintes armazenamentos de dados que não são da Microsoft: * Google BigQuery * Snowflake * MongoDB * AWS S3

Confira este link para obter mais contexto

Criação de valor

Este guia apresenta uma maneira simples de buscar dados em lote do Tulip para o Snowflake para uma análise mais ampla em toda a empresa. Se você estiver usando o Snowflake para armazenar outros dados corporativos, essa pode ser uma ótima maneira de contextualizá-los com dados do chão de fábrica para tomar melhores decisões baseadas em dados.

Instruções de configuração

Crie um pipeline de dados no Data Factory (In Fabric) e torne a fonte REST e o coletor Snowflake

Configuração da fonte:

  1. Na página inicial do Fabric, vá para Data Factory
  2. Crie um novo pipeline de dados no Data Factory
  3. Comece com o "Copy Data Assistant" para agilizar o processo de criação
  4. Detalhes do Assistente de cópia de dados:
    1. Fonte de dados: REST
    2. URL de base: https://[instance].tulip.co/api/v3
    3. Tipo de autenticação: Básico
    4. Nome de usuário: Chave de API da Tulip
    5. Senha: segredo da API da Tulip
    6. URL relativo: tables/[TABLE_UNIQUE_ID]/records?limit=100&offset={offset}
    7. Solicitação: GET
    8. Nome da opção de paginação: QueryParameters.{offset}
    9. Valor da opção de paginação: RANGE:0:10000:100
  5. Observação: o limite pode ser menor que 100, se necessário, mas o incremento na paginação precisa corresponder
  6. Observação: o valor de paginação para o intervalo precisa ser maior do que o número de registros na tabela.

Configuração do Sink (destino):

Snowflake - Fabric Auth

Atualize as configurações do Snowflake OAuth2.0 com o formulário acima. Em seguida, configure os acionadores para que estejam em uma ação relevante, manual ou temporizador.

Próximas etapas

Depois de fazer isso, explore recursos adicionais, como a limpeza de dados dentro da malha usando fluxos de dados. Isso pode reduzir os erros de dados antes de carregá-los em outros locais, como o Snowflake


Este artigo foi útil?