Snowflake Integration mit Fabric - Tulip-Tabellen in Snowflake holen
  • 07 Jun 2024
  • 2 Minuten zu lesen
  • Mitwirkende

Snowflake Integration mit Fabric - Tulip-Tabellen in Snowflake holen


Artikel-Zusammenfassung

Rationalisierung des Datenabrufs von Tulip zu Snowflake für umfassendere Analysen und Integrationsmöglichkeiten

Zweck

Dieser Leitfaden zeigt Schritt für Schritt, wie man Daten aus Tulip-Tabellen über Microsoft Fabric (Azure Data Factory) in Snowflake abruft.

Eine Übersicht über die Architektur ist unten aufgeführt:image

Es ist wichtig zu beachten, dass Microsoft als Datenpipeline verwendet werden kann, um Daten aus Tulip mit anderen Datenquellen zu synchronisieren - auch mit Nicht-Microsoft-Datenquellen.

Microsoft Fabric-Kontext

Microsoft Fabric umfasst alle relevanten Tools für die End-to-End-Datenaufnahme, Speicherung, Analyse und Visualisierung.Microsoft Fabric

Spezifische Dienste sind im Folgenden zusammengefasst:* Data Factory - Daten aus anderen Systemen aufnehmen, kopieren oder extrahieren * Data Engineering - Daten transformieren und manipulieren * Data Warehouse - Daten in einem SQL Data Warehouse speichern * Data Science - Daten mit gehosteten Notebooks analysieren * Real Time Analytics - Streaming-Analysen und Visualisierungstools unter einem einzigen Rahmen von Fabric nutzen * PowerBI - Unternehmenseinblicke mit PowerBI für Business Intelligence ermöglichen

Unter diesem Link finden Sie weitere Informationen zu Microsoft Fabric

Bestimmte Funktionen können jedoch auch in Verbindung mit anderen Data Clouds genutzt werden. So kann Microsoft Data Factory beispielsweise mit den folgenden Nicht-Microsoft-Datenspeichern arbeiten: * Google BigQuery * Snowflake * MongoDB * AWS S3

Unter diesem Link finden Sie weitere Informationen

Wertschöpfung

Dieser Leitfaden stellt eine einfache Möglichkeit vor, Daten von Tulip in Snowflake für unternehmensweite Analysen im Stapelverfahren abzurufen. Wenn Sie Snowflake verwenden, um andere Unternehmensdaten zu speichern, kann dies eine großartige Möglichkeit sein, diese mit Daten aus dem Betrieb zu kontextualisieren, um bessere datengesteuerte Entscheidungen zu treffen.

Anweisungen zur Einrichtung

Erstellen Sie eine Datenpipeline auf Data Factory (In Fabric) und machen Sie die Quelle zu REST und die Senke zu Snowflake

Quellkonfiguration:

  1. Gehen Sie auf der Fabric-Startseite zu Data Factory
  2. Erstellen Sie eine neue Datenpipeline in Data Factory
  3. Beginnen Sie mit dem "Copy Data Assistant", um den Erstellungsprozess zu rationalisieren
  4. Details zum Assistenten zum Kopieren von Daten:
    1. Datenquelle: REST
    2. Basis-URL: https://[instance].tulip.co/api/v3
    3. Authentifizierungstyp: Grundlegend
    4. Benutzername: API-Schlüssel von Tulip
    5. Passwort: API-Geheimnis von Tulip
    6. Relative URL: tables/[TABLE_UNIQUE_ID]/records?limit=100&offset={offset}
    7. Anfrage: GET
    8. Name der Paginierungsoption: AbfrageParameter.{Offset}
    9. Paginierung Option Wert: BEREICH:0:10000:100
  5. Hinweis: Die Grenze kann bei Bedarf niedriger als 100 sein, aber die Schrittweite in der Paginierung muss übereinstimmen.
  6. Hinweis: Der Paginierungswert für den Bereich muss größer sein als die Anzahl der Datensätze in der Tabelle.

Sink (Ziel)-Konfiguration:

Snowflake - Fabric Auth

Aktualisieren Sie die Snowflake OAuth2.0-Einstellungen mit dem obigen Formular. Konfigurieren Sie dann die Auslöser so, dass sie auf eine relevante Aktion, manuell oder zeitgesteuert reagieren.

Nächste Schritte

Sobald dies erledigt ist, sollten Sie weitere Funktionen wie die Datenbereinigung innerhalb von Fabric mithilfe von Datenflüssen untersuchen. Dadurch können Datenfehler reduziert werden, bevor sie an anderer Stelle, z. B. in Snowflake, geladen werden.


War dieser Artikel hilfreich?