- Impression
Rationaliser l'envoi de données de Tulip vers Microsoft Fabric pour élargir les possibilités d'analyse
Objectif
Ce guide explique étape par étape comment envoyer les données des tables Tulip vers Fabric via une requête API REST paginée. Ceci est utile pour analyser les données des tables Tulip dans un Azure Data Lakehouse, Synapse Data Warehouse ou tout autre emplacement de stockage de données Azure.
L'architecture générale de Fabric -- Microsoft Cloud for Manufacturing est présentée ci-dessous.
Configuration
La vidéo d'installation détaillée est intégrée ci-dessous :
Exigences générales : * Utilisation de l'API Tulip Tables (Obtenir la clé API et le secret dans les paramètres du compte) * Tulip Table (Obtenir l'ID unique de la table) * Utilisation de l'API Tulip Tables (Obtenir l'ID unique de la table)
Processus : 1. Sur la page d'accueil de Fabric, allez à Data Factory 2. Créer un nouveau Data Pipeline sur Data Factory 3. Commencez par l'assistant de copie de données pour rationaliser le processus de création 4. Copy Data Assistant Details : 1. Source de données : REST 2. URL de base : https://[instance].tulip.co/api/v3 3. Type d'authentification : Basique 4. Nom d'utilisateur : Clé API de Tulip 5. Mot de passe : API Secret de Tulip 6. URL relative : tables/[TABLE_UNIQUE_ID]/records?limit=100&offset={offset} 7. Request : GET 8. Nom de l'option de pagination : QueryParameters.{offset} 9. Valeur de l'option de pagination : RANGE:0:10000:100
Remarque : lalimite peut être inférieure à 100 si nécessaire, mais l'incrément dans la pagination doit correspondre**Remarque : la valeur de la pagination pour l'intervalle doit être supérieure au nombre d'enregistrements dans la table
- Vous pouvez ensuite envoyer ces données vers diverses destinations de données, telles que Azure Lakehouse.
- Connectez-vous à la destination des données, vérifiez les champs / renommez-les si nécessaire, et le tour est joué !
Exemple d'architecture
Cas d'utilisation et prochaines étapes
Une fois la connexion finalisée, vous pouvez facilement analyser les données à l'aide d'un spark notebook, de PowerBI ou d'une variété d'autres outils.
1. Prédiction desdéfauts - Identifier les défauts de production avant qu'ils ne se produisent et augmenter la qualité dès la première fois - Identifier les principaux facteurs de production de la qualité afin de mettre en œuvre des améliorations
2. Optimisation du coût de la qualité- Identifier les opportunités d'optimisation de la conception des produits sans impact sur la satisfaction des clients.
3. Optimisation de l'énergie de production- Identifier les leviers de production pour optimiser la consommation d'énergie
4. Prévision et optimisation des livraisons et de la planification- Optimiser le calendrier de production en fonction de la demande des clients et du calendrier des commandes en temps réel.
5. Benchmarking global des machines / lignes- Benchmarker des machines ou équipements similaires avec normalisation.
6. Gestion de la performance numérique globale / régionaleDonnées consolidées pour créer des tableaux de bord en temps réel