Test unitario LandingAI
  • 13 May 2024
  • 1 Minuto da leggere
  • Contributori

Test unitario LandingAI


Sommario dell'articolo

::: (info) () Per scaricare l'applicazione, visitare: Library:::Utilizzare LandingLens di LandingAI per eseguire il rilevamento rapido degli oggetti.

Scopo

Questo widget consente di accedere ai modelli di visione/apprendimento automatico creati all'interno di LandingLens. Con questo widget, è possibile scattare una foto in Tulip e inviarla all'endpoint di LandingLens, restituendo un conteggio degli oggetti trovati dal modello AI.

Impostazione

Per utilizzare questo widget è necessario avere un account con https://landing.ai/{target="_blank"}. Per una documentazione completa sul funzionamento della piattaforma, consultare il sito web support documentation

  1. Creare un nuovo progetto.

image.png

  1. Selezionare un progetto di rilevamento di oggetti.image.png
  2. Caricare le immagini di addestramento, ne servono solo 10. Quindi etichettare le immagini identificando gli oggetti.image.png

Una volta etichettate un numero sufficiente di immagini, sarà possibile addestrare il modello.

  1. Dopo aver addestrato il modello, è possibile distribuirlo e creare un endpoint.image.png
  2. Selezionando "Comando API", si potrà visualizzare l'endpoint.image.png

Copiare la chiave e il segreto API.

Come funziona

L'applicazione e il widget sono facili da usare. Il widget ha alcuni oggetti di scena precompilati.

image.png

Image - È l'immagine che invierete a LandingLens da TulipCount - Questa variabile viene scritta dal widget e rappresenta il numero di oggetti rilevati dal modelloEndpoint - Viene copiato/incollato dal vostro progettoAPI Key e Secret - Vengono copiati/incollati dal vostro progetto distribuito.

Se tutti questi oggetti sono stati compilati, il widget invierà una richiesta all'API di LandingAI e restituirà un'immagine con gli oggetti evidenziati.

image.png


Questo articolo è stato utile?