LandingAIユニットテスト
  • 13 Jan 2025
  • 1 読む分
  • 寄稿者

LandingAIユニットテスト


記事の要約

To download the app, visit: Library
:::LandingAIのLandingLensを使用して、迅速な物体検出を行います。

目的

このウィジェットを使用すると、LandingLens内で作成したビジョン/機械学習モデルにアクセスできます。 このウィジェットを使えば、Tulipで写真を撮ってLandingLensのエンドポイントに送信し、AIモデルが見つけたオブジェクトの数を返すことができます。

セットアップ

このウィジェットを使用するには、https://landing.ai/{target="_blank"}のアカウントが必要です。 プラットフォームがどのように機能するかについての完全なドキュメントは、サポートドキュメント{target="_blank"}を参照してください。

  1. 新しいプロジェクトを作成する。

image.png{高さ="" 幅=""}。

  1. image.png{height="" width=""} オブジェクト検出プロジェクトを選択します。
  2. トレーニング画像をアップロードします。 image.png {height="" width=""} 画像にラベルを付けます。

十分な画像がラベル付けされたら、モデルをトレーニングすることができます。

  1. image.png{height="" width=""}。
  2. API Command "を選択すると、エンドポイントが表示されるimage.png{height="" width=""}。

APIキーとシークレットをコピーする。

どのように動作するか

アプリケーションとウィジェット自体の使い方は簡単です。ウィジェットには、いくつかの小道具があらかじめ用意されています。

image.png{高さ="" 幅=""}

Image- これはTulipCountから LandingLens に送信される画像です - この変数はウィジェットによって書き込まれ、モデルによって検出されたオブジェクトの数を表しますEndpoint- これはプロジェクトからコピー/ペーストされますAPIKey & Secret- これらはデプロイされたプロジェクトからコピー/ペーストされます

これらのプロップがすべて入力されると、ウィジェットはLandingAIのAPIにリクエストを送信し、オブジェクトがハイライトされた画像を返します。

image.png{高さ="" 幅=""}


この記事は役に立ちましたか?