LandingAIユニットテスト
  • 13 May 2024
  • 1 読む分
  • 寄稿者

LandingAIユニットテスト


記事の要約

::: (info) () アプリのダウンロードはこちら:ライブラリ:::LandingAIのLandingLensを使用して、迅速な物体検出を実行します。

目的

このウィジェットを使用すると、LandingLens内で作成したビジョン/機械学習モデルにアクセスできます。 このウィジェットを使用すると、Tulipで写真を撮影し、それをLandingLensのエンドポイントに送信して、AIモデルによって検出されたオブジェクトのカウントを返すことができます。

セットアップ

このウィジェットを使用するには、以下のアカウントが必要です。 https://landing.ai/{target="_blank"}. プラットフォームがどのように動作するかについての完全なドキュメントは、.LandingLensのサイトを参照してください。 support documentation

  1. 新しいプロジェクトを作成する。

image.png

  1. オブジェクト検出プロジェクトを選択します。image.png
  2. トレーニング画像をアップロードします。 そして、画像にオブジェクトを識別するラベルをつけます。image.png

十分な画像がラベル付けされたら、モデルをトレーニングすることができます。

  1. モデルをトレーニングしたら、デプロイしてエンドポイントを作成します。image.png
  2. API Command "を選択すると、エンドポイントが表示される。image.png

APIキーとシークレットをコピーする。

どのように動作するか

アプリケーションとウィジェット自体の使い方は簡単です。ウィジェットには、いくつかの小道具があらかじめ用意されています。

image.png

Image- Tulip から LandingLens に送信する画像ですCount- この変数はウィジェットによって書き込まれ、モデルによって検出されたオブジェクトの数を表しますEndpoint- プロジェクトからコピー/ペーストされたものですAPI Key & Secret- デプロイされたプロジェクトからコピー/ペーストされたものです。

これらのプロップがすべて入力されると、ウィジェットは LandingAI の API にリクエストを送信し、オブジェクトがハイライトされた画像を返します。

image.png


この記事は役に立ちましたか?