MENU
    LandingAIユニットテスト
    • 13 Jan 2025
    • 1 読む分
    • 寄稿者

    LandingAIユニットテスト


    記事の要約

    To download the app, visit: Library
    :::LandingAIのLandingLensを使用して、迅速な物体検出を行います。

    目的

    このウィジェットを使用すると、LandingLens内で作成したビジョン/機械学習モデルにアクセスできます。 このウィジェットを使えば、Tulipで写真を撮ってLandingLensのエンドポイントに送信し、AIモデルが見つけたオブジェクトの数を返すことができます。

    セットアップ

    このウィジェットを使用するには、https://landing.ai/{target="_blank"}のアカウントが必要です。 プラットフォームがどのように機能するかについての完全なドキュメントは、サポートドキュメント{target="_blank"}を参照してください。

    1. 新しいプロジェクトを作成する。

    image.png{高さ="" 幅=""}。

    1. image.png{height="" width=""} オブジェクト検出プロジェクトを選択します。
    2. トレーニング画像をアップロードします。 image.png {height="" width=""} 画像にラベルを付けます。

    十分な画像がラベル付けされたら、モデルをトレーニングすることができます。

    1. image.png{height="" width=""}。
    2. API Command "を選択すると、エンドポイントが表示されるimage.png{height="" width=""}。

    APIキーとシークレットをコピーする。

    どのように動作するか

    アプリケーションとウィジェット自体の使い方は簡単です。ウィジェットには、いくつかの小道具があらかじめ用意されています。

    image.png{高さ="" 幅=""}

    Image- これはTulipCountから LandingLens に送信される画像です - この変数はウィジェットによって書き込まれ、モデルによって検出されたオブジェクトの数を表しますEndpoint- これはプロジェクトからコピー/ペーストされますAPIKey & Secret- これらはデプロイされたプロジェクトからコピー/ペーストされます

    これらのプロップがすべて入力されると、ウィジェットはLandingAIのAPIにリクエストを送信し、オブジェクトがハイライトされた画像を返します。

    image.png{高さ="" 幅=""}


    この記事は役に立ちましたか?