Test jednostkowy LandingAI
  • 13 Jan 2025
  • 1 Minuta do przeczytania
  • Współtwórcy

Test jednostkowy LandingAI


Streszczenie artykułu

To download the app, visit: Library
:::Użyj LandingLens LandingAI do szybkiego wykrywania obiektów.

Cel

Ten widget umożliwia dostęp do modeli Vision / uczenia maszynowego, które zostały utworzone w LandingLens. Za pomocą tego widżetu możesz zrobić zdjęcie w Tulip i wysłać je do punktu końcowego LandingLens, zwracając liczbę obiektów znalezionych przez model AI.

Konfiguracja

Aby korzystać z tego widżetu, musisz mieć konto na https://landing.ai/{target="_blank"}. Pełna dokumentacja dotycząca działania platformy znajduje się w dokumentacji pomocy technicznej{target="_blank"}.

  1. Utwórz nowy projekt.

image.png

  1. Wybierz projekt wykrywania obiektów.image.png
  2. Prześlij obrazy treningowe, potrzebujesz tylko 10. Następnie oznacz obrazy, identyfikując obiekty.image.png

Po oznaczeniu wystarczającej liczby obrazów będziesz mógł wytrenować model.

  1. Po wytrenowaniu modelu można go wdrożyć i utworzyć punkt końcowy.image.png
  2. Jeśli wybierzesz "API Command", będziesz mógł wyświetlić punkt końcowyimage.png{height="" width=""}.

Skopiuj klucz API i sekret.

Jak to działa

Sama aplikacja i widget są łatwe w użyciu. Widżet ma kilka wstępnie wypełnionych rekwizytów.

image.png

Image - Jest to obraz, który wyślesz do LandingLens z TulipCount - Ta zmienna jest zapisywana przez widget i reprezentuje liczbę obiektów wykrytych przez modelEndpoint - Jest to skopiowane/wklejone z twojego projektuAPIKey & Secret - Są to skopiowane/wklejone z twojego wdrożonego projektu.

Jeśli wszystkie te rekwizyty zostaną wypełnione, widżet wyśle żądanie do API LandingAI i zwróci obraz z zaznaczonymi obiektami

image.png


Czy ten artykuł był pomocny?