Test jednostkowy LandingAI
  • 13 May 2024
  • 1 Minuta do przeczytania
  • Współtwórcy

Test jednostkowy LandingAI


Streszczenie artykułu

::: (info) () Aby pobrać aplikację, odwiedź: Library:::Użyj LandingLens firmy LandingAI do szybkiego wykrywania obiektów.

Cel

Ten widget umożliwia dostęp do modeli Vision / uczenia maszynowego, które zostały utworzone w LandingLens. Za pomocą tego widżetu możesz zrobić zdjęcie w Tulip i wysłać je do punktu końcowego LandingLens, zwracając liczbę obiektów znalezionych przez model AI.

Konfiguracja

Aby korzystać z tego widżetu, będziesz potrzebować konta w https://landing.ai/{target="_blank"}. Pełna dokumentacja dotycząca działania platformy znajduje się na stronie support documentation

  1. Utwórz nowy projekt.

image.png

  1. Wybierz projekt wykrywania obiektów.image.png
  2. Prześlij obrazy treningowe, potrzebujesz tylko 10. Następnie oznacz obrazy, identyfikując obiekty.image.png

Po oznaczeniu wystarczającej liczby obrazów będziesz mógł trenować model.

  1. Po wytrenowaniu modelu możesz go wdrożyć i utworzyć punkt końcowy.image.png
  2. Jeśli wybierzesz "API Command", będziesz mógł wyświetlić punkt końcowyimage.png

Skopiuj klucz API i sekret.

Jak to działa

Sama aplikacja i widget są łatwe w użyciu. Widżet ma kilka wstępnie wypełnionych rekwizytów.

image.png

Image - Jest to obraz, który wyślesz do LandingLens z TulipCount - Ta zmienna jest zapisywana przez widget i reprezentuje liczbę obiektów wykrytych przez modelEndpoint - Jest to skopiowane/wklejone z twojego projektu APIKey & Secret - Są to skopiowane/wklejone z twojego wdrożonego projektu.

Jeśli wszystkie te rekwizyty zostaną wypełnione, widżet wyśle żądanie do API LandingAI i zwróci obraz z podświetlonymi obiektami.

image.png


Czy ten artykuł był pomocny?