MENU
    Test jednostkowy LandingAI
    • 13 Jan 2025
    • 1 Minuta do przeczytania
    • Współtwórcy

    Test jednostkowy LandingAI


    Streszczenie artykułu

    To download the app, visit: Library
    :::Użyj LandingLens LandingAI do szybkiego wykrywania obiektów.

    Cel

    Ten widget umożliwia dostęp do modeli Vision / uczenia maszynowego, które zostały utworzone w LandingLens. Za pomocą tego widżetu możesz zrobić zdjęcie w Tulip i wysłać je do punktu końcowego LandingLens, zwracając liczbę obiektów znalezionych przez model AI.

    Konfiguracja

    Aby korzystać z tego widżetu, musisz mieć konto na https://landing.ai/{target="_blank"}. Pełna dokumentacja dotycząca działania platformy znajduje się w dokumentacji pomocy technicznej{target="_blank"}.

    1. Utwórz nowy projekt.

    image.png

    1. Wybierz projekt wykrywania obiektów.image.png
    2. Prześlij obrazy treningowe, potrzebujesz tylko 10. Następnie oznacz obrazy, identyfikując obiekty.image.png

    Po oznaczeniu wystarczającej liczby obrazów będziesz mógł wytrenować model.

    1. Po wytrenowaniu modelu można go wdrożyć i utworzyć punkt końcowy.image.png
    2. Jeśli wybierzesz "API Command", będziesz mógł wyświetlić punkt końcowyimage.png{height="" width=""}.

    Skopiuj klucz API i sekret.

    Jak to działa

    Sama aplikacja i widget są łatwe w użyciu. Widżet ma kilka wstępnie wypełnionych rekwizytów.

    image.png

    Image - Jest to obraz, który wyślesz do LandingLens z TulipCount - Ta zmienna jest zapisywana przez widget i reprezentuje liczbę obiektów wykrytych przez modelEndpoint - Jest to skopiowane/wklejone z twojego projektuAPIKey & Secret - Są to skopiowane/wklejone z twojego wdrożonego projektu.

    Jeśli wszystkie te rekwizyty zostaną wypełnione, widżet wyśle żądanie do API LandingAI i zwróci obraz z zaznaczonymi obiektami

    image.png


    Czy ten artykuł był pomocny?