AI Prompt Action

Prev Next

AI Prompt Action

Akcja AI Prompt pozwala wykorzystać duże modele językowe (LLM) bezpośrednio w automatyzacjach Tulip. Akcja ta zapewnia elastyczny sposób przetwarzania tekstu, analizowania danych i generowania inteligentnych odpowiedzi w oparciu o niestandardowe podpowiedzi zdefiniowane przez użytkownika.

Jak to działa

Akcja AI Prompt jest prosta: pobiera wiadomość wejściową i wysyła ją bezpośrednio do dużego modelu językowego, a następnie zwraca odpowiedź wygenerowaną przez sztuczną inteligencję. Możesz użyć tej akcji do wykonywania różnych zadań przetwarzania tekstu, od prostej kategoryzacji po złożoną analizę i podsumowanie.

Konfiguracja

Komunikat wejściowy

Wiadomość wejściowa to monit, który zostanie wysłany bezpośrednio do dużego modelu językowego. Powinien on zawierać:- Jasne instrukcje dotyczące tego, co ma zrobić sztuczna inteligencja- Wszelkie dane lub kontekst, które sztuczna inteligencja musi przetworzyć- Określone wymagania dotyczące formatowania danych wyjściowych.

Praca z obiektami

Wysyłając obiekty lub listy obiektów do akcji AI Prompt Action, należy zawinąć je w TOTEXT() expression, aby sztuczna inteligencja mogła prawidłowo odczytać zawartość.

Przykład:"Przeanalizuj dane defektu:" + TOTEXT(@variable.my_object)

Pisanie skutecznych podpowiedzi

Bądź jasny i konkretny

Pisz podpowiedzi, które jasno wyjaśniają, co ma zrobić sztuczna inteligencja. Unikaj dwuznacznego języka i podawaj konkretne instrukcje.

Dobrze: "Skategoryzuj ten defekt jako 'Krytyczny', 'Poważny' lub 'Mniejszy' na podstawie opisu wagi." Źle: "Jakiego rodzaju jest to defekt?".

Zapewnienie kontekstu

Dołącz odpowiednie informacje ogólne i wyjaśnij cel zadania.

Przykład:"Analizujesz wady produkcyjne pod kątem kontroli jakości. W oparciu o poniższy opis wady, skategoryzuj ją jako krytyczną, poważną lub drobną:- Krytyczna: kwestie bezpieczeństwa lub całkowita awaria produktu- Poważna: Problemy funkcjonalne wpływające na wydajność- Drobne: Kosmetyczne lub drobne problemy funkcjonalne

Odpowiedz podając tylko nazwę kategorii.

Opis usterki:" + TOTEXT(@variable.defect_data)```

Użyj przykładów

Jeśli to możliwe, dołącz przykłady pożądanego formatu danych wejściowych i wyjściowych, aby kierować odpowiedziami sztucznej inteligencji.

Przykład:```"Podsumuj następujące dane produkcyjne w 2-3 zdaniach, koncentrując się na kluczowych wskaźnikach i trendach.

Przykładowy format: "Produkcja zakończyła X jednostek z wydajnością Y%. Głównym wąskim gardłem było Z, co spowodowało A minut przestoju."

Dane produkcyjne:" + TOTEXT(@variable.production_summary)```

Typowe przypadki użycia

Kategoryzacja defektów

Automatyczna kategoryzacja usterek na podstawie opisów, obrazów lub danych z czujników.


Szczegóły usterki:" + TOTEXT(@variable.defect\_record) +

"Odpowiedz w formacie: Kategoria: [kategoria], Priorytet: [priorytet] "```

### Podsumowanie danych

Generowanie zwięzłych podsumowań raportów produkcyjnych, wskaźników jakości lub danych operacyjnych.

```"Utwórz krótkie podsumowanie dzisiejszych wskaźników produkcji: "

* TOTEXT(@variable.daily\_production\_data)+

"Skoncentruj się na: wielkości produkcji, wskaźnikach wydajności, wynikach jakości i wszelkich istotnych kwestiach. Ogranicz do 100 słów. "```

### Analiza i ekstrakcja tekstu

Wyodrębnianie określonych informacji z nieustrukturyzowanego tekstu, takiego jak dzienniki konserwacji lub notatki operatora.

"Wyodrębnij główną przyczynę i zalecane działania z tego dziennika konserwacji:

Wpis w dzienniku:" + TOTEXT(@variable.maintenance\_log) +

"Sformatuj odpowiedź jako:Główna przyczyna: [przyczyna]Zalecane działania: [działania]"```

### Generowanie zawartości

Generowanie standardowych raportów, powiadomień lub dokumentacji na podstawie wprowadzonych danych.

```"Wygeneruj raport przekazania zmiany na podstawie tych danych produkcyjnych:"

+TOTEXT(@variable.shift\_data) +

"Uwzględnij: ukończone zadania, bieżące kwestie, priorytety następnej zmiany, użyj profesjonalnego tonu odpowiedniego do przeglądu przez kierownictwo." ```

## Testowanie i walidacja

### Rejestrowanie danych wejściowych

Zawsze testuj AI Prompt Action, rejestrując najpierw komunikat wejściowy w tabeli. Pomaga to zweryfikować, czy:- Monit jest poprawnie sformatowany- Zmienne są poprawnie rozwiązywane- Obiekty są odpowiednio konwertowane na tekst- Sztuczna inteligencja otrzymuje kompletne informacje.

**Podejście testowe:**1. Utwórz tabelę testową z kolumnami "Input Message" i "AI Response "2. Rejestrowanie dokładnych danych wejściowych wysyłanych do AI Prompt Action3. Przejrzyj kilka przykładów, aby zapewnić spójność4. Dostosuj monit na podstawie zarejestrowanych wyników

### Weryfikacja jakości danych wyjściowych

Monitoruj odpowiedzi AI, aby upewnić się, że spełniają one Twoje standardy jakości:- Sprawdź, czy odpowiedzi są zgodne z określonym formatem- Zweryfikuj dokładność na podstawie znanych przykładów- Przetestuj przypadki brzegowe i nietypowe dane wejściowe- Monitoruj stałą wydajność w czasie

### Obsługa zmienności

Odpowiedzi AI mogą się różnić w zależności od przebiegu. Rozważ:- Korzystanie z bardziej szczegółowych monitów w celu zmniejszenia zmienności- Wdrożenie logiki walidacji dla krytycznych danych wyjściowych- Posiadanie procedur awaryjnych dla nieoczekiwanych odpowiedzi- Regularny przegląd wydajności AI w produkcji.

## Najlepsze praktyki

### Inżynieria podpowiedzi

* Zacznij prosto i iteruj w oparciu o wyniki
* Testowanie na reprezentatywnych próbkach danych
* Używaj spójnej terminologii i formatowania
* Podziel złożone zadania na mniejsze, skoncentrowane podpowiedzi

### Przygotowanie danych

* Wyczyść i sformatuj dane wejściowe przed wysłaniem ich do AI.
* Użyj `funkcji TOTEXT()` dla wszystkich danych wejściowych obiektów i list.
* Usuń niepotrzebne informacje, które mogą zmylić sztuczną inteligencję.
* Upewnij się, że wymagania dotyczące prywatności i bezpieczeństwa danych są spełnione.

### Obsługa błędów

* Zaplanuj przypadki, w których sztuczna inteligencja nie zareaguje zgodnie z oczekiwaniami.
* Wdrożenie kontroli poprawności danych wyjściowych AI
* Posiadanie procedur tworzenia kopii zapasowych dla krytycznych procesów
* Monitorowanie i rejestrowanie wydajności działań AI

### Optymalizacja wydajności

* Zachowaj zwięzłość podpowiedzi przy jednoczesnym zachowaniu przejrzystości
* Unikaj wysyłania dużych ilości niepotrzebnych danych
* Rozważ grupowanie podobnych żądań, jeśli to możliwe.
* Monitoruj czasy odpowiedzi i dostosowuj je w razie potrzeby.

## Rozwiązywanie problemów

### Najczęstsze problemy

* **Puste lub niekompletne odpowiedzi:** Sprawdź, czy monit jest jasny i czy zawiera wszystkie wymagane dane.
* **Nieoczekiwany format:** Podaj więcej szczegółów na temat żądanego formatu wyjściowego w monicie.
* **Niespójne wyniki:** Dodaj więcej ograniczeń i przykładów do monitu.
* **Dane obiektu nie są widoczne:** Upewnij się, że używasz funkcji `TOTEXT()` do konwersji obiektów na czytelny tekst.

### Kroki debugowania

1. Rejestrowanie dokładnego komunikatu wejściowego wysyłanego do AI
2. Ręczne testowanie monitu z przykładowymi danymi
3. Stopniowe upraszczanie monitu w celu wyizolowania problemów
4. Sprawdź, czy wszystkie zmienne są poprawnie rozwiązywane
5. Sprawdzenie, czy dane obiektu są poprawnie konwertowane za pomocą `TOTEXT()`.

Akcja AI Prompt otwiera potężne możliwości inteligentnej automatyzacji w aplikacjach Tulip. Zacznij od prostych przypadków użycia i stopniowo buduj bardziej wyrafinowane podpowiedzi, gdy zapoznasz się z możliwościami i najlepszymi praktykami.