Split testing różnych promptów dla modeli językowych pozwala na porównanie ich skuteczności w rzeczywistych warunkach. Poniżej znajduje się lista potencjalnych zastosowań tej automatyzacji:
Ten workflow losowo przypisuje sesje czatu do jednego z dwóch promptów - podstawowego lub alternatywnego. Agent używa tego samego promptu dla wszystkich interakcji w danej sesji czatu.
Gdy przychodzą wiadomości, sprawdzana jest tabela zawierająca informacje o ID sesji i przypisanym promptu, aby sprawdzić, czy czat już istnieje.
Jeśli nie istnieje, ID sesji jest dodawane do tabeli i prompt jest losowo przypisywany.
Następnie te wartości są używane do generowania odpowiedzi.
1. Utwórz tabelę w Supabase o nazwie split_test_sessions. Musi zawierać następujące kolumny: session_id (text) i show_alternative (bool)
2. Dodaj swoje dane uwierzytelniające do Supabase, OpenAI i PostgreSQL
3. Zmodyfikuj węzeł Define Path Values, aby ustawić wartości promptów podstawowego i alternatywnego
4. Aktywuj workflow i przetestuj, wysyłając wiadomości przez wbudowany czat n8n
5. Eksperymentuj z różnymi sesjami czatu, aby zobaczyć oba prompty w akcji
1. Zmodyfikuj workflow, aby testować różne ustawienia LLM, takie jak temperatura
2. Dodaj metodę pomiaru skuteczności dwóch alternatywnych promptów