Ten workflow został zaprojektowany dla inżynierów AI, specjalistów automatyzacji oraz twórców treści, którzy potrzebują skalowalnego systemu do dynamicznego zarządzania promptami przechowywanymi w GitHub. Eliminuje on ręczne aktualizacje, wymusza sprawdzanie wymaganych zmiennych i zapewnia, że interakcje AI zawsze otrzymują w pełni przetworzone prompty.
Ręczne zarządzanie promptami AI może być nieefektywne i podatne na błędy. Ten workflow:
Workflow składa się z trzech głównych gałęzi, zapewniających płynne pobieranie promptów, walidację zmiennych i przetwarzanie AI.
Workflow rozpoczyna się ręcznie lub przez zewnętrzny trigger. Pobiera tekstowy prompt przechowywany w repozytorium GitHub. Węzeł Extract from File pobiera zawartość pliku z GitHub, a SetPrompt przechowuje prompt, udostępniając go do przetwarzania.
Węzeł Code skanuje prompt w poszukiwaniu placeholderów w formacie wyrażeń n8n. Workflow porównuje wymagane zmienne z węzłem setVars i w przypadku braków zwraca błąd. Węzeł Replace Variables zastępuje wszystkie placeholdery wartościami z setVars.
Węzeł Set Completed Prompt przechowuje finalny, przetworzony prompt. Węzeł AI Agent przetwarza prompt, a Prompt Output zwraca w pełni sformatowaną odpowiedź.
Ten szablon automatyzacji może być wykorzystany w wielu scenariuszach związanych z generowaniem treści i zarządzaniem promptami AI. Oto kilka potencjalnych zastosowań:
Możesz zintegrować węzeł setVars z Airtable, Google Sheets lub HubSpot API, aby dynamicznie pobierać zmienne. Możesz także zmodyfikować model AI, zastępując Ollama Chat Model przez OpenAI, Claude lub własny endpoint LLM.