Dla kogo jest ten szablon?
Ten szablon workflow jest przeznaczony dla entuzjastów sztucznej inteligencji, programistów oraz użytkowników dbających o prywatność, którzy chcą wykorzystać potencjał lokalnych dużych modeli językowych (LLM) bez wysyłania danych do zewnętrznych usług. Szczególnie przydatny jest dla osób korzystających lokalnie z Ollama, które chcą inteligentnie kierować zapytania między różnymi wyspecjalizowanymi modelami.
Jaki problem rozwiązuje ten workflow?
Podczas pracy z wieloma lokalnymi modelami LLM, z których każdy ma różne mocne strony i możliwości, ręczne wybieranie odpowiedniego modelu do konkretnego zadania może być trudne. Ten workflow automatycznie analizuje prompty użytkownika i kieruje je do najbardziej odpowiedniego wyspecjalizowanego modelu Ollama, zapewniając optymalną wydajność bez wymagania od użytkownika wiedzy technicznej.
Co robi ten workflow?
Ten inteligentny router:
- Analizuje przychodzące prompty użytkownika, aby określić charakter żądania
- Automatycznie wybiera optymalny model Ollama z lokalnej kolekcji na podstawie wymagań zadania
- Kieruje żądania między wyspecjalizowanymi modelami dla różnych zadań
- Utrzymuje pamięć konwersacji dla spójnych interakcji
- Przetwarza wszystko lokalnie, zapewniając pełną prywatność i bezpieczeństwo danych
Przykłady zastosowań
Ten workflow może być wykorzystany w wielu różnych scenariuszach, gdzie potrzebna jest inteligentna dystrybucja zadań między specjalistycznymi modelami językowymi. Oto kilka potencjalnych zastosowań:
- Automatyczne odpowiadanie na pytania techniczne, kierując zapytania do modeli specjalizujących się w konkretnych dziedzinach
- Asystent programistyczny, który rozpoznaje pytania dotyczące kodu i automatycznie używa modelu programistycznego
- System analizy obrazów, który wykrywa zapytania wizualne i używa odpowiedniego modelu wizyjnego
- Inteligentny chatbot, który dostosowuje się do charakteru rozmowy i wybiera najlepszy model konwersacyjny
- System wsparcia klienta, który rozpoznaje intencję użytkownika i dobiera odpowiedni model odpowiedzi
- Narzędzie badawcze, które automatycznie kieruje zapytania naukowe do modeli o odpowiedniej specjalizacji
- Asystent pisarski, który rozpoznaje rodzaj tekstu (np. kreatywny, techniczny) i używa odpowiedniego modelu
Konfiguracja
- Upewnij się, że masz zainstalowaną i działającą lokalnie Ollama
- Pobierz wymagane modele wymienione w workflow za pomocą Ollama CLI (np. ollama pull phi4)
- Skonfiguruj dane dostępowe API Ollama w n8n (domyślnie: http://127.0.0.1:11434)
- Aktywuj workflow i rozpocznij interakcję przez interfejs czatu
Jak dostosować workflow do swoich potrzeb
- Dodaj lub usuń modele z frameworku decyzyjnego routera na podstawie swojej konkretnej kolekcji Ollama
- Dostosuj systemowe prompty w LLM Routerze, aby priorytetyzować różne kryteria wyboru modelu
- Zmodyfikuj logikę drzewa decyzyjnego, aby lepiej pasowała do konkretnych przypadków użycia
- Dodaj dodatkowe kroki przetwarzania wstępnego dla wyspecjalizowanych danych wejściowych
Ten workflow demonstruje, jak n8n może być wykorzystany do tworzenia zaawansowanych systemów orkiestracji AI, które szanują prywatność użytkownika, utrzymując wszystko lokalnie, jednocześnie zapewniając inteligentne możliwości wyboru modelu.