Kategoria: Szkolenia AI, GPT i Machine Learning
Szkolenie koncentruje się na suwerenności danych i wykorzystaniu mocy obliczeniowej wewnątrz organizacji, nie generując kosztów za wykorzystanie sztucznej inteligencji. Jednocześnie skupia się na budowie kompleksowych, stabilnych systemów AI pracujących na danych w czasie rzeczywistym, które często wymagają zaawansowanych autoryzacji do ich używania.
Dla kogo jest to szkolenie?
Szkolenie jest dla osób, które potrzebują, aby ich agenci AI mogli przetwarzać i zarządzać danymi wrażliwymi wewnątrz organizacji i jednocześnie nie mogą korzystać z publicznych modeli AI ze względów prawnych lub bezpieczeństwa. Dla osób, którzy chcą przenieść swoich Agentów AI na poziom profesjonalnych narzędzi wspierających kluczowe procesy biznesowe z wykorzystaniem narzędzi takich jak Slack, Whatsapp czy Microsoft.
Co zyskasz?
- Pełna prywatność: Dowiesz się, jak wdrożyć AI, która działa w 100% offline lub w sieci lokalnej.
- Oszczędność: Nauczysz się budować rozwiązania, które nie generują comiesięcznych kosztów za tokeny API.
- Suwerenność technologiczna: Uniezależnisz swoją firmę od zewnętrznych dostawców modeli AI.
- Skalowalność: Nauczysz się budować systemy, które poradzą sobie z dużą ilością danych i użytkowników.
- Niezawodność: Poznasz narzędzia do monitorowania i mierzenia jakości AI, co pozwoli Ci na bezpieczne wypuszczenie agentów “na produkcję”.
- Przewaga rynkowa: Zautomatyzujesz żmudne procesy sprzedażowe i operacyjne, które do tej pory wymagały pracy ludzkiej.
Czas trwania
4 dni
Program
Dzień 1
- Fundamenty i infrastruktura lokalna
- Wprowadzenie do lokalnych modeli LLM: Omówienie różnic między modelami chmurowymi (OpenAI, Claude) a lokalnymi (Llama 3, Mistral, Phi-3). Analiza korzyści pod kątem prywatności danych i kosztów długofalowych.
- Lokalny AI Development z Ollama i LMStudio: Instalacja i konfiguracja środowisk uruchomieniowych. Zarządzanie biblioteką modeli, zmiana parametrów (temperature, context window) oraz testowanie wydajności na własnym sprzęcie.
- Konfiguracja sprzętowa i hosting w firmie: Dobór odpowiednich procesorów (CPU) i kart graficznych (GPU/VRAM) do obsługi modeli. Omówienie konteneryzacji (Docker) i udostępniania AI jako wewnętrznego API dla pracowników.
- Chat z plikami (Jan.ai): Implementacja techniki RAG (Retrieval-Augmented Generation): Jak “nakarmić” lokalny model własnymi dokumentami PDF/DOCX, aby AI odpowiadało wyłącznie na podstawie dostarczonej wiedzy.
- Techniki pracy z lokalnymi modelami w n8n: Konfiguracja węzłów AI w n8n do komunikacji z lokalnym API. Tworzenie promptów systemowych optymalizowanych pod mniejsze modele o otwartym kodzie.
- Warsztaty: Agent do researchu internetowego: Budowa autonomicznego agenta, który przeszukuje sieć w poszukiwaniu informacji, a następnie syntetyzuje je przy użyciu lokalnego modelu LLM, dbając o to, by zapytania nie ujawniały wrażliwych danych firmy.
Dzień 2
- Zaawansowane workflowy i integracje lokalne
- Praca z lokalnym systemem plików w n8n: Automatyzacja odczytu, zapisu i monitorowania folderów na firmowym serwerze. Automatyczne przenoszenie plików po przetworzeniu przez AI.
- Lokalne bazy wiedzy z ChromaDB: Tworzenie wektorowej bazy danych (Vector Store) bez wysyłania danych do chmury. Zarządzanie kolekcjami dokumentów i efektywne przeszukiwanie semantyczne.
- Łączenie agentów z narzędziami komunikacji (WhatsApp, Telegram, Gmail): Tworzenie mostów komunikacyjnych, które pozwalają sterować lokalnym AI za pomocą popularnych komunikatorów.
- Agent Gmail i bazy wiedzy: Budowa systemu, który:
- Wykrywa nową wiadomość e-mail.
- Przeszukuje lokalną bazę wiedzy w poszukiwaniu odpowiedzi.
- Generuje gotowe dokumenty (oferty, arkusze kalkulacyjne) na podstawie firmowych szablonów.
- Warsztaty: Agent do analizy i poprawy plików: Tworzenie narzędzia OCR i Vision do analizy zdjęć oraz tekstów. Agent sprawdza poprawność danych w arkuszach i sugeruje poprawki lub automatycznie je nanosi, aby spełniały firmowe standardy.
Dzień 3
- Ekosystem narzędzi firmowych i webhooki
- Integracja z Microsoft, Google, Slack: Zaawansowana konfiguracja OAuth2 i uprawnień API. Łączenie kalendarzy, dysków chmurowych i kanałów komunikacji w jeden spójny system.
- Multikanałowy Agent z bazą wiedzy: Budowa agenta reagującego na Slacka/WhatsAppa, który czerpie wiedzę bezpośrednio z aktualizowanych na bieżąco Google Docs i arkuszy kalkulacyjnych (Sheets).
- Produkcyjne workflowy end-to-end i Webhooki: Projektowanie przepływów, które są wyzwalane przez zdarzenia zewnętrzne. Obsługa błędów, retries (ponowienia) i logowanie procesów w środowisku produkcyjnym.
- Integracje HTTP i E-commerce: Łączenie AI z API sklepów internetowych. Automatyzacja pobierania danych o produktach, stanach magazynowych i cenach konkurencji.
- Warsztaty: Automatyzacja Allegro/OLX/Amazon: Budowa agenta, który na podstawie zdjęcia lub krótkiego opisu automatycznie tworzy profesjonalną ofertę, dobiera parametry i wystawia produkt na platformach sprzedażowych.
Dzień 4
- Monitoring, ewaluacja i bazy danych
- Monitoring z LangSmith: Debugowanie łańcuchów AI. Śledzenie każdego kroku myślowego agenta, analiza kosztów i czasu odpowiedzi (latency) w warunkach rzeczywistego obciążenia.
- Mierzenie precyzyjności (Ewaluacja): Wprowadzenie metryk do oceny jakości odpowiedzi AI. Jak sprawdzić, czy agent nie halucynuje i czy jego odpowiedzi są zgodne z bazą wiedzy.
- Bazy danych SQL/NoSQL w AI: Wykorzystanie tradycyjnych baz (jak PostgreSQL czy MongoDB) do przechowywania pamięci długoterminowej agentów oraz historii rozmów z użytkownikami.
- Wektorowe bazy wiedzy (Pinecone): Skalowanie systemów AI do milionów dokumentów przy użyciu chmurowych baz wektorowych. Zarządzanie przestrzeniami nazw (namespaces) i metadanymi.
- Warsztaty: Agent produkcyjny “Auto-Update”: Stworzenie zaawansowanego systemu, który automatycznie wykrywa zmiany w danych produkcyjnych (np. nowa faktura, nowa dostawa), przetwarza je przez AI i natychmiast aktualizuje wektorową bazę wiedzy Pinecone.
Training also available in English .
Przeznaczenie i wymagania
Brak szczegółowych wymagań wobec uczestników szkolenia.
Certyfikaty
Uczestnicy szkolenia otrzymują imienne certyfikaty sygnowane przez ALX.