Kategorie: Bezpieczeństwo systemów IT. Metody ataku i obrony , Szkolenia AI, GPT i Machine Learning
Praktyczne, dwudniowe warsztaty na temat wykorzystania technik i narzędzi AI w cybersecurity.
Zajmiemy się automatyzacją detekcji zagrożeń i wzmacnianiem systemów obronnych (analiza od strony defensywnej – rola “Blue Team”), jak również testowaniem ich odporności na ataki, m.in. wykorzystując modele generatywne – od strony ofensywnej (“Red Team”) .
Będziemy pracować na scenariuszach odpowiadających realnym sytuacjom. Skupimy się na narzędziach open source.
Warsztaty obejmują również techniki zabezpieczania samych modeli uczenia maszynowego przed manipulacją, analizę kodu i danych wejściowych do modeli. A także, wykorzystanie AI w procesach threat intelligence i incident response.
Jako, że zajęcia prezentują zarówno metody defensywnego wykorzystania AI (Blue Team), jak testowania bezpieczeństwa systemów z jej użyciem (Red Team) – szkolenie przeznaczone jest dla szerokiego grona specjalistów IT. Zapraszamy wszystkich, którzy chcieliby rozumieć zarówno potencjał, jak i ograniczenia sztucznej inteligencji w cyberbezpieczeństwie.
Oprócz prezentacji i podstaw teorii, zapewniamy pracę w środowiskach testowych, konkretne ćwiczenia i propozycje gotowych do wdrożenia rozwiązań.
Czego się nauczysz?
Po ukończeniu szkolenia będziesz potrafił/a:
- Budować i trenować modele uczenia maszynowego w Pythonie do identyfikacji anomalii sieciowych, czy złośliwego oprogramowania.
- Wykorzystywać narzędzia open-source (
Scikit-learn,TensorFlow,Pandas) do analizy danych bezpieczeństwa. - Rozumieć i symulować ataki na modele językowe (LLM), takie jak Prompt Injection i Data Leakage.
- Stosować ramy postępowania (frameworki) takie jak
NIST AI RMFiOWASP Top 10 for LLMdo zabezpieczania systemów AI. - Automatyzować procesy reagowania na incydenty z wykorzystaniem AI w systemach SIEM/SOAR.
- Identyfikować i przeciwdziałać zagrożeniom związanym z deepfake, generatywnym malware i zaawansowanym phishingiem.
Czas trwania
2 dni
Program
Dzień 1: Fundamenty i defensywne zastosowania AI (perspektywa Blue Team)
- Moduł 1: Krajobraz AI w cyberbezpieczeństwie – taksonomia, ryzyka i możliwości
- Wprowadzenie do kluczowych koncepcji uczenia maszynowego (nadzorowane, nienadzorowane, ze wzmocnieniem) w kontekście cyberbezpieczeństwa.
- Taksonomia zagrożeń i zastosowań AI w oparciu o uznane frameworki (np. NIST).
- Dwojaka natura AI: jako “wzmacniacz siły” dla obrońców i “ułatwiacz/wyrównywacz umiejętności” dla atakujących.
- Analiza realnych studiów przypadków wykorzystania AI do wykrywania ataków na dużą skalę.
- Moduł 2: Uczenie maszynowe w służbie analityka – od detekcji anomalii po threat intelligence
- Przegląd kluczowych defensywnych zastosowań modeli ML w pracy analityka.
- Wykrywanie anomalii w ruchu sieciowym i logach systemowych (clustering, autoenkodery).
- Klasyfikacja złośliwego oprogramowania i analiza sentymentu w danych OSINT.
- Wykorzystanie AI do predykcji zagrożeń, oceny ryzyka i priorytetyzacji alertów w SOC.
- Moduł 3: Warsztat praktyczny – budowa modelu do identyfikacji złośliwego ruchu sieciowego
- Praktyczne ćwiczenia w przygotowanym środowisku (Python, Jupyter Notebook, Pandas, Scikit-learn).
- Wczytywanie, przygotowanie i analiza danych z publicznie dostępnych zbiorów (np. NSL-KDD, CICIDS2017).
- Inżynieria cech (feature engineering) w danych dotyczących bezpieczeństwa.
- Trening i ewaluacja modeli klasyfikacyjnych (np. Las Losowy, Regresja Logistyczna) pod kątem skuteczności.
- Moduł 4: Inteligentna automatyzacja reagowania – AI w platformach SIEM i SOAR
- Integracja wytrenowanych modeli ML z ekosystemem narzędzi SOC.
- Rola AI w nowoczesnych platformach SIEM (np. Microsoft Sentinel) i jej zastosowanie w automatyzacji reagowania (SOAR).
- Analiza przykładów playbooków SOAR, w których decyzje są wspierane przez modele ML.
- Przegląd narzędzi komercyjnych i open-source (np. Snyk, CAI Framework).
Dzień 2: Ofensywne AI. Ochrona systemów uczących się (perspektywa Red & Purple Team)
- Moduł 5: AI w arsenale atakującego – generowanie phishingu, malware i techniki omijania zabezpieczeń
- Wykorzystanie dużych modeli językowych (LLM) do generowania wysoce wiarygodnych, kontekstowych wiadomości phishingowych.
- Tworzenie polimorficznego malware i wykorzystanie AI do generowania deepfake’ów (audio i wideo) w atakach socjotechnicznych.
- Automatyzacja rekonesansu i planowania ataków przy użyciu narzędzi takich jak AutoGPT.
- Moduł 6: Ataki na modele AI/LLM. Warsztat praktyczny/symulacja.
- Interaktywne ćwiczenia polegające na “łamaniu” zabezpieczeń modelu LLM w dedykowanym środowisku.
- Wykorzystanie otwartych frameworków do testowania bezpieczeństwa AI (np. TextAttack, Counterfit).
- Praktyczne ataki typu Prompt Injection w celu ominięcia filtrów bezpieczeństwa.
- Ataki typu Data Leakage w celu odtworzenia wrażliwych danych treningowych.
- Analiza podatności w oparciu o ramy OWASP Top 10 for LLM.
- Moduł 7: Zabezpieczanie ekosystemów AI – wprowadzenie do adversarial machine learning
- Taksonomia ataków na modele ML: Evasion, Poisoning, Model Inversion i Model Stealing.
- Defensywne techniki ochrony systemów AI: Adversarial Training, walidacja danych wejściowych i wzmacnianie modelu.
- Praktyczne wykorzystanie frameworków do testowania odporności modeli (np. Adversarial Robustness Toolbox od IBM).
- Osadzenie technik obronnych w kontekście ram zarządzania ryzykiem (np. NIST AI Risk Management Framework).
- Moduł 8: Aspekty etyczne, regulacyjne i strategiczne. Wdrażanie AI w organizacji
- Omówienie kluczowych założeń unijnego aktu o sztucznej inteligencji (EU AI Act) i jego wpływu na cyberbezpieczeństwo.
- Dylematy etyczne: stronniczość (bias) algorytmów i ochrona prywatności.
- Jak zbudować strategię wdrożenia AI w dziale bezpieczeństwa – od etapu PoC do pełnej produkcji.
- Sesja pytań i odpowiedzi, podsumowanie szkolenia.
Training also available in English .
Przeznaczenie i wymagania
Dla kogo:
- Analitycy Bezpieczeństwa (SOC, Threat Intelligence) chcący zautomatyzować analizę i priorytetyzację zagrożeń.
- Inżynierowie Bezpieczeństwa i Architekci pragnący integrować rozwiązania AI z istniejącą infrastrukturą (SIEM, SOAR).
- Pentesterzy i członkowie Red Teamów, którzy chcą poszerzyć swój arsenał o techniki ofensywnego wykorzystania AI.
- Menedżerowie IT i Security, którzy potrzebują głębszego technicznego zrozumienia możliwości i ryzyk związanych z AI, aby podejmować świadome decyzje strategiczne.
- oraz dla Specjalistów IT i specjalistów ds. bezpieczeństwa.
Co musisz wiedzieć przed:
- Podstawowa znajomość zagadnień z zakresu cyberbezpieczeństwa (terminologia, podstawowe typy ataków).
- Ogólna wiedza informatyczna z zakresu systemów operacyjnych i sieci
- Podstawowa umiejętność czytania skryptów w dowolnym języku (doświadczenie z Pythonem będzie dodatkowym atutem, ale nie jest bezwzględnie wymagane).
Certyfikaty
Uczestnicy szkolenia otrzymują imienne certyfikaty sygnowane przez ALX.