- Środowisko pracy z Pythonem dla analityka
- Możliwości instalacji lokalnej
- Czysty Python i wirtualne środowiska (venv i pip)
- Anaconda
- Edytory i środowiska deweloperskie
- Możliwości pracy zdalnej – Google Colab i podobne usługi
- Asystent AI Gemini
- Środowiska typu Jupyter – jak się w nich pracuje i dlaczego warto?
- Komórki i specyfika pracy interaktywnej
- Używanie Markdown i Latex do tworzenia sformatowanych tekstów
- Skróty klawiszowe i inne opcje ułatwiające pracę
- Podpowiedzi i dokumentacja
- Rzut oka na „ekosystem” bibliotek i narzędzi służących do data science w Pythonie
- Możliwości instalacji lokalnej
- Numpy – tablice i obliczenia w Pythonie
- Przyczyny używania dodatkowych bibliotek analityczno-obliczeniowych
- Wektory, macierze, tablice wielowymiarowe
- Różne sposoby tworzenia
- Nawigacja i wybieranie fragmentów
- Zmiana kształtu (`reshape`) i transpozycja
- Typy liczbowe i konsekwencje wyboru typu
- Operacje na tablicach Numpy
- Wektoryzacja operatorów i funkcji
- Zasada rozgłaszania (broadcasting)
- Mnożenie macierzy i przykładowe zastosowania
- Funkcje agregujące i osie
- Rozkłady, histogramy, statystyki opisowe
- Generator liczb pseudolosowych
- Pandas i „biznesowa” analiza danych
- Serie (`Series`) i tabele / „ramki danych” (`DataFrame`)
- Indeksy i nazwy kolumn
- Nawigacja w strukturach danych – wybieranie komórek i fragmentów, iteracja
- Pozyskiwanie danych z różnych źródeł
- Pliki CSV i Excel (odczyt i zapis)
- Zasoby w internecie (JSON, XML, HTML)
- Bazy danych (SQL)
- Wyszukiwanie i filtrowanie danych
- Warunki logiczne w Pandas oraz Numpy: maski, spójniki logiczne
- Przygotowywanie i czyszczenie danych
- Usuwanie kolumn i wierszy
- Usuwanie duplikatów
- Zamiana i normalizacja wartości
- Strategie postępowania z wartościami nieokreślonymi (NaN)
- Usuwanie wartości nieokreślonych
- Zastępowanie domyślną lub dominującą wartością
- Wypełnianie wartościami sąsiednimi
- Interpolacja
- Typy kolumn oraz ich wpływ na wydajność i funkcjonalność
- Typy liczbowe; zakres i precyzja wartości
- Typ daty i czasu; akcesor `.dt`
- Typ kategoryczny – kiedy warto stosować
- Praca z danymi tekstowymi, w tym wykorzystanie wyrażeń regularnych (regex)
- Pionowe oraz poziome łączenie tabel (`concat`, `merge`, `join`)
- Sortowanie serii i tabel
- Ranking i poszukiwanie najmniejszych/największych wartości
- Opisowa analiza danych
- Gotowe funkcje do generowania podstawowych statystyk
- Grupowanie
- Agregacja i obliczanie statystyk dla grup
- Iteracja po grupach i wykorzystanie grupowania do podziału danych
- Tabele przestawne (pivot table)
- Funkcje kroczące („okienkowe”) i narastające („skumulowane”)
- Oś czasu i szeregi czasowe
- Generowanie szeregów czasowych
- Specyfikowanie okresów czasu
- Agregacja okresów czasu – operacja `resample`
- Elementy analizy statystycznej
- Seria danych jako zmienna statystyczna; normalizacja
- Korelacja i istotność statystyczna; mapy ciepła
- Wstęp do regresji liniowej
- Wnioskowanie statystyczne
- Serie (`Series`) i tabele / „ramki danych” (`DataFrame`)
- Wykresy i wizualizacja danych
- Matplotlib i wykresy na podstawie danych z Pandas i Numpy
- Różne typy wykresów
- Opcje i ustawienia
- Generowanie wykresów bezpośrednio z Pandas
- Przegląd dodatkowych bibliotek wizualizacji danych, m.in. Seaborn, Bokeh, Plotly
- Matplotlib i wykresy na podstawie danych z Pandas i Numpy
- Wprowadzenie do uczenia maszynowego
- Czym ogólnie jest uczenie maszynowe (machine learning, ML)?
- Podział metod uczenia maszynowego
- Uczenie nadzorowane (supervised), nienadzorowane (unsupervised) i ze wzmocnieniem (reinforcement)
- Czym jest zagadnienie regresji, a czym problem klasyfikacji?
- Exploratory Data Analysis (EDA), czyli eksploracja i przygotowanie danych do uczenia maszynowego
- Statystyki opisowe (za pomocą wcześniej poznanych narzędzi)
- Rozkłady, histogramy, identyfikacja wartości odstających (outliers) i błędnych
- Oczyszczanie zbioru danych (wartości błędne, nieokreślone, duplikaty)
- Identyfikacja korelacji i zależności logicznych, wstępne hipotezy
- Standaryzacja i normalizacja danych
- Czym jest inżynieria cech (feature engineering)?
- Statystyki opisowe (za pomocą wcześniej poznanych narzędzi)
- Proces uczenia maszynowego – metodologia CRISP-ML(Q)
- Zrozumienie dziedziny i określenie wymagań wobec projektu ML
- Przygotowanie zbioru uczącego i zbioru testowego z zastosowaniem EDA
- Zbudowanie i szkolenie modelu
- Walidacja i tuning modelu
- Wdrożenie i utrzymywanie rozwiązań
- Na czym polega „wyjaśnialność” (explainability) modelu?
- Wybór najwłaściwszej techniki ML w zależności od zadania
- Praktyka uczenia maszynowego w Pythonie
- Biblioteka Scikit-learn
- Transformatory, estymatory, pipeline’y
- Przegląd dostępnych metod i operacji (w miarę poznawania ↓ kolejnych technik ML)
- Serializacja i ponowne wykorzystywanie modeli
- Rola bibliotek pomocniczych – Numpy, Pandas, Seaborn
- Praca interaktywna w Jupyter/Colab vs wykorzystanie ML we własnych aplikacjach
- Biblioteka Scikit-learn
- Techniki uczenia nadzorowanego
- Metody regresji
- Regresja liniowa
- Regresja wielomianowa
- Obsługa danych o skali nieliniowej
- Reprezentacja danych nieliczbowych
- Ewaluacja modeli regresji
- Współczynnik determinacji R² oraz błędy MAE/RMSE
- Przeuczenie modelu i metody regularyzacji
- Zastosowania regresji
- Predykcja wartości liczbowych / ciągłych
- Wizualizacja trendów i zależności
- Klasyfikacja
- Decyzje binarne (prawda/fałsz) oraz klasyfikacja wieloklasowa
- Regresja logistyczna
- Drzewa decyzyjne – struktura, sposób tworzenia i wykorzystania
- Metryki klasyfikacji
- Łączenie klasyfikatorów
- Zastosowania klasyfikacji
- Predykcja zdarzeń (wydarzy się / nie wydarzy się) na podstawie uwarunkowań
- Przyporządkowanie rekordów do grup ze względu na ich cechy i wartości pól
- Metody regresji
- Techniki uczenia nienadzorowanego
- Grupowanie danych (clustering) i algorytm K-Means
- Redukcja wymiarowości i Analiza Głównych Składowych (PCA)
- Zastosowania technik nienadzorowanych (w czasie zajęć wybieramy po jednym małym przykładzie, a dodatkowe projekty są propozycjami prac domowych)
- Ustalanie istotnych zmiennych, w tym na potrzeby uczenia nadzorowanego
- Automatyczna detekcja anomalii, np. fraudów, awarii, ataków cybernetycznych
- Automatyczne grupowanie, np. segmentacja klientów na podstawie historii zachowań czy pacjentów na podstawie objawów
- Czym jest uczenie ze wzmocnieniem (reinforcement learning, RL)?
- Wstęp do uczenia głębokiego i sieci neuronowych
- Czym uczenie głębokie (deep learning) różni się od „zwykłego” uczenia maszynowego?
- Komponenty sieci neuronowych
- Budowa i mechanizm działania sztucznego neuronu
- Perceptory (perceptron)
- „Warstwa ukryta” i perceptory wielowarstwowe (MLP)
- Mechanizm działania uczenia głębokiego
- Przetwarzanie informacji
- Algorytmy uczenia z nadzorem
- Algorytmy uczenia bez nadzoru
- Funkcje aktywacyjne
- Funkcje błędu
- Tensory i transformacje
- Biblioteki uczenia głębokiego w Pythonie
- Fundamentalne biblioteki napędzające deep learning
- TensorFlow – open source od Google
- PyTorch – open source od Meta
- JAX – zoptymalizowany silnik obliczeniowy
- Znaczenie sprzętu w pracy z sieciami neuronowymi; procesory typu CPU, GPU, TPU
- Keras – wysokopoziomowa praca z modelami
- Wybór biblioteki podstawowej (backend)
- Budowa modeli w Keras
- Kompilacja modelu
- Wybór optymalizatora i metryk
- Trenowanie modeli
- Sequential API vs Functional API
- Wykorzystanie wytrenowanych modeli do predykcji
- Klasyfikacja i podejmowanie decyzji na podstawie nowych danych
- Hugging Face – platforma open source dla modeli uczenia maszynowego
- Strojenie modeli dopasowanych do potrzeb użytkownika
- Zastosowanie do generowania obrazów
- Fundamentalne biblioteki napędzające deep learning
- Sieci neuronowe – rodzaje, techniki i przykłady zastosowań
- Sztuczne sieci neuronowe (ANN)
- Zastosowania w zadaniach klasyfikacji i regresji
- Konwolucyjne sieci neuronowe (CNN)
- Rozpoznawanie obrazów
- Przetwarzanie i analiza obrazów
- Rekurencyjne sieci neuronowe (RNN, LSTM)
- Predykcja szeregów czasowych
- Inne zagadnienia analityczne
- Sztuczne sieci neuronowe (ANN)
- Duże modele językowe (LLM)
- Czym jest model językowy i jak działają narzędzia typu GPT?
- Ewolucja AI w przetwarzaniu języka naturalnego (NLP)
- Od sieci neuronowych RNN do architektury Transformer
- Architektura popularnych modeli
- Podstawowe pojęcia: etapy trenowania, model wytrenowany i przetrenowany, token, prompt, konwersacja, pamięć, …
- Zagadnienia bezpieczeństwa i prywatności w kontekście LLM i AI
- Etyczne wykorzystanie AI: prawa autorskie, uczciwość i rzetelność narzędzi AI
- Aspekty prawne i istniejące regulacje (pobieżnie)
- Zagrożenia ewentualnego wycieku danych i zarządzanie prywatnością
- Korzystanie ze zdalnych usług AI/LLM czy lokalna instalacja modelu? – dyskusja
- Dostęp programistyczny (API) do zdalnych modeli LLM na przykładzie OpenAI API (ChatGPT) lub analogicznej usługi
- Generyczne API sieciowe (REST) i dedykowana biblioteka w Pythonie
- Zarządzanie kluczem dostępowym (API_KEY)
- Parametry i opcje zapytań
- Role promptów: user, developer, …
- Dostrajanie procesu myślenia: zaangażowane zasoby, temperatura, filtrowanie treści
- Polecenia jednorazowe i konwersacje
- Praca z lokalnym modelem LLM
- Wady i zalety własnej instalacji względem zewnętrznej usługi
- Konfiguracja wybranego open-source’owego narzędzia LLM
- Utworzenie prostego czat-bota jako aplikacji Python na bazie lokalnej instalacji
- Czym jest model językowy i jak działają narzędzia typu GPT?
- Analiza możliwości wdrażania projektów AI opartych o Pythona
- Wdrożenia w oparciu o własną infrastrukturę
- Wdrożenia „w chmurze”
- Wyzwania prawdziwego świata: skalowanie, bezpieczeństwo, monitoring
- Wirtualizacja, konteneryzacja i orkiestracja
- Rola narzędzi Docker i Kubernetes
- Wyspecjalizowane narzędzia w kontekście machine learning i deep learning
- Specyfika pracy MLOps
Kurs Programowanie AI i ML w Pythonie
K-PYTHON-2-ANALIZA-AIEksploracja i analiza danych, uczenie maszynowe, sieci neuronowe, LLM/GPT (dla znających Pythona)
Obecnie brak terminów otwartych. Dostępne na zamówienie dla grup.
| Edycja dzienna (trzy 4-dniowe bloki, co 2 tyg.) | Edycja weekendowa (zaoczna) (sob-niedz., średnio co 2 tygodnie) | |
|---|---|---|
|
Warszawa |
8 kwietnia - 22 maja 2026 (termin specjalny, rabat 10%, prosimy o kontakt) | 28 marca - 14 czerwca 2026 (termin specjalny, rabat 10%, prosimy o kontakt) gwarantowany, zostało 8 miejsc |
|
Warszawa |
9 czerwca - 10 lipca 2026 | 18 lipca - 18 października 2026 |
|
Warszawa |
19 sierpnia - 29 września 2026 | 3 października - 20 grudnia 2026 |
|
Zdalnie |
8 kwietnia - 22 maja 2026 (termin specjalny, rabat 10%, prosimy o kontakt) | 28 marca - 14 czerwca 2026 (termin specjalny, rabat 10%, prosimy o kontakt) gwarantowany, zostało 9 miejsc |
|
Zdalnie |
9 czerwca - 10 lipca 2026 | 18 lipca - 18 października 2026 |
|
Zdalnie |
19 sierpnia - 29 września 2026 | 3 października - 20 grudnia 2026 |
Tryb zdalny: online na żywo z trenerem i grupą (→ więcej o kursach zdalnych). Można: zrezygnować do 15 dni przed startem; w każdej chwili przejść na tryb zdalny; w razie potrzeby skorzystać z nagrań. Kursy dostępne również na zamówienie, w terminie i lokalizacji do uzgodnienia , dla grup od 6 osób .
Cena kursu: 5490 PLN
lub 1098 PLN miesięcznie (5 rat)
first minute (30+ dni do startu) - 3%
dostęp do nagrań w razie potrzeby
dla chętnych bezpłatnie warsztaty HR
praktyczne ćwiczenia i miniprojekty
poczęstunek w cenie
stanowisko komputerowe w cenie