Kurs Programowanie AI i ML w Pythonie

K-PYTHON-2-ANALIZA-AI

Eksploracja i analiza danych, uczenie maszynowe, sieci neuronowe, LLM/GPT (dla znających Pythona)

  • statystyki
  • modele
  • klasyfikacje
  • predykcje
  • sieci neuronowe
  • LLM

Obecnie brak terminów otwartych. Dostępne na zamówienie dla grup.

Edycja dzienna (trzy 4-dniowe bloki, co 2 tyg.) Edycja weekendowa (zaoczna) (sob-niedz., średnio co 2 tygodnie)

Warszawa

8 kwietnia - 22 maja 2026 (termin specjalny, rabat 10%, prosimy o kontakt) 28 marca - 14 czerwca 2026 (termin specjalny, rabat 10%, prosimy o kontakt) gwarantowany, zostało 8 miejsc

Warszawa

9 czerwca - 10 lipca 2026 18 lipca - 18 października 2026

Warszawa

19 sierpnia - 29 września 2026 3 października - 20 grudnia 2026

Zdalnie

8 kwietnia - 22 maja 2026 (termin specjalny, rabat 10%, prosimy o kontakt) 28 marca - 14 czerwca 2026 (termin specjalny, rabat 10%, prosimy o kontakt) gwarantowany, zostało 9 miejsc

Zdalnie

9 czerwca - 10 lipca 2026 18 lipca - 18 października 2026

Zdalnie

19 sierpnia - 29 września 2026 3 października - 20 grudnia 2026

Tryb zdalny: online na żywo z trenerem i grupą (→ więcej o kursach zdalnych). Można: zrezygnować do 15 dni przed startem; w każdej chwili przejść na tryb zdalny; w razie potrzeby skorzystać z nagrań. Kursy dostępne również na zamówienie, w terminie i lokalizacji do uzgodnienia , dla grup od 6 osób .

4,6/5 (220)
Stars
dla firm - netto
dla osób prywatnych - brutto (pokrywamy VAT)
dla podmiotów publicznych - zwolnione z VAT

Cena kursu: 5490 PLN

lub 1098 PLN miesięcznie (5 rat)


percent icon first minute (30+ dni do startu) - 3%

percent icon dostęp do nagrań w razie potrzeby

shake hand icon dla chętnych bezpłatnie warsztaty HR

percent icon praktyczne ćwiczenia i miniprojekty

coffee cup icon poczęstunek w cenie

desktop icon stanowisko komputerowe w cenie

  1. Środowisko pracy z Pythonem dla analityka
    • Możliwości instalacji lokalnej
      • Czysty Python i wirtualne środowiska (venv i pip)
      • Anaconda
      • Edytory i środowiska deweloperskie
    • Możliwości pracy zdalnej – Google Colab i podobne usługi
      • Asystent AI Gemini
    • Środowiska typu Jupyter – jak się w nich pracuje i dlaczego warto?
      • Komórki i specyfika pracy interaktywnej
      • Używanie Markdown i Latex do tworzenia sformatowanych tekstów
      • Skróty klawiszowe i inne opcje ułatwiające pracę
      • Podpowiedzi i dokumentacja
    • Rzut oka na „ekosystem” bibliotek i narzędzi służących do data science w Pythonie
  2. Numpy – tablice i obliczenia w Pythonie
    • Przyczyny używania dodatkowych bibliotek analityczno-obliczeniowych
    • Wektory, macierze, tablice wielowymiarowe
      • Różne sposoby tworzenia
      • Nawigacja i wybieranie fragmentów
      • Zmiana kształtu (`reshape`) i transpozycja
    • Typy liczbowe i konsekwencje wyboru typu
    • Operacje na tablicach Numpy
      • Wektoryzacja operatorów i funkcji
      • Zasada rozgłaszania (broadcasting)
      • Mnożenie macierzy i przykładowe zastosowania
      • Funkcje agregujące i osie
      • Rozkłady, histogramy, statystyki opisowe
    • Generator liczb pseudolosowych
  3. Pandas i „biznesowa” analiza danych
    • Serie (`Series`) i tabele / „ramki danych” (`DataFrame`)
      • Indeksy i nazwy kolumn
      • Nawigacja w strukturach danych – wybieranie komórek i fragmentów, iteracja
    • Pozyskiwanie danych z różnych źródeł
      • Pliki CSV i Excel (odczyt i zapis)
      • Zasoby w internecie (JSON, XML, HTML)
      • Bazy danych (SQL)
    • Wyszukiwanie i filtrowanie danych
      • Warunki logiczne w Pandas oraz Numpy: maski, spójniki logiczne
    • Przygotowywanie i czyszczenie danych
      • Usuwanie kolumn i wierszy
      • Usuwanie duplikatów
      • Zamiana i normalizacja wartości
      • Strategie postępowania z wartościami nieokreślonymi (NaN)
        • Usuwanie wartości nieokreślonych
        • Zastępowanie domyślną lub dominującą wartością
        • Wypełnianie wartościami sąsiednimi
        • Interpolacja
      • Typy kolumn oraz ich wpływ na wydajność i funkcjonalność
        • Typy liczbowe; zakres i precyzja wartości
        • Typ daty i czasu; akcesor `.dt`
        • Typ kategoryczny – kiedy warto stosować
      • Praca z danymi tekstowymi, w tym wykorzystanie wyrażeń regularnych (regex)
    • Pionowe oraz poziome łączenie tabel (`concat`, `merge`, `join`)
    • Sortowanie serii i tabel
      • Ranking i poszukiwanie najmniejszych/największych wartości
    • Opisowa analiza danych
      • Gotowe funkcje do generowania podstawowych statystyk
      • Grupowanie
        • Agregacja i obliczanie statystyk dla grup
        • Iteracja po grupach i wykorzystanie grupowania do podziału danych
      • Tabele przestawne (pivot table)
      • Funkcje kroczące („okienkowe”) i narastające („skumulowane”)
    • Oś czasu i szeregi czasowe
      • Generowanie szeregów czasowych
      • Specyfikowanie okresów czasu
      • Agregacja okresów czasu – operacja `resample`
    • Elementy analizy statystycznej
      • Seria danych jako zmienna statystyczna; normalizacja
      • Korelacja i istotność statystyczna; mapy ciepła
      • Wstęp do regresji liniowej
      • Wnioskowanie statystyczne
  4. Wykresy i wizualizacja danych
    • Matplotlib i wykresy na podstawie danych z Pandas i Numpy
      • Różne typy wykresów
      • Opcje i ustawienia
    • Generowanie wykresów bezpośrednio z Pandas
    • Przegląd dodatkowych bibliotek wizualizacji danych, m.in. Seaborn, Bokeh, Plotly
  5. Wprowadzenie do uczenia maszynowego
    • Czym ogólnie jest uczenie maszynowe (machine learning, ML)?
    • Podział metod uczenia maszynowego
      • Uczenie nadzorowane (supervised), nienadzorowane (unsupervised) i ze wzmocnieniem (reinforcement)
      • Czym jest zagadnienie regresji, a czym problem klasyfikacji?
    • Exploratory Data Analysis (EDA), czyli eksploracja i przygotowanie danych do uczenia maszynowego
      • Statystyki opisowe (za pomocą wcześniej poznanych narzędzi)
        • Rozkłady, histogramy, identyfikacja wartości odstających (outliers) i błędnych
      • Oczyszczanie zbioru danych (wartości błędne, nieokreślone, duplikaty)
      • Identyfikacja korelacji i zależności logicznych, wstępne hipotezy
      • Standaryzacja i normalizacja danych
      • Czym jest inżynieria cech (feature engineering)?
    • Proces uczenia maszynowego – metodologia CRISP-ML(Q)
      • Zrozumienie dziedziny i określenie wymagań wobec projektu ML
      • Przygotowanie zbioru uczącego i zbioru testowego z zastosowaniem EDA
      • Zbudowanie i szkolenie modelu
      • Walidacja i tuning modelu
      • Wdrożenie i utrzymywanie rozwiązań
    • Na czym polega „wyjaśnialność” (explainability) modelu?
    • Wybór najwłaściwszej techniki ML w zależności od zadania
  6. Praktyka uczenia maszynowego w Pythonie
    • Biblioteka Scikit-learn
      • Transformatory, estymatory, pipeline’y
      • Przegląd dostępnych metod i operacji (w miarę poznawania ↓ kolejnych technik ML)
      • Serializacja i ponowne wykorzystywanie modeli
    • Rola bibliotek pomocniczych – Numpy, Pandas, Seaborn
    • Praca interaktywna w Jupyter/Colab vs wykorzystanie ML we własnych aplikacjach
  7. Techniki uczenia nadzorowanego
    • Metody regresji
      • Regresja liniowa
      • Regresja wielomianowa
      • Obsługa danych o skali nieliniowej
      • Reprezentacja danych nieliczbowych
    • Ewaluacja modeli regresji
      • Współczynnik determinacji R² oraz błędy MAE/RMSE
      • Przeuczenie modelu i metody regularyzacji
    • Zastosowania regresji
      • Predykcja wartości liczbowych / ciągłych
      • Wizualizacja trendów i zależności
    • Klasyfikacja
      • Decyzje binarne (prawda/fałsz) oraz klasyfikacja wieloklasowa
      • Regresja logistyczna
      • Drzewa decyzyjne – struktura, sposób tworzenia i wykorzystania
      • Metryki klasyfikacji
      • Łączenie klasyfikatorów
    • Zastosowania klasyfikacji
      • Predykcja zdarzeń (wydarzy się / nie wydarzy się) na podstawie uwarunkowań
      • Przyporządkowanie rekordów do grup ze względu na ich cechy i wartości pól
  8. Techniki uczenia nienadzorowanego
    • Grupowanie danych (clustering) i algorytm K-Means
    • Redukcja wymiarowości i Analiza Głównych Składowych (PCA)
    • Zastosowania technik nienadzorowanych (w czasie zajęć wybieramy po jednym małym przykładzie, a dodatkowe projekty są propozycjami prac domowych)
      • Ustalanie istotnych zmiennych, w tym na potrzeby uczenia nadzorowanego
      • Automatyczna detekcja anomalii, np. fraudów, awarii, ataków cybernetycznych
      • Automatyczne grupowanie, np. segmentacja klientów na podstawie historii zachowań czy pacjentów na podstawie objawów
    • Czym jest uczenie ze wzmocnieniem (reinforcement learning, RL)?
  9. Wstęp do uczenia głębokiego i sieci neuronowych
    • Czym uczenie głębokie (deep learning) różni się od „zwykłego” uczenia maszynowego?
    • Komponenty sieci neuronowych
      • Budowa i mechanizm działania sztucznego neuronu
      • Perceptory (perceptron)
      • „Warstwa ukryta” i perceptory wielowarstwowe (MLP)
    • Mechanizm działania uczenia głębokiego
      • Przetwarzanie informacji
      • Algorytmy uczenia z nadzorem
      • Algorytmy uczenia bez nadzoru
      • Funkcje aktywacyjne
      • Funkcje błędu
      • Tensory i transformacje
  10. Biblioteki uczenia głębokiego w Pythonie
    • Fundamentalne biblioteki napędzające deep learning
      • TensorFlow – open source od Google
      • PyTorch – open source od Meta
      • JAX – zoptymalizowany silnik obliczeniowy
      • Znaczenie sprzętu w pracy z sieciami neuronowymi; procesory typu CPU, GPU, TPU
    • Keras – wysokopoziomowa praca z modelami
      • Wybór biblioteki podstawowej (backend)
      • Budowa modeli w Keras
      • Kompilacja modelu
      • Wybór optymalizatora i metryk
      • Trenowanie modeli
      • Sequential API vs Functional API
      • Wykorzystanie wytrenowanych modeli do predykcji
      • Klasyfikacja i podejmowanie decyzji na podstawie nowych danych
    • Hugging Face – platforma open source dla modeli uczenia maszynowego
      • Strojenie modeli dopasowanych do potrzeb użytkownika
      • Zastosowanie do generowania obrazów
  11. Sieci neuronowe – rodzaje, techniki i przykłady zastosowań
    • Sztuczne sieci neuronowe (ANN)
      • Zastosowania w zadaniach klasyfikacji i regresji
    • Konwolucyjne sieci neuronowe (CNN)
      • Rozpoznawanie obrazów
      • Przetwarzanie i analiza obrazów
    • Rekurencyjne sieci neuronowe (RNN, LSTM)
      • Predykcja szeregów czasowych
      • Inne zagadnienia analityczne
  12. Duże modele językowe (LLM)
    • Czym jest model językowy i jak działają narzędzia typu GPT?
      • Ewolucja AI w przetwarzaniu języka naturalnego (NLP)
      • Od sieci neuronowych RNN do architektury Transformer
      • Architektura popularnych modeli
      • Podstawowe pojęcia: etapy trenowania, model wytrenowany i przetrenowany, token, prompt, konwersacja, pamięć, …
    • Zagadnienia bezpieczeństwa i prywatności w kontekście LLM i AI
      • Etyczne wykorzystanie AI: prawa autorskie, uczciwość i rzetelność narzędzi AI
      • Aspekty prawne i istniejące regulacje (pobieżnie)
      • Zagrożenia ewentualnego wycieku danych i zarządzanie prywatnością
      • Korzystanie ze zdalnych usług AI/LLM czy lokalna instalacja modelu? – dyskusja
    • Dostęp programistyczny (API) do zdalnych modeli LLM na przykładzie OpenAI API (ChatGPT) lub analogicznej usługi
      • Generyczne API sieciowe (REST) i dedykowana biblioteka w Pythonie
      • Zarządzanie kluczem dostępowym (API_KEY)
      • Parametry i opcje zapytań
        • Role promptów: user, developer, …
        • Dostrajanie procesu myślenia: zaangażowane zasoby, temperatura, filtrowanie treści
      • Polecenia jednorazowe i konwersacje
    • Praca z lokalnym modelem LLM
      • Wady i zalety własnej instalacji względem zewnętrznej usługi
      • Konfiguracja wybranego open-source’owego narzędzia LLM
      • Utworzenie prostego czat-bota jako aplikacji Python na bazie lokalnej instalacji
  13. Analiza możliwości wdrażania projektów AI opartych o Pythona
    • Wdrożenia w oparciu o własną infrastrukturę
    • Wdrożenia „w chmurze”
    • Wyzwania prawdziwego świata: skalowanie, bezpieczeństwo, monitoring
    • Wirtualizacja, konteneryzacja i orkiestracja
      • Rola narzędzi Docker i Kubernetes
      • Wyspecjalizowane narzędzia w kontekście machine learning i deep learning
    • Specyfika pracy MLOps