Karta Przedmiotu

Politechnika Białostocka Wydział Informatyki
Kierunek studiów Data Science Poziom i forma
studiów
pierwszego stopnia
stacjonarne
Grupa przedmiotów /
specjalność
Profil kształcenia ogólnoakademicki
Nazwa przedmiotu Uczenie maszynowe 2 E Kod przedmiotu DS1S4UM2
Rodzaj zajęć obowiązkowy
Formy zajęć i liczba godzin W Ć L P Ps T S Semestr 4
30 30 Punkty ECTS 5
Program obowiązuje od 2025/2026
Przedmioty wprowadzające Podstawy optymalizacji (DS1S3POP),   Statystyka matematyczna (DS1S3SMA),   Uczenie maszynowe 1 (DS1S3UM1),  
Cele przedmiotu Przekazanie zaawansowanej wiedzy z zakresu uczenia maszynowego, ze szczególnym uwzględnieniem nowoczesnych metod i ich praktycznych zastosowań.
Rozwój umiejętności implementacji złożonych systemów ML oraz ich optymalizacji.

Odniesienia do frameworka edukacyjnego mikrokompetencji SFIA:
Machine Learning (MLNG) - poziom 3: implementacja i dostrajanie modeli uczenia maszynowego
Data Science (DATS) - poziom 3: ocena i porównywanie modeli, interpretacja wyników
Data Engineering (DENG) - poziom 2: przygotowanie i przetwarzanie danych dla modeli ML
Programming/Software Development (PROG) - poziom 2: implementacja algorytmów i modeli
Data Analytics (DAAN) - poziom 2: analiza i wizualizacja wyników
Ramowe treści programowe Sztuczne sieci neuronowe. Zaawansowane metody zespołowe. Uczenie przez wzmacnianie. Interpretacja modeli ML. Automatyczne uczenie maszynowe. Optymalizacja hiperparametrów. Metody probabilistyczne w ML. Projektowanie i wdrażanie modeli ML z uwzględnieniem zasad zrównoważonego rozwoju, w tym ich wpływu na środowisko, energochłonność i odpowiedzialność społeczną.
Inne informacje o przedmiocie treści przedmiotu odwołują się do zasad zrównoważonego rozwoju
przedmiot ma związek z prowadzoną na Uczelni działalnością naukową
Wyliczenie: Nakład pracy studenta związany z: Godzin
ogółem
W tym
kontaktowych
W tym
praktycznych
udziałem w wykładach 30 30
udziałem w innych formach zajęć 30 30 30
indywidualnym wsparciem merytorycznym procesu uczenia się, udziałem w egzaminie i zaliczeniach organizowanych poza planem zajęć 4 4
przygotowaniem do egzaminu 10
przygotowaniem do bieżących zajęć 51 51
Razem godzin: 125 64 81
Razem punktów ECTS: 5 2.6 3.2
Zakładane kierunkowe efekty uczenia się Wiedza Umiejętności Kompetencje
społeczne
DS1_W03 DS1_U05
DS1_W07 DS1_U06
DS1_W09 DS1_U08
DS1_W16 DS1_U09
DS1_W19 DS1_U10
DS1_U15
DS1_U17
DS1_U19
Cele i treści ramowe sformułował(a) dr hab. inż. Małgorzata Krętowska Data: 29/05/2025
Realizacja w roku akademickim 2026/2027
 
Treści programowe
Wykład
1. Podstawy sieci neuronowych.
2. Reguła perceptronowa.
3. Reguła LMS.
4. Perceptron wielowarstwowy i algorytm wstecznej propagacji błędu.
5. Algorytmy uczenia sieci neuronowych.
6. Architektury CNN. Warstwy konwolucyjne i pooling. Transfer learning. Popularne architektury (ResNet, Inception, EfficientNet).
7. Uczenie wielozadaniowe i transfer learning. Współdzielenie wiedzy między modelami. Fine-tuning modeli pretrenowanych. Znaczenie wyboru strategii uczenia i jej znaczenie dla zapotrzebowania na zasoby obliczeniowe i pamięciowe. Nawiązanie do zagadnień zrównoważonego rozwoju.
8. Zaawansowane metody zespołowe. XGBoost, LightGBM i CatBoost. Stacking i blending. Optymalizacja modeli zespołowych.
9. Uczenie przez wzmacnianie. Podstawy RL, algorytmy policy-based i value-based. Deep Reinforcement Learning.
10. Interpretacja modeli ML. Metody wyjaśnialne AI (XAI). SHAP, LIME, interpretacja modeli głębokich.
11. Automatyczne uczenie maszynowe. AutoML, Neural Architecture Search. Optymalizacja hiperparametrów. Zapotrzebowanie na zasoby obliczeniowe i pamięciowe w kontekście zrównoważonego rozwoju.
12. Metody probabilistyczne w ML. Wnioskowanie bayesowskie. Gaussian Processes. Probabilistic Graphical Models.
13. Analiza przeżycia.
14. Uczenie półnadzorowane i aktywne. Metody wykorzystania danych nieoznaczonych. Strategie wyboru próbek do oznaczenia.
15. ML w produkcji. Monitoring modeli, wykrywanie dryfu koncepcyjnego. A/B testing. Wersjonowanie modeli.
Pracownia specjalistyczna
1. Funkcje aktywacji neuronów.
2. Reguła perceptronowa.
3. Reguła LMS.
4. Problem XOR.
5. Perceptron wielowarstwowy.
6. Architektury CNN.
7. Transfer learning. Współdzielenie wiedzy między modelami. Fine-tuning modeli pretrenowanych.
8. Zaawansowane metody zespołowe.
9. Optymalizacja modeli zespołowych. Elementy optymalizacji architektury modeli, wydajności obliczeniowej i pamięciowej w kontekście zrównoważonego rozwoju.
10. Uczenie przez wzmacnianie.
11. Interpretacja modeli ML.
12. Wnioskowanie bayesowskie.
13. Projekt.
14. Projekt.
15. Zaliczenie zajęć.
Metody dydaktyczne
(realizacja stacjonarna)
W wykład problemowy; wykład konwersatoryjny; wykład z prezentacją multimedialną
Ps realizacja sprawozdań; relizacja projektów
Metody dydaktyczne
(realizacja zdalna)
W wykład problemowy; wykład konwersatoryjny; wykład z prezentacją multimedialną
-
Forma zaliczenia
W egzamin pisemny z pytaniami otwartymi
Ps sprawozdania; projekt
Warunki zaliczenia
W Uzyskanie min. 30% z każdego E1-E2, a po spełnieniu tego warunku ostateczna ocena wynika z sumy uzyskanych punktów.
Kryteria oceny:
[ 0 – 50]% punktów – 2.0
(50 – 60]% punktów – 3.0
(60 – 70]% punktów – 3.5
(70 – 80]% punktów – 4.0
(80 – 90]% punktów – 4.5
(90 – 100]% punktów – 5.0
Ps Uzyskanie min. 30% z każdego E3-E4, a po spełnieniu tego warunku ostateczna ocena wynika z sumy uzyskanych punktów.
Kryteria oceny:
[ 0 – 50]% punktów – 2.0
(50 – 60]% punktów – 3.0
(60 – 70]% punktów – 3.5
(70 – 80]% punktów – 4.0
(80 – 90]% punktów – 4.5
(90 – 100]% punktów – 5.0
Symbol efektu Zakładane efekty uczenia się Odniesienie do efektów uczenia się zdefiniowanych dla kierunku studiów
Wiedza Umiejętności Kompetencje
społeczne
Wiedza: student zna i rozumie
E1 zaawansowane metody i techniki uczenia maszynowego
E2 zasady projektowania i optymalizacji złożonych systemów ML, także z uwzględnieniem wytycznych i zasad zrównoważonego rozwoju
Umiejętności: student potrafi
E3 implementować zaawansowane modele ML, w szczególności z uwzględnieniem zapotrzebowania na zasoby obliczeniowe i pamięciowe zgodnie z koncepcjami zrównoważonego rozwoju
E4 projektować, optymalizować i interpretować działanie systemów ML, w szczególności mając na uwadze zasady zrównoważonego rozwoju
Symbol efektu Sposób weryfikacji efektu uczenia się Forma zajęć na której zachodzi weryfikacja
E1 egzamin pisemny W
E2 egzamin pisemny W
E3 wykonanie sprawozdań i projektu Ps
E4 wykonanie sprawozdań i projektu Ps
Literatura podstawowa
1. C. C. Aggarwal, Neural networks and deep learning. Vol. 10. No. 978. Cham: Springer, 2018
2. R. S.Sutton,A. G. Barto, F. Bach, Reinforcement Learning, MIT Press Ltd, 2018
3. S. J. Russell, P. Norvig, Artificial Intelligence: A Modern Approach (4. edycja), Pearson, 2020
4. C. Wade, K. Glynn, Hands-On Gradient Boosting with XGBoost and scikit-learn, Packt, 2020
5. C. Molnar, Interpretable Machine Learning, Independently Published, 2020
Literatura uzupełniająca
1. A. Plaat, Deep Reinforcement Learning: a textbook, Springer, 2022
2. K. P.Murphy, Probabilistic Machine Learning: An Introduction, MIT Press, 2022
3. F. Hutter, L. Kotthoff, J. Vanschoren, Automated Machine Learning: Methods, Systems, Challenges, Springer, 2019
4. A. Géron, Hands-On Machine Learning with Scikit-Learn, Keras, and TensorFlow, O'Reilly Media, 2019
Koordynator przedmiotu: dr hab. Marek J. Drużdżel, dr hab. inż. Małgorzata Krętowska, dr inż. Urszula Kużelewska, dr inż. Tomasz Łukaszuk Data: 03/03/2025