Karta Przedmiotu
| Politechnika Białostocka | Wydział Informatyki | ||||||||||||||||||||||||||
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| Kierunek studiów | Data Science |
Poziom i forma studiów |
pierwszego stopnia stacjonarne |
||||||||||||||||||||||||
| Grupa przedmiotów / specjalność |
Profil kształcenia | ogólnoakademicki | |||||||||||||||||||||||||
| Nazwa przedmiotu | Uczenie maszynowe 2 | E | Kod przedmiotu | DS1S4UM2 | |||||||||||||||||||||||
| Rodzaj zajęć | obowiązkowy | ||||||||||||||||||||||||||
| Formy zajęć i liczba godzin | W | Ć | L | P | Ps | T | S | Semestr | 4 | ||||||||||||||||||
| 30 | 30 | Punkty ECTS | 5 | ||||||||||||||||||||||||
| Program obowiązuje od | 2025/2026 | ||||||||||||||||||||||||||
| Przedmioty wprowadzające | Podstawy optymalizacji (DS1S3POP), Statystyka matematyczna (DS1S3SMA), Uczenie maszynowe 1 (DS1S3UM1), | ||||||||||||||||||||||||||
| Cele przedmiotu |
Przekazanie zaawansowanej wiedzy z zakresu uczenia maszynowego, ze szczególnym uwzględnieniem nowoczesnych metod i ich praktycznych zastosowań. Rozwój umiejętności implementacji złożonych systemów ML oraz ich optymalizacji. Odniesienia do frameworka edukacyjnego mikrokompetencji SFIA: Machine Learning (MLNG) - poziom 3: implementacja i dostrajanie modeli uczenia maszynowego Data Science (DATS) - poziom 3: ocena i porównywanie modeli, interpretacja wyników Data Engineering (DENG) - poziom 2: przygotowanie i przetwarzanie danych dla modeli ML Programming/Software Development (PROG) - poziom 2: implementacja algorytmów i modeli Data Analytics (DAAN) - poziom 2: analiza i wizualizacja wyników |
||||||||||||||||||||||||||
| Ramowe treści programowe | Sztuczne sieci neuronowe. Zaawansowane metody zespołowe. Uczenie przez wzmacnianie. Interpretacja modeli ML. Automatyczne uczenie maszynowe. Optymalizacja hiperparametrów. Metody probabilistyczne w ML. Projektowanie i wdrażanie modeli ML z uwzględnieniem zasad zrównoważonego rozwoju, w tym ich wpływu na środowisko, energochłonność i odpowiedzialność społeczną. | ||||||||||||||||||||||||||
| Inne informacje o przedmiocie | treści przedmiotu odwołują się do zasad zrównoważonego rozwoju | ||||||||||||||||||||||||||
| przedmiot ma związek z prowadzoną na Uczelni działalnością naukową | |||||||||||||||||||||||||||
| Wyliczenie: | Nakład pracy studenta związany z: | Godzin ogółem |
W tym kontaktowych |
W tym praktycznych |
|||||||||||||||||||||||
| udziałem w wykładach | 30 | 30 | |||||||||||||||||||||||||
| udziałem w innych formach zajęć | 30 | 30 | 30 | ||||||||||||||||||||||||
| indywidualnym wsparciem merytorycznym procesu uczenia się, udziałem w egzaminie i zaliczeniach organizowanych poza planem zajęć | 4 | 4 | |||||||||||||||||||||||||
| przygotowaniem do egzaminu | 10 | ||||||||||||||||||||||||||
| przygotowaniem do bieżących zajęć | 51 | 51 | |||||||||||||||||||||||||
| Razem godzin: | 125 | 64 | 81 | ||||||||||||||||||||||||
| Razem punktów ECTS: | 5 | 2.6 | 3.2 | ||||||||||||||||||||||||
| Zakładane kierunkowe efekty uczenia się | Wiedza | Umiejętności | Kompetencje społeczne |
||||||||||||||||||||||||
| DS1_W03 | DS1_U05 | ||||||||||||||||||||||||||
| DS1_W07 | DS1_U06 | ||||||||||||||||||||||||||
| DS1_W09 | DS1_U08 | ||||||||||||||||||||||||||
| DS1_W16 | DS1_U09 | ||||||||||||||||||||||||||
| DS1_W19 | DS1_U10 | ||||||||||||||||||||||||||
| DS1_U15 | |||||||||||||||||||||||||||
| DS1_U17 | |||||||||||||||||||||||||||
| DS1_U19 | |||||||||||||||||||||||||||
| Cele i treści ramowe sformułował(a) | dr hab. inż. Małgorzata Krętowska | Data: | 29/05/2025 | ||||||||||||||||||||||||
| Realizacja w roku akademickim | 2026/2027 | ||||||||||||||||||||||||||
| Treści programowe | |||||||||||||||||||||||||||
| Wykład | |||||||||||||||||||||||||||
| 1. | Podstawy sieci neuronowych. | ||||||||||||||||||||||||||
| 2. | Reguła perceptronowa. | ||||||||||||||||||||||||||
| 3. | Reguła LMS. | ||||||||||||||||||||||||||
| 4. | Perceptron wielowarstwowy i algorytm wstecznej propagacji błędu. | ||||||||||||||||||||||||||
| 5. | Algorytmy uczenia sieci neuronowych. | ||||||||||||||||||||||||||
| 6. | Architektury CNN. Warstwy konwolucyjne i pooling. Transfer learning. Popularne architektury (ResNet, Inception, EfficientNet). | ||||||||||||||||||||||||||
| 7. | Uczenie wielozadaniowe i transfer learning. Współdzielenie wiedzy między modelami. Fine-tuning modeli pretrenowanych. Znaczenie wyboru strategii uczenia i jej znaczenie dla zapotrzebowania na zasoby obliczeniowe i pamięciowe. Nawiązanie do zagadnień zrównoważonego rozwoju. | ||||||||||||||||||||||||||
| 8. | Zaawansowane metody zespołowe. XGBoost, LightGBM i CatBoost. Stacking i blending. Optymalizacja modeli zespołowych. | ||||||||||||||||||||||||||
| 9. | Uczenie przez wzmacnianie. Podstawy RL, algorytmy policy-based i value-based. Deep Reinforcement Learning. | ||||||||||||||||||||||||||
| 10. | Interpretacja modeli ML. Metody wyjaśnialne AI (XAI). SHAP, LIME, interpretacja modeli głębokich. | ||||||||||||||||||||||||||
| 11. | Automatyczne uczenie maszynowe. AutoML, Neural Architecture Search. Optymalizacja hiperparametrów. Zapotrzebowanie na zasoby obliczeniowe i pamięciowe w kontekście zrównoważonego rozwoju. | ||||||||||||||||||||||||||
| 12. | Metody probabilistyczne w ML. Wnioskowanie bayesowskie. Gaussian Processes. Probabilistic Graphical Models. | ||||||||||||||||||||||||||
| 13. | Analiza przeżycia. | ||||||||||||||||||||||||||
| 14. | Uczenie półnadzorowane i aktywne. Metody wykorzystania danych nieoznaczonych. Strategie wyboru próbek do oznaczenia. | ||||||||||||||||||||||||||
| 15. | ML w produkcji. Monitoring modeli, wykrywanie dryfu koncepcyjnego. A/B testing. Wersjonowanie modeli. | ||||||||||||||||||||||||||
| Pracownia specjalistyczna | |||||||||||||||||||||||||||
| 1. | Funkcje aktywacji neuronów. | ||||||||||||||||||||||||||
| 2. | Reguła perceptronowa. | ||||||||||||||||||||||||||
| 3. | Reguła LMS. | ||||||||||||||||||||||||||
| 4. | Problem XOR. | ||||||||||||||||||||||||||
| 5. | Perceptron wielowarstwowy. | ||||||||||||||||||||||||||
| 6. | Architektury CNN. | ||||||||||||||||||||||||||
| 7. | Transfer learning. Współdzielenie wiedzy między modelami. Fine-tuning modeli pretrenowanych. | ||||||||||||||||||||||||||
| 8. | Zaawansowane metody zespołowe. | ||||||||||||||||||||||||||
| 9. | Optymalizacja modeli zespołowych. Elementy optymalizacji architektury modeli, wydajności obliczeniowej i pamięciowej w kontekście zrównoważonego rozwoju. | ||||||||||||||||||||||||||
| 10. | Uczenie przez wzmacnianie. | ||||||||||||||||||||||||||
| 11. | Interpretacja modeli ML. | ||||||||||||||||||||||||||
| 12. | Wnioskowanie bayesowskie. | ||||||||||||||||||||||||||
| 13. | Projekt. | ||||||||||||||||||||||||||
| 14. | Projekt. | ||||||||||||||||||||||||||
| 15. | Zaliczenie zajęć. | ||||||||||||||||||||||||||
| Metody dydaktyczne (realizacja stacjonarna) |
|||||||||||||||||||||||||||
| W | wykład problemowy; wykład konwersatoryjny; wykład z prezentacją multimedialną | ||||||||||||||||||||||||||
| Ps | realizacja sprawozdań; relizacja projektów | ||||||||||||||||||||||||||
| Metody dydaktyczne (realizacja zdalna) |
|||||||||||||||||||||||||||
| W | wykład problemowy; wykład konwersatoryjny; wykład z prezentacją multimedialną | ||||||||||||||||||||||||||
| - | |||||||||||||||||||||||||||
| Forma zaliczenia | |||||||||||||||||||||||||||
| W | egzamin pisemny z pytaniami otwartymi | ||||||||||||||||||||||||||
| Ps | sprawozdania; projekt | ||||||||||||||||||||||||||
| Warunki zaliczenia | |||||||||||||||||||||||||||
| W | Uzyskanie min. 30% z każdego E1-E2, a po spełnieniu tego warunku ostateczna ocena wynika z sumy uzyskanych punktów. Kryteria oceny: [ 0 – 50]% punktów – 2.0 (50 – 60]% punktów – 3.0 (60 – 70]% punktów – 3.5 (70 – 80]% punktów – 4.0 (80 – 90]% punktów – 4.5 (90 – 100]% punktów – 5.0 |
||||||||||||||||||||||||||
| Ps | Uzyskanie min. 30% z każdego E3-E4, a po spełnieniu tego warunku ostateczna ocena wynika z sumy uzyskanych punktów. Kryteria oceny: [ 0 – 50]% punktów – 2.0 (50 – 60]% punktów – 3.0 (60 – 70]% punktów – 3.5 (70 – 80]% punktów – 4.0 (80 – 90]% punktów – 4.5 (90 – 100]% punktów – 5.0 |
||||||||||||||||||||||||||
| Symbol efektu | Zakładane efekty uczenia się | Odniesienie do efektów uczenia się zdefiniowanych dla kierunku studiów | |||||||||||||||||||||||||
| Wiedza | Umiejętności | Kompetencje społeczne |
|||||||||||||||||||||||||
| Wiedza: student zna i rozumie | |||||||||||||||||||||||||||
| E1 | zaawansowane metody i techniki uczenia maszynowego | ||||||||||||||||||||||||||
| E2 | zasady projektowania i optymalizacji złożonych systemów ML, także z uwzględnieniem wytycznych i zasad zrównoważonego rozwoju | ||||||||||||||||||||||||||
| Umiejętności: student potrafi | |||||||||||||||||||||||||||
| E3 | implementować zaawansowane modele ML, w szczególności z uwzględnieniem zapotrzebowania na zasoby obliczeniowe i pamięciowe zgodnie z koncepcjami zrównoważonego rozwoju | ||||||||||||||||||||||||||
| E4 | projektować, optymalizować i interpretować działanie systemów ML, w szczególności mając na uwadze zasady zrównoważonego rozwoju | ||||||||||||||||||||||||||
| Symbol efektu | Sposób weryfikacji efektu uczenia się | Forma zajęć na której zachodzi weryfikacja | |||||||||||||||||||||||||
| E1 | egzamin pisemny | W | |||||||||||||||||||||||||
| E2 | egzamin pisemny | W | |||||||||||||||||||||||||
| E3 | wykonanie sprawozdań i projektu | Ps | |||||||||||||||||||||||||
| E4 | wykonanie sprawozdań i projektu | Ps | |||||||||||||||||||||||||
| Literatura podstawowa | |||||||||||||||||||||||||||
| 1. | C. C. Aggarwal, Neural networks and deep learning. Vol. 10. No. 978. Cham: Springer, 2018 | ||||||||||||||||||||||||||
| 2. | R. S.Sutton,A. G. Barto, F. Bach, Reinforcement Learning, MIT Press Ltd, 2018 | ||||||||||||||||||||||||||
| 3. | S. J. Russell, P. Norvig, Artificial Intelligence: A Modern Approach (4. edycja), Pearson, 2020 | ||||||||||||||||||||||||||
| 4. | C. Wade, K. Glynn, Hands-On Gradient Boosting with XGBoost and scikit-learn, Packt, 2020 | ||||||||||||||||||||||||||
| 5. | C. Molnar, Interpretable Machine Learning, Independently Published, 2020 | ||||||||||||||||||||||||||
| Literatura uzupełniająca | |||||||||||||||||||||||||||
| 1. | A. Plaat, Deep Reinforcement Learning: a textbook, Springer, 2022 | ||||||||||||||||||||||||||
| 2. | K. P.Murphy, Probabilistic Machine Learning: An Introduction, MIT Press, 2022 | ||||||||||||||||||||||||||
| 3. | F. Hutter, L. Kotthoff, J. Vanschoren, Automated Machine Learning: Methods, Systems, Challenges, Springer, 2019 | ||||||||||||||||||||||||||
| 4. | A. Géron, Hands-On Machine Learning with Scikit-Learn, Keras, and TensorFlow, O'Reilly Media, 2019 | ||||||||||||||||||||||||||
| Koordynator przedmiotu: | dr hab. Marek J. Drużdżel, dr hab. inż. Małgorzata Krętowska, dr inż. Urszula Kużelewska, dr inż. Tomasz Łukaszuk | Data: | 03/03/2025 | ||||||||||||||||||||||||