====== Uczenie maszynowe i głębokie uczenie ====== ===== Cele kursu ===== Głównym celem kursu jest wprowadzenie do najnowszych technik stosowanych w wyjaśnianiu decyzji algorytmów uczenia maszynowego. Kurs obejmuje wszystkie rodzaje technik wyjaśniania dla różnych typów modeli uczenia maszynowego. Wykłady będą uzupełnione ćwiczeniami praktycznymi w języku programowania Python, realizowanymi przez studentów podczas zajęć laboratoryjnych. ===== Podręczniki ===== * [FLA] [[http://www.cs.bris.ac.uk/~flach|Peter Flach]] //[[http://www.cs.bris.ac.uk/~flach/mlbook/|Machine Learning. The Art and Science of Algorithms that Make Sense of Data]]//, Cambridge University Press, 2012. * [DMW] [[http://www.cs.waikato.ac.nz/~ihw|Ian Witten]], [[http://www.cs.waikato.ac.nz/~eibe|Eibe Frank]], [[http://www.linkedin.com/in/mahall|Mark Hall]], //[[http://www.cs.waikato.ac.nz/ml/weka/book.html|Data Mining: Practical Machine Learning Tools and Techniques]]//, 3rd edition, Morgan Kaufmann Publishers, 2011 Uzupełniająco: * [TML] [[http://www.cs.cmu.edu/~tom/|T. Mitchell]], //[[http://www.cs.cmu.edu/~tom/mlbook.html|Machine Learning]]//, McGraw Hill, 1997. * [CMB] [[http://research.microsoft.com/en-us/um/people/cmbishop/|Christopher M. Bishop]] //[[http://research.microsoft.com/en-us/um/people/cmbishop/prml/|Pattern Recognition and Machine Learning]]//, Springer, 2007. * [CIH] [[http://www.ise.pw.edu.pl/~cichosz|Paweł Cichosz]], //[[http://www.ise.pw.edu.pl/~cichosz/SU/|Systemy uczące się]]//, WNT, 2000. * [KDA] [[http://www.cioslab.vcu.edu/index.html|Krzysztof Cios]] et al. //[[http://www.springer.com/computer/database+management+%26+information+retrieval/book/978-0-387-33333-5|Data Mining A Knowledge Discovery Approach]]//, Springer, 2007 [[http://www.cioslab.vcu.edu/Publications/DMBook/DMBook_Materials.htm|slajdy]] * [RSI] [[http://www.recommenderbook.net/|Recommender Systems - An Introduction]], [[http://www.recommenderbook.net/teaching-material/tutorial-slides|tutorial]] * [IIR] [[http://nlp.stanford.edu/IR-book/html/htmledition/irbook.html|Introduction to Information Retrieval]], [[http://www.dcs.bbk.ac.uk/~dell/teaching/ir/|slajdy do kursu]] * [FCA] [[http://www.cs.ubc.ca/~poole/|D. Poole]], [[http://www.cs.ubc.ca/~mack|A. Mackworth]], //[[http://artint.info|Artificial Intelligence: Foundations of Computational Agents]]//, Cambridge University Press, 2010, **[[http://artint.info/html/ArtInt.html|ONLINE]]** Inspiracje do ćwiczeń i poszerzania wiedzy: * Coursera: [[https://www.coursera.org/specializations/machine-learning|Machine learning specialization]] * Coursera: [[http://www.cs.stanford.edu/people/ang/|Andrew Ng]] [[https://www.coursera.org/course/ml|Coursera: Machine Learning]] * Coursera: [[https://www.coursera.org/specializations/jhu-data-science|Data Science specialization]] * [ZMV] [[http://www.cs.ccsu.edu/~markov/|Zdravko Markov]], //[[http://www.cs.ccsu.edu/~markov/ccsu_courses/MachineLearning.html|CS570 - Topics in AI: Machine Learning]]//, oraz //[[http://www.cs.ccsu.edu/~markov/ccsu_courses/mlprograms/|Machine Learning Programs and Laboratory Experiments in Prolog]]//, 2003. * [[http://www.cs.waikato.ac.nz/~ihw|Ian Witten]], Data Mining with Weka: [[http://wekamooc.blogspot.com/]] [[https://weka.waikato.ac.nz/explorer]] Varia: * [[http://www.cs.waikato.ac.nz/ml/weka/|WEKA]] * [[https://archive.ics.uci.edu/ml/|UCI ML repo]] * [[http://www.cs.ccsu.edu/~markov/|Zdravko Markov]] and Daniel T. Larose [[http://www.dataminingconsultant.com/DMW.htm|Data Mining the Web: Uncovering Patterns in Web Content, Structure, and Usage]] * [[https://www.lenwood.cc/2014/05/13/12-free-data-mining-books/|14 Free (as in beer) Data Mining Books]] ===== Ramowy plan wykładu===== - **[08.10.2025]**[[https://ujchmura-my.sharepoint.com/:b:/g/personal/szymon_bobek_uj_edu_pl/EY7yJPyvgzBPtdBzJHX1wGYBzgI5n462tEWlYwNSUXL8-Q?e=Tqcsmr| Atrybuty i modele, wejście i wyjście w procesie DM/ML I]] - **[15.10.2025]**[[https://ujchmura-my.sharepoint.com/:b:/g/personal/szymon_bobek_uj_edu_pl/EY7yJPyvgzBPtdBzJHX1wGYBzgI5n462tEWlYwNSUXL8-Q?e=Tqcsmr| Atrybuty i modele, wejście i wyjście w procesie DM/ML II]] - **[22.10.2025]** [[https://ujchmura-my.sharepoint.com/:b:/g/personal/szymon_bobek_uj_edu_pl/EY7mwCOac7hPiwRS7dIO8rMBfSKHHvrX9J9b2-sRXgke-g?e=yPHxiJ|Regresja liniowa]] - **[29.10.2025]** [[https://ujchmura-my.sharepoint.com/:b:/g/personal/szymon_bobek_uj_edu_pl/IQBFEqoseJ6BQoFA486OoNWZARFF15Kk56ZIjJBipStzHKI?e=zjnFww|Bias/Variance]] - **[05.11.2025]** [[https://ujchmura-my.sharepoint.com/:b:/g/personal/szymon_bobek_uj_edu_pl/IQBFEqoseJ6BQoFA486OoNWZARFF15Kk56ZIjJBipStzHKI?e=zjnFww|Ridge regression]] - **[12.11.2025]** [[https://ujchmura-my.sharepoint.com/:b:/g/personal/szymon_bobek_uj_edu_pl/IQBA1nZjm8B3SqDDkPz_JblYAYZKxi2X7qtrysUAWXUX7q4?e=6WX0Gd| Klasyfikacja i jej ewaluacja, Regresja Logitowa i SVM]] - **[19.11.2025]** [[https://ujchmura-my.sharepoint.com/:b:/g/personal/szymon_bobek_uj_edu_pl/IQBbf4tFlJweQKyJKl0PWjy0AXNRhOk-i1RTBzdcGY9o3uc?e=3UI3rd|Drzewa decyzyjne]] - **[26.11.2025]** [[https://ujchmura-my.sharepoint.com/:b:/g/personal/szymon_bobek_uj_edu_pl/IQCOM3pC3EtRQZgJzb5PPLvKAWEaC50ew6nX5rfQgw-bkWc?e=HOOfjo|Uczenie zespołów klasyfikatorów (ang. ensemble)]] - **[03.12.2025]** [[https://ujchmura-my.sharepoint.com/:b:/g/personal/szymon_bobek_uj_edu_pl/IQAn4D8aaB_fT63-mf9oaIrVAQBc8Xar9_G1YSgBys8ILas?e=l5GsHU|Uczenie przyrostowe]] - **[10.12.2025]** {{ :courses:xai:1_introduction_to_explainable_artificial_intelligence.pdf |Explainable AI}} - **[17.12.2025]** Głębokie sieci neuronowe - **[14/21.01.2026]** Deep learning w praktycznych zastosowaniach * :!: **Egzamin Termin I: 04.02.2026** - godzina 12:00-14:00 sala A-2-07 * :!: **Egzamin Termin II: 25.02.2026** - godzina 12:00-14:00 sala A-2-07 ===== Ramowy plan laboratorium ===== - [[.:lab1| Laboratorium 1]] (8.10.2025) -- Wprowadzenie do środowiska pracy - [[.:lab2| Laboratorium 2]] (15.10.2025) -- GoogleColab, Pandas i Numpy - [[.:lab3| Laboratorium 3]] (22.10.2025) -- Transformacje i wizualizacje danych - [[.:lab4| Laboratorium 4]] (29.10.2025) -- Regresja, Szeregi czasowe - [[.:lab5| Laboratorium 5]] (5.11.2025) -- Klasyfikacja - [[.:lab6| Laboratorium 6]] (19.11.2025) -- Podstawy przetwarzania tekstu - [[.:lab7| Laboratorium 7]] (26.11.2025) -- Zespoły klasyfikatorów: Bagging, Boosting - [[.:lab8| Laboratorium 8]] (3.12.2025) -- Uczenie przyrostowe - (10.12.2025) -- [TEST] - [[.:lab12| Laboratorium 9]] (10.12.2025) -- Explainable AI - [[.:lab9| Laboratorium 11]] (17.12.2025) -- Sieci neuronowe - [[.:lab10| Laboratorium 12]] (14.01.2025) -- Różne architektury sieci głębokich - [[.:lab11| Laboratorium 13]] (21.01.2025) -- Deep learning w praktycznych zastosowaniach - (28.01.2025) -- [TEST] ===== Zaliczenie ===== 100 pkt to 100% punktów za laboratoria. ocena składa się z: * 2x50 pkt za testy sprawdzające wiedzę z materiału omawianego podczas laboratoriów. * po 1 pkt za aktywność podczas zajęć ===== Oceny ===== * >= 90 pkt – bdb * >= 80 pkt – db+ * >= 70 pkt – db * >= 60 pkt – dst+ * >= 50 pkt – dst * < 50 pkt – ndst ===== Egzamin =====