Die Wurzeln des Maschinenlernens lassen sich bis in die Anfangszeit der Computer zurückverfolgen. Erfolge stellten sich jedoch erst in den 1980er Jahren ein, mit der sog. Backpropagation in künstlichen neuronalen Netzen, in denen statistische Methoden eine wesentliche Rolle spielen (Stichwort Boltzmann-Maschine). Neben der enormen Leistungssteigerung der Computer in den vergangenen Jahrzehnten waren es einige algorithmische Meilensteine, die die neuronalen Netzwerke schließlich zum heutigen “deep learning” befähigten.
Die Vorlesung behandelt die algorithmischen und statistischen Grundlagen künstlicher neuronaler Netze sowie andere Aspekte von Maschinenlernen. Weiterhin sollen ausgewählte Anwendungen in der Physik, Wirtschaft und Industrie diskutiert werden.
Die Vorlesung (2 SWS) wird begleitet von Übungen in Form von Aufgaben bzw. kleineren Projekten (2 SWS), in denen auf Basis von Python3/JupyterLab und Bibliotheken unterschiedlicher “Komfortstufe” künstliche neuronale Netze programmiert, trainiert und analysiert werden.
Aufgrund der aktuellen unerfreulichen Situation werden Vorlesung und Übung online abgehalten. Die genaue Ausgestaltung ist gerade in der Entwicklung, Neuigkeiten werden hier auf moodle mitgeteilt.
Der Einschreibeschlüssel kann via E-Mail bei Fred.Hucht@uni-due.de oder Lothar.Brendel@uni-due.de erfragt werden.
- Lehrende(r): Brendel Lothar
- Lehrende(r): Hucht Alfred