2021-08-17 12:20:46

Deep Learning: Bayreuther Mathematiker sind mit zwei Forschungsprojekten beteiligt

Gleich mit zwei Forschungsprojekten ist die Bayreuther Mathematik am Schwerpunktprogramm 2298 „Theoretical Foundation of Deep Learning“ der Deutschen Forschungsgemeinschaft (DFG) beteiligt. Gestartet wird das Programm im Herbst diesen Jahres. Insgesamt werden rund 20 Forschungsprojekte dabei sein. Das Ziel dieses Schwerpunktprogramms ist die Entwicklung einer umfassenden theoretischen Grundlage des Deep Learning. Für die beiden teilnehmenden Mathe-Projekte stellt die DFG der Universität Bayreuth in den kommenden drei Jahren 418.800 Euro zur Verfügung. Deep Learning basiert auf mathematischen Formeln

Deep Learning beruft sich auf mathematische Formeln

Deep Learning (DL) ist ein Teilbereich der Künstlichen Intelligenz und eine spezielle Methode der Informationsverarbeitung. DL nutzt dazu mathematische Formeln und neuronale Netze, um große Datensätze zu analysieren. In den letzten Jahren erlebt das Deep Learning einen beispiellosen Erfolg in realen Anwendungen wie z. B. im Gesundheitssektor, beim autonomen Fahren oder in der Steuerung von Stromnetzen. 

Der Forschung fehlt es an mathematischen Grundlagen 

Zudem haben Deep-Learning-basierte Methoden einen starken Einfluss auf die Wissenschaft. Ziel ist es, mathematische Probleme zu lösen. Dabei ersetzt DL-Methoden die hochmodernen klassischen modellbasierten Methoden. Aber es fehlen der Forschung zu tiefen neuronalen Netzen die nötigen mathematischen Grundlagen, um die Fehleranfälligkeit der Techniken zu minimieren. 

Auf der Suche nach mathematischen Strukturen für Regelungsaufgaben

Hier setzen die Projekte von Prof. Dr. Lars Grüne und Prof. Dr. Anton Schiela vom Lehrstuhl für Angewandte Mathematik der Universität Bayreuth an. Diese Forschungsprojekte befassen sich mit unterschiedlichen Aspekten des maschinellen Lernens.

Das Projekt von Prof. Grüne behandelt die Frage, wann tiefe neuronale Netze für hochdimensionale Steuerungs- und Regelungsaufgaben geeignet sind. Solche Anwendungen gibt es unter anderem bei der Regelung von großen Netzwerken, wie z.B. beim Management von Stromnetzen mit einer hohen Zahl von erneuerbaren Energiequellen. Aus der Praxis ist bekannt, dass Lernverfahren aus der Künstlichen Intelligenz mit tiefen neuronalen Netzen für manche solcher Aufgaben sehr gut funktionieren, für manche aber auch gar nicht. In dem Projekt wird nach den mathematischen Strukturen solcher Regelungsaufgaben gesucht, die der Grund dafür sind. Die Erforschung dieser mathematischen Grundlagen soll es ermöglichen, die Erfolgsaussichten solcher Lernverfahren besser einzuschätzen und Regelungsaufgaben gezielt so zu entwerfen, dass sie effizient lösbar sind. Dies bringt wesentliche Vorteile mit sich. Wie z. B. die verbesserte Sicherheit der Stromversorgung in einem System zahlreicher dezentraler Stromquellen – wie bei der Energiewende.

Erforschung neuer Methoden aus der mathematischen Optimierung 

Das Projekt von Prof. Schiela, das in Kooperation mit Prof. Dr. Roland Herzog von der Universität Heidelberg durchgeführt wird, erforscht dagegen neue Methoden aus der mathematischen Optimierung für das Training tiefer neuronaler Netze. Diese haben zwei Ziele: zum einen die Ermöglichung eines effizienten Trainings, zum anderen die Automatisierung der Bestimmung von Parametern, die derzeit meist mühsam von Hand gesetzt werden müssen. Damit soll der Trainingsprozess der Künstlichen Intelligenz einfacher und zuverlässiger gestaltet werden. Dieses Projekt zielt nicht auf eine konkrete Anwendung tiefer neuronaler Netze ab, sondern wird Methoden entwickeln, die in sehr vielen verschiedenen Situationen eingesetzt werden können.

Weitere Informationen zu den Forschungsprogrammen erhalten Interessierte auf der Website von Theoretical Foundations of Deep Learning (externer Link).  

Von Python über Matlab: Mathelöser bietet Hilfe für Studierende

Das Thema Deep Learning nimmt einen immer größeren Raum auch in den Universitäten ein. In Lehrveranstaltunen werden tiefgreifende Kenntnisse über die Funktionsweise moderner Verfahren aus dem Bereich Deep Learning vermittelt. Die Schwerpunkte sind neben den Grundlagen des Deep Learning z. B. Computer Vision und Convolutional Neural Networks, Natural Language Processing und Recurrent Neural Networks als auch Deep Reinforcement Learning. 

Als Vorkenntnisse für diese Vorlesungen werden häufig Kenntnisse in Bereichen wie z. B.  Algorithmische Mathematik und Programmieren, Einführung in die Numerische Mathematik und Einführung in die Numerik partieller Differentialgleichungen vorausgesetzt. Von Vorteil sind zudem Know how in der Numerik, wie z. B. zu Finiten Elementen oder Wissenschaftlichem Rechnen. Weiterhin sollen gute Programmierkenntnisse in Matlab und Python vorhanden sein. Mathelöser bietet Studierenden hier professionelle Hilfe, um dich auf das Thema, die Klausuren und Vorlesungen vorzubereiten. Schreibe uns einfach eine Mail an info@matheloeser.com oder sende uns deine Aufgaben mit unserem Service Aufgabe hochladen