Stellenangebote
Doktorandenstelle für interpretierbares maschinelles Lernen / erklärbare KI (m/w/d)
- Organisation
- LMU München
- Ort
- München
- Profil
- Der Lehrstuhl “Statistical Learning and Data Science” an der LMU München verfügt über verschiedene Forschungsgruppen, von denen sich eine auf interpretierbares maschinelles Lernen & erklärbare KI konzentriert. Prof. Dr. Bernd Bischl, leiter dieses Lehrstuhls, ist gleichzeitig Direktor des Munich Center for Machine Learning (MCML), eines der nationalen Kompetenzzentren für maschinelles Lernen in Deutschland, das einen größeren Teil der Aktivitäten zum maschinellen Lernen an der LMU bündeln wird.
- Website der Organisation
- https://www.lmu.de/de/die-lmu/arbeiten-an-der-lmu/stellenportal/stellenbeschreibung/doktorandenstelle-fuer-interpretierbares-maschinelles-lernen-erklaerbare-ki-m-w-d.html
- Besetzung ab
- 01.07.2022 (oder später nach Vereinbarung)
- Bewerbungsfrist
- 01.05.2022
- Stellenprofil
- Beschreibung des Projekts:
Viele Interpretationsmethoden liefern oft Erklärungen für Black-Box-Modelle auf der Ebene einzelner Merkmale, entweder lokal für bestimmte Beobachtungen oder global für das gesamte Modell. Regionale Erklärungen, ein Kompromiss zwischen lokalen und globalen Erklärungen, sind jedoch weitgehend unerforscht. Die erzeugten Erklärungen sollen Aufschluss über Eingesetzte Black-Box Modelle geben und sind in der Regel statistische Schätzungen, die jedoch selten mit Unsicherheitsschätzungen unterfüttert werden. Da solche Erklärungen in der Regel auch an das Modell gebunden sind, lassen sie sich nicht auf den zugrunde liegenden datengenerierenden Prozess verallgemeinern. Dieses Projekt zielt unter Anderem darauf ab, die oben genannten Aspekte für Erklärungen zu untersuchen. Während Ihrer Promotion werden Sie sich auf die Erforschung, Erweiterung und Implementierung von Interpretationsmethoden des maschinellen Lernens konzentrieren, wobei der Schwerpunkt auf modellagnostischen Methoden für tabellarische Daten liegt.
Aufgaben
- Forschung auf dem Gebiet des interpretierbaren maschinellen Lernens.
- Entwicklung und Verbesserung von Softwareimplementierungen.
- Unterstützung bei Lehrveranstaltungen zum maschinellen Lernen.
Anforderungen
- M.Sc. in Informatik, Statistik, Mathematik oder einer verwandten Disziplin.
- Ausgeprägte Kenntnisse im Bereich des angewandten und theoretischen maschinellen Lernens und der Statistik.
- Kenntnisse im Bereich der Unsicherheitsschätzung oder Methoden zur Interpretierbarkeit im maschinellen Lernen sind von Vorteil.
- Sehr gute Programmierkenntnisse in R (stark bevorzugt) und/oder Python. Zusätzliche Kenntnisse in C++ sind von Vorteil.
- Motivierte Persönlichkeit, Lernbereitschaft und selbstständiger Arbeitsstil.
- Teamfähigkeit, ausgezeichnete Kommunikationsfähigkeiten und zwischenmenschliche Kompetenz.
- Fließendes Englisch in Wort und Schrift.
Unser Angebot
- Voll finanzierte drei-Jahres-Stelle mit Option auf Verlängerung.
- Zukunftsweisende Forschungsprojekte in einem spannenden Bereich.
- Exzellentes wissenschaftliches Umfeld an einer deutschen Spitzenuniversität.
- Internationale Netzwerke und Austauschmöglichkeiten.
- Die LMU strebt eine Erhöhung des Anteils der Frauen in Forschung und Lehre an und bittet deshalb Wissenschaftlerinnen nachdrücklich, sich zu bewerben.
- Schwerbehinderte Personen werden bei im Wesentlichen gleicher Qualifikation bevorzugt. - Vergütung
- TV-L E13
Bewerbungsanschrift
casalicchio@stat.uni-muenchen.de
nur per E-Mail
Ansprechpartner
Giuseppe Casalicchio
+4917696686192
casalicchio@stat.uni-muenchen.de
11.03.2022
Stelle anbieten
Die Veröffentlichung von Stellenanzeigen ist ein kostenloser Service der GI.