Infos
- FR 27. Sept. 11:00 - 12:00 Uhr
- Online-Event
Link sichtbar nach Anmeldung.
- Format: Vortrag
- Expertise: Interessierte
- kostenlos
Der kürzlich erlassene „EU AI Act“ führt Transparenz so genannter „Blackbox-Algorithmen“, wie z.B. „künstliche neuronale Netze“, als einen maßgeblichen Grundsatz zur Gestaltung moderner KI-Systeme aus. Doch wie kann man eine Blackbox öffnen? In meinem Vortrag möchte ich zwei Tools vorstellen, „LIME“ und „SHAP“-Werte, die mittels einfacher Python-Programmierung Trendlinien opaker Entscheidungsrichtlinien offenlegen und somit (theoretisch) jedes KI-Modell erklärbar machen. Hierzu betrachten wir einen Datensatz von Studienabbrechern aus dem berühmten UCL-Machine Learning Repository, den wir dazu nutzen, um ein künstliches neuronales Netz selber zu trainieren, welches dann die Erfolgsaussichten eines Studiums prognostiziert. Im Anschluss benutzen wir LIME und SHAP-Werte, um die maßgeblichen „Erfolgsfaktoren“ eines Studiums herauszufiltern. Diese Erfolgsfaktoren möchte ich mit meiner eigenen Erfahrung als Dozent abgleichen, um so die Glaubwürdigkeit des vorliegenden KI-Modells kritisch zu hinterfragen.