Banner ImageBanner Image

Vortrag

Erklärbare KI-Modelle am Beispiel der Vorhersage von Faktoren eines erfolgreichen Studienabschlusses

Erklärbare KI-Modelle am Beispiel der Vorhersage von Faktoren eines erfolgreichen Studienabschlusses

Infos

  • FR 27. Sept. 11:00 - 12:00 Uhr
  • Online-Event

    Link sichtbar nach Anmeldung.

  • Format: Vortrag
  • Expertise: Interessierte
  • kostenlos

Der kürzlich erlassene „EU AI Act“ führt Transparenz so genannter „Blackbox-Algorithmen“, wie z.B. „künstliche neuronale Netze“, als einen maßgeblichen Grundsatz zur Gestaltung moderner KI-Systeme aus. Doch wie kann man eine Blackbox öffnen? In meinem Vortrag möchte ich zwei Tools vorstellen, „LIME“ und „SHAP“-Werte, die mittels einfacher Python-Programmierung Trendlinien opaker Entscheidungsrichtlinien offenlegen und somit (theoretisch) jedes KI-Modell erklärbar machen. Hierzu betrachten wir einen Datensatz von Studienabbrechern aus dem berühmten UCL-Machine Learning Repository, den wir dazu nutzen, um ein künstliches neuronales Netz selber zu trainieren, welches dann die Erfolgsaussichten eines Studiums prognostiziert. Im Anschluss benutzen wir LIME und SHAP-Werte, um die maßgeblichen „Erfolgsfaktoren“ eines Studiums herauszufiltern. Diese Erfolgsfaktoren möchte ich mit meiner eigenen Erfahrung als Dozent abgleichen, um so die Glaubwürdigkeit des vorliegenden KI-Modells kritisch zu hinterfragen.

Themen

Arbeitswelt der Zukunft

Beratung

Internationales

Künstliche Intelligenz

Big Data

Speaker:innen

Marcus
Marcus Becker

Marcus Becker ist Professor an der ISM. Er hat langjährige Erfahrung im...