Lädt

ProtoTree: Entscheidungen von Künstlicher Intelligenz nachvollziehbar machen

Fotocredit: AdobeStock/vegefox.com

Künstliche Intelligenz ist in der Lage, Vorhersagen zu treffen. Aber häufig kann nicht in Detail nachvollzogen werden, wie Entscheidungsprozesse ablaufen. Dann spricht man von einer Blackbox. In vielen Kontexten ist es aber wichtig zu wissen, welche Argumentation ein Algorithmus verwendet, um zu einer bestimmten Vorhersage zu gelangen, zum Beispiel bei medizinischen Diagnosen. Meike Nauta hat darum ein Modell entwickelt, das KI-Entscheidungsprozesse transparent macht. Sie ist Doktorandin an der Universität Twente, Niederlande, und Gastwissenschaftlerin am Institut für Künstliche Intelligenz in der Medizin in Essen (IKIM) der Medizinischen Fakultät der Universität Duisburg-Essen.

Das Verständnis des Entstehungsprozesses einer Entscheidung kann wichtig sein, wenn zum Beispiel Ärzt:innen die von Künstlicher Intelligenz (KI) gestellten Diagnosen verstehen müssen, um sie validieren zu können. Bislang wurde in der Forschung zur sogenannten erklärbaren KI meist rückschauend interpretiert, wie Entscheidungen zustande gekommen sind. Relativ neu, aber noch wenig erforscht, ist das sogenannte intrinsisch interpretierbare maschinelle Lernen, bei dem die Erklärbarkeit bereits Teil des Modells ist. So in dem von Meike Nauta entwickelten Neural Prototype Tree, kurz ProtoTree, zur Interpretation von Bilddateien.

Laut Christin Seifert, Professorin am IKIM und Mitautorin der Studie, ähnelt der zugrundeliegende Prozess dem, wie man einem Kind neue Dinge beibringt: „Man sagt einem Kind zum Beispiel, dass das Tier auf einem Foto ein Hund ist, aber man erklärt nicht im Detail, welche körperlichen Merkmale Hunde haben. Das Kind lernt, andere Hunde auf der Grundlage dieses einen Fotos zu erkennen.“

Die Wissenschaftlerinnen haben ProtoTree u.a. mit Bildern von Vögeln und Autos trainiert und es kann in Bildern nach übereinstimmenden physischen Merkmalen suchen. „Für die Anwendenden ist jeder Schritt in der Argumentation nachvollziehbar. Und da man sieht, worauf Entscheidungen fußen, können Verzerrungen entdeckt werden“, erklärt Meike Nauta. Solches Entscheidungsbaumlernen gibt es zwar schon seit Jahrzehnten, jedoch nicht für die Klassifikation von Bildern. In dem von Nauta entwickelten Modell ist entsprechend auch jeder Entscheidungspunkt in einem Bild dokumentiert und damit für den Menschen leicht zu interpretieren.

Prof. Dr. Christin Seifert: „Jetzt werden wir die Anwendung von ProtoTree im medizinischen Bereich erforschen.“ Eine interdisziplinäre Studie zwischen der Universität Twente, der Twente hospital group, dem IKIM und der Universität Münster wird aktuell vorbereitet.

Nautas Paper wird über die Computer Vision Foundation veröffentlicht, eine Non-Profit-Organisation, die alle CVPR-Publikationen open-access zur Verfügung stellt. Ein Preprint des Papers ist bereits verfügbar unter: Neural Prototype Trees for Interpretable Fine-Grained Image Recognition.

Die Universität Twente hat ebenfalls eine Pressemeldung herausgegeben: https://www.utwente.nl/en/news/2021/6/1093748/prototree-addressing-the-black-box-nature-of-deep-learning-models

Pressekontakt 
Wissenschaftsredaktion
Dekanat
Medizinische Fakultät der Universität Duisburg-Essen
E-Mail: presse-dekanat@uk-essen.de
News-Seite: www.uni-due.de/med
Social Media: www.facebook.com/medessen | www.twitter.com/medessen | www.instagram.com/medizinischefakultaet

 

slot gacor
WordPress Appliance - Powered by TurnKey Linux