LĂ€dt

ProtoTree: Entscheidungen von KĂŒnstlicher Intelligenz nachvollziehbar machen

Fotocredit: AdobeStock/vegefox.com

KĂŒnstliche Intelligenz ist in der Lage, Vorhersagen zu treffen. Aber hĂ€ufig kann nicht in Detail nachvollzogen werden, wie Entscheidungsprozesse ablaufen. Dann spricht man von einer Blackbox. In vielen Kontexten ist es aber wichtig zu wissen, welche Argumentation ein Algorithmus verwendet, um zu einer bestimmten Vorhersage zu gelangen, zum Beispiel bei medizinischen Diagnosen. Meike Nauta hat darum ein Modell entwickelt, das KI-Entscheidungsprozesse transparent macht. Sie ist Doktorandin an der UniversitĂ€t Twente, Niederlande, und Gastwissenschaftlerin am Institut fĂŒr KĂŒnstliche Intelligenz in der Medizin in Essen (IKIM) der Medizinischen FakultĂ€t der UniversitĂ€t Duisburg-Essen.

Das VerstĂ€ndnis des Entstehungsprozesses einer Entscheidung kann wichtig sein, wenn zum Beispiel Ärzt:innen die von KĂŒnstlicher Intelligenz (KI) gestellten Diagnosen verstehen mĂŒssen, um sie validieren zu können. Bislang wurde in der Forschung zur sogenannten erklĂ€rbaren KI meist rĂŒckschauend interpretiert, wie Entscheidungen zustande gekommen sind. Relativ neu, aber noch wenig erforscht, ist das sogenannte intrinsisch interpretierbare maschinelle Lernen, bei dem die ErklĂ€rbarkeit bereits Teil des Modells ist. So in dem von Meike Nauta entwickelten Neural Prototype Tree, kurz ProtoTree, zur Interpretation von Bilddateien.

Laut Christin Seifert, Professorin am IKIM und Mitautorin der Studie, Ă€hnelt der zugrundeliegende Prozess dem, wie man einem Kind neue Dinge beibringt: „Man sagt einem Kind zum Beispiel, dass das Tier auf einem Foto ein Hund ist, aber man erklĂ€rt nicht im Detail, welche körperlichen Merkmale Hunde haben. Das Kind lernt, andere Hunde auf der Grundlage dieses einen Fotos zu erkennen.“

Die Wissenschaftlerinnen haben ProtoTree u.a. mit Bildern von Vögeln und Autos trainiert und es kann in Bildern nach ĂŒbereinstimmenden physischen Merkmalen suchen. „FĂŒr die Anwendenden ist jeder Schritt in der Argumentation nachvollziehbar. Und da man sieht, worauf Entscheidungen fußen, können Verzerrungen entdeckt werden“, erklĂ€rt Meike Nauta. Solches Entscheidungsbaumlernen gibt es zwar schon seit Jahrzehnten, jedoch nicht fĂŒr die Klassifikation von Bildern. In dem von Nauta entwickelten Modell ist entsprechend auch jeder Entscheidungspunkt in einem Bild dokumentiert und damit fĂŒr den Menschen leicht zu interpretieren.

Prof. Dr. Christin Seifert: „Jetzt werden wir die Anwendung von ProtoTree im medizinischen Bereich erforschen.“ Eine interdisziplinĂ€re Studie zwischen der UniversitĂ€t Twente, der Twente hospital group, dem IKIM und der UniversitĂ€t MĂŒnster wird aktuell vorbereitet.

Nautas Paper wird ĂŒber die Computer Vision Foundation veröffentlicht, eine Non-Profit-Organisation, die alle CVPR-Publikationen open-access zur VerfĂŒgung stellt. Ein Preprint des Papers ist bereits verfĂŒgbar unter: Neural Prototype Trees for Interpretable Fine-Grained Image Recognition.

Die UniversitÀt Twente hat ebenfalls eine Pressemeldung herausgegeben: https://www.utwente.nl/en/news/2021/6/1093748/prototree-addressing-the-black-box-nature-of-deep-learning-models

Pressekontakt 
Wissenschaftsredaktion
Dekanat
Medizinische FakultÀt der UniversitÀt Duisburg-Essen
E-Mail: presse-dekanat@uk-essen.de
News-Seite: www.uni-due.de/med
Social Media: www.facebook.com/medessen | www.twitter.com/medessen | www.instagram.com/medizinischefakultaet

 

WordPress Appliance - Powered by TurnKey Linux