Lädt

ProtoTree: Entscheidungen von K√ľnstlicher Intelligenz nachvollziehbar machen

Fotocredit: AdobeStock/vegefox.com

K√ľnstliche Intelligenz ist in der Lage, Vorhersagen zu treffen. Aber h√§ufig kann nicht in Detail nachvollzogen werden, wie Entscheidungsprozesse ablaufen. Dann spricht man von einer Blackbox. In vielen Kontexten ist es aber wichtig zu wissen, welche Argumentation ein Algorithmus verwendet, um zu einer bestimmten Vorhersage zu gelangen, zum Beispiel bei medizinischen Diagnosen. Meike Nauta hat darum ein Modell entwickelt, das KI-Entscheidungsprozesse transparent macht. Sie ist Doktorandin an der Universit√§t Twente, Niederlande, und Gastwissenschaftlerin am Institut f√ľr K√ľnstliche Intelligenz in der Medizin in Essen (IKIM) der Medizinischen Fakult√§t der Universit√§t Duisburg-Essen.

Das Verst√§ndnis des Entstehungsprozesses einer Entscheidung kann wichtig sein, wenn zum Beispiel √Ąrzt:innen die von K√ľnstlicher Intelligenz (KI) gestellten Diagnosen verstehen m√ľssen, um sie validieren zu k√∂nnen. Bislang wurde in der Forschung zur sogenannten erkl√§rbaren KI meist r√ľckschauend interpretiert, wie Entscheidungen zustande gekommen sind. Relativ neu, aber noch wenig erforscht, ist das sogenannte intrinsisch interpretierbare maschinelle Lernen, bei dem die Erkl√§rbarkeit bereits Teil des Modells ist. So in dem von Meike Nauta entwickelten Neural Prototype Tree, kurz ProtoTree, zur Interpretation von Bilddateien.

Laut Christin Seifert, Professorin am IKIM und Mitautorin der Studie, √§hnelt der zugrundeliegende Prozess dem, wie man einem Kind neue Dinge beibringt: ‚ÄěMan sagt einem Kind zum Beispiel, dass das Tier auf einem Foto ein Hund ist, aber man erkl√§rt nicht im Detail, welche k√∂rperlichen Merkmale Hunde haben. Das Kind lernt, andere Hunde auf der Grundlage dieses einen Fotos zu erkennen.‚Äú

Die Wissenschaftlerinnen haben ProtoTree u.a. mit Bildern von V√∂geln und Autos trainiert und es kann in Bildern nach √ľbereinstimmenden physischen Merkmalen suchen. ‚ÄěF√ľr die Anwendenden ist jeder Schritt in der Argumentation nachvollziehbar. Und da man sieht, worauf Entscheidungen fu√üen, k√∂nnen Verzerrungen entdeckt werden‚Äú, erkl√§rt Meike Nauta. Solches Entscheidungsbaumlernen gibt es zwar schon seit Jahrzehnten, jedoch nicht f√ľr die Klassifikation von Bildern. In dem von Nauta entwickelten Modell ist entsprechend auch jeder Entscheidungspunkt in einem Bild dokumentiert und damit f√ľr den Menschen leicht zu interpretieren.

Prof. Dr. Christin Seifert: ‚ÄěJetzt werden wir die Anwendung von ProtoTree im medizinischen Bereich erforschen.‚Äú Eine interdisziplin√§re Studie zwischen der Universit√§t Twente, der Twente hospital group, dem IKIM und der Universit√§t M√ľnster wird aktuell vorbereitet.

Nautas Paper wird √ľber die Computer Vision Foundation ver√∂ffentlicht, eine Non-Profit-Organisation, die alle CVPR-Publikationen open-access zur Verf√ľgung stellt. Ein Preprint des Papers ist bereits verf√ľgbar unter: Neural Prototype Trees for Interpretable Fine-Grained Image Recognition.

Die Universität Twente hat ebenfalls eine Pressemeldung herausgegeben: https://www.utwente.nl/en/news/2021/6/1093748/prototree-addressing-the-black-box-nature-of-deep-learning-models

Pressekontakt 
Wissenschaftsredaktion
Dekanat
Medizinische Fakultät der Universität Duisburg-Essen
E-Mail: presse-dekanat@uk-essen.de
News-Seite: www.uni-due.de/med
Social Media: www.facebook.com/medessen | www.twitter.com/medessen | www.instagram.com/medizinischefakultaet

 

WordPress Appliance - Powered by TurnKey Linux