{"id":242,"date":"2025-03-29T11:28:37","date_gmt":"2025-03-29T11:28:37","guid":{"rendered":"https:\/\/philosophy-and-ai.cs.rptu.de\/?page_id=242"},"modified":"2025-07-03T10:05:00","modified_gmt":"2025-07-03T10:05:00","slug":"woche-11","status":"publish","type":"page","link":"https:\/\/philosophie-und-ki.cs.rptu.de\/index.php\/woche-11\/","title":{"rendered":"&#8222;Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead&#8220;"},"content":{"rendered":"\n<p><strong>Cynthia Rudin &#8211; 2019<\/strong><br>Black-Box-Modelle des maschinellen Lernens werden derzeit f\u00fcr wichtige Entscheidungen in der Gesellschaft eingesetzt und verursachen Probleme im Gesundheitswesen, im Strafjustizsystem und in anderen Bereichen. Einige hoffen, dass Methoden zur Erkl\u00e4rung dieser Black-Box-Modelle einige dieser Probleme mildern k\u00f6nnen. Doch der Versuch, Black-Box-Modelle zu erkl\u00e4ren, anstatt von vornherein interpretierbare Modelle zu entwickeln, f\u00fchrt eher zu schlechten Praktiken und k\u00f6nnte der Gesellschaft erheblichen Schaden zuf\u00fcgen.<br><br>Der richtige Weg besteht darin, Modelle zu entwerfen, die von Natur aus interpretierbar sind. Diese Perspektive verdeutlicht die gro\u00dfe Kluft zwischen der Erkl\u00e4rung von Black-Box-Modellen und der Nutzung von inh\u00e4rent interpretierbaren Modellen. Sie zeigt mehrere zentrale Gr\u00fcnde auf, warum erkl\u00e4rbare Black-Box-Modelle f\u00fcr Entscheidungen mit weitreichenden Folgen vermieden werden sollten, identifiziert Herausforderungen im Bereich des interpretierbaren maschinellen Lernens und gibt mehrere Anwendungsbeispiele, in denen interpretierbare Modelle potenziell Black-Box-Modelle in der Strafjustiz, im Gesundheitswesen und in der Computer Vision ersetzen k\u00f6nnten.<br>(Eigene \u00dcbersetzung des Abstracts von <em><a href=\"https:\/\/www.nature.com\/articles\/s42256-019-0048-x\">Nature Machine Intelligence<\/a><\/em>)<br><br>DOI: <a href=\"https:\/\/doi.org\/10.1038\/s42256-019-0048-x\">https:\/\/doi.org\/10.1038\/s42256-019-0048-x<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Cynthia Rudin &#8211; 2019Black-Box-Modelle des maschinellen Lernens werden derzeit f\u00fcr wichtige Entscheidungen in der Gesellschaft eingesetzt und verursachen Probleme im Gesundheitswesen, im Strafjustizsystem und in anderen Bereichen. Einige hoffen, dass Methoden zur Erkl\u00e4rung dieser Black-Box-Modelle einige dieser Probleme mildern k\u00f6nnen. Doch der Versuch, Black-Box-Modelle zu erkl\u00e4ren, anstatt von vornherein interpretierbare Modelle zu entwickeln, f\u00fchrt eher [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"parent":0,"menu_order":0,"comment_status":"closed","ping_status":"closed","template":"","meta":{"footnotes":"[]"},"class_list":["post-242","page","type-page","status-publish","hentry"],"_links":{"self":[{"href":"https:\/\/philosophie-und-ki.cs.rptu.de\/index.php\/wp-json\/wp\/v2\/pages\/242","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/philosophie-und-ki.cs.rptu.de\/index.php\/wp-json\/wp\/v2\/pages"}],"about":[{"href":"https:\/\/philosophie-und-ki.cs.rptu.de\/index.php\/wp-json\/wp\/v2\/types\/page"}],"author":[{"embeddable":true,"href":"https:\/\/philosophie-und-ki.cs.rptu.de\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/philosophie-und-ki.cs.rptu.de\/index.php\/wp-json\/wp\/v2\/comments?post=242"}],"version-history":[{"count":5,"href":"https:\/\/philosophie-und-ki.cs.rptu.de\/index.php\/wp-json\/wp\/v2\/pages\/242\/revisions"}],"predecessor-version":[{"id":633,"href":"https:\/\/philosophie-und-ki.cs.rptu.de\/index.php\/wp-json\/wp\/v2\/pages\/242\/revisions\/633"}],"wp:attachment":[{"href":"https:\/\/philosophie-und-ki.cs.rptu.de\/index.php\/wp-json\/wp\/v2\/media?parent=242"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}