{"id":341,"date":"2025-03-29T17:41:12","date_gmt":"2025-03-29T17:41:12","guid":{"rendered":"https:\/\/philosophy-and-ai.cs.rptu.de\/?page_id=341"},"modified":"2025-07-03T09:21:38","modified_gmt":"2025-07-03T09:21:38","slug":"explaining-machine-learning-decicions","status":"publish","type":"page","link":"https:\/\/philosophie-und-ki.cs.rptu.de\/index.php\/explaining-machine-learning-decicions\/","title":{"rendered":"&#8222;Explaining machine learning decisions&#8220;"},"content":{"rendered":"\n<div class=\"wp-block-media-text is-stacked-on-mobile\"><figure class=\"wp-block-media-text__media\"><img loading=\"lazy\" decoding=\"async\" width=\"180\" height=\"270\" src=\"https:\/\/philosophy-and-ai.cs.rptu.de\/wp-content\/uploads\/2025\/03\/Goodman-1.jpg\" alt=\"\" class=\"wp-image-342 size-full\"\/><\/figure><div class=\"wp-block-media-text__content\">\n<p><strong>John Zerilli &#8211; 2022<\/strong><br>Die Funktionsweise tiefer neuronaler Netzwerke gilt weithin als undurchschaubar. Das wachsende Forschungsfeld der erkl\u00e4rbaren K\u00fcnstlichen Intelligenz (Explainable AI, XAI) ist als direkte Antwort auf dieses Problem entstanden. Aufgrund der besonderen Art dieser Undurchsichtigkeit war XAI jedoch gezwungen, Interpretierbarkeit \u00fcber Vollst\u00e4ndigkeit und sogar Realismus zu stellen. Dies f\u00fchrt dazu, dass XAI-Erkl\u00e4rungen oft verst\u00e4ndlich sind, aber nicht unbedingt auf umfassenden<\/p>\n<\/div><\/div>\n\n\n\n<p>Erkl\u00e4rungen basieren, die tats\u00e4chlich widerspiegeln, wie ein neuronales Netzwerk seine Vorhersagen berechnet. W\u00e4hrend dies h\u00e4ufig als Schw\u00e4che des XAI-Feldes betrachtet wird, argumentiere ich, dass es im Gro\u00dfen und Ganzen der richtige Ansatz f\u00fcr dieses Problem ist.<br>(Eigene \u00dcbersetzung des Abstracts von <a href=\"https:\/\/www.cambridge.org\/core\/journals\/philosophy-of-science\/article\/abs\/explaining-machine-learning-decisions\/8E20E695A0ADBB2DEC78D0568B78CDF5\">Cambridge University Press<\/a>)<br><br>In Journal: Philosophie of Science, Volume 89, Issue 1<br><br>DOI: <a href=\"https:\/\/doi.org\/10.1017\/psa.2021.13\">https:\/\/doi.org\/10.1017\/psa.2021.13<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>John Zerilli &#8211; 2022Die Funktionsweise tiefer neuronaler Netzwerke gilt weithin als undurchschaubar. Das wachsende Forschungsfeld der erkl\u00e4rbaren K\u00fcnstlichen Intelligenz (Explainable AI, XAI) ist als direkte Antwort auf dieses Problem entstanden. Aufgrund der besonderen Art dieser Undurchsichtigkeit war XAI jedoch gezwungen, Interpretierbarkeit \u00fcber Vollst\u00e4ndigkeit und sogar Realismus zu stellen. Dies f\u00fchrt dazu, dass XAI-Erkl\u00e4rungen oft verst\u00e4ndlich [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"parent":0,"menu_order":0,"comment_status":"closed","ping_status":"closed","template":"","meta":{"footnotes":""},"class_list":["post-341","page","type-page","status-publish","hentry"],"_links":{"self":[{"href":"https:\/\/philosophie-und-ki.cs.rptu.de\/index.php\/wp-json\/wp\/v2\/pages\/341","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/philosophie-und-ki.cs.rptu.de\/index.php\/wp-json\/wp\/v2\/pages"}],"about":[{"href":"https:\/\/philosophie-und-ki.cs.rptu.de\/index.php\/wp-json\/wp\/v2\/types\/page"}],"author":[{"embeddable":true,"href":"https:\/\/philosophie-und-ki.cs.rptu.de\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/philosophie-und-ki.cs.rptu.de\/index.php\/wp-json\/wp\/v2\/comments?post=341"}],"version-history":[{"count":2,"href":"https:\/\/philosophie-und-ki.cs.rptu.de\/index.php\/wp-json\/wp\/v2\/pages\/341\/revisions"}],"predecessor-version":[{"id":611,"href":"https:\/\/philosophie-und-ki.cs.rptu.de\/index.php\/wp-json\/wp\/v2\/pages\/341\/revisions\/611"}],"wp:attachment":[{"href":"https:\/\/philosophie-und-ki.cs.rptu.de\/index.php\/wp-json\/wp\/v2\/media?parent=341"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}