{"id":371,"date":"2025-03-30T12:24:01","date_gmt":"2025-03-30T12:24:01","guid":{"rendered":"https:\/\/philosophy-and-ai.cs.rptu.de\/?page_id=371"},"modified":"2025-07-09T14:32:51","modified_gmt":"2025-07-09T14:32:51","slug":"dissociating-language-and-thought-in-large-language-models","status":"publish","type":"page","link":"https:\/\/philosophie-und-ki.cs.rptu.de\/index.php\/dissociating-language-and-thought-in-large-language-models\/","title":{"rendered":"&#8222;Dissociating language and thought in large language models&#8220;"},"content":{"rendered":"\n<p><strong>Kyle Mahowald et al. &#8211; 2024<\/strong><br>Large Language Models (LLMs) sind unter allen bisherigen Modellen am weitesten darin fortgeschritten, die menschliche Sprache zu beherrschen. Dennoch gehen die Meinungen \u00fcber ihre sprachlichen und kognitiven F\u00e4higkeiten weit auseinander. In dieser Arbeit bewerten wir LLMs anhand einer Unterscheidung zwischen formaler (umfasst das Wissen \u00fcber sprachliche Regeln und Muster) und funktionaler (bezieht sich auf das Verstehen und Verwenden von Sprache in realen Kontexten) Sprachkompetenz. Diese Unterscheidung st\u00fctzen wir auf Erkenntnisse aus der neurowissenschaftlichen Forschung am Menschen, die gezeigt hat, dass formale und funktionale Sprachkompetenz auf verschiedenen neuronalen Mechanismen basieren. W\u00e4hrend LLMs erstaunlich gut in der formalen Sprachkompetenz sind, bleibt ihre Leistung in funktionalen Sprachaufgaben uneinheitlich. Oft sind daf\u00fcr spezialisierte Feinabstimmung (Fine-Tuning) oder externe Module erforderlich. Wir argumentieren, dass Modelle, die Sprache auf menschliche Weise nutzen, beide Kompetenztypen beherrschen m\u00fcssten. Dies k\u00f6nnte wiederum die Entwicklung getrennter, spezialisierter Mechanismen f\u00fcr formale und funktionale Sprachkompetenz erfordern.<br>(Eigene \u00dcbersetzung des Abstracts von <a href=\"https:\/\/www.cell.com\/trends\/cognitive-sciences\/fulltext\/S1364-6613(24)00027-5?_returnURL=https%3A%2F%2Flinkinghub.elsevier.com%2Fretrieve%2Fpii%2FS1364661324000275%3Fshowall%3Dtrue\">Cell Press<\/a>)<br><br>DOI: <a href=\"https:\/\/doi.org\/10.1016\/j.tics.2024.01.011\">https:\/\/doi.org\/10.1016\/j.tics.2024.01.011<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Kyle Mahowald et al. &#8211; 2024Large Language Models (LLMs) sind unter allen bisherigen Modellen am weitesten darin fortgeschritten, die menschliche Sprache zu beherrschen. Dennoch gehen die Meinungen \u00fcber ihre sprachlichen und kognitiven F\u00e4higkeiten weit auseinander. In dieser Arbeit bewerten wir LLMs anhand einer Unterscheidung zwischen formaler (umfasst das Wissen \u00fcber sprachliche Regeln und Muster) und [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"parent":0,"menu_order":0,"comment_status":"closed","ping_status":"closed","template":"","meta":{"footnotes":""},"class_list":["post-371","page","type-page","status-publish","hentry"],"_links":{"self":[{"href":"https:\/\/philosophie-und-ki.cs.rptu.de\/index.php\/wp-json\/wp\/v2\/pages\/371","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/philosophie-und-ki.cs.rptu.de\/index.php\/wp-json\/wp\/v2\/pages"}],"about":[{"href":"https:\/\/philosophie-und-ki.cs.rptu.de\/index.php\/wp-json\/wp\/v2\/types\/page"}],"author":[{"embeddable":true,"href":"https:\/\/philosophie-und-ki.cs.rptu.de\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/philosophie-und-ki.cs.rptu.de\/index.php\/wp-json\/wp\/v2\/comments?post=371"}],"version-history":[{"count":2,"href":"https:\/\/philosophie-und-ki.cs.rptu.de\/index.php\/wp-json\/wp\/v2\/pages\/371\/revisions"}],"predecessor-version":[{"id":645,"href":"https:\/\/philosophie-und-ki.cs.rptu.de\/index.php\/wp-json\/wp\/v2\/pages\/371\/revisions\/645"}],"wp:attachment":[{"href":"https:\/\/philosophie-und-ki.cs.rptu.de\/index.php\/wp-json\/wp\/v2\/media?parent=371"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}