{"id":366,"date":"2025-03-30T12:12:39","date_gmt":"2025-03-30T12:12:39","guid":{"rendered":"https:\/\/philosophy-and-ai.cs.rptu.de\/?page_id=366"},"modified":"2025-07-09T14:17:59","modified_gmt":"2025-07-09T14:17:59","slug":"chain-of-thought-prompting-elicits","status":"publish","type":"page","link":"https:\/\/philosophie-und-ki.cs.rptu.de\/index.php\/chain-of-thought-prompting-elicits\/","title":{"rendered":"&#8222;Chain-of-thought-prompting elicits reasoning in large language models&#8220;"},"content":{"rendered":"\n<p><strong>Jason Wei et al. &#8211; 2022<\/strong><br>Wir untersuchen, wie das Erzeugen einer Chain-of-Tought also einer Reihe von Zwischenschritten im logischen Schlussfolgern \u2013 die F\u00e4higkeit gro\u00dfer Sprachmodelle zur Bew\u00e4ltigung komplexer Denkaufgaben erheblich verbessert. Insbesondere zeigen wir, dass solche Schlussfolgerungsf\u00e4higkeiten bei ausreichend gro\u00dfen Sprachmodellen auf nat\u00fcrliche Weise durch eine einfache Methode namens Chain-of-Thought Prompting entstehen. Dabei werden dem Modell einige Beispiele f\u00fcr Chain-of-Thoughts als Prompting-Exemplare gegeben. Experimente mit drei gro\u00dfen Sprachmodellen zeigen, dass Chain-of-Thought Prompting die Leistung in einer Vielzahl von Aufgaben verbessert, darunter arithmetisches, allgemeines und symbolisches Schlussfolgern. Die empirischen Verbesserungen sind teils bemerkenswert. Beispielsweise erreicht ein PaLM 540B, das mit nur acht Chain-of-Thought-Beispielen geprimt wurde, eine state-of-the-art Genauigkeit beim GSM8K-Benchmark f\u00fcr mathematische Textaufgaben \u2013 und \u00fcbertrifft dabei sogar einen feingetunten GPT-3 mit Verifikator.<br>(Eigene \u00dcbersetzung des Abstracts von <a href=\"https:\/\/dl.acm.org\/doi\/10.5555\/3600270.3602070\">ACM Digital Liberary<\/a>)<br><br>ISBN: 9781713871088<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Jason Wei et al. &#8211; 2022Wir untersuchen, wie das Erzeugen einer Chain-of-Tought also einer Reihe von Zwischenschritten im logischen Schlussfolgern \u2013 die F\u00e4higkeit gro\u00dfer Sprachmodelle zur Bew\u00e4ltigung komplexer Denkaufgaben erheblich verbessert. Insbesondere zeigen wir, dass solche Schlussfolgerungsf\u00e4higkeiten bei ausreichend gro\u00dfen Sprachmodellen auf nat\u00fcrliche Weise durch eine einfache Methode namens Chain-of-Thought Prompting entstehen. Dabei werden dem [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"parent":0,"menu_order":0,"comment_status":"closed","ping_status":"closed","template":"","meta":{"footnotes":""},"class_list":["post-366","page","type-page","status-publish","hentry"],"_links":{"self":[{"href":"https:\/\/philosophie-und-ki.cs.rptu.de\/index.php\/wp-json\/wp\/v2\/pages\/366","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/philosophie-und-ki.cs.rptu.de\/index.php\/wp-json\/wp\/v2\/pages"}],"about":[{"href":"https:\/\/philosophie-und-ki.cs.rptu.de\/index.php\/wp-json\/wp\/v2\/types\/page"}],"author":[{"embeddable":true,"href":"https:\/\/philosophie-und-ki.cs.rptu.de\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/philosophie-und-ki.cs.rptu.de\/index.php\/wp-json\/wp\/v2\/comments?post=366"}],"version-history":[{"count":4,"href":"https:\/\/philosophie-und-ki.cs.rptu.de\/index.php\/wp-json\/wp\/v2\/pages\/366\/revisions"}],"predecessor-version":[{"id":641,"href":"https:\/\/philosophie-und-ki.cs.rptu.de\/index.php\/wp-json\/wp\/v2\/pages\/366\/revisions\/641"}],"wp:attachment":[{"href":"https:\/\/philosophie-und-ki.cs.rptu.de\/index.php\/wp-json\/wp\/v2\/media?parent=366"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}