Chain of Thought |
Dieses Biblionetz-Objekt existiert erst seit September 2024.
Es ist deshalb gut möglich, dass viele der eigentlich vorhandenen Vernetzungen zu älteren Biblionetz-Objekten bisher nicht erstellt wurden.
Somit kann es sein, dass diese Seite sehr lückenhaft ist.
Synonyme
Chain of Thought, CoT, Gedankenkette
Definitionen
Eine zweite Technik ist die Gedankenkette
(Chain of Thought). Dabei weisen
Sie ChatGPT an, seine Antworten Schritt
für Schritt zu entwickeln. Da die generative
KI Ihre Antworten Wort für Wort auf
der Basis von Wahrscheinlichkeiten berechnet,
können Sie so nicht nur mögliche
Fehler leichter entlarven, sondern
ChatGPT auch von manchem Irrweg abbringen.
Von Hartmut Gieselmann im Text Trupp der Kopiloten (2023) Gedankenkette: Wer nicht direkt auf eine Lösung kommt, nähert sich ihr Schritt für Schritt. Das gilt für Menschen genauso wie für Sprachmodelle, wie Untersuchungen zeigen: Mit dem einfachen Befehl, Schritt für Schritt vorzugehen, konnten Sprachmodelle plötzlich innerhalb nur einer Nachricht auch komplexere Aufgaben erledigen. Dieses Folgen einer Gedankenkette wird auch als „Chain of Thought“ (CoT) bezeichnet und erzielt allgemein die besten Ergebnisse. Auch beim Programmieren mit KI-Assistent erweist sich diese Strategie immer wieder als nützlich (mehr dazu ab Seite 110). Mit dem Erfolg dieser Strategie beschäftigten sich Kojima et al. in einem Paper aus dem Jahr 2022 [2].
Von Ben Danneberg in der Zeitschrift Das müssen Sie über KI wissen (2024) im Text Bedürfnisartikulationskompetenz Bemerkungen
o1 ist ein Fortschritt, aber keine Revolution. Es
lohnt ein Blick darauf,zu welchem Preis dieser kommt.
KI kann nicht denken, sondern nur vorhersagen, wie
ein Text weitergeht. Um Nachdenken zu simulieren,
hat Open AI dem neuen Modell eine Art inneren
Monolog einprogrammiert. Das Modell teilt Fragen
in Unterkategorien auf, die es nacheinander erörtert.
Von Ruth Fulterer im Text In Wirklichkeit nur teure Selbstgespräche (2024) Verwandte Objeke
Verwandte Begriffe (co-word occurance) | RLHF (Reinforcement Learning from Human Feedback)(0.03) |
Häufig co-zitierte Personen
Yusuke
Iwasawa
Iwasawa
Yutaka
Matsuo
Matsuo
Machel
Reid
Reid
Shixiang Shane
Gu
Gu
Takeshi
Kojima
Kojima
Will
Knigh
Knigh
Tom
Henighan
Henighan
Rewon
Child
Child
Aditya
Ramesh
Ramesh
Daniel M.
Ziegler
Ziegler
Jeffrey
Wu
Wu
Gretchen
Krueger
Krueger
Christopher
Hesse
Hesse
Girish
Sastry
Sastry
Mark
Chen
Chen
Clemens
Winter
Winter
Ariel
Herbert-Voss
Herbert-Voss
Eric
Sigler
Sigler
Amanda
Askell
Askell
Benjamin
Chess
Chess
Pranav
Shyam
Shyam
Arvind
Neelakantan
Neelakantan
Jared
Kaplan
Kaplan
Melanie
Subbiah
Subbiah
Nick
Ryder
Ryder
Benjamin
Mann
Mann
Kewal
Dhariwal
Dhariwal
Sandhini
Agarwal
Agarwal
Scott
Gray
Gray
Jack
Clark
Clark
Christopher
Berner
Berner
Sam
McCandlish
McCandlish
Alec
Radford
Radford
Dario
Amodei
Amodei
Tom B.
Brown
Brown
Prafulla
Dhariwal
Dhariwal
Mateusz
Litwin
Litwin
Statistisches Begriffsnetz
Zitationsgraph
Zitationsgraph (Beta-Test mit vis.js)
Zeitleiste
21 Erwähnungen
- Cybernetics: Transactions of the Tenth Conference - Josiah Macy Jr. Foundation, New York (Heinz von Foerster, Margaret Mead, Hans Lukas Teuber) (1955)
- Thought as a System (David Bohm) (1994)
- Darwin's Dangerous Idea - Evolution and the Meanings of Life (Daniel C. Dennett) (1996)
- Squeak, Open Personal Computing and Multimedia (Mark Guzdial, Kimberly M. Rose) (2001)
- Computers and Squeak as Environments for Learning (John Steinmetz)
- Cybersemiotics - Why Information is Not Enough (Soren Brier) (2013)
- Large Language Models are Zero-Shot Reasoners (Takeshi Kojima, Shixiang Shane Gu, Machel Reid, Yutaka Matsuo, Yusuke Iwasawa) (2022)
- GPT-4 Technical Report (OpenAI) (2023)
- Generative Agents: Interactive Simulacra of Human Behavior (Joon Sung Park, Joseph C. O’Brien, Carrie J. Cai, Meredith Ringel Morris, Percy Liang, Michael S. Bernstein) (2023)
- Hochschulbildung vor dem Hintergrund von Natural Language Processing (KI-Schreibtools) (Isabella Buck, Anika Limburg) (2023)
- Tree of Thoughts - Deliberate Problem Solving with Large Language Models (Shunyu Yao, Dian Yu, Jeffrey Zhao, Izhak Shafran, Thomas L. Griffiths, Yuan Ca, Karthik Narasimhan) (2023)
- Guidance for generative AI in education and research (UNESCO United Nations Educational, Scientific and Cultural Org., Fengchun Miao, Wayne Holmes) (2023)
- Klein, aber fein - Weniger Parameter, solide Leistung: Wie kompakte Sprachmodelle die Giganten herausfordern (René Peinl) (2023)
- Trupp der Kopiloten - Wie das neue multimodale ChatGPT bei der Arbeit mit Texten, Bildern und Sprache hilft (Hartmut Gieselmann) (2023)
- Education for the Age of AI (Charles Fadel, Alexis Black, Robbie Taylor, Janet Slesinski, Katie Dunn) (2024)
- Talking about Large Language Models (Murray Shanahan) (2024)
- Communications of the ACM (2024)
- Co-Intelligence - Living and Working With AI (Ethan Mollick) (2024)
- Das müssen Sie über KI wissen - c't 11/2024 (2024)
- Bedürfnisartikulationskompetenz - Prompt-Engineering: Von der Kunst, die KI zu nutzen (Ben Danneberg)
- The Singularity is nearer (Ray Kurzweil) (2024)
- Generative KI-Systeme in der Lehre systematisch anleiten (Timon Rimensberger) (2024)
- In Wirklichkeit nur teure Selbstgespräche (Ruth Fulterer) (2024)