/ en / Traditional / help

Beats Biblionetz - Texte

Larger and more instructable language models become less reliable

Lexin Zhou, Wout Schellaert, Fernando Martínez-Plumed, Yael Moros-Daval, Cèsar Ferri & José Hernández-Orallo
Erstpublikation in: Nature volume 634, pages61–68 (2024)
Publikationsdatum:
Erste Seite des Textes (PDF-Thumbnail)
Dieses Biblionetz-Objekt existiert erst seit April 2025. Es ist deshalb gut möglich, dass viele der eigentlich vorhandenen Vernetzungen zu älteren Biblionetz-Objekten bisher nicht erstellt wurden. Somit kann es sein, dass diese Seite sehr lückenhaft ist.

iconZusammenfassungen

The prevailing methods to make large language models more powerful and amenable have been based on continuous scaling up (that is, increasing their size, data volume and computational resources1) and bespoke shaping up (including post-filtering2,3, fine tuning or use of human feedback4,5). However, larger and more instructable large language models may have become less reliable. By studying the relationship between difficulty concordance, task avoidance and prompting stability of several language model families, here we show that easy instances for human participants are also easy for the models, but scaled-up, shaped-up models do not secure areas of low difficulty in which either the model does not err or human supervision can spot the errors. We also find that early models often avoid user questions but scaled-up, shaped-up models tend to give an apparently sensible yet wrong answer much more often, including errors on difficult questions that human supervisors frequently overlook. Moreover, we observe that stability to different natural phrasings of the same question is improved by scaling-up and shaping-up interventions, but pockets of variability persist across difficulty levels. These findings highlight the need for a fundamental shift in the design and development of general-purpose artificial intelligence, particularly in high-stakes areas for which a predictable distribution of errors is paramount.
Von Lexin Zhou, Wout Schellaert, Fernando Martínez-Plumed, Yael Moros-Daval, Cèsar Ferri & José Hernández-Orallo im Text Larger and more instructable language models become less reliable (2024)

iconDieser wissenschaftliche Zeitschriftenartikel erwähnt ...


Personen
KB IB clear
Sandhini Agarwal , Dario Amodei , Amanda Askell , Maria Bannert , Christopher Berner , Tamay Besiroglu , Tom B. Brown , Mark Chen , Szu Yu Chen , Benjamin Chess , Rewon Child , Jack Clark , M. J. Crockett , Daryna Dementieva , Kewal Dhariwal , Prafulla Dhariwal , Frank Fischer , Urs Gasser , Scott Gray , Georg Groh , Stephan Günnemann , Lennart Heim , Tom Henighan , Ariel Herbert-Voss , Christopher Hesse , Anson Ho , Marius Hobbhahn , Eyke Hüllermeier , Jared Kaplan , Gjergji Kasneci , Enkelejda Kasneci , Gretchen Krueger , Stephan Krusche , Stefan Küchemann , Jochen Kuhn , Gitta Kutyniok , Mateusz Litwin , Benjamin Mann , Sam McCandlish , Lisa Messer , Tilman Michaeli , Arvind Neelakantan , Claudia Nerdel , OpenAI , Jürgen Pfeffer , Oleksandra Poquet , Alec Radford , Aditya Ramesh , Nick Ryder , Michael Sailer , Girish Sastry , Kevin Schaul , Albrecht Schmidt , Tina Seidel , Kathrin Sessler , Jaime Sevilla , Pranav Shyam , Eric Sigler , Matthias Stadler , Melanie Subbiah , Ilya Sutskever , Nitasha Tiku , Pablo Villalobos , Jochen Weller , Clemens Winter , Jeffrey Wu , Daniel M. Ziegler

Begriffe
KB IB clear
Datendata , Generative Machine-Learning-Systeme (GMLS)computer-generated text , Generative Pretrained Transformer 4 (GPT-4) , Künstliche Intelligenz (KI / AI)artificial intelligence
icon
Bücher
Jahr  Umschlag Titel Abrufe IBOBKBLB
2020 local web  Language Models are Few-Shot Learners (Tom B. Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Kewal Dhariwal, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel M. Ziegler, Jeffrey Wu, Clemens Winter, Christopher Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, Dario Amodei) 3, 2, 8, 2, 8, 5, 6, 4, 6, 7, 4, 3 42 5 3 167
icon
Texte
Jahr  Umschlag Titel Abrufe IBOBKBLB
2022 local web  Will we run out of data? (Pablo Villalobos, Jaime Sevilla, Lennart Heim, Tamay Besiroglu, Marius Hobbhahn, Anson Ho) 8 4 15 8 8
2023 local web  ChatGPT for Good? (Enkelejda Kasneci, Kathrin Sessler, Stefan Küchemann, Maria Bannert, Daryna Dementieva, Frank Fischer, Urs Gasser, Georg Groh, Stephan Günnemann, Eyke Hüllermeier, Stephan Krusche, Gitta Kutyniok, Tilman Michaeli, Claudia Nerdel, Jürgen Pfeffer, Oleksandra Poquet, Michael Sailer, Albrecht Schmidt, Tina Seidel, Matthias Stadler, Jochen Weller, Jochen Kuhn, Gjergji Kasneci) 3, 1, 7, 3, 7, 4, 4, 1, 2, 7, 1, 6 18 18 6 139
2023 local web  GPT-4 Technical Report (OpenAI) 9 26 17 9 9
2023 local web  Inside the secret list of websites that make AI like ChatGPT sound smart (Kevin Schaul, Szu Yu Chen, Nitasha Tiku) 1 2 3 1 1
2024 local web  Artificial intelligence and illusions of understanding in scientific research (Lisa Messer, M. J. Crockett) 9 4 25 9 9

iconDieser wissenschaftliche Zeitschriftenartikel erwähnt vermutlich nicht ... Eine statistisch erstelle Liste von nicht erwähnten (oder zumindest nicht erfassten) Begriffen, die aufgrund der erwähnten Begriffe eine hohe Wahrscheinlichkeit aufweisen, erwähnt zu werden.

iconTagcloud

iconZitationsgraph

Diese Grafik ist nur im SVG-Format verfügbar. Dieses Format wird vom verwendeteten Browser offenbar nicht unterstützt.

Diese SVG-Grafik fensterfüllend anzeigen

iconZitationsgraph (Beta-Test mit vis.js)

iconVolltext dieses Dokuments

Auf dem WWW Larger and more instructable language models become less reliable: Artikel als Volltext (lokal: PDF, 8253 kByte; WWW: Link OK )

iconAnderswo suchen  Auch im Biblionetz finden Sie nicht alles. Aus diesem Grund bietet das Biblionetz bereits ausgefüllte Suchformulare für verschiedene Suchdienste an. Biblionetztreffer werden dabei ausgeschlossen.

iconBeat und dieser wissenschaftliche Zeitschriftenartikel

Beat hat Dieser wissenschaftliche Zeitschriftenartikel erst in den letzten 6 Monaten in Biblionetz aufgenommen. Er hat Dieser wissenschaftliche Zeitschriftenartikel einmalig erfasst und bisher nicht mehr bearbeitet. Beat besitzt kein physisches, aber ein digitales Exemplar. Eine digitale Version ist auf dem Internet verfügbar (s.o.). Es gibt bisher nur wenige Objekte im Biblionetz, die dieses Werk zitieren.

iconBiblionetz-History Dies ist eine graphische Darstellung, wann wie viele Verweise von und zu diesem Objekt ins Biblionetz eingetragen wurden und wie oft die Seite abgerufen wurde.