Ganz schön vermessenÜber das knifflige Benchmarking großer Sprachmodelle
René Peinl, Andrea Trinkwalder
Zu finden in:
|
|
Dieses Biblionetz-Objekt existiert erst seit September 2023. Es ist deshalb gut möglich, dass viele der eigentlich vorhandenen Vernetzungen zu älteren Biblionetz-Objekten bisher nicht erstellt wurden. Somit kann es sein, dass diese Seite sehr lückenhaft ist.
Zusammenfassungen
Große Sprachmodelle wie ChatGPT und Bard können viel, weil sie mit nahezu dem gesamten Weltwissen trainiert wurden. Allerdings ist es schwierig herauszufinden, was sie wirklich auf dem Kasten haben. Einer, der das versucht, ist René Peinl von der Hochschule Hof.
Von Klappentext in der Zeitschrift c't 21/2023 (2023) im Text Ganz schön vermessen Dieser Zeitschriftenartikel erwähnt ...
Begriffe KB IB clear | Chat-GPT, computergenerierte Texte / large language modelcomputer-generated text, Generative Pretrained Transformer 4 (GPT-4) |
Dieser Zeitschriftenartikel erwähnt vermutlich nicht ...
Nicht erwähnte Begriffe | Generative Pretrained Transformer 3 (GPT-3), Textgeneratoren & Bildung, Textgeneratoren & Schule |
Tagcloud
Volltext dieses Dokuments
Ganz schön vermessen: Artikel als Volltext (: , 299 kByte; : ) |
Anderswo suchen
Beat und dieser Zeitschriftenartikel
Beat hat Dieser Zeitschriftenartikel erst in den letzten 6 Monaten in Biblionetz aufgenommen. Beat besitzt kein physisches, aber ein digitales Exemplar. Eine digitale Version ist auf dem Internet verfügbar (s.o.). Aufgrund der wenigen Einträge im Biblionetz scheint er es nicht wirklich gelesen zu haben. Es gibt bisher auch nur wenige Objekte im Biblionetz, die dieses Werk zitieren.