GPT o1
Dieses Biblionetz-Objekt existiert erst seit September 2024.
Es ist deshalb gut möglich, dass viele der eigentlich vorhandenen Vernetzungen zu älteren Biblionetz-Objekten bisher nicht erstellt wurden.
Somit kann es sein, dass diese Seite sehr lückenhaft ist.
BiblioMap
Synonyme
GPT o1, GPT Strawberry
Bemerkungen
o1 ist ein Fortschritt, aber keine Revolution.
Von Ruth Fulterer im Text In Wirklichkeit nur teure Selbstgespräche (2024) Mit der Rede von «Nachdenken» und dem Vergleich
mit promovierten Experten will Open AI eine
mässige Innovation als Durchbruch verkaufen. Klar,
denn die Firma sucht neue Investoren und strebt
eine Bewertung von 150 Milliarden Dollar an. Die
wäre nur gerechtfertigt, wenn Open AI der Konkurrenz
weit voraus wäre. Doch wenn man genauer hinschaut,
steht o1 sinnbildlich dafür, dass die exponentielle
Innovation bei Sprach-KI vorbei ist.Kleine Fortschritte
müssen immer teurer erkauft werden. Der
Unterschied zwischen den Firmen schrumpft. Der
Innovationszyklus hat den Punkt der Reife erreicht.
Von Ruth Fulterer im Text In Wirklichkeit nur teure Selbstgespräche (2024) Die Testresultate des «o1» oder «Strawberry» genannten
KI-Modells sind auf den ersten Blick beeindruckend.
In einem Blogbeitrag listet Open AI
eine Reihe von Tests mit Fragen zu Mathematik oder
Recht auf,in denen das Modell besser abschneidet als
Vorgängermodelle und zum Teil auch besser als promovierte
menschliche Experten. Open AI schreibt in
seinem Blogbeitrag,dass diese Resultate nicht bedeuteten,
dass die KI o1 «in jeder Hinsicht fähiger» sei
als ein Experte mit Doktortitel. Gemeint ist: In vieler
Hinsicht ist sie es.
Es lohnt ein genauerer Blick auf die Tests, mit denen Open AI die Intelligenz der KI «beweist». Oft sind Fragen und Antworten im Internet verfügbar und dem KI-Modell dadurch bereits bekannt.Manche Fragen sind verwirrend oder falsch. In der Branche streitet man darüber, ob die Tests geeignet sind, um KI zu vergleichen. Klar ist, sie beweisen keine Denkfähigkeiten. Denn diese braucht zwar ein Mensch,um die Fragen zu beantworten. Eine Maschine simuliert diese Prozesse nur. O1 kann diese Denkfähigkeit besser simulieren als seineVorgänger.Jedoch macht auch dieses Modell immer wieder Fehler,vor allem bei neuartigen Fragen. In einem Test, der dazu gemacht ist, echtes abstraktes Denken bei KI zu messen,schneidet es ähnlich schlecht ab wie seine Vorgänger.
Von Ruth Fulterer im Text In Wirklichkeit nur teure Selbstgespräche (2024) Es lohnt ein genauerer Blick auf die Tests, mit denen Open AI die Intelligenz der KI «beweist». Oft sind Fragen und Antworten im Internet verfügbar und dem KI-Modell dadurch bereits bekannt.Manche Fragen sind verwirrend oder falsch. In der Branche streitet man darüber, ob die Tests geeignet sind, um KI zu vergleichen. Klar ist, sie beweisen keine Denkfähigkeiten. Denn diese braucht zwar ein Mensch,um die Fragen zu beantworten. Eine Maschine simuliert diese Prozesse nur. O1 kann diese Denkfähigkeit besser simulieren als seineVorgänger.Jedoch macht auch dieses Modell immer wieder Fehler,vor allem bei neuartigen Fragen. In einem Test, der dazu gemacht ist, echtes abstraktes Denken bei KI zu messen,schneidet es ähnlich schlecht ab wie seine Vorgänger.