How Predictive AI Goes Wrong
Arvind Narayanan, Sayash Kapoor
Zu finden in: AI Snake Oil, 2024
Dieses Biblionetz-Objekt existiert erst seit Oktober 2024.
Es ist deshalb gut möglich, dass viele der eigentlich vorhandenen Vernetzungen zu älteren Biblionetz-Objekten bisher nicht erstellt wurden.
Somit kann es sein, dass diese Seite sehr lückenhaft ist.
Zusammenfassungen
Chapter 2 is about automated decision-making, which is one area where AI, specifically predictive AI, is increasingly used: predicting who will commit a crime, who will drop out of school, and so forth. We’ll look at many examples of systems that have failed and caused great harm. In our research, we’ve identified a recurring set of reasons these failures keep happening—reasons that are intrinsic to the use of predictive logic in these high-impact systems. We’ll end the chapter by asking if it is possible to reimagine decision-making without predictive AI, and we’ll discuss what sorts of organizational and cultural adaptations we’ll need in order to embrace the unpredictability inherent to consequential decisions.
Von Arvind Narayanan, Sayash Kapoor im Buch AI Snake Oil (2024) im Text Introduction Anderswo suchen
Beat und dieses Kapitel
Beat hat Dieses Kapitel erst in den letzten 6 Monaten in Biblionetz aufgenommen. Er hat Dieses Kapitel einmalig erfasst und bisher nicht mehr bearbeitet. Beat besitzt weder ein physisches noch ein digitales Exemplar. Aufgrund der wenigen Einträge im Biblionetz scheint er es nicht wirklich gelesen zu haben. Es gibt bisher auch nur wenige Objekte im Biblionetz, die dieses Werk zitieren.