Künstliche Intelligenz - Das Bild zeigt ein grüne Computerplatinen in Form eines Gehirns

Künstliche Intelligenz als Indikator für menschliche Fehler?

Der Algorithmus einer künstlichen Intelligenz wird mit einer großen Anzahl von Daten gefüttert, um Sie für ein spezielles Einsatzgebiet zu trainieren. Anhand dieser Daten entwickelt die künstliche Intelligenz ihre Handlungen.

Der Artikel aus der Zeit vom 18.10.2018 beschreibt ausführlich und eindrucksvoll, welche Probleme beim Training von KI (künstliche Intelligenz) enstehen können. Das Beispiel zeigt, dass Fauen gegenüber Männern systematisch durch den Einsatz von künstlicher Intelligenz im Bewerbungsverfahren von Amazon benachteiligt wurden. Die Trainingsdaten stammten von menschlichen Recruitern, die in der Vergangenheit Männer bevorzugt hatten.

Frank Thelen beschreibt dieses Phänomen in seinem Buch 10xDNA kurz so: „Ein großes Problem beim Training künstlicher Intelligenz ist, dass sie menschliche Fehler oder Vorurteile … in den entwickelten Algorithmus mit einbauen oder sogar verstärken..“ (S. 78, unten)

Kann man dadurch schlussfolgern, dass KI ähnlich wie eine Studie eingesetzt werden könnte, um menschliche Fehler, Misstände, Diskriminierung usw. festzustellen?


In meinem letzten Beitrag „4 Beispiele von KI, Serien, Filme und eine Fortbildung für Lehrer*innen zum Thema künstliche Inteligenz“ findest du weitere, spannende Quellen zum Einstieg ins Thema KI (künstliche Intelligenz)

0 Kommentare zu “Künstliche Intelligenz als Indikator für menschliche Fehler?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert