Wir – Marie Lechner, Francis Hunger und ich – ziehen es vor, nicht von „Künstlicher Intelligenz“, sondern von „Mustererkennung“ zu sprechen. Denn es geht um nichts anderes. KI kann nur die Muster erkennen, die wir ihr zuvor antrainiert haben. Je nachdem, mit welchen Daten diese KIs trainiert werden, sind ihre Outputs mehr oder weniger parteiisch, vor(urteils)belastet oder auch rassistisch. Das liegt daran, dass die KI nur so gut (oder schlecht) sein kann, wie die Menschen, die sie trainieren.
Wenn das Ausgangsmaterial (z.B. Bilder von Gesichtern) bereits einer starken Selektion unterworfen ist (z.B. nur Gesichter von Weißen), wird das von der KI gelieferte Ergebnis stark verzerrt sein. Wenn man der KI anschließend Bilder von Menschen mit einer anderen Hautfarbe zeigt, erkennt sie nicht, dass es sich dabei um Menschen handelt, oder aber sie stuft sie als „Gorillas“ oder „Kriminelle“ ein.
Es gibt dazu ein populäres Internet-Meme aus dem Juni 2021, das ich Ihnen hier nicht vorenthalten möchte: