Karriere

Warum Künstliche Intelligenz Vorurteile hat

Anke Haas spricht beim Frauennetzwerk über Ethik in der KI und erklärt, wie es möglich ist, dass sich alte Probleme in neue Technologien einschleichen.
22.10.2024

(v.l.n.r.) Anke Haas und Moderatorin Christiane Wolff.

Anke Haas war als Hauptrednerin bei der jüngsten Veranstaltung des ZfK-Frauennetzwerks zu Gast. Als Senior Consultant und Partner Technical Specialist for Data & KI bei IBM ermöglichte Haas den Teilnehmerinnen einen neuen Zugang zum Thema Künstliche Intelligenz.

"KI ist inzwischen überall und ich halte die Fahne dafür hoch, dass das Ganze auch etisch richtig abläuft. Ein Anspruch der für mich persönlich sogar das höchste Anliegen ist." Was sie damit meint, ist der Umgang mit Bias in der Künstlichen Intelligenz.

Unfaire Ergebnisse

Bias, so also algorithmische Voreingenommenheit meint systematische und sich wiederholende Fehler in einem Computersystem, die zu einem "unfairen" Ergebnis führen. Beispielsweise die Bevorzugung einer Kategorie gegenüber einer Anderen. Diese Definition stellte Haas in ihrem Impuls vor und erläutert sie anhand eines Beispiels, das für sie der Auslöser war, sich intensiver mit diesem Problem zu beschäftigen.

"Vor rund zwei Jahren habe ich mich auf einen Vortrag vorbereitet und dafür bei Midjourney Bilder für meine Präsentation erstellt. Der Promt: 'Please show me a speaker on stage talking about generative AI'. Das Ergebnis: Ich habe mir um die hundert Bilder ausgeben lassen, auf jedem war ein weißer Mann zu sehen."

Das falsche Training

Dieses Beispiel ist nur eines von vielen, wie die Absolventin des Master Cognitive Computing erklärt. Verantwortlich für die mangelnde Vielfalt der Ergebnisse seien die Daten, mit denen die Anwendungen "trainiert" werden.

Wenn der Generativen KI hauptsächlich Daten zur Verfügung stehen, die weiße Männer in bestimmten Rollen zeigen, wird sie mit hoher Wahrscheinlichkeit selbst Bilder erzeugen, auf denen weiße Männer zu sehen sind, so Haas. Die Voreingenommenheit entsteht also durch unausgewogene Trainingsdatensätze.

Vom Ärgernis zur Gefahr

Die große Gefahr der Bias besteht vor allem dann, wenn KI eingesetzt wird, um Entscheidungen über Menschen zu treffen. Während der Ausschluss bestimmter Gruppen bei der Erstellung von Bildern noch eher ein Ärgernis ist, wird er bei der Auswahl geeigneter Kandidat:innen in einem Bewerbungsverfahren zu einem ernsthaften Problem.

Daher ist es wichtig, künstliche Intelligenz auch aus ethischer Sicht zu hinterfragen und bei der persönlichen Nutzung zu bedenken, dass auch die eigenen Prompts Auswirkungen auf die Lernprozesse haben. Je inklusiver die Prompts werden, desto inklusiver werden auch die Ergebnisse. (hb)

Zur Anmeldung zum ZfK-Frauennetzwerk geht es hier.

Zur Anmeldung zum nächsten Online-Event mit Stephanie Otto, der Vorstandsvorsitzenden der BSR, am 11. November 2024 von 8:30 bis 10:00 Uhr geht es hier.