Künstliche Intelligenz (KI) hat immer mehr Einfluss auf unser Leben. Sie kann uns helfen, komplexe Probleme zu lösen, effizienter zu arbeiten und neue Erkenntnisse zu gewinnen. Aber KI kann auch zu Diskriminierungen führen, wenn sie nicht fair und verantwortungsvoll eingesetzt wird.

Diese können verschiedene Formen annehmen, wie:

Verzerrung: KI kann Vorurteile verstärken, wenn sie auf Daten basiert, die nicht repräsentativ oder ungenau sind. Zum Beispiel kann eine KI, die Bewerbungen auswertet, bestimmte Gruppen von Menschen benachteiligen, wenn sie nur die Merkmale berücksichtigt, die in der Vergangenheit zu erfolgreichen Kandidaten geführt haben.

Ungleichheit: KI kann zur Ungleichheit beitragen, wenn sie den Zugang zu Ressourcen, Dienstleistungen oder Chancen einschränkt oder beeinflusst. Zum Beispiel kann eine KI, die Kreditwürdigkeit bewertet, bestimmte Gruppen von Menschen ausschließen oder höhere Zinsen verlangen, wenn sie nicht transparent oder nachvollziehbar ist.

Ungerechtigkeit: KI kann zu Ungerechtigkeiten führen, wenn sie die Rechte, die Würde oder die Autonomie von Menschen verletzt oder missachtet. Zum Beispiel kann eine KI, die Gesichtserkennung verwendet, die Privatsphäre oder die Meinungsfreiheit von Menschen gefährden, wenn sie nicht mit Zustimmung oder Kontrolle der Betroffenen erfolgt.

KI und Sexismus

Im November 2019 bezeichnete der Technologieunternehmer David Heinemeier Hansson die neue Kreditkarte von Apple als „sexistisch“, weil er seiner Frau ein Kreditlimit anbot, das 20-mal niedriger war als sein eigenes. Er gab den KI-Algorithmen die Schuld, mit denen Finanzentscheidungen getroffen werden, und sagte, dass die Menschen, die diese Algorithmen erfanden, überwiegend Männer seien und ihr Sexismus daher in der KI verankert sei.

Die Kreditfazilität von Apple, die von Goldman Sachs garantiert wurde, wurde vom Verstoß gegen faire Kreditvergaberegeln freigesprochen, aber die Diskussion über KI und Sexismus wurde dadurch nicht gestoppt.

Bis die KI-Verordnung der EU ratifiziert ist, bleibt die Geschlechterperspektive bei künstlicher Intelligenz ein wichtiger Diskussionspunkt.

Wie die DSGVO gilt auch die KI-Verordnung für alle Geschäfte mit Kunden in der EU, sodass globale Banken und Kreditinstitute nicht immun sind. Die Verordnung, stand heute, fordert wie die DSGVO einen stärkeren Schutz, einschließlich für Bewerbungen und Bonitätsbewertungen.

Eines der Risiken besteht darin, dass die meisten KI-Modelle zum Lernen auf die historischen Daten angewiesen sind, die ihnen zugeführt werden. Dies stellt ein Problem dar, da sie dazu neigen, Verzerrungen aus diesen Daten zu internalisieren, einschließlich Präferenzen für bestimmte Arten von Kunden, denen in der Vergangenheit Kredite gewährt wurden, sowie die Identifizierung von Kunden, die als unzuverlässig eingestuft wurden.

Diese Voreingenommenheit bei der Bestimmung, was einen „guten“ Kreditnehmer ausmacht, gibt Anlass zur Sorge. Geschlecht und ethnische Zugehörigkeit erweisen sich häufig als Faktoren, die den Entscheidungsprozess der KI beeinflussen, obwohl sie für die Kreditrückzahlungsfähigkeit einer Person irrelevant sind.

Bestimmte Modelle sind darauf ausgelegt, geschützte Merkmale wie Geschlecht, Rasse, ethnische Zugehörigkeit oder Behinderung außer Acht zu lassen und Unparteilichkeit anzustreben. Dennoch können KI-Modelle aufgrund der Analyse anderer Datenpunkte, wie Postleitzahlen, immer noch unbeabsichtigt diskriminieren.

Solche Postleitzahlen können mit historisch benachteiligten Gruppen zusammenhängen, die zuvor mit Hindernissen bei der Beantragung, Sicherung oder Rückzahlung von Krediten oder Hypotheken konfrontiert waren.

KI-Systeme können die in den Daten, auf denen sie trainiert werden, vorhandenen Voreingenommenheiten und Vorurteile widerspiegeln, was zu voreingenommenen Ergebnissen führen kann. Dies wird oft als algorithmischer Bias bezeichnet.

Wenn die zum Trainieren eines KI-Systems verwendeten Trainingsdaten verzerrt sind oder gesellschaftliche Ungleichheiten widerspiegeln, kann das KI-System diese Verzerrungen bei seiner Entscheidungsfindung aufrechterhalten und verstärken.

Es gab Fälle, in denen KI-Systeme geschlechtsspezifische Vorurteile oder Diskriminierung aufwiesen. Beispielsweise wurde in der Vergangenheit festgestellt, dass Gesichtserkennungssysteme bei Frauen und Menschen mit dunklerer Hautfarbe eine höhere Fehlerquote aufweisen.

Um diese Probleme zu vermeiden oder zu minimieren, muss man sicherstellen, dass KI ethisch und menschenzentriert gestaltet wird. Das bedeutet, dass folgende Prinzipien beachtet werden müssen:

Fairness: KI muss die Gleichbehandlung und die Nichtdiskriminierung von Menschen gewährleisten. Das bedeutet, dass man die Daten, die Algorithmen und die Ergebnisse der KI überprüfen und korrigieren muss, wenn sie zu Verzerrungen oder Ungleichheiten führen.

Transparenz: KI muss die Nachvollziehbarkeit und die Rechenschaftspflicht der Entscheidungen und Handlungen, die sie beeinflusst oder auslöst, sicherstellen. Das bedeutet, dass man die Logik, die Kriterien und die Daten der KI offenlegen und erklären muss, wenn sie Auswirkungen auf Menschen haben.

Respekt: KI muss die Werte, die Präferenzen und die Erwartungen der Menschen berücksichtigen und schützen. Das bedeutet, dass man die Beteiligung, die Zustimmung und die Kontrolle der Menschen über die KI fördern und ermöglichen muss, wenn sie ihre Rechte oder ihre Würde betrifft.

KI hat zweifelsfrei das Potenzial, unser Leben zu verbessern, aber nur, wenn wir sie verantwortungsvoll und gerecht einsetzen. Man muss sich bewusst sein, dass KI nicht neutral oder objektiv ist, sondern von den Menschen abhängt, die sie entwickeln, anwenden und nutzen. Umso wichtiger ist es, dass die KI-Verordnung der EU versucht, die ethischen und sozialen Auswirkungen der KI zu berücksichtigen und sicherzustellen, sodass sie dem Wohl und dem Wohlstand aller Menschen dient und das Risiko von Diskriminierungen gleichzeitig minimiert.

Compliance: Neu Erfunden

VinciWorks ist der führende Anbieter individuell anpassbarer, innovativer Online-Compliance-Schulungen