Die großen Technologieunternehmen wie Google, Meta und OpenAI stehen im Zentrum der aktuellen Diskussionen um die neue KI-Verordnung der Europäischen Union (AI Act). Der AI Act, der im Mai 2024 verabschiedet wurde, stellt das weltweit erste umfassende Regelwerk zur Regulierung von Künstlicher Intelligenz dar. Er zielt darauf ab, sowohl innovative KI-Systeme wie ChatGPT als auch risikoreiche Anwendungen wie Gesichtserkennung zu regulieren, um Verbraucherschutz, Transparenz und ethische Richtlinien sicherzustellen.
Doch während die EU versucht, als Vorreiter im Bereich der KI-Regulierung zu agieren, sind die großen Technologieunternehmen besorgt, dass die strengen Vorschriften ihre Innovationsfähigkeit erheblich einschränken könnten. Daher setzen sie alles daran, die Regelungen zu lockern und sie in ihrem Sinne zu gestalten.
Forderungen der Tech-Unternehmen
Ein zentrales Anliegen der Unternehmen ist eine klarere Definition von KI-Systemen. Sie argumentieren, dass viele der aktuellen Regeln für hochspezialisierte, risikoreiche KI-Anwendungen gedacht sind, aber nicht angemessen für General Purpose AI (GPAI), wie sie beispielsweise bei ChatGPT zum Einsatz kommen. Diese Systeme, die in vielen verschiedenen Kontexten verwendet werden können, benötigen ihrer Meinung nach flexiblere Vorschriften, um innovative Entwicklungen nicht zu behindern.
Eine weitere Forderung besteht darin, die potenziellen Strafen für Verstöße gegen die Verordnung zu senken. Der AI Act sieht empfindliche Geldstrafen vor, die Unternehmen Milliarden kosten könnten, wenn sie gegen die Regelungen verstoßen. Tech-Giganten wie Google und Meta setzen sich daher dafür ein, dass diese Sanktionen weniger streng ausfallen und klare Leitlinien eingeführt werden, die Unsicherheiten bei der Implementierung der Vorschriften verringern.
Hinzu kommt die Diskussion zum Zugang zu Daten. Große KI-Modelle wie ChatGPT benötigen für ihr Training enorme Mengen selbiger. Unternehmen wie OpenAI befürchten, dass die strengen europäischen Datenschutzrichtlinien den Zugang zu diesen Daten einschränken könnten, was die Entwicklung und das Training fortschrittlicher KI-Systeme behindern würde.
Einflussnahme und Lobbyarbeit
Zurzeit nutzen Tech-Konzerne vermehrt ihre Lobbykraft, um die Ausgestaltung des AI-Acts zu beeinflussen. So sind die Unternehmen unter anderem intensiv in Gesprächen mit Gesetzgebern und politischen Entscheidungsträgern involviert.
Gleichzeitig haben sich zahlreiche Experten aus Wissenschaft und Industrie an der Ausarbeitung der Verhaltenskodizes beteiligt, die als Grundlage für die Umsetzung des Gesetzes dienen sollen. Insgesamt gingen fast 1.000 Vorschläge von Unternehmen, Akademikern und Interessengruppen bei der EU ein, um die zukünftigen Regelungen mitzugestalten.
Der Code of Practice
Ein zentrales Element des AI Acts ist der Code of Practice, der derzeit ausgearbeitet wird. Dieser freiwillige Leitfaden soll Unternehmen dabei unterstützen, KI auf sichere und ethische Weise zu entwickeln und anzuwenden. Der Code legt klare Richtlinien fest, etwa zur Transparenz in Bezug auf die Daten, die zum Training der KI genutzt werden, sowie zur Risikobewertung von KI-Anwendungen. Ziel des Codes ist es, sowohl Verbraucherschutz als auch Innovation zu fördern. Unternehmen, die sich an diesen freiwilligen Kodex halten, könnten regulatorische Vorteile genießen, da sie zeigen, dass sie verantwortungsbewusst mit KI umgehen.
Der Code of Practice ermöglicht den Technologieunternehmen zudem, die Vorschriften aktiv mitzugestalten und so mehr Flexibilität in der Anwendung von General Purpose AI zu erreichen. Gleichzeitig soll der Code sicherstellen, dass die ethischen Standards und der Verbraucherschutz in der EU weiterhin gewährleistet bleiben.