Sechs Quellen erklärten gegenüber Reuters, dass sich die EU-Gesetzgeber nicht auf die Regulierung von Systemen wie ChatGPT einigen können und damit eine Gefahr für wichtige Gesetze zur Kontrolle künstlicher Intelligenz (KI) darstellen.
Während sich die Verhandlungsführer am Freitag zu entscheidenden Diskussionen vor den für den 6. Dezember geplanten Abschlussgesprächen treffen, haben sich „Basismodelle“ oder generative KI als wichtiger Knackpunkt in den Diskussionen über den Gesetzesvorschlag herausgestellt. Die Quellen der Europäischen Union AI lehnten es ab, genannt zu werden, da die Gespräche vertraulich seien.
Kernmodelle wie das von Microsoft unterstützte OpenAI sind KI-Systeme, die auf großen Datensätzen trainiert werden und aus neuen Daten lernen können, um verschiedene Aufgaben auszuführen.
Nach zweijährigen Verhandlungen wurde der Gesetzesentwurf im Mai vom Europäischen Parlament angenommen. Der Entwurf der KI-Regeln muss nun in Sitzungen von Vertretern des Europäischen Parlaments, des Rates und der Europäischen Kommission genehmigt werden.
Experten aus EU-Ländern werden sich am Freitag treffen, um ihre Positionen zu Fondsmodellen, Zugang zum Quellcode, Geldstrafen und anderen Themen darzulegen, während sich auch Gesetzgeber im Europäischen Parlament treffen, um ihre Position festzulegen.
Wenn sie sich nicht einigen können, besteht die Gefahr, dass der Gesetzentwurf aufgrund von Zeitmangel bis zu den Wahlen zum Europäischen Parlament im nächsten Jahr ins Stocken gerät.
Während einige Experten und Gesetzgeber einen differenzierten Ansatz zur Regulierung von Fondsmodellen vorgeschlagen haben, die als solche mit mehr als 45 Millionen Nutzern definiert sind, sind andere der Ansicht, dass kleinere Modelle genauso riskant sein können.
Frankreich, Deutschland und Italien, die es den Herstellern generativer KI-Modelle vorziehen, sich selbst zu regulieren, anstatt strenge Regeln einzuführen, stellten die größte Hürde auf dem Weg zu einer Einigung dar.
Beim Treffen der Wirtschaftsminister der Länder am 30. Oktober in Rom überzeugte Frankreich Italien und Deutschland, den Vorschlag zu unterstützen, wie Quellen gegenüber Reuters verrieten.
Bisher verliefen die Gespräche reibungslos, und die Gesetzgeber fanden Kompromisse in mehreren anderen Konfliktbereichen, beispielsweise bei der Regulierung von Hochrisiko-KI, sagten die Quellen.
SELBSTREGELUNG?
Mitglieder des Europäischen Parlaments, EU-Kommissar Thierry Breton und viele KI-Forscher haben die Selbstregulierung kritisiert.
In einem diese Woche veröffentlichten offenen Brief warnten Forscher wie Geoffrey Hinton, dass die Selbstregulierung „gefährdet ist, wenn Sicherheitsstandards für die Fundamentgestaltung nicht eingehalten werden“.
Das französische KI-Unternehmen Mistral und das deutsche Unternehmen Aleph Alpha haben den abgestuften Ansatz zur grundlegenden Modellregulierung kritisiert und die Unterstützung ihrer jeweiligen Länder gewonnen.
Eine Mistral nahestehende Quelle sagte, das Unternehmen befürworte strenge Vorschriften für Produkte und nicht für die Technologie, auf der sie basieren.
Weitere offene Themen in den Diskussionen seien die Definition von KI, die Bewertung der Auswirkungen auf Grundrechte, Ausnahmen für die Strafverfolgung und die nationale Sicherheit, teilten die Quellen Reuters mit.
Die Gesetzgeber sind sich auch darüber uneinig, wie Strafverfolgungsbehörden Systeme der künstlichen Intelligenz nutzen, um Personen an öffentlichen Orten biometrisch zu identifizieren, und konnten sich bei einem Treffen am 29. November nicht auf mehrere dieser Fragen einigen, hieß es aus Quellen.
Spanien, das bis Ende des Jahres die EU-Ratspräsidentschaft innehat, hat Kompromisse vorgeschlagen, um den Prozess zu beschleunigen.
Sollte es im Dezember zu keiner Einigung kommen, wird die nächste belgische Präsidentschaft einige Monate Zeit haben, diese zu erledigen, bevor sie voraussichtlich vor den Wahlen zum Europäischen Parlament verschoben wird.
„Wenn Sie mich vor sechs oder sieben Wochen gefragt hätten, hätte ich gesagt, dass es bei allen wichtigen Themen Kompromisse gibt“, sagte Mark Brakel, Direktor für Politik beim Future of Life Institute, einer gemeinnützigen Organisation, die sich die Reduzierung der Risiken zum Ziel gesetzt hat mit fortgeschrittener KI verbunden.
„Es ist viel schwieriger geworden“, fügte er hinzu.
„Bier-Evangelist. Alkohol-Ninja. Leidenschaftlicher Zombie-Liebhaber. Zukünftiges Teenie-Idol. Musikfan. Popkultur-Kenner.“