Künstliche trifft auf juristische Intelligenz

Künstliche trifft auf juristische Intelligenz

Das Jahr 2023 war im Bereich der künstlichen Intelligenz (KI) nicht nur ein Jahr des großen Interesses an KI, sondern auch das Jahr der ersten Erfahrungen mit der gesetzlichen Regulierung dieser Technologie. Das Institut für statistische Forschung und Wissensökonomie Wirtschaft (ISSEK) an der Moskauer Hochschule HSE hat die von den drei Hauptakteuren auf diesem Markt – den USA, der EU und China – verabschiedeten Rechtsakte verglichen. Die Analyse kommt zu dem Schluss, dass Europa sich auf die Einstufung der Risiken von KI-Systemen konzentriert, die USA auf Standards und Datensicherheit und China auf strenge staatliche Vorschriften für KI-generierte Inhalte.

ISSEK-Experten haben die ersten Rechtsakte im Bereich der künstlichen Intelligenz verglichen, die bereits verabschiedet wurden oder sich in einem hohen Harmonisierungsstadium befinden. In der Europäischen Union ist dies der „Artificial Intelligence Act“, in China die „Interim Measures on the Management of Generative Artificial Intelligence Systems“ und in den USA die „Safe, Secure and Trustworthy AI Ordinance“.

Die Regelungen des europäischen Gesetzes wurden erst im Dezember 2023 vom Europäischen Parlament und dem Europäischen Rat beschlossen und bedürfen nun der Zustimmung der EU-Mitgliedstaaten. Mit einem Inkrafttreten ist frühestens 2025 zu rechnen. Er basiert auf der Einstufung von KI-Systemen nach Risikostufen. Die meisten der einzuführenden Regulierungsmaßnahmen betreffen Systeme mit hohem Risiko – deren Entwickler müssen ihre Produkte in einer europaweiten Datenbank registrieren, bevor sie auf den Markt gebracht oder in Betrieb genommen werden. Entwickler von Systemen mit geringem Risiko müssen die Transparenz ihrer Prozesse sicherstellen, während für Systeme mit geringem oder minimalem Risiko keine Einschränkungen gelten. Gleichzeitig verbietet der europäische Gesetzesentwurf ausdrücklich „bösartige KI-Praktiken“. Bei Missbrauch drohen hohe Bußgelder: 35 Millionen Euro oder 7 Prozent des Jahresumsatzes eines Unternehmens, wenn es gegen das KI-Verbot verstößt; 15 Millionen Euro oder 3 Prozent des Umsatzes, wenn es gegen die Pflichten aus dem KI-Gesetz verstößt; und 7,5 Millionen Euro oder 1,5 Prozent, wenn es den Regulierungsbehörden unrichtige Informationen liefert. Für sogenannte Basismodelle, die in der Lage sind, Videos, Texte, Bilder und Programmcode zu generieren, werden besondere Regelungen eingeführt. Zu dieser Gruppe gehören generative KI-Systeme (wie ChatGPT): Ihre Entwickler müssen offenlegen, welche urheberrechtlich geschützten Objekte zum Training des Modells verwendet wurden.

Das amerikanische Dokument, das im Oktober 2023 von US-Präsident Joe Biden unterzeichnet wurde, ähnelt dem europäischen in Bezug auf die Anforderungen an die Entwickler von KI-Systemen hinsichtlich der Prozesstransparenz. Die Unternehmen müssen der Regierung Daten über die Ergebnisse von Sicherheitstests und andere wichtige Informationen zur Verfügung stellen, bevor die Entwicklung auf den Markt gebracht wird. Zur Verbesserung der Sicherheit wird das National Institute of Standards and Technology entsprechende Standards entwickeln, und das US-Handelsministerium wird Leitlinien für die Kennzeichnung von KI-generierten Inhalten erarbeiten. Damit soll die Verbreitung von Inhalten verhindert werden, die der Desinformation dienen sollen. Besonderes Augenmerk wird in der Verordnung auf die Verbesserung der Sicherheit personenbezogener Daten gelegt.

Chinas „vorläufige Maßnahmen“, die im Sommer 2023 verabschiedet wurden, machen KI-Entwickler für alle generierten Inhalte verantwortlich. Inhalte, die sozialistische Werte untergraben oder zum Umsturz des Staatssystems aufrufen, sind verboten. Der Entwickler ist für den Schutz der persönlichen Daten der Nutzer und der Rechte an geistigem Eigentum verantwortlich. Die Vorschriften legen auch fest, dass Minderjährige vor einer übermäßigen Abhängigkeit von der Nutzung generativer KI geschützt werden müssen.

In Russland wird der Rechtsrahmen für die Regulierung von KI derzeit ausgearbeitet. Die Partei Einiges Russland arbeitet an einem Gesetzentwurf, der die Haftung von Entwicklern festlegen und die Nutzung von KI durch Betrüger verhindern soll. Im Dezember 2023 legte die Regierung der Staatsduma einen Gesetzentwurf vor, der KI-Entwickler, die in einem experimentellen Rechtssystem arbeiten, dazu verpflichten würde, sich gegen die Haftung für mögliche Schäden an Leben, Gesundheit oder Eigentum bei der Nutzung dieser Technologie zu versichern. Russland muss sich noch entscheiden, ob es die Technologie so regulieren will, dass ihre Entwicklung gefördert oder Risiken vermieden werden. Das ISSEK stellt fest, dass „die Länder, die in der Lage sein werden, eine Führungsrolle zu übernehmen, diejenigen sein werden, die in der Lage sind, ein optimales Gleichgewicht zwischen der Förderung von KI und ihrer Beschränkung, auch auf gesetzlicher Ebene, zu finden“.

[hrsg/russland.NEWS]

COMMENTS