|
Zusammenfassung
|
|
Folgenabschätzung zu einem Rechtsrahmen für künstliche Intelligenz
|
|
A. Handlungsbedarf
|
|
Worin besteht das Problem und warum muss ihm auf EU-Ebene begegnet werden?
|
|
Künstliche Intelligenz (KI) ist eine neue, vielseitig einsetzbare Technologie: eine höchst leistungsfähige Reihe von Computerprogrammierungstechniken. KI-Systeme können für die Gesellschaft von großem Nutzen sein, das Wirtschaftswachstum ankurbeln, Innovationen in der EU hervorbringen und die globale Wettbewerbsfähigkeit der EU stärken. In bestimmten Fällen kann der Einsatz von KI-Systemen jedoch zu Problemen führen. Die besonderen Merkmale bestimmter KI-Systeme können neue Risiken mit Blick auf die 1) Sicherheit und die 2) Grundrechte bergen und die Wahrscheinlichkeit und Intensität des Eintretens bereits bestehender Risiken erhöhen. KI-Systeme 3) erschweren es zudem den Durchsetzungsbehörden, die Einhaltung der bestehenden Vorschriften zu überprüfen und diese durchzusetzen. Diese Probleme führen wiederum zu 4) Rechtsunsicherheit für Unternehmen, 5) zu einer möglicherweise langsameren Inanspruchnahme von KI-Technologien durch Unternehmen und Bürger aufgrund fehlenden Vertrauens sowie 6) zu regulatorischen Eingriffen der nationalen Behörden, um mögliche externe Effekte zu mindern, die zu einer Fragmentierung des Binnenmarkts führen könnten.
|
|
Was soll erreicht werden?
|
|
Mit dem Rechtsrahmen sollen diese Probleme angegangen werden, indem die Voraussetzungen für die Entwicklung und Verwendung vertrauenswürdiger KI in der Union geschaffen werden, damit der Binnenmarkt reibungslos funktioniert. Die Ziele im Einzelnen: 1) Es muss gewährleistet sein, dass die auf dem Unionsmarkt in Verkehr gebrachten KI-Systeme sicher sind und die bestehenden Grundrechte und die Werte der Union wahren. 2) Zur Förderung von Investitionen in KI und innovativer KI muss Rechtssicherheit gewährleistet sein. 3) Leitungsstrukturen und die wirksame Durchsetzung des geltenden Rechts zur Wahrung der Grundrechte sowie die Sicherheitsanforderungen an KI-Systeme müssen gestärkt werden. 4) Die Entwicklung eines Binnenmarkts für rechtskonforme, sichere und vertrauenswürdige KI-Systeme muss erleichtert werden und es gilt, eine Marktfragmentierung zu verhindern.
|
|
Worin besteht der Mehrwert des Tätigwerdens auf EU-Ebene (Subsidiarität)?
|
|
Der grenzüberschreitende Charakter großmaßstäblicher Daten und Datensätze, auf die KI-Anwendungen häufig angewiesen sind, bedeutet, dass die Ziele der Initiative von den Mitgliedstaaten allein nicht wirksam erreicht werden können. Der europäische Rechtsrahmen für vertrauenswürdige KI zielt darauf ab, in der Union harmonisierte Vorschriften für die Entwicklung, das Inverkehrbringen und die Nutzung von Produkten und Dienstleistungen, in die KI-Technologien eingebettet sind, oder von eigenständigen KI-Anwendungen festzulegen. Sein Zweck besteht darin, gleiche Wettbewerbsbedingungen zu gewährleisten und alle europäischen Bürgerinnen und Bürger zu schützen sowie gleichzeitig die Wettbewerbsfähigkeit und die industrielle Basis Europas im Bereich der KI zu stärken. Die Maßnahmen der EU im Bereich der KI werden den Binnenmarkt ankurbeln und bieten ein beträchtliches Potenzial, um der europäischen Industrie einen globalen Wettbewerbsvorteil zu verschaffen, der auf Größenvorteilen beruht, die von den einzelnen Mitgliedstaaten allein nicht erzielt werden können.
|
|
B. Lösungen
|
|
Worin bestehen die Optionen zur Verwirklichung der Ziele? Wird eine dieser Optionen bevorzugt? Falls nicht, warum nicht?
|
|
Folgende Optionen wurden in Betracht gezogen: Option 1: EU-Rechtsetzungsinstrument zur Einrichtung eines Systems zur freiwilligen Kennzeichnung; Option 2: ein sektorspezifischer „Ad-hoc“-Ansatz; Option 3: ein horizontales Rechtsinstrument der EU zur Festlegung verbindlicher Anforderungen für Hochrisiko-KI-Anwendungen; Option 3+: wie Option 3, jedoch mit freiwilligen Verhaltenskodizes für KI-Anwendungen ohne hohes Risiko; Option 4: ein horizontales Rechtsinstrument der EU zur Festlegung verbindlicher Anforderungen für alle KI-Anwendungen. Die bevorzugte Option ist Option 3+, da sie angemessene Absicherungen gegen die von KI ausgehenden Risiken bietet und gleichzeitig die Verwaltungs- und Rechtsbefolgungskosten gering hält. Haftungsspezifische Fragen im Zusammenhang mit KI-Anwendungen werden in eigenen künftigen Vorschriften geregelt und sind somit nicht von den Optionen abgedeckt.
|
|
Welchen Standpunkt vertreten die verschiedenen Interessenträger? Wer unterstützt welche Option?
|
|
Unternehmen, Behörden, Wissenschaftler und Nichtregierungsorganisationen sind sich alle einig, dass Gesetzeslücken bestehen bzw. neue Rechtsvorschriften erforderlich sind, wenngleich bei den Unternehmen nur eine kleinere Mehrheit dieser Auffassung ist. Zwischen Industrie und Behörden herrscht Einvernehmen, die verbindlichen Anforderungen auf Hochrisiko-KI-Anwendungen zu beschränken. Bürgerinnen und Bürger sowie die Zivilgesellschaft sind eher nicht der Auffassung, dass verbindliche Anforderungen nur für Hochrisiko-Anwendungen gelten sollten.
|
|
C. Auswirkungen der bevorzugten Option
|
|
Worin bestehen die Vorteile der bevorzugten Option bzw. der wesentlichen Optionen?
|
|
Für Bürgerinnen und Bürger wird die bevorzugte Option dazu führen, dass die Risiken für ihre Sicherheit und Grundrechte gemindert werden. KI-Anbieter erhalten Rechtssicherheit und die Gewissheit, dass bei der grenzüberschreitenden Bereitstellung von Diensten und Produkten im Zusammenhang mit KI keine Hindernisse auftauchen. Kunden werden größeres Vertrauen in die von Unternehmen eingesetzte KI haben. Nationale öffentliche Verwaltungen werden vom gestiegenen Vertrauen der Öffentlichkeit in die Verwendung von KI und den gestärkten Durchsetzungsmechanismen profitieren (durch die Einführung eines europäischen Koordinierungsmechanismus, die Bereitstellung angemessener Kapazitäten und die Erleichterung von Audits der KI-Systeme durch neue Anforderungen an die Dokumentation, Rückverfolgbarkeit und Transparenz).
|
|
Welche Kosten entstehen bei Umsetzung der bevorzugten Option bzw. der wichtigsten Optionen?
|
|
Unternehmen oder Behörden, die KI-Anwendungen entwickeln oder verwenden, die ein hohes Risiko für die Sicherheit oder Grundrechte der Bürgerinnen und Bürgern darstellen, sind verpflichtet, bestimmte horizontale Anforderungen und Verpflichtungen einzuhalten, die durch harmonisierte technische Normen festgelegt werden. Die Gesamtkosten für die Rechtsbefolgung werden bis 2025 auf 100 Mio. bis 500 Mio. EUR geschätzt, was bis zu 4–5 % der Investitionen in Hochrisiko-KI entspricht (schätzungsweise zwischen 5 % und 15 % aller KI-Anwendungen). Die Überprüfungskosten könnten sich auf weitere 2–5 % der Investitionen in Hochrisiko-KI belaufen. Unternehmen oder Behörden, die keine als hochriskant eingestuften KI-Anwendungen entwickeln oder verwenden, entstehen keine Kosten. Sie könnten sich jedoch entscheiden, sich freiwilligen Verhaltenskodizes über die Einhaltung geeigneter Anforderungen anzuschließen und dafür zu sorgen, dass ihre KI-Systeme vertrauenswürdig sind. In diesen Fällen könnten die Kosten so hoch sein wie für Hochrisiko-Anwendungen, dürften aber niedriger ausfallen.
|
|
Welche Auswirkungen hat die Initiative auf KMU und Wettbewerbsfähigkeit?
|
|
KMU werden stärker von einem insgesamt höheren Vertrauen in KI profitieren als große Unternehmen, die sich auch auf ihr Markenimage verlassen können. KMU, die als hochriskant eingestufte Anwendungen entwickeln, müssten ähnlich hohe Kosten tragen wie große Unternehmen. Aufgrund der hohen Skalierbarkeit von Digitaltechniken können kleine und mittlere Unternehmen trotz ihrer geringen Größe eine enorme Reichweite haben, weshalb möglicherweise Millionen von Einzelpersonen von ihrer Technik betroffen sind. Daher könnte der Ausschluss von kleinen und mittleren KI-Anbietern von der Anwendung des Rechtsrahmens bei Hochrisiko-Anwendungen das Ziel der Vertrauensbildung ernsthaft untergraben. Der Rahmen sieht jedoch Maßnahmen vor, darunter KI-Reallabore oder Hilfen durch Zentren für digitale Innovation, die sich gezielt an KMU richten, um sie bei der Einhaltung der neuen Vorschriften unter Berücksichtigung ihrer besonderen Bedürfnisse zu unterstützen.
|
|
Wird es spürbare Auswirkungen auf nationale Haushalte und Behörden geben?
|
|
Die Mitgliedstaaten müssen die für die Durchführung der rechtlichen Anforderungen zuständigen Aufsichtsbehörden benennen. Deren Aufsichtsfunktion könnte sich auf bestehende Vereinbarungen stützen, beispielsweise in Bezug auf die Konformitätsbewertungsstellen oder die Marktüberwachung, was jedoch ausreichende technische Kenntnisse sowie personelle und finanzielle Ressourcen erforderlich macht. Abhängig von der in jedem Mitgliedstaat bereits vorhandenen Struktur kann sich dies auf 1 bis 25 Vollzeitäquivalente je Mitgliedstaat belaufen.
|
|
Wird es andere nennenswerte Auswirkungen geben?
|
|
Die bevorzugte Option würde die Risiken für die Grundrechte der Bürgerinnen und Bürger sowie die allgemeinen Werte der Union erheblich verringern und die Sicherheit bestimmter Produkte und Dienstleistungen, in die KI-Technologien eingebettet sind, oder eigenständiger KI-Anwendungen erhöhen.
|
|
Verhältnismäßigkeit
|
|
Der Vorschlag ist verhältnismäßig und zur Erreichung seiner Ziele notwendig, da mit ihm ein risikobasierter Ansatz verfolgt wird und regulatorische Belastungen nur dann entstehen, wenn davon auszugehen ist, dass ein KI-System hohe Risiken für die Grundrechte und die Sicherheit birgt. Ist dies nicht der Fall, werden nur minimale Transparenzpflichten auferlegt, etwa dahingehend, dass bei der Interaktion mit Menschen oder der Nutzung von „Deepfakes“ der Einsatz von KI-Systemen angezeigt werden muss, sofern es sich nicht um legitime Zwecke handelt. Harmonisierte Normen sowie Leitfäden und Rechtsbefolgungsinstrumente sollen Anbieter und Nutzer dabei unterstützen, die Anforderungen zu erfüllen und ihre Kosten zu minimieren.
|
|
D. Folgemaßnahmen
|
|
Wann wird die Maßnahme überprüft?
|
|
Fünf Jahre nach dem Zeitpunkt, an dem der Rechtsrahmen anwendbar wird, wird die Kommission einen Bericht veröffentlichen, in dem sie den Rechtsrahmen bewertet und überprüft.
|