Nationale Aufsicht bei KI komplex


Nationale Spielräume bei der Umsetzung des europäischen Gesetzes über Künstliche Intelligenz (AI Act)
Über das geplante KI-Büro bei der Europäischen Kommission berichtete Kilian Groß von der Generaldirektion CNECT: Die Abteilung solle rund 100 Mitarbeiter umfassen, der Aufbau habe hohe Priorität



Die nationale Aufsicht bei Fragen Künstlicher Intelligenz ist aufgrund der sektoralen Zuständigkeiten und der föderalen Aufteilung komplex. Wer die KI-Governance in Deutschland übernehmen soll, ist offen, bei einer Anhörung im Digitalausschuss brachten einige Sachverständige die Bundesnetzagentur ins Gespräch. Neun Sachverständige äußerten sich zu den nationalen Spielräumen bei der Umsetzung des europäischen Gesetzes über Künstliche Intelligenz (AI Act).

Am 13. März 2024 hat das Europäische Parlament das Gesetz zur Regulierung Künstlicher Intelligenz angenommen. Die Verabschiedung durch den Rat erfolgt voraussichtlich am kommenden Dienstag, berichtete die Ausschussvorsitzende Tabea Rößner (Grüne). In Kraft trete der AI Act 20 Tage nach Veröffentlichung im EU-Amtsblatt. Zur Überwachung und Umsetzung der Verordnung soll jeder Mitgliedstaat eine zentrale Aufsichtsbehörde benennen.

Über das geplante KI-Büro bei der Europäischen Kommission berichtete Kilian Groß von der Generaldirektion CNECT (eingeladen auf Beschluss des Ausschusses). Die Abteilung solle rund 100 Mitarbeiter umfassen, der Aufbau habe hohe Priorität: "Bis Ende nächsten Jahres sollen alle neuen Mitarbeiter an Bord sein", sagte Groß. Er betonte, dass es sich um eine produktbezogene Regulierung mit einem horizontalen Ansatz handele, die strikt risikobasiert sei. Nötig sei national ausreichend Fach- und Personalkompetenz. Groß wies darauf hin, dass Eile geboten sei, da bereits nach sechs Monaten die ersten Verbote kämen. Obwohl die gesetzliche Frist für die Benennung der zuständigen Behörde ein Jahr nach Inkrafttreten betrage, empfehle die Kommission, bereits jetzt Vertreter in das AI-Board zu entsenden, um gut vorbereitet zu starten, berichtete Groß.

David Roth-Isigkeit von der Deutschen Universität für Verwaltungswissenschaften Speyer (eingeladen auf Vorschlag der Vorsitzenden) verwies darauf, dass zwei organisatorisch getrennte Behörden, eine notifizierende Behörde und eine Marktüberwachungsbehörde, erforderlich seien. Diese könnten aber trotzdem "unter einem Dach" organisiert werden, so Roth-Isigkeit. Die Verordnung setze hohe Hürden im Hinblick auf die Ausstattung und die Kompetenzen der Mitarbeiter, was für Schwierigkeiten im föderalen Kontext sorgen könnte, sagte er weiter. Die Grundmaterie der Produktsicherheit lasse bei der Einrichtung einer KI-Behörde einen weiten Spielraum zu; möglich seien Bundesbehörden ohne Beteiligung der Länder, aber auch aufgabenteilige Kooperationsformen zwischen Bund und Ländern seien möglich, solange es nicht zu einer unzulässigen Aufgabenverflechtung komme. Persönlich sehe er kaum eine Alternative zu einer Zentralisierung auf Bundesebene.

Nicole Büttner-Thiel vom Bundesverband Deutsche Startups und CEO von Merantix Momentum (eingeladen auf Vorschlag der Fraktion der FDP) betonte, dass die Ausgestaltung der nationalen Umsetzung entscheidend für die langfristige Innovationsfähigkeit der KI-Standorte Deutschland und Europa sei. Aus Sicht des Verbands bestehe wenig Bedarf für zusätzliche Gesetzgebung; unterschiedliche Auslegungen und Interpretationen der KI-Verordnung sollten möglichst vermieden werden. Notwendig sei eine rechtssichere, praxistaugliche, bürokratiearme und innovationsfreundliche Umsetzung der KI-Verordnung, sagte die Expertin. Bei der Aufsicht müsse eine sektorale Zersplitterung der Aufsichtskompetenzen vermieden werden, sagte Büttner-Thiel und plädierte für eine zentrale Anlaufstelle, die schnelle Verfahren gewährleiste. Notwendig sei zudem eine zügige Umsetzung, um Rechtsunsicherheiten zu vermeiden, etwa im Hinblick auf Konformitätspflichten bei Hochrisikoanwendungen.

Lina Ehrig vom Verbraucherzentrale Bundesverband (eingeladen auf Vorschlag der Fraktion Bündnis 90/Die Grünen) betonte, Vertrauensbildung könne nur gelingen, wenn die Aufsicht die Bedürfnisse der Verbraucher berücksichtige. Dazu gehöre, dass es ein niedrigschwelliges Beschwerdeverfahren gebe und die künftige zentrale Aufsichtsbehörde für das gesamte Verfahren zuständig sei. Das Digitale-Dienste-Gesetz (DDG) könne hier als Vorbild dienen, um "Behörden-Ping-Pong" zu vermeiden, sagte Ehrig. Ebenfalls wie beim DDG könne ein unabhängiger KI-Beirat eingerichtet werden, der die Aufsichtsbehörden beraten und Empfehlungen veröffentlichen könne. Auf Nachfrage sagte Ehrig, es sei angesichts der zahlreichen neuen digitalpolitischen Aufgaben für die Bundesnetzagentur folgerichtig, diese ernsthaft für die Aufsicht zu bedenken.

Ehrig und Kilian Vieth-Ditlmann (AlgorithWatch, eingeladen auf Vorschlag der Gruppe Die Linke) sprachen sich klar für Verbote des Einsatzes biometrischer Fernidentifizierungssysteme an öffentlich zugänglichen Orten wie etwa Tankstellen oder Einkaufszentren auch für private Akteure aus. Das Verbot könne etwa im Zuge eines Durchführungsgesetzes konkretisiert werden, sagte Vieth-Ditlmann. "Gesichtserkennung muss flächendeckend verboten bleiben, sodass öffentliche Räume frei und sicher bleiben", sagte er. Der Sachverständige plädierte dafür, ein nationales KI-Transparenzregister für die öffentliche Hand aufzubauen, das die Informationen der EU-Datenbank über Hochrisiko-KI-Systeme umfassend ergänzt und verpflichtende, aussagekräftige Angaben bereitstellt.

Lajla Fetic, Senior AI Governance Expert (auf Vorschlag der Fraktion der SPD) betonte, die Behörde müsse innerhalb von zwölf Monaten benannt werden. Sie brauche ein eigenes Budget und eine langfristige Finanzierung, sagte Fetic weiter. Kurzfristig müssten bestehende Behörden um Kompetenzen erweitert werden, etwa solche, die dem soziotechnischen Charakter von KI-Systemen gerecht werden und über Wissen im Bereich des Grundrechtschutzes verfügten, so Fetic. Langfristig könne eine Bündelung bestehender Aufsichtsbehörden für den Digitalbereich ratsam sein, sagte sie.

Patrick Glauner von der Technische Hochschule Deggendorf (eingeladen auf Vorschlag der Fraktion der CDU/CSU) zeigte sich grundsätzlich skeptisch, ob es den AI Act benötige. Durch die breite und unkonkrete Definition von KI in Verbindung mit der nur vagen Abgrenzung von Hochrisiko-Anwendungen bestehe die Sorge vor Bürokratiebelastungen und Innovationshemmnissen, sagte Glauner. Für eine "innovationsfreundliche, kostenarme und praxisnahe" Umsetzung brauche es eine zeitnahe Festlegung der Aufsicht, passende Standardisierungen und Checklisten. Er sprach sich mit Blick auf die Fehler bei der Umsetzung der Datenschutzgrundverordnung (DSGVO) gegen eine Aufsicht durch Daten- und Verbraucherschützer aus. Glauner verwies zudem auf die Gefahr einer Vielzahl zivilrechtlicher Klagen, für die Behörden und die Justiz eigene KI-Kompetenzen aufbauen müssten. Ein permanentes Monitoring des AI Acts sei essentiell, sagte er weiter.

Auch Robert Kilian, CEO und Geschäftsführer von CertifAI und im Vorstand des KI-Bundesverbands (eingeladen auf Vorschlag der Fraktion der CDU/CSU), hielt es für sinnvoll, eine existierende Bundesbehörde zu benennen, auf bestehenden Kompetenzen aufzubauen und mit einer Task Force zu flankieren, die die föderalen Strukturen berücksichtige. Sektorale Behörden sollten zuständig bleiben, wenn dies in der Verordnung angelegt sei, sagte Kilian weiter. Bei der Auswahl der Aufsichtsbehörde solle ausschlaggebend sein, wo Bereitschaft bestehe, sich auf neue Themen einzulassen, sagte er. Mit Blick auf das Personal forderte Kilian eine erhöhte Durchlässigkeit zwischen Wirtschaft, Wissenschaft und Aufsicht - dies sei gerade bei der sich schnell entwickelnden KI als Aufsichtsgegenstand von besonderer Bedeutung, so Kilian.

Auf die fehlende Rechtssicherheit für den KI-Einsatz im Arbeitskontext und die späte oder fehlende Einbeziehung von Beschäftigten verwies Oliver Suchy vom Deutschen Gewerkschaftsbund (eingeladen auf Vorschlag der Fraktion der SPD). Er plädierte für eine Konkretisierung der Öffnungsklausel, um die betriebliche Nutzung von KI-Anwendungen durch verbindliche Regeln zu erleichtern. Notwendig sei eine obligatorische KI-Folgenabschätzung vor Einführung von KI-Anwendungen und unabhängig von der Hochrisiko-Thematik, sagte Suchy weiter. Zudem müssten die Mitbestimmungsmöglichkeiten durch eine Reform des Betriebsverfassungsgesetzes erweitert werden. Ziel müsse es sein, dass "offen und gemeinsam mit den Beschäftigten über betriebliche Ziele der Nutzung von KI" gesprochen werde. (deutscher Bundestag: ra)

eingetragen: 23.05.24
Newsletterlauf: 03.07.24


Meldungen: Bundestag, Bundesregierung, Bundesrat

  • Stand zum Emissionshandel für Gebäude und Verkehr

    Die Bundesregierung wird ein neues Klimaschutzprogramm vorlegen, das im Zeitraum bis zum Jahr 2030 auch Maßnahmen zur Treibhausgasminderungsquote im Bereich der durch die EU-Lastenverteilungsverordnung (ESR) erfassten Sektoren Gebäude und Verkehr enthalten wird. Die Maßnahmen für das Programm werden derzeit entwickelt. Das geht aus der Antwort (21/1072) der Bundesregierung auf eine Kleine Anfrage (21/762) der Fraktion Bündnis 90/Die Grünen hervor.

  • Fluggastrechteverordnung für reformbedürftig

    Die Bundesregierung lehnt die Erhöhung von Zeitschwellen für Entschädigungen in der Fluggastrechteverordnung der EU ab. Sie stellt sich damit gegen einen entsprechenden Beschluss des Rates der EU-Verkehrsminister, wie aus einer Antwort (21/962) auf eine Kleine Anfrage der Fraktion Bündnis 90/Die Grünen (21/749) hervorgeht. Eine solche "Abschwächung des Verbraucherschutzniveaus" lehne die Bundesregierung ab. Sie trete für einen "ausgewogenen Ausgleich der Interessen der Fluggäste und der Luftfahrtunternehmen sowie der Reisewirtschaft" ein.

  • Digitalisierung des Gesundheitswesens

    Der Petitionsausschuss hält mehrheitlich an der Widerspruchslösung (Opt-out-Lösung) bei der elektronischen Patientenakte (ePA) fest. In der Sitzung verabschiedete der Ausschuss mit den Stimmen der Koalitionsfraktionen CDU/CSU und SPD die Beschlussempfehlung an den Bundestag, das Petitionsverfahren zu der Forderung, die elektronische Patientenakte nur mit ausdrücklichem Einverständnis der Betroffenen anzulegen (Opt-in-Lösung), abzuschließen, weil keine Anhaltspunkte für parlamentarische Aktivitäten zu erkennen seien.

  • Angaben zu Cum-Cum-Geschäften

    Derzeit befinden sich 253 Cum-Cum-Verdachtsfälle mit einem Volumen in Höhe von 7,3 Milliarden Euro bei den obersten Behörden der Länder und dem Bundeszentralamt für Steuern (BZSt) in Bearbeitung. Diese Angaben macht die Bundesregierung in ihrer Antwort (21/915) auf eine Kleine Anfrage (21/536) der Fraktion von Bündnis 90/Die Grünen zu den rechtswidrigen Steuergeschäften.

  • Konformitätsbewertung von Produkten

    In einer Kleinen Anfrage (21/946) möchte die AfD-Fraktion von der Bundesregierung wissen, wie die EU-Maschinenverordnung (EU/2023/1230) im Hinblick auf KI-basierte Sicherheitssysteme angewendet und begleitet werden soll. Die Verordnung, die ab dem 20. Januar 2027 gilt, stellt laut Vorbemerkung der Anfrage neue Anforderungen an Maschinen mit eingebetteter Künstlicher Intelligenz.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen