Experten sehen Regelungsbedarf


Neuregelung von Haftungsfragen und Versicherungsmodellen bei Haftung von Schäden, die durch Systeme künstlicher Intelligenz verursacht werden
Verkehrsunfall mit Todesfolge durch ein selbstfahrendes Auto: Bis heute ungeklärt, ob der Programmierer, der Modellierer, der Systemhersteller oder der Autohersteller die Verantwortung übernehmen muss



Experten sehen Regelungsbedarf bei der Haftung von Schäden, die durch Systeme künstlicher Intelligenz verursacht werden. Das zeigte ein öffentliches Fachgespräch des Ausschusses für Digitale Agenda. Die Mehrheit der Sachverständigen war der Meinung, dass die technologische Entwicklung eine Neuregelung von Haftungsfragen und Versicherungsmodellen erfordere. Als weiteres zentrales Problem benannten sie den Datenschutz. Gleichzeitig plädierten sie dafür, die Chancen künstlicher Intelligenz zu würdigen und zu fördern.

Immer mehr technische Anwendungen funktionieren heute auf der Grundlage künstlicher Intelligenz, also der Umsetzung menschlicher Kognitionsfähigkeiten im Computer. Bestehende Anwendungen sind auf eine bestimmte Tätigkeit spezialisiert: autonome Maschinen, die Autos lenken sind ebenso Beispiele wie Systeme, die Schach spielen oder E-Mails beantworten können. Im der Medizin zählen auch sogenannte "intelligente Prothesen" zur Anwendung künstlicher Intelligenz.

Matthias Spielkamp von der Organisation AlgorithmWatch verdeutliche die Haftungsfrage am Beispiel eines Verkehrsunfalls mit Todesfolge, der durch ein selbstfahrendes Auto verursacht wurde. "Bis heute ist ungeklärt, ob der Programmierer, der Modellierer, der Systemhersteller oder der Autohersteller die Verantwortung übernehmen muss", sagte er. Er sei überzeugt, dass sich für den zivilrechtlichen Bereich Lösungen finden ließen. "Die strafrechtliche Frage ist viel problematischer", betonte Spielkamp.

Auch Enno Park vom Verein Cyborgs e.V. beschreibt Unfälle durch autonome Maschinen in seiner schriftlichen Stellungnahme als großes Problem. Bei autonomen Systemen und dem Einsatz künstlicher Intelligenz in Unternehmen und Privatleben müssten Haftungsfragen zwischen Herstellern, Anbietern und Nutzern neu aufgeteilt werden. Die Schaffung neuer Pflichtversicherungen könnte notwendig werden, heißt es in seiner schriftlichen Stellungnahme.

Zivilrechtlich sei die einzige Möglichkeit eine Globalversicherung, die beispielsweise alle Fahrzeughersteller einbinde, heißt es in der schriftlichen Stellungnahme des Mathematikers Raúl Rojas von der Freien Universität Berlin. Eine Maschine zum Rechtssubjekt zu erklären lehnte er ab, da Maschinen nicht verantwortlich sein könnten.

Diskutiert würden Herstellerhaftung, Halterhaftung sowie Idee, die Maschinen zu Rechtspersonen zu machen, heißt es in der Stellungnahme von Frank Kirchner, Direktor des Forschungszentrums für künstliche Intelligenz (DFKI). Die Technologie würde schrittweise in unser Leben integriert. Es müsse ein rechtlicher Rahmen gefunden werden, der diesen Prozess begleitet und an technologische Entwicklungen angepasst werden könne, empfahl er.

Die Experten befürworten mehrheitlich eine Regulierung "künstlicher Intelligenz" auf europäischer Ebene. Eine europäische Agentur für Folgenabschätzung der Informationstechnologie für den gesamten IT-Bereich empfiehlt Rojas in seiner Stellungnahme. Aufgrund der vielfältigen Anwendungsgebiet müsse eine solche Agentur Kategorisierungen vornehmen und differenzierte Empfehlungen vornehmen, sagte Park. Laut Spielkamp könnten auch nationale Lösungen sinnvoll sein, wenn sie an internationale Standards gekoppelt werden.

Der Unternehmer Fabian Westerwede vom Bundesverband Deutscher Startups betonte, dass eine europäische Agentur genutzt werden solle, um Strategien für die Technologieförderung zu entwickeln. "Europa darf kein technologiefeindlicher Ort werden", forderte er und verwies darauf, dass Deutschland im Bereich der künstlichen Intelligenz hinter den USA, China und Großbritannien liege.

Demgegenüber hält Kirchner die regionale Regulierung technologischer Entwicklungen nicht für zielführend. Wirkungsvoller als gesetzgeberische Maßnahmen sei die Regulierung durch eine ethisch verfasste Gesellschaft, sagte er. (Deutscher Bundestag: ra)

eingetragen: 26.04.17
Home & Newsletterlauf: 15.05.17


Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>


Meldungen: Bundestag, Bundesregierung, Bundesrat

  • Internet Governance & Datenpolitik-Strategie

    Bis Ende 2023 erarbeitet das Bundesministerium für Digitales und Verkehr (BMDV) eine Strategie für Internationale Datenpolitik. In dieser werde auch das Thema Internet Governance behandelt. Das schreibt die Bundesregierung in ihrer Antwort (20/9231) auf eine Kleine Anfrage der Linksfraktion (20/8702). Darin hatten sich die Abgeordneten unter anderem erkundigt, wie die Bundesregierung Internet Governance definiert und welche Akteure sie als maßgeblich bei dem Thema betrachtet.

  • Experten begrüßen Nutzung der Gesundheitsdaten

    Die von der Deutschen Bundesregierung geplante systematische Auswertung von Gesundheitsdaten für gemeinwohlorientierte Zwecke wird von Experten begrüßt. Die Neuregelungen können nach Ansicht der Sachverständigen dazu beitragen, die Versorgung zu verbessern und die Forschung zu stärken. Allerdings wiesen die Fachleute in einer Anhörung über das Gesundheitsdatennutzungsgesetz (GDNG) (20/9046) auf die Notwendigkeit hin, die sensiblen Gesundheitsdaten zu schützen und die Versicherten über deren Verwendung selbst entscheiden zu lassen.

  • Zustimmung zum Zukunftsfinanzierungsgesetz

    Millionen Deutsche sollen eine bessere staatliche Spar-Förderung bekommen: Die Einkommensgrenzen für die Berechtigung der Arbeitnehmer-Sparzulage sollen sich verdoppeln, auf 40.000 Euro für Ledige und 80.000 Euro für Verheiratete.

  • Experten für einfache Regelungen im Digitalgesetz

    Der von der Deutschen Bundesregierung vorgelegte Entwurf für ein Digitalgesetz wird von Experten im Grundsatz begrüßt. Jedoch werden einzelne Regelungen kritisch hinterfragt, vor allem die aus Sicht einiger Gesundheitsexperten zu kleinteiligen Vorgaben und zu kurze Umsetzungsfristen, wie eine Anhörung zu dem Gesetzentwurf ergeben hat.

  • Unionsantrag zu AI Act-Nachbesserungen abgelehnt

    Der Digitalausschuss hat einen Antrag (20/7583) der Unionsfraktion zu Anpassungen am in den Trilog-Verhandlungen befindlichen AI Act mit den Stimmen von SPD, Grünen, FDP und Linksfraktion bei Zustimmung der Antragsteller und Enthaltung der AfD-Fraktion abgelehnt

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen