Das Gesetz über künstliche Intelligenz - wird es auch die Versicherungsbranche betreffen?

Seit einigen Jahren beschäftigen sich verschiedene europäische Gremien mit ethischen Fragen rund um den Einsatz von KI in vielen Lebensbereichen. Ihr Ziel ist in erster Linie eine vertrauenswürdige künstliche Intelligenz, die ethisch vertretbar, robust und gesetzeskonform ist. Dies soll nicht nur für jedes einzelne KI-System, sondern für die KI im Allgemeinen erreicht werden. Daraus ergeben sich Anforderungen an die beteiligten Akteure, als Nutzer, Anbieter und Entwickler von KI-Systemen.
Veröffentlicht am 22.02.2023

von Dr. Stefan Nörtemann,
msg life central europe gmbh

Der Stand der Dinge zu Beginn des Jahres 2023

Mit der Veröffentlichung eines gemeinsamen Verordnungsentwurfs* durch die Europäische Kommission und das Europäische Parlament am 21. April 2021 wurde ein Schritt in Richtung einer einheitlichen EU-weiten Regulierung von Künstlicher Intelligenz getan. Seitdem gab es Konsultationen und umfangreiche Diskussionen zwischen den Gremien, Industrievertretern und Behörden. Das ursprüngliche Ziel, das sogenannte Artificial Intelligence Act im Jahr 2022 zu verabschieden, wurde nicht erreicht. Immerhin hat sich der Europäische Rat am 6. Dezember 2022 auf eine gemeinsame Ausrichtung geeinigt, die in der allgemeinen Ausrichtung** vom 25. November 2022 niedergelegt ist. Sie ist kein Beschluss über die Verordnung, sondern beschreibt die Position, mit der der Europäische Rat in den Trilogprozess eintritt, der voraussichtlich zur Verabschiedung des Gesetzes im Jahr 2023 führen wird.

System der Verordnungen 

Wie in meinen Artikeln vom 3. Februar 2022 und 22. Februar 2022 beschrieben, verfolgt der Entwurf des Gesetzes zur Künstlichen Intelligenz das Prinzip der risikobasierten Regulierung. Dieses Prinzip sieht vor, dass jede KI-Anwendung einer von vier Kategorien zugeordnet wird: verbotene Praktiken, Hochrisikosysteme, Systeme mit besonderen Transparenzpflichten, alle anderen KI-Systeme (die in keine der anderen Kategorien fallen). Eine weitreichende Regulierung ist (nur) für Hochrisikosysteme vorgesehen.

Was bedeutet das für die Versicherungswirtschaft

Spätestens seit der Veröffentlichung des ursprünglichen Entwurfs wird die Frage diskutiert, ob und welche KI-Anwendungen im Versicherungsbereich als Hochrisikosysteme zu qualifizieren sind und damit einer umfassenden Regulierung unterliegen. Dies war im ursprünglichen Entwurf* überhaupt nicht vorgesehen. Ein früherer Kompromisstext des Europäischen Rates (Kompromisstext vom 29. November 2021)*** lautet wie folgt: "... KI-Systeme, die für die Festsetzung von Versicherungsprämien, die Übernahme von Versicherungsverträgen und die Bewertung von Schadensfällen verwendet werden sollen. In der allgemeinen Ausrichtung** wurde dies geändert in "KI-Systeme, die für die Risikobewertung und Preisfestsetzung in Bezug auf natürliche Personen im Falle von Lebens- und Krankenversicherungen verwendet werden sollen ..." (allgemeine Ausrichtung, Anhang III, 5. d))

Anforderungen für Hochrisikosysteme

Vereinfacht ausgedrückt bedeutet dies, dass Hochrisikosysteme im Versicherungswesen auf KI-Anwendungen zur Risikobewertung und Tarifierung in der Lebens- und Krankenversicherung beschränkt sind. Andere Versicherungssparten werden hier nicht erwähnt. Daraus ergibt sich eine Vielzahl von Anforderungen an KI-Anwendungen, die zur Risikobewertung und Tarifierung in der Lebens- und Krankenversicherung eingesetzt werden sollen (allgemeiner Ansatz, Kapitel 2, Artikel 8 - 15).

Dazu gehören ein spezifisches Risikomanagement, Data Governance, detaillierte technische Dokumentations- und Aufbewahrungspflichten, Transparenzvorschriften, menschliche Aufsicht und spezifische Anforderungen an Genauigkeit, Robustheit und Cybersicherheit.

Die Herasuforderungen beim Einsatz von Hochrisikosystemen

Abgesehen von den eher "bürokratischen" und organisatorischen Vorschriften, die im Bereich "harte Arbeit" angesiedelt sind, müssen bei der Konzeption von KI-Systemen selbst anspruchsvolle technische Anforderungen berücksichtigt werden.

Zwei von vielen Beispielen hierfür sind die Transparenzanforderungen (Artikel 13) für KI-Systeme in Verbindung mit der menschlichen Aufsicht (Artikel 14), die sicherstellen soll, dass die Nutzer die Ergebnisse des KI-Systems richtig interpretieren und seinen Betrieb wirksam überwachen können. Dies ist insbesondere bei Black-Box-Systemen, wie sie beim Deep Learning eingesetzt werden, ein grundlegendes Hindernis (Stichwort "Erklärbarkeit").

Zwischenfazit

Auch wenn sich der Europäische Rat auf eine allgemeine Ausrichtung geeinigt hat,** ist noch nichts endgültig. Dennoch ist die allgemeine Ausrichtung ein klarer Hinweis auf die Richtung, in die sich die Dinge bewegen, und wir können davon ausgehen, dass zumindest ausgewählte KI-Anwendungen in den Bereichen Lebens- und Krankenversicherung als Hochrisikosysteme eingestuft werden. Wir werden Sie auf dem Laufenden halten.

*) Vorschlag für eine VERORDNUNG DES EUROPÄISCHEN PARLAMENTS UND DES RATES ZUR FESTLEGUNG HARMONISIERTER REGELN FÜR KÜNSTLICHE INTELLIGENZ (ARTIFICIAL INTELLIGENCE ACT) UND ZUR ÄNDERUNG BESTIMMTER RECHTSAKTE DER UNION
**) Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften über künstliche Intelligenz (Gesetz über künstliche Intelligenz) und zur Änderung bestimmter Rechtsakte der Union - Allgemeines Konzept
***) Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften über künstliche Intelligenz (Gesetz über künstliche Intelligenz) und zur Änderung bestimmter Rechtsakte der Union - Kompromisstext des Vorsitzes

Dieser Artikel wurde erstmals im Januar 2023 auf dem msg insur:it Blog veröffentlicht: https://msg-insurit.com/blog/rethinking-insurance/the-artificial-intelli...