You are here

Large Language Models in der Assekuranz: Strategien, Strukturen und Quick-Wins

LLMs versprechen hohe Effizienzgewinne. Doch wie gelingt ihr Einsatz regulatorisch sicher, architektonisch tragfähig und wirtschaftlich wirksam?
Written on 08/08/2025
Key visual Cominia Whitepaper on Large Language Models in Insurance displaying hand with AI symbol

Dieser Artikel wurde als Gastbeitrag von Artjom Eckhardt und Mischa Pupashenko, Cominia Aktuarielle Services, erstellt. Das Whitepaper können Sie hier herunterladen.

Die Assekuranz befindet sich, wie viele andere Branchen, inmitten eines tiefgreifenden Wandels, der vor allem durch den schnellen technologischen Fortschritt und den Aufstieg moderner KI-Modelle wie Large Language Models (LLMs) geprägt ist. In der öffentlichen Diskussion werden diese modernen KI-Technologien häufig auch unter dem Begriff „Generative AI“ (GenAI) zusammengefasst. Die rasante Entwicklung solcher Modelle eröffnet Versicherungsunternehmen völlig neue Möglichkeiten, ihre Prozesse effizienter, kundenorientierter und flexibler zu gestalten. Angesichts intensiven Wettbewerbs, eines konstant hohen regulatorischen Drucks und der Auswirkungen des demografischen Wandels, insbesondere des Arbeitskräftemangels, wird der strategische Einsatz moderner KI-Technologien für Versicherungsunternehmen immer relevanter.

LLMs, wie sie in aktuellen Anwendungen zum Einsatz kommen, unterscheiden sich in ihrer Funktionsweise grundlegend von klassischen KI-Systemen, also den etablierten Machine-Learning-(ML-)Modellen. Während klassische ML-Modelle überwiegend für mathematisch-statistische Aufgaben wie Prognosen, Risikoanalysen oder Mustererkennung eingesetzt werden und hierfür gezielt auf strukturierte Datensätze trainiert werden, handelt es sich bei LLMs um große, vortrainierte Sprachmodelle. Das Besondere an LLMs liegt nicht nur in ihrer technischen Leistungsfähigkeit, sondern auch in ihrer Vielseitigkeit im praktischen Einsatz. Sie können beispielsweise große Mengen unstrukturierter Daten automatisch verarbeiten, Inhalte wie Berichte oder E-Mails generieren, semantische Suchanfragen verstehen oder in bestehende Datenbanksysteme integriert werden. Dadurch ergeben sich für Versicherungsunternehmen zahlreiche Möglichkeiten, Prozesse zu automatisieren, Wissen effizienter zu transferieren und neue innovative Services zu entwickeln.

Mit ihrer Fähigkeit, natürliche Sprache semantisch zu erfassen, relevante Informationen aus unstrukturierten Texten zu extrahieren und zu strukturieren, lassen sich LLMs an zahlreichen Stellen innerhalb komplexer Geschäftsprozesse gezielt und vielseitig einsetzen.

Architektur und Strategie: Der Weg zur erfolgreichen KI-Nutzung

Für einen nachhaltigen und unternehmensweiten Nutzen von LLMs ist eine geeignete technische Basis von zentraler Bedeutung. Bereits beim Einstieg sollte deutlich werden, dass der Aufbau von Insellösungen vermieden werden muss. Stattdessen braucht es einen strategischen Rahmen und eine skalierbare Architektur, um das Potenzial von LLMs umfassend ausschöpfen zu können. 

Empfehlenswert ist der Aufbau einer unternehmensweiten Basis, die als zentrale Plattform für den KI-Einsatz dient. Diese Architektur ermöglicht es, verschiedene Use Cases effizient zu integrieren und zu betreiben. Neue Anwendungen können nach dem „Plug-and-Play“-Prinzip hinzugefügt werden, was eine schnelle Skalierung und Anpassung an wechselnde Anforderungen erlaubt. Zu den wichtigsten Komponenten einer solchen Basis zählen eine zentrale Wissensdatenbank, klar definierte Schnittstellen (APIs) zu bestehenden Systemen sowie ein durchdachtes Berechtigungs- und Zugriffsmanagement. Auf dieser technischen Grundlage lassen sich unterschiedliche fachliche Anforderungen adressieren, ohne dass für jeden Anwendungsfall eine eigene Lösung entwickelt werden muss.

Der Erfolg von LLMs und KI-Anwendungen hängt jedoch nicht nur von der technischen Architektur ab, sondern vor allem von ihrer strategischen Einbettung in das Unternehmen. Sie definiert, welche Anwendungsbereiche und Prozesse priorisiert werden, wie neue Use Cases identifiziert und integriert werden und auf welche Ziele der KI-Einsatz ausgerichtet ist. Besonders wichtig ist dabei ein prozessorientierter Ansatz. Architektur und Basis sollten so gestaltet sein, dass sie entlang der gesamten Wertschöpfungskette eingesetzt werden können, von der Schadenbearbeitung über das Kundenmanagement bis hin zu Aktuariat und Risikomanagement. So entsteht eine modulare und flexible Infrastruktur, die Effizienzsteigerungen nicht nur in Einzelprojekten, sondern auf breiter Ebene im Unternehmen ermöglicht. Durch diese strategische Verankerung wird sichergestellt, dass KI-Lösungen nicht isoliert bleiben, sondern kontinuierlich mit den Zielen und Anforderungen des Unternehmens sowie dem technologischen Fortschritt weiterentwickelt werden. So können LLMs ihr volles Potenzial entfalten und einen nachhaltigen Beitrag zur Digitalisierung und Innovationskraft der Versicherungsbranche leisten.

Entscheidend für den wirksamen und nachhaltigen Einsatz von LLMs sind eine skalierbare Architektur, ein strategischer Rahmen sowie ein strukturiertes Vorgehen zur Verprobung und Priorisierung der Use-Case-Entwicklung, insbesondere entlang einzelner Prozesse, durch Wiederverwendung innerhalb der Wertschöpfungskette und die kontinuierliche Integration neuer Anwendungen.

Governance und Regulatorik: Der Basis zur sicheren KI-Nutzung

Der erfolgreiche und nachhaltige Einsatz von LLMs in der Versicherungsbranche setzt voraus, dass regulatorische Anforderungen und Governance-Strukturen von Beginn an konsequent berücksichtigt werden. In den vergangenen Jahren sind die gesetzlichen und aufsichtsrechtlichen Anforderungen an den Einsatz von KI erheblich gestiegen. Dies betrifft sowohl die technische Umsetzung als auch den Umgang mit Daten, die Dokumentation von Entscheidungen und den Schutz der Kundeninteressen. 

Zu den wichtigsten regulatorischen Rahmenwerken zählen: 

  • Datenschutz und DSGVO: Der verantwortungsvolle Umgang mit personenbezogenen Daten ist ein Kernelement jeder KI-Strategie. Neben der Einhaltung der Datenschutz-Grundverordnung (DSGVO) müssen Versicherungsunternehmen Maßnahmen wie Datensparsamkeit, Zugriffskontrolle und die Umsetzung von Betroffenenrechten in ihre Prozesse integrieren. 
  • EU AI Act: Dieser schafft erstmals ein umfassendes Regelwerk für die Entwicklung, Einführung und Nutzung von KI-Systemen innerhalb der Europäischen Union. Transparenz- und Dokumentationspflichten, Risikomanagement und die Nachvollziehbarkeit von Entscheidungen stehen im Fokus. Versicherungsunternehmen müssen daher bereits bei der Auswahl und Implementierung von LLMs diese Anforderungen umfassend berücksichtigen. 
  • DORA (Digital Operational Resilience Act): DORA legt zentrale Vorgaben zur IT-Resilienz und Cybersecurity fest. Dazu gehören zum Beispiel die Stärkung der IT-Sicherheitsmaßnahmen, die Entwicklung von Notfallplänen sowie die regelmäßige Überprüfung der eingesetzten Technologien. Damit wird sichergestellt, dass auch der Einsatz von LLMs und KI-Lösungen robust und sicher erfolgt.
  • Cybersecurity: Angesichts der zunehmenden Bedrohungslage durch Cyberangriffe ist es essenziell, beim Einsatz von LLMs und KI-Systemen bewährte und international anerkannte Sicherheitsstandards zu berücksichtigen. Hierzu empfiehlt sich die Orientierung an etablierten Frameworks wie jenen des NIST (National Institute of Standards and Technology) oder OWASP (Open Web Application Security Project), um systematisch Schwachstellen zu identifizieren und wirksame Schutzmaßnahmen umzusetzen. 

Im Rahmen einer Gap-Analyse kann das Unternehmen systematisch überprüfen, welche regulatorischen Vorgaben bereits durch bestehende Prozesse und Systeme erfüllt sind, wo noch Nachholbedarf besteht und welche Maßnahmen zur vollständigen Erfüllung der Mindestanforderungen ergriffen werden müssen. Darüber hinaus sollten Verantwortlichkeiten klar definiert und regelmäßige Audits eingeplant werden, um die Einhaltung der regulatorischen Vorgaben nachweisbar sicherzustellen. 

Insgesamt ist Governance kein statischer Zustand, sondern ein kontinuierlicher Prozess. Technologische und regulatorische Entwicklungen müssen stets beobachtet und die eigenen Strukturen regelmäßig angepasst werden. Nur so können Versicherungsunternehmen das Vertrauen von Kunden und Aufsichtsbehörden sichern und zugleich das Potenzial von LLMs und KI-Lösungen verantwortungsbewusst nutzen.

Der verantwortungsvolle Einsatz von LLMs erfordert von Anfang an eine konsequente Einbettung regulatorischer Anforderungen, klar definierter Governance-Strukturen und IT-Sicherheitsstandards. Nur so lassen sich Vertrauen, Compliance und Sicherheit gewährleisten, und gleichzeitig die Potenziale von KI-Technologien in der Versicherungsbranche nachhaltig und risikobewusst ausschöpfen. 

Use Case: KI-Agent zur Unterstützung im (Überwachungs)- Gruppenfunktion wie z.B. Risikomanagement oder Versicherungsmathematische Funktion

Sind Strategie, Architektur und Governance klar definiert, ermöglichen LLMs bereits mit vergleichsweise geringem Aufwand konkrete Mehrwerte im operativen Geschäft. Besonders in Prozessen mit hohem Wiederholungsgrad lassen sich durch gezielte Eingriffe an einzelnen Prozessschritten Effizienzgewinne und Kostensenkungen schnell realisieren. Solche Quick-Wins bilden den idealen Einstiegspunkt für den sukzessiven, skalierbaren Ausbau von KI-Anwendungen. Ein praxisnahes Beispiel hierfür ist der Aufbau eines spezialisierten KI-Agenten zur Entlastung des Linienbetriebs – insbesondere im Bereich Governance, Risk & Compliance (GRC) und internes Kontrollsystem. 

Ausgangssituation: 

In einer international aufgestellten Organisation mit zentraler Governance und dezentraler operativer Verantwortung stehen Gruppenfunktionen regelmäßig vor der Herausforderung, komplexe methodische Fragestellungen zu beantworten. Dazu zählen unter anderem die Bearbeitung von Standardanfragen (z. B. über Gruppenpostfächer), die Unterstützung und Schulung der lokalen Einheiten, etwa durch Bereitstellung relevanter Governance-Dokumente, die Validierung der lokalen Umsetzungen sowie deren fortlaufende Überwachung. Darüber hinaus müssen Ergebnisse regelmäßig eingesammelt, aufbereitet, aggregiert und adressatengerecht an das Management berichtet werden. 

KI – Use Case: 

Ein auf LLM basierender Chatbot oder Agent, der gezielt mit unternehmensspezifischem Wissen befüllt wird, kann hier deutliche Effizienzgewinne erzielen. Dieses System wird auf Basis einer sicheren, etablierten Architektur entwickelt (z. B. mit (Graph)-Retrieval-Augmented Generation Modell), wobei Informationssicherheit durch den Einsatz von Sandboxen und restriktiven Zugriffsrechten gewährleistet ist. Weitere Anwendungen angeschlossen an das System können weitere Optimierungspotenziale (wie z.B. automatisches Berichtserstellung) heben. 

Typische Anwendungsszenarien umfassen:

  • Kontextbezogene Beantwortung von Anfragen: Der KI-Agent beantwortet gezielte Anfragen aus den Fachbereichen zu methodischen Themen direkt auf Basis einer zentralen Wissensdatenbank. Die verwendeten Quellen werden, entweder als Download, mit Seitenangabe, Markierung oder in Form relevanter Textauszüge. Alle generierten Antworten werden gesammelt und automatisiert an die Gruppenfunktion zur stichprobenbasierten Überprüfung weitergeleitet. Auf diese Weise kann der Agent kontinuierlich weiterentwickelt und optimiert werden. 
  • Effizientes Dokumentenmanagement: Der Agent durchsucht umfangreiche Dokumentenpools und liefert spezifische Informationen ohne langwieriges manuelles Suchen. 
  • Technischer Support in Gruppen-Tools: Im Rahmen von Assessments oder Workflow-Prüfungen können Nutzer Screenshot-Basierte Fragen hochladen. Der Agent erkennt die Problemstelle und leitet Schritt für Schritt zur Lösung, deutlich effizienter und zielgerichteter als klassische Click-Guides. 
  • Unterstützung bei Tests von System-Releases: Bei Updates oder Neueinführungen von Gruppen-Workflows kann der Agent automatisch Testfälle generieren, etwa zur Überprüfung, ob die Methodik korrekt im System hinterlegt ist. 

Mehrwert und Nutzen:

  • Ressourcenschonung: Deutliche Entlastung von Gruppenpostfächern und 2nd Line-Support durch Automatisierung standardisierter Routineanfragen. 
  • Schneller Wissenstransfer: Fachbereiche erhalten unmittelbare, präzise Auskünfte und finden benötigte Dokumente schneller. 
  • Hohe Flexibilität und Skalierbarkeit: Das System ist modular erweiterbar, kann um zusätzliche Funktionen ergänzt und auch auf andere Unternehmensbereiche übertragen werden. 
  • Informationssicherheit: Durch die Integration in eine sichere technische Infrastruktur und die Orientierung an etablierten Standards (z. B. Sandboxen, kontrollierte Zugriffe) ist der Schutz sensibler Informationen gewährleistet. 
  • Geringer Implementierungsaufwand: Bei Vorliegen einer geeigneten Architektur und Governance sowie fachlichem Know-How der Gruppenprozesse und Herausforderungen lässt sich die initiale Version eines solchen KI-Agenten mit geringem Aufwand (ca. 5–10 Personentage) realisieren. 

Insgesamt zeigt dieser Use Case, wie LLM-basierte Agenten nicht nur für punktuelle Effizienzsteigerungen sorgen, sondern als flexibles, sich ständig weiterentwickelndes Werkzeug den digitalen Wandel im Versicherungsunternehmen vorantreiben, und das auf eine realistische, praxistaugliche und sichere Weise.

Ein KI-Agent, der Wissen nicht nur zugänglich macht, sondern zugleich Qualität sichert, Prozesse entlastet und Lernpotenziale schafft bildet ein skalierbarer Baustein zur Effizienzsteigerung in Governance-nahen Aufgaben. 

Fazit: Mit Strategie und Substanz zum nachhaltigen KI-Einsatz 

Die Einführung von LLMs in der Assekuranz eröffnet vielfältige Chancen zur Steigerung von Effizienz, Qualität und Innovationskraft, vorausgesetzt, sie werden strategisch geplant, technisch solide integriert und unter Berücksichtigung regulatorischer Anforderungen umgesetzt. Eine zentralisierte technische Basis und eine klare Governance sind dabei ebenso entscheidend wie die Auswahl passender, praxistauglicher Use Cases.

Gerade einfache, schnell realisierbare Anwendungsfälle, wie der vorgestellte KI-Agent, zeigen, wie LLMs messbaren Mehrwert schaffen können, ohne große Risiken oder Investitionen einzugehen. Mit dem richtigen Fundament kann die Versicherungsbranche das Potenzial moderner KI-Lösungen voll ausschöpfen und sich zukunftssicher aufstellen. 
LLMs entfalten ihre Wirkung dort, wo Strategie, Struktur und Verantwortung zusammenspielen, und machen so aus punktuellen Eingriffen nachhaltigen Fortschritt. 

Sie möchten LLMs sicher, effizient und zukunftsorientiert einsetzen? Sprechen Sie uns an. 

Portrait Artjom EckhardtArtjom Eckhardt
Senior Consultant
Geschäftsfeld Risikomanagement
artjom.eckhardt@cominia.de
+49 1520 8461373

 

 

Portrait Dr Mischa PupashenkoDr Mischa Pupashenko
Principal &
Geschäftsfeldverantwortlicher Risikomanagement 
mischa.pupashenko@cominia.de
+49 152 08437644

 

 

Literaturhinweise

  • Dubovci, Dea & Pupashenko, Dr. Mischa (2025): DORA in der Assekuranz: Schlanke Umsetzung, klare Prioritäten. Gastbeitrag auf actupool, veröffentlicht am 8. Juli 2025.
  • Datenschutz-Grundverordnung (DSGVO): Verordnung (EU) 2016/679 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten und zum freien Datenverkehr. 
  • EU AI Act: Verordnung (EU) 2024/1241 des Europäischen Parlaments und des Rates vom 21. Mai 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz und zur Änderung bestimmter Rechtsakte der Union. 
  • Digital Operational Resilience Act (DORA): Verordnung (EU) 2022/2554 des Europäischen Parlaments und des Rates vom 14. Dezember 2022 über die digitale operationale Resilienz im Finanzsektor, Amtsblatt der EU, L 333/1. 
  • National Institute of Standards and Technology (NIST): Framework for Artificial Intelligence Risk Management (AI RMF 1.0), NIST Special Publication 1270, Januar 2023. 
  • OWASP Foundation (2023): OWASP Top 10 for Large Language Model Applications.
  • Microsoft Research (2024): From Local to Global: A Graph RAG Approach to Query-Focused Summarization. arXiv:2404.16130, 24. April 2024.

  • Yao et al. (2023): ReAct: Synergizing Reasoning and Acting in Language Models. International Conference on Learning Representations (ICLR) 2023.