KI und Haftung: Pflichten und Risiken für Unternehmen

10. August 2025

Das Landgericht Kiel hat mit Urteil vom 29.02.2024 (Az.: 6 O 151/23) entschieden, dass beim Einsatz von KI-Systemen in der medizinischen Behandlung besondere Sorgfaltspflichten an Unternehmer zu stellen sind.

Sachverhalt

Ein Wirtschaftsauskunftsdienst (im Folgenden: Beklagte) setzte für die Beantwortung von Anfragen zu Unternehmensdaten ein vollautomatisiertes, KI-gestütztes System ein. In einem Fall erteilte das System die fehlerhafte Auskunft, ein bestimmtes Unternehmen sei vermögenslos. Diese Information war unzutreffend – und beeinträchtigte das Ansehen des betroffenen Unternehmens (im Folgenden: Klägerin) erheblich. Die Klägerin verlangte Unterlassung.

Die Beklagte verteidigte sich damit, dass die Auskunft ohne menschliches Zutun durch eine KI generiert worden sei. Man habe erst durch die Beschwerde des betroffenen Unternehmens von dem Fehler erfahren. Zudem habe man sich auf öffentlich zugängliche Daten gestützt.

Die Klägerin sah ihr Unternehmenspersönlichkeitsrecht verletzt und war der Auffassung, die Beklagte müsse auch für maschinell erzeugte Inhalte einstehen – insbesondere dann, wenn sich diese nach außen als autorisierte Informationen darstellen.

Rechtliche Einordnung

Das Landgericht Kiel gab der Klägerin recht. Es verurteilte den Wirtschaftsauskunftsdienst zur Unterlassung und stellte klar, dass auch KI-generierte Inhalte eine rechtliche Verantwortlichkeit des betreibenden Unternehmens begründen – selbst wenn diese automatisiert und ohne menschliches Eingreifen erzeugt wurden.

Das Gericht lehnte eine Haftung als Täter mangels Kenntnis der Falschauskunft ab. Es bejahte jedoch eine Haftung als sogenannte „unmittelbare Störerin“: Wer sich bewusst einer Software zur Beantwortung von Anfragen bediene, sei für den dabei entstehenden fehlerhaften Inhalt verantwortlich. Es sei nicht zulässig, sich auf die Eigenständigkeit der KI zu berufen, wenn deren Einsatz auf einer bewussten unternehmerischen Entscheidung beruhe.

Zur Begründung stützte sich das Gericht auch auf die Rechtsprechung des Bundesgerichtshofs zur Störerhaftung (u. a. BGH, Urteil vom 01.03.2016 – VI ZR 34/15) und des OLG Düsseldorf (Az. I-16 U 136/20).

Fazit

Das LG Kiel stellt klar: Die Automatisierung von Prozessen durch KI entbindet Unternehmen nicht von ihrer rechtlichen Verantwortung. Wer sich zur Informationsverarbeitung oder zur Kommunikation gegenüber Dritten eines KI-Systems bedient, muss für dessen fehlerhaften Output einstehen – insbesondere dann, wenn dadurch Persönlichkeitsrechte verletzt werden.

Unternehmen, die KI-basierte Systeme in öffentlich wirksame Prozesse integrieren, sollten interne Kontrollmechanismen etablieren und sich möglicher Haftungsrisiken bewusst sein. Die Entscheidung ist mit Blick auf die zunehmende Praxisrelevanz von KI-Systemen richtungsweisend.

Was heißt das für die Arztpraxis?

Auch im medizinischen Bereich werden zunehmend KI-Systeme eingesetzt – etwa bei der Terminvergabe, Symptomanalyse oder Patientenkommunikation (z. B. durch Chatbots). Das Urteil des LG Kiel zeigt: Auch Arztpraxen haften für Fehler, die durch KI-basierte Tools entstehen, sofern diese ohne Kontrolle nach außen wirken. Wird etwa eine unzutreffende medizinische Einschätzung durch ein automatisiertes System übermittelt, kann dies haftungsrechtliche Konsequenzen haben.

Fazit für die (Arzt-)Praxis: Der Einsatz künstlicher Intelligenz ersetzt nicht die rechtliche Verantwortung. Ärztinnen und Ärzte sollten KI-gestützte Systeme nur mit klaren Kontroll- und Haftungsmechanismen nutzen – insbesondere dann, wenn Informationen an Patienten oder Dritte ausgegeben werden.

 

 

Zurück
Zurück

Wie Meta Social-Media-Daten für KI Training nutzt