Künstliche Intelligenz (KI) erobert den Alltag und liefert auf Knopfdruck Daten, Texte und Analysen. Doch die Technologie ist fehleranfällig. Was passiert, wenn eine KI beispielsweise falsche Fakten erfindet und dadurch Schäden entstehen?
KI-Systeme wie ChatGPT, Copilot und Co. sind für ihre Eigenheit bekannt, auf den ersten Blick durchaus überzeugend klingende, aber mitunter sachlich falsche Informationen zu generieren. Ein Phänomen, das als „Halluzination“ bezeichnet wird. Dies birgt die Gefahr, dass Unternehmen oder Privatpersonen weitreichende Fehlentscheidungen treffen, falsche medizinische Ratschläge befolgen oder ihren Ruf geschädigt sehen. Die Suche nach dem oder den Verantwortlichen mündet in solchen Fällen dann meist in komplexen rechtlichen Fragestellungen.
Die aktuelle Rechtslage: Wer steht in der Verantwortung?
Grundsätzlich stellt eine KI keine eigene Rechtspersönlichkeit dar, weshalb sie auch nicht selbst haften kann. Die Verantwortung muss daher im Dreieck zwischen Systemnutzer, Entwickler und Anbieter gesucht werden. Nach aktueller deutscher Rechtslage kommen hier verschiedene Haftungsgrundlagen in Betracht.
Der Nutzer:
Wer KI-generierte Inhalte nutzt und beispielsweise auf seiner Webseite veröffentlicht, macht sich diese Inhalte zu eigen. Er ist somit für deren Richtigkeit verantwortlich. Gleiches gilt, wenn KI-Inhalte geschäftliche Entscheidungen beeinflussen. Eine unkritische Übernahme der KI-Ergebnisse ohne Plausibilitätsprüfung kann als Fahrlässigkeit gewertet werden, die nach § 823 BGB zu Schadensersatz verpflichtet.
Der Entwickler/Anbieter:
Hier greift primär die Produkthaftung. Lange war umstritten, ob Software überhaupt als „Produkt“ im Sinne des Produkthaftungsgesetzes (ProdHaftG) gewertet werden kann. Eine grundlegende Neufassung der EU-Produkthaftungsrichtlinie, die bis spätestens 9.12.2026 in nationales Recht umgesetzt werden muss, stellt jedoch klar: Auch Software und KI-Systeme gelten künftig als Produkte. In der Folge haften Hersteller verschuldensunabhängig für Schäden auf Basis fehlerhafter KI-Produkte. Dies schließt auch Fehler ein, die auf mangelnde Cybersicherheit oder versäumte Software-Updates zurückzuführen sind.
Vertragliche Haftung:
Besteht ein Vertrag zwischen dem Anbieter des KI-Dienstes und dem Nutzer, können sich aus diesem Vertragsverhältnis Haftungsansprüche ergeben, etwa wenn die KI nicht die zugesicherten Eigenschaften aufweist. Wichtig: Ein pauschaler Haftungsausschluss in den AGB wie „Wir haften nicht für KI-generierte Inhalte.“ ist in der Regel rechtlich unwirksam und kann sogar abmahnfähig sein.

Wegweisendes Urteil: Unternehmen haftet für KI-Fehler
Diese teils eher abstrakt anmutenden Regeln werden durch konkrete Gerichtsurteile zunehmend mit Leben gefüllt und konkretisiert. So entschied beispielsweise das Landgericht Kiel im Februar 2024, dass ein Unternehmen für KI-generierte und anschließend veröffentlichte Falschinformationen vollumfänglich haftet (LG Kiel, Urteil vom 29.02.2024, Az. 6 O 151/2).
Im konkreten Fall hatte ein Online-Wirtschaftsdienst fälschlicherweise berichtet, dass ein Unternehmen wegen Vermögenslosigkeit aus dem Handelsregister gelöscht worden sei. Diese Information wurde KI-gestützt aus öffentlichen Registern extrahiert, dabei aber fehlerhaft interpretiert. Das Gericht sah darin eine Verletzung des Unternehmenspersönlichkeitsrechts und verurteilte den Betreiber des Wirtschaftsdienstes zur Unterlassung. Die Argumentation, der Prozess sei vollautomatisiert und den Wirtschaftsdienst treffe somit keine Schuld, ließen die Richter nicht gelten. Wer KI-Systeme einsetzt, muss deren Ergebnisse kontrollieren. Wenn sich der Betreiber des Wirtschaftsdienstes diese zu eigen macht und als eigenen Inhalt nutzt, haftet er als sogenannter unmittelbarer „Störer“, ergo als derjenige, der durch sein Verhalten schädliche Folgen hervorruft.
Blick nach Brüssel: der EU AI Act setzt den Rahmen
Auf europäischer Ebene soll der sogenannte AI Act einen einheitlichen Rechtsrahmen für die Entwicklung und Nutzung von KI schaffen. Die entsprechende EU‑Verordnung trat am 1. August 2024 in Kraft. Eine Vielzahl der Bestimmungen gilt ab dem 2. August 2026. Das Regelwerk verfolgt einen risikobasierten Ansatz: Je höher das potenzielle Risiko eines KI-Systems, desto strenger die Auflagen.
Für Hochrisiko-KI-Systeme (z. B. in der Medizin, im Personalwesen oder bei kritischer Infrastruktur) gelten besonders strenge Pflichten in den Bereichen Dokumentation, Transparenz und menschliche Aufsicht. Ein Verstoß dagegen kann nicht nur zu drastischen Bußgeldern von bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes führen, sondern auch die Grundlage für zivilrechtliche Haftungsansprüche bilden.
Die KI-Haftungsrichtlinie, welche ursprünglich die Beweislast für Geschädigte erleichtern sollte, wurde von der EU‑Kommission vorerst zurückgezogen. Betroffene müssen sich daher weiterhin auf die bestehenden nationalen Gesetze und die neuen Regelungen der Produkthaftungsrichtlinie und des AI Acts stützen.
Die Risiken gehen über falsche Fakten hinaus
Die Haftung für Fehlinformationen bildet nur eine von mehreren juristischen Gefahrenzonen beim Einsatz von KI. Nutzer und Anbieter müssen sich darüber hinaus noch zusätzlicher Risiken bewusst sein:


Urheberrechtsverletzungen
KI-Modelle werden mit riesigen Datenmengen trainiert. Generiert die KI Inhalte, die bestehenden Werken zu ähnlich sind, kann dies eine Urheberrechtsverletzung darstellen.

Datenschutzverstöße
Werden personenbezogene Daten (z. B. von Kunden oder Mitarbeitenden) in KI-Systeme eingegeben, gilt es die strengen Regeln der Datenschutz-Grundverordnung (DSGVO) zu beachten.

Diskriminierung
Eine KI kann unbewusste Vorurteile aus ihren Trainingsdaten lernen und reproduzieren. Dies birgt das Risiko diskriminierender Ergebnisse etwa bei der automatisierten Sichtung von Bewerbungen. In diesem Kontext können auch Versäumnisse gesetzlicher Auflagen auftreten, wie beispielsweise die unbemerkte Aussortierung einer schwerbehinderten Person durch die vom Personaler eingesetzte KI, obwohl diese zwingend zum Vorstellungsgespräch hätte eingeladen werden müssen.
Fazit: Menschliche Qualitätssicherung bleibt unverzichtbar
Die Rechtslage zur KI-Haftung entwickelt sich hochdynamisch. Klar ist jedoch schon jetzt, dass sich niemand „hinter der Maschine“ verstecken kann. Nutzer tragen eine erhebliche Verantwortung für die von ihnen verwendeten KI-Ergebnisse und müssen diese kritisch prüfen. Gleichermaßen werden Entwickler und Anbieter durch die neue EU-Gesetzgebung stärker in die Pflicht genommen.
Für Unternehmen bedeutet dies: Der Einsatz von KI erfordert klare interne Richtlinien, die Schulung von Mitarbeitenden und ein gesundes Misstrauen gegenüber den generierten Ergebnissen. KI ist ein mächtiges Werkzeug, doch die finale Kontrolle und die letztendliche Verantwortung muss beim Menschen bleiben.


KI sicher nutzen – Empfehlungen für Unternehmen
Der Einsatz Künstlicher Intelligenz im Unternehmen kann Zeit sparen und Entscheidungen erleichtern. Doch KI-Tools wie ChatGPT, Copilot und andere Systeme produzieren gelegentlich Fehler. Nutzerinnen und Nutzer sollten daher folgende Empfehlungen beachten:
Prüfungspflicht ernst nehmen: Übernehmen Sie niemals ungeprüft KI-generierte Ergebnisse. KI-Systeme können täuschend echt wirkende Fehler produzieren.
Interne KI Richtlinien einführen: Legen Sie verbindliche interne Richtlinien fest, wie Ihre Mitarbeitenden KI verwenden dürfen und welche Kontrollmechanismen gelten.
Regelmäßige Schulungen durchführen: Schulen Sie Ihre Belegschaft regelmäßig, insbesondere zur rechtlichen Verantwortung im Umgang mit KI und Daten.
Datenschutzkonformität sicherstellen: Achten Sie bei der KI Nutzung auf die Einhaltung der DSGVO. Vermeiden Sie es, sensible oder personenbezogene Daten unreflektiert einzugeben.
Transparenz gegenüber Kunden schaffen: Kennzeichnen Sie KI-generierte Inhalte deutlich als solche, um rechtlichen Risiken vorzubeugen.
Risiko-Management implementieren: Nutzen Sie ein aktives Risikomanagement, um Haftungsrisiken frühzeitig zu identifizieren und zu minimieren.
Gastbeitrag: Andreas Waldhorn, Rechtsanwalt, Fachanwalt für Arbeitsrecht, Fachanwalt für Handels- und Gesellschaftsrecht, Dr. Waldhorn & Partner Rechtsanwälte mbB, Würzburg.
Hinweis: Bitte beachten Sie, dass die Inhalte dieser Webseite ausschließlich zur allgemeinen Information erstellt wurden und nicht als rechtlicher Rat anzusehen sind. Zudem gilt grundsätzlich, dass jeder Fall individuell zu betrachten ist und verbindliche Beratung nur durch einen Rechtsanwalt erfolgen kann.
Veröffentlicht am 27.08.2025



