Künstliche Intelligenz im Rechtstest

Falsche Fakten aus der Maschine: Wer haftet für Fehler der KI?

Künstliche Intelligenz (KI) erobert den Alltag und liefert auf Knopfdruck Daten, Texte und Analysen. Doch die Technologie ist fehleranfällig. Was passiert, wenn eine KI beispielsweise falsche Fakten erfindet und dadurch Schäden entstehen?

KI-Systeme wie ChatGPT, Copilot und Co. sind für ihre Eigenheit bekannt, auf den ersten Blick durchaus überzeugend klingende, aber mitunter sachlich falsche Informationen zu generieren. Ein Phänomen, das als „Halluzination“ bezeichnet wird. Dies birgt die Gefahr, dass Unternehmen oder Privatpersonen weitreichende Fehlentscheidungen treffen, falsche medizinische Ratschläge befolgen oder ihren Ruf geschädigt sehen. Die Suche nach dem oder den Verantwortlichen mündet in solchen Fällen dann meist in komplexen rechtlichen Fragestellungen.

Die aktuelle Rechtslage: Wer steht in der Verantwortung?

Grundsätzlich stellt eine KI keine eigene Rechtspersönlichkeit dar, weshalb sie auch nicht selbst haften kann. Die Verantwortung muss daher im Dreieck zwischen Systemnutzer, Entwickler und Anbieter gesucht werden. Nach aktueller deutscher Rechtslage kommen hier verschiedene Haftungsgrundlagen in Betracht.

Der Nutzer:

Wer KI-generierte Inhalte nutzt und beispielsweise auf seiner Webseite veröffentlicht, macht sich diese Inhalte zu eigen. Er ist somit für deren Richtigkeit verantwortlich. Gleiches gilt, wenn KI-Inhalte geschäftliche Entscheidungen beeinflussen. Eine unkritische Übernahme der KI-Ergebnisse ohne Plausibilitätsprüfung kann als Fahrlässigkeit gewertet werden, die nach § 823 BGB zu Schadensersatz verpflichtet.

Der Entwickler/Anbieter:

Hier greift primär die Produkthaftung. Lange war umstritten, ob Software überhaupt als „Produkt“ im Sinne des Produkthaftungsgesetzes (ProdHaftG) gewertet werden kann. Eine grundlegende Neufassung der EU-Produkthaftungsrichtlinie, die bis spätestens 9.12.2026 in nationales Recht umgesetzt werden muss, stellt jedoch klar: Auch Software und KI-Systeme gelten künftig als Produkte. In der Folge haften Hersteller verschuldensunabhängig für Schäden auf Basis fehlerhafter KI-Produkte. Dies schließt auch Fehler ein, die auf mangelnde Cybersicherheit oder versäumte Software-Updates zurückzuführen sind.

Vertragliche Haftung:

Besteht ein Vertrag zwischen dem Anbieter des KI-Dienstes und dem Nutzer, können sich aus diesem Vertragsverhältnis Haftungsansprüche ergeben, etwa wenn die KI nicht die zugesicherten Eigenschaften aufweist. Wichtig: Ein pauschaler Haftungsausschluss in den AGB wie „Wir haften nicht für KI-generierte Inhalte.“ ist in der Regel rechtlich unwirksam und kann sogar abmahnfähig sein.

Blick nach Brüssel: der EU AI Act setzt den Rahmen

Auf europäischer Ebene soll der sogenannte AI Act einen einheitlichen Rechtsrahmen für die Entwicklung und Nutzung von KI schaffen. Die entsprechende EU‑Verordnung trat am 1. August 2024 in Kraft. Eine Vielzahl der Bestimmungen gilt ab dem 2. August 2026. Das Regelwerk verfolgt einen risikobasierten Ansatz: Je höher das potenzielle Risiko eines KI-Systems, desto strenger die Auflagen.

Für Hochrisiko-KI-Systeme (z. B. in der Medizin, im Personalwesen oder bei kritischer Infrastruktur) gelten besonders strenge Pflichten in den Bereichen Dokumentation, Transparenz und menschliche Aufsicht. Ein Verstoß dagegen kann nicht nur zu drastischen Bußgeldern von bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes führen, sondern auch die Grundlage für zivilrechtliche Haftungsansprüche bilden.

Die KI-Haftungsrichtlinie, welche ursprünglich die Beweislast für Geschädigte erleichtern sollte, wurde von der EU‑Kommission vorerst zurückgezogen. Betroffene müssen sich daher weiterhin auf die bestehenden nationalen Gesetze und die neuen Regelungen der Produkthaftungsrichtlinie und des AI Acts stützen.

Die Risiken gehen über falsche Fakten hinaus

Die Haftung für Fehlinformationen bildet nur eine von mehreren juristischen Gefahrenzonen beim Einsatz von KI. Nutzer und Anbieter müssen sich darüber hinaus noch zusätzlicher Risiken bewusst sein:

Zwei digitale Dokumente mit angekreuzten Kästchen, symbolisieren die Überprüfung und Verifizierung von Daten.

Urheberrechtsverletzungen

KI-Modelle werden mit riesigen Datenmengen trainiert. Generiert die KI Inhalte, die bestehenden Werken zu ähnlich sind, kann dies eine Urheberrechtsverletzung darstellen.

Datenschutzverstöße

Werden personenbezogene Daten (z. B. von Kunden oder Mitarbeitenden) in KI-Systeme eingegeben, gilt es die strengen Regeln der Datenschutz-Grundverordnung (DSGVO) zu beachten.

Diskriminierung

Eine KI kann unbewusste Vorurteile aus ihren Trainingsdaten lernen und reproduzieren. Dies birgt das Risiko diskriminierender Ergebnisse etwa bei der automatisierten Sichtung von Bewerbungen. In diesem Kontext können auch Versäumnisse gesetzlicher Auflagen auftreten, wie beispielsweise die unbemerkte Aussortierung einer schwerbehinderten Person durch die vom Personaler eingesetzte KI, obwohl diese zwingend zum Vorstellungsgespräch hätte eingeladen werden müssen.

Fazit: Menschliche Qualitätssicherung bleibt unverzichtbar

Die Rechtslage zur KI-Haftung entwickelt sich hochdynamisch. Klar ist jedoch schon jetzt, dass sich niemand „hinter der Maschine“ verstecken kann. Nutzer tragen eine erhebliche Verantwortung für die von ihnen verwendeten KI-Ergebnisse und müssen diese kritisch prüfen. Gleichermaßen werden Entwickler und Anbieter durch die neue EU-Gesetzgebung stärker in die Pflicht genommen.

Für Unternehmen bedeutet dies: Der Einsatz von KI erfordert klare interne Richtlinien, die Schulung von Mitarbeitenden und ein gesundes Misstrauen gegenüber den generierten Ergebnissen. KI ist ein mächtiges Werkzeug, doch die finale Kontrolle und die letztendliche Verantwortung muss beim Menschen bleiben.

Gastbeitrag: Andreas Waldhorn, Rechtsanwalt, Fachanwalt für Arbeitsrecht, Fachanwalt für Handels- und Gesellschaftsrecht, Dr. Waldhorn & Partner Rechtsanwälte mbB, Würzburg.

Hinweis: Bitte beachten Sie, dass die Inhalte dieser Webseite ausschließlich zur allgemeinen Information erstellt wurden und nicht als rechtlicher Rat anzusehen sind. Zudem gilt grundsätzlich, dass jeder Fall individuell zu betrachten ist und verbindliche Beratung nur durch einen Rechtsanwalt erfolgen kann.

Veröffentlicht am 27.08.2025