Neue Rechtsprechung zu künstlicher Intelligenz: KI-Betreiber haftet für Falschinformation

Das Landgericht Hamburg hat mit Beschluss vom 23. September 2025 (Az. 324 O 461/25) über die äußerungsrechtliche Unzulässigkeit von Falschinformationen entschieden, die durch eine Künstliche Intelligenz (KI) generiert wurden. Dem Betreiber der KI wurde die Veröffentlichung dieser Aussagen untersagt.

Bislang sind gerichtliche Entscheidungen zu Haftungsfragen rund um den Einsatz von KI rar. Der Beschluss des Landgerichts Hamburg ist die der ersten einstweiligen Verfügungen, die auf die Unterlassung von KI-generierten Aussagen gerichtet ist.

Im Mittelpunkt der Entscheidung steht „Grok“, der KI-Chatbot der Social-Media-Plattform X (ehemals Twitter). Betreiber von Grok ist xAI, ein von Elon Musk gegründetes US-amerikanisches Unternehmen. Nutzerinnen und Nutzer von X haben kostenlosen Zugriff auf den Chatbot.

In der Kommentarspalte eines auf X veröffentlichten Beitrags diskutierten mehrere User über den Einfluss von Nichtregierungsorganisationen (NGOs) auf politische Entscheidungsträger. Ein Nutzer bat Grok, Beispiele für NGOs zu nennen, die staatliche Fördermittel erhalten. Grok listete mehrere Organisationen auf – darunter auch den Campact e. V. – und behauptete, dieser erhalte einen hohen Anteil seiner Mittel aus Bundesmitteln. Die Ergebnisse der KI wurden auf dem X-Account von Grok veröffentlicht.

Das Problem: Der Verein Campact, der sich als Plattform für politische Kampagnen versteht, finanziert sich ausschließlich aus privaten Spendenmitteln. Die Aussage von Grok war objektiv falsch.

Campact beantragte daraufhin beim Landgericht Hamburg den Erlass einer einstweiligen Verfügung gegen die Veröffentlichung der Falschinformation durch xAI – mit Erfolg. Nach Auffassung der Kammer verletzt die unwahre Tatsachenbehauptung das Vereinspersönlichkeitsrecht von Campact.

Gerade weil die Beiträge von einer KI stammen, komme ihnen nach Ansicht des Gerichts eine besondere faktische Autorität zu. Begründet werde dies damit, dass die KI selbst suggeriere, ihre Aussagen basierten auf überprüfbaren Fakten.

Dem Betreiber der KI seien die Äußerungen zuzurechnen, so das Gericht. Durch die Veröffentlichung habe er sich die Inhalte der KI jedenfalls zu eigen gemacht.

Im Fall öffentlich zugänglicher KI-generierter Aussagen durch den Betreiber scheint die Rechtslage damit eindeutig. Bereits das Landgericht Kiel hatte mit Urteil vom 29. Februar 2024 (Az. 6 O 151/23) eine ähnliche Wertung getroffen. Eine Entscheidung über lediglich privat abrufbare KI-Informationen steht dagegen noch aus; in diesen Fällen dürfte die Zurechnung zum Betreiber deutlich schwieriger sein.

Die neue Rechtsprechung zeigt, dass der Einsatz von KI nicht risikofrei ist. Um Haftungsrisiken zu minimieren, ist daher besondere Sorgfalt geboten: Betreiber und Anwender von KI-Systemen sollten die von der KI bereitgestellten Informationen vor einer Veröffentlichung sorgfältig prüfen. Darüber hinaus können Betreiber verpflichtet sein, ihre Systeme laufend zu überwachen. Eine solche Überwachungspflicht besteht jedoch nur, soweit sie tatsächlich möglich und zumutbar ist.

Praxis-Tipp: Haftungsrisiken beim KI-Einsatz minimieren

1. Ergebnisse prüfen: KI-generierte Aussagen vor Veröffentlichung auf Richtigkeit und Quellenbasis kontrollieren.

2. Verantwortlichkeiten klären: Interne Zuständigkeiten für KI-Ausgaben definieren und dokumentieren.

3. Systeme überwachen: Plausibilitäts- und Filtermechanismen regelmäßig evaluieren.

4. Haftungsklauseln anpassen: Verträge mit KI-Dienstleistern auf Zurechnungs- und Haftungsfragen prüfen.

Bei Fragen oder konkreten Einzelfällen sprechen Sie uns gerne an.