Zum Inhalt springen

Google verklagt: Musiker von KI fälschlich als Sexualstraftäter bezeichnet

Der kanadische Geiger Ashley MacIsaac hat Klage gegen Google eingereicht. Hintergrund ist ein KI-generiertes Suchergebnis, die ihn laut Klageschrift fälschlich als verurteilten Sexualstraftäter bezeichnet haben soll.

Der Musiker fordert mindestens 1,5 Millionen US-Dollar Schadensersatz. Das Verfahren wurde im Februar 2026 beim Ontario Superior Court of Justice eingereicht, die Vorwürfe sind bislang nicht gerichtlich geprüft.

MacIsaac, vielfach ausgezeichnet und unter anderem Träger eines Juno Awards, gibt an, im Dezember 2025 erstmals von der fraglichen Zusammenfassung erfahren zu haben. Die Sipekne’katik First Nation habe ihn mit den Inhalten der AI Overview konfrontiert und daraufhin ein geplantes Konzert abgesagt. Später entschuldigte sich die Gemeinde öffentlich.

Laut Klageschrift habe die KI-Zusammenfassung behauptet, MacIsaac sei wegen sexueller Nötigung, Internet-Anbahnung mit einem Minderjährigen sowie Körperverletzung verurteilt worden. Zudem sei dort fälschlicherweise angegeben worden, er stehe im nationalen Register für Sexualstraftäter. Diese Aussagen seien frei erfunden und hätten seinem Ruf erheblich geschadet.

Alle Anzeigen dauerhaft ausblenden

Die Klage zielt direkt auf Googles Verantwortung für die Inhalte der automatisierten Zusammenfassungen. Während menschliche Redakteure in so einem Fall mit Konsequenzen rechen müssen, gibt es für die KI-Antworten bisher noch keine Urteile.

KI-Antworten sind zwar häufig korrekt, werden aber nicht redaktionell geprüft (Foto: Google)

Google habe gewusst oder hätte wissen müssen, dass die AI Overviews fehleranfällig seien und unwahre Informationen ausgeben könnten, so die der Musiker. Dennoch habe das Unternehmen keine ausreichenden Maßnahmen ergriffen, um solche Falschdarstellungen zu verhindern. Darüber hinaus wirft MacIsaac Google vor, weder Verantwortung übernommen noch sich bei ihm gemeldet oder eine Entschuldigung ausgesprochen zu haben.

In der Klageschrift wird argumentiert, dass ein Unternehmen nicht geringere Haftung beanspruchen könne, nur weil diffamierende Aussagen von einer Software generiert würden. Würde ein Mensch im Namen Googles vergleichbare falsche Behauptungen verbreiten, so heißt es sinngemäß, wären erhebliche Strafschadensersatzforderungen zu erwarten. Dass es sich um ein KI-System handele, dürfe daran nichts ändern. Die Haftungsfrage ist im KI-Zeitalter bisher nicht geklärt. Es wird nicht die einzige Klage bleiben.

___STEADY_PAYWALL___

Google hat sich bislang nicht konkret zu der Klage geäußert, hat aber eine prall gefüllte Kasse und wird diese auch benötigen, denn das ist kein Einzelfall. Sprachmodelle neigen dazu, Fakten miteinander zu vermischen und zu halluzinieren, das Problem ist bekannt und kaum zu lösen. KI-Suche ist auch anfällig für Manipulation, wenn jemand bewusst eine Behauptung ins Netz stellt, kann diese in den Antworten landen. Deshalb ist es wichtig, dass KI-Anbieter für Inhalte haften und in die Verantwortung genommen werden. Bisher weist Google lediglich darauf hin, dass KI-Antworten fehlerhaft sein können. Menschen können sich nicht so einfach aus der Affäre ziehen.

Bereits im Dezember hatte eine Sprecherin erklärt, AI Overviews seien dynamisch und würden kontinuierlich angepasst. Wenn das System Inhalte falsch interpretiere, nutze man diese Fälle, um die Modelle zu verbessern. Die fragliche Zusammenfassung, die MacIsaac mit Straftaten in Verbindung brachte, ist nach Angaben des Unternehmens inzwischen nicht mehr abrufbar.

Die Top Tracks der Woche von TONSPION – jetzt auch auf Qobuz hören. Jeden Freitag neu!

AI Overviews erscheinen in der Google-Suche als automatisch erzeugte Zusammenfassungen zu bestimmten Suchanfragen, ergänzt um weiterführende Links. Google weist in seiner Dokumentation darauf hin, dass KI-generierte Antworten Fehler enthalten können. Der Fall MacIsaac zeigt jedoch, welche konkreten Folgen solche Fehler haben können. Hier geht es nicht nur um eine ungenaue Information, sondern um schwerwiegende strafrechtliche Vorwürfe, die zu einer Konzertabsage und möglichem Imageschaden führten.

Der Streit berührt eine grundlegende juristische Frage: In welchem Umfang haften Plattformbetreiber für Inhalte, die von ihren KI-Systemen generiert werden. Bereits 2023 hatte ein australischer Bürgermeister rechtliche Schritte angedroht, nachdem ChatGPT ihn fälschlich mit einer Haftstrafe wegen Bestechung in Verbindung gebracht hatte. Der aktuelle Fall richtet sich nun explizit gegen ein Produkt innerhalb der Google-Suche und stellt die Konstruktion der AI Overviews als mögliches haftungsrelevantes Risiko dar.

Alle Anzeigen dauerhaft ausblenden

Noch hat Google keine offizielle Klageerwiderung eingereicht. Ob das Unternehmen die Verantwortung für die fehlerhafte Zusammenfassung bestreiten oder sich auf bestehende Haftungsprivilegien berufen wird, bleibt abzuwarten. Klar ist jedoch: Mit der wachsenden Verbreitung KI-gestützter Informationssysteme steigt auch der Druck, klare rechtliche Leitplanken für automatisiert erzeugte Inhalte zu definieren. Die notwendige Regulierung hinkt der technologischen Entwicklung derzeit noch weit hinterher.

Schlagwörter: