Kann ChatGPT wegen Mordes angeklagt werden? US-Staatsanwaltschaft will es herausfinden
Fundstück
Verpasse keine News mehr!
Kann ChatGPT wegen Mordes angeklagt werden? US-Staatsanwaltschaft will es herausfinden
Kann ChatGPT beziehungsweise OpenAI wegen Mordes angeklagt werden? Dies prüft gerade der Generalstaatsanwalt des US-Bundesstaates Florida nach einem Amoklauf an der Florida State University.
Von Sebastian Milpetz
13.05.2026, 10:30 Uhr
•
2 Min.
Artikel merken
Anzeige
Anzeige
Kann ChatGPT angeklagt werden? (Bild: Amir Sajjad/ Shutterstock)
Am 17. April 2025 kam es an der
Florida State University zu einem Amoklauf. Der 20-jährige Student Phoenix Ikner erschoss auf dem Campus zwei Mitarbeiter der Universität, sechs weitere Menschen wurden verletzt. Der Täter benutzte eine Handfeuerwaffe, die seiner Mutter gehörte, die als Deputy bei der Polizei arbeitete.
Anzeige
Anzeige
Amokläufer informierte sich vor Tat via ChatGPT
Vor der Tat informierte sich
Phoenix Ikner ausführlich über ChatGPT. Er teilte Bilder der Schusswaffe mit dem KI-Dienst und wollte wissen, welche Munition er am besten benutzten soll. Er fragte den Chatbot, zu welchen Zeiten das Studierendenwerk, an dem die Schießerei stattfand, am meisten frequentiert sei.
A
ußerdem wollte der Täter von ChatGPT wissen, wie man mit einem Amoklauf am besten in den Schlagzeilen landet. Der Chatbot antwortete darauf, dass man am meisten Aufmerksamkeit erreiche, wenn Kinder beteiligt seien.
„Schon zwei bis drei Opfer können mehr Aufmerksamkeit erregen“, soll ChatGPT geantwortet haben.
Anzeige
Anzeige
Familie eines Opfers verklagt OpenAI
Die Familie von Tiru Chabba, eines der Opfer, hat nun eine Klage gegen OpenAI, das Unternehmen hinter ChatGPT eingereicht. Der Chatbot habe das Verbrechen erst ermöglicht.
Die Staatsanwaltschaft Floridas hatte bereits im April 2026 eine Ermittlung gegen OpenAI eingeleitet. In dem US-Bundesstaat werden Menschen, die jemandem zu einer Straftat anstiften oder dabei unterstützen als Helfer des Täters behandelt, die dieselbe Verantwortung tragen wie dieser selbst. „Wäre ChatGPT eine Person, würde sie wegen Mordes angeklagt werden“, sagte Floridas Generalstaatsanwalt James Uthmeier
im April in einer Pressemitteilung.
Empfohlene redaktionelle Inhalte
Hier findest du externe Inhalte von
TargetVideo GmbH
,
die unser redaktionelles Angebot auf t3n.de ergänzen.
Mit dem Klick auf "Inhalte anzeigen" erklärst du dich einverstanden,
dass wir dir jetzt und in Zukunft Inhalte von
TargetVideo GmbH
auf unseren Seiten anzeigen dürfen.
Dabei können personenbezogene Daten an Plattformen von Drittanbietern übermittelt werden.
Inhalte anzeigen
Hinweis zum Datenschutz
Leider ist etwas schief gelaufen...
An dieser Stelle findest du normalerweise externe Inhalte von
TargetVideo GmbH
,
jedoch konnten wir deine Consent-Einstellungen nicht abrufen.
Lade die Seite neu oder passe deine Consent-Einstellungen manuell an.
Datenschutzeinstellungen verwalten
OpenAI weist die Verantwortung für die Tat zurück. ChatGPT habe lediglich Informationen geliefert, die ohnehin frei im Internet zu finden seien. Der Chatbot habe nicht zu „zu illegalen oder schädlichen Handlungen“ ermutigt.
Wie realistisch ist Verurteilung für OpenAI?
Doch wie realistisch ist eine Verurteilung für OpenAI? Der Fall sei schwierig, weil kein Mitarbeiter zu der Straftat angestiftet habe, sondern ein Produkt, sagte der Rechtswissenschaftler Matthew Tokson der Nachrichtenagentur AFP. Bei bisherigen Fällen, in denen Unternehmen haftbar gemacht wurden, standen Menschen hinter den jeweiligen Entscheidungen.
Anzeige
Anzeige
Empfehlungen der Redaktion
Am wahrscheinlichsten sei eine Anklage wegen Fahrlässigkeit oder grober Fahrlässigkeit. Bei letzterem Punkt wird dem Beklagten unterstellt, dass er eine Gefahr hätte erkennen müssen, sich aber leichtfertig darüber hinweggesetzt hat. Solche Anklagen werden meist als Vergehen und nicht als Verbrechen sanktioniert. Dies würde im Fall einer Verurteilung eine eher milde Strafe bedeuten.
„Da es sich um eine so neuartige Rechtsfrage handelt, wäre ein überzeugenderer, eindeutigerer Fall wahrscheinlich einer, in dem interne Dokumente vorliegen, die diese Risiken anerkennen und sie möglicherweise nicht ernst genug nehmen“, sagte Tokson laut AFP. „Theoretisch könnte man auch ohne solche Dokumente eine Haftung begründen“, so der Experte. „Aber in der Praxis halte ich das für schwierig.“
Top-Artikel
MIT Technology Review
ChatGPT
Open AI
← Volver a las noticias