Fundstück Verpasse keine News mehr! Kann ChatGPT wegen Mordes angeklagt werden? US-Staatsanwaltschaft will es herausfinden Kann ChatGPT beziehungsweise OpenAI wegen Mordes angeklagt werden? Dies prüft gerade der Generalstaatsanwalt des US-Bundesstaates Florida nach einem Amoklauf an der Florida State University. Von Sebastian Milpetz 13.05.2026, 10:30 Uhr • 2 Min. Artikel merken Anzeige Anzeige Kann ChatGPT angeklagt werden? (Bild: Amir Sajjad/ Shutterstock) Am 17. April 2025 kam es an der Florida State University zu einem Amoklauf. Der 20-jährige Student Phoenix Ikner erschoss auf dem Campus zwei Mitarbeiter der Universität, sechs weitere Menschen wurden verletzt. Der Täter benutzte eine Handfeuerwaffe, die seiner Mutter gehörte, die als Deputy bei der Polizei arbeitete. Anzeige Anzeige Amokläufer informierte sich vor Tat via ChatGPT Vor der Tat informierte sich Phoenix Ikner ausführlich über ChatGPT. Er teilte Bilder der Schusswaffe mit dem KI-Dienst und wollte wissen, welche Munition er am besten benutzten soll. Er fragte den Chatbot, zu welchen Zeiten das Studierendenwerk, an dem die Schießerei stattfand, am meisten frequentiert sei. A ußerdem wollte der Täter von ChatGPT wissen, wie man mit einem Amoklauf am besten in den Schlagzeilen landet. Der Chatbot antwortete darauf, dass man am meisten Aufmerksamkeit erreiche, wenn Kinder beteiligt seien. „Schon zwei bis drei Opfer können mehr Aufmerksamkeit erregen“, soll ChatGPT geantwortet haben. Anzeige Anzeige Familie eines Opfers verklagt OpenAI Die Familie von Tiru Chabba, eines der Opfer, hat nun eine Klage gegen OpenAI, das Unternehmen hinter ChatGPT eingereicht. Der Chatbot habe das Verbrechen erst ermöglicht. Die Staatsanwaltschaft Floridas hatte bereits im April 2026 eine Ermittlung gegen OpenAI eingeleitet. In dem US-Bundesstaat werden Menschen, die jemandem zu einer Straftat anstiften oder dabei unterstützen als Helfer des Täters behandelt, die dieselbe Verantwortung tragen wie dieser selbst. „Wäre ChatGPT eine Person, würde sie wegen Mordes angeklagt werden“, sagte Floridas Generalstaatsanwalt James Uthmeier im April in einer Pressemitteilung. Empfohlene redaktionelle Inhalte Hier findest du externe Inhalte von TargetVideo GmbH , die unser redaktionelles Angebot auf t3n.de ergänzen. Mit dem Klick auf "Inhalte anzeigen" erklärst du dich einverstanden, dass wir dir jetzt und in Zukunft Inhalte von TargetVideo GmbH auf unseren Seiten anzeigen dürfen. Dabei können personenbezogene Daten an Plattformen von Drittanbietern übermittelt werden. Inhalte anzeigen Hinweis zum Datenschutz Leider ist etwas schief gelaufen... An dieser Stelle findest du normalerweise externe Inhalte von TargetVideo GmbH , jedoch konnten wir deine Consent-Einstellungen nicht abrufen. Lade die Seite neu oder passe deine Consent-Einstellungen manuell an. Datenschutzeinstellungen verwalten OpenAI weist die Verantwortung für die Tat zurück. ChatGPT habe lediglich Informationen geliefert, die ohnehin frei im Internet zu finden seien. Der Chatbot habe nicht zu „zu illegalen oder schädlichen Handlungen“ ermutigt. Wie realistisch ist Verurteilung für OpenAI? Doch wie realistisch ist eine Verurteilung für OpenAI? Der Fall sei schwierig, weil kein Mitarbeiter zu der Straftat angestiftet habe, sondern ein Produkt, sagte der Rechtswissenschaftler Matthew Tokson der Nachrichtenagentur AFP. Bei bisherigen Fällen, in denen Unternehmen haftbar gemacht wurden, standen Menschen hinter den jeweiligen Entscheidungen. Anzeige Anzeige Empfehlungen der Redaktion Am wahrscheinlichsten sei eine Anklage wegen Fahrlässigkeit oder grober Fahrlässigkeit. Bei letzterem Punkt wird dem Beklagten unterstellt, dass er eine Gefahr hätte erkennen müssen, sich aber leichtfertig darüber hinweggesetzt hat. Solche Anklagen werden meist als Vergehen und nicht als Verbrechen sanktioniert. Dies würde im Fall einer Verurteilung eine eher milde Strafe bedeuten. „Da es sich um eine so neuartige Rechtsfrage handelt, wäre ein überzeugenderer, eindeutigerer Fall wahrscheinlich einer, in dem interne Dokumente vorliegen, die diese Risiken anerkennen und sie möglicherweise nicht ernst genug nehmen“, sagte Tokson laut AFP. „Theoretisch könnte man auch ohne solche Dokumente eine Haftung begründen“, so der Experte. „Aber in der Praxis halte ich das für schwierig.“ Top-Artikel MIT Technology Review ChatGPT Open AI