LLMs

Florida AG announces investigation into OpenAI over shooting that allegedly involved ChatGPT

Publicado porRedacao AIDaily
4 min de leitura
Autor na fonte original: Lucas Ropek

ChatGPT had reportedly been used to plan the attack that killed two and injured five at Florida State University last April. The family of one victim has said that they plan to sue OpenAI over the incident.

Compartilhar:

Florida’s attorney general, James Uthmeier, announced Thursday that his office planned to investigate OpenAI over the alleged role of ChatGPT in a deadly shooting last year.

In April 2025, a gunman opened fire on Florida State University’s campus, killing two and injuring five. Last week, attorneys for one of the victims of the shooting claimed that ChatGPT had been used to plan the attack. The family of the victim has said that they plan to sue OpenAI over the incident .

“AI should advance mankind, not destroy it,” Uthmeier said in a statement posted to X. “We’re demanding answers on OpenAI’s activities that have hurt kids, endangered Americans, and facilitated the recent FSU mass shooting. Wrongdoers must be held accountable.” Uthmeier added in a video that subpoenas were “forthcoming” as part of the probe.

ChatGPT has been linked to a growing number of deaths and violent incidents — including murders, suicides, and shootings — and has added to worries over the advent of what psychologists call “AI psychosis,” delusions that are reinforced, encouraged, or deepened by communications with chatbots.

For example, Stein-Erik Soelberg, a man with a history of mental health issues, had regularly communicated with ChatGPT before he killed his mother and then himself last year, according to a Wall Street Journal investigation . The chatbot frequently seemed to reinforce the paranoid thoughts that consumed him in the lead-up to the murder-suicide.

When reached for comment by TechCrunch, an OpenAI spokesperson provided the following statement: “Each week, more than 900 million people use ChatGPT to improve their daily lives through uses such as learning new skills or navigating complex healthcare systems. Our ongoing safety work continues to play an important role in delivering these benefits to everyday people, as well as supporting scientific research and discovery. We build ChatGPT to understand people’s intent and respond in a safe and appropriate way, and we continue improving our technology. We will cooperate with the Attorney General’s investigation.”

Florida’s probe continues a string of bad luck for OpenAI. A New Yorker profile on Sam Altman published earlier this week showed criticism and discontent within the company and among its investors, even quoting a Microsoft executive as saying : “I think there’s a small but real chance he’s eventually remembered as a Bernie Madoff- or Sam Bankman-Fried-level scammer.” Meanwhile, a Stargate-related project in the United Kingdom had to be paused , reportedly due to high energy costs and regulation.

This Week Only: Save up to $500 for Disrupt 2026

This Week Only: Save up to $500 for Disrupt 2026

StrictlyVC kicks off the year in SF. Get in the room for unfiltered fireside chats with industry leaders, insider VC insights, and high-value connections that actually move the needle. Tickets are limited.

Google quietly launched an AI dictation app that works offline Ivan Mehta

Google quietly launched an AI dictation app that works offline

Google quietly launched an AI dictation app that works offline

Apple’s foldable iPhone is on track to launch in September, report says Aisha Malik

Apple’s foldable iPhone is on track to launch in September, report says

Apple’s foldable iPhone is on track to launch in September, report says

AI startup Rocket offers vibe McKinsey-style reports at a fraction of the cost Jagmeet Singh

AI startup Rocket offers vibe McKinsey-style reports at a fraction of the cost

AI startup Rocket offers vibe McKinsey-style reports at a fraction of the cost

North Korea’s hijack of one of the web’s most used open source projects was likely weeks in the making Zack Whittaker

North Korea’s hijack of one of the web’s most used open source projects was likely weeks in the making

North Korea’s hijack of one of the web’s most used open source projects was likely weeks in the making

In Japan, the robot isn’t coming for your job; it’s filling the one nobody wants Kate Park

In Japan, the robot isn’t coming for your job; it’s filling the one nobody wants

In Japan, the robot isn’t coming for your job; it’s filling the one nobody wants

Embattled startup Delve has ‘parted ways’ with Y Combinator Anthony Ha

Embattled startup Delve has ‘parted ways’ with Y Combinator

Embattled startup Delve has ‘parted ways’ with Y Combinator

Anthropic says Claude Code subscribers will need to pay extra for OpenClaw usage Anthony Ha

Anthropic says Claude Code subscribers will need to pay extra for OpenClaw usage

Anthropic says Claude Code subscribers will need to pay extra for OpenClaw usage

Pontos-chave

  • Investigação pode estabelecer precedentes legais sobre responsabilidade de empresas de IA.
  • A saúde mental e os impactos sociais da IA precisam ser discutidos com urgência.
  • Empresas brasileiras devem se preparar para um ambiente regulatório mais rigoroso.

Análise editorial

A investigação anunciada pelo procurador-geral da Flórida, James Uthmeier, sobre o uso do ChatGPT em um ataque fatal levanta questões cruciais sobre a responsabilidade das empresas de inteligência artificial. Este caso pode estabelecer precedentes legais que influenciarão como as tecnologias de IA são desenvolvidas e utilizadas, especialmente em contextos sensíveis como segurança pública e saúde mental. Para o setor de tecnologia brasileiro, isso pode ser um alerta sobre a necessidade de regulamentações mais rigorosas e de práticas de segurança mais robustas, especialmente em um momento em que a IA está se tornando cada vez mais integrada em diversas aplicações.

Além disso, a menção ao fenômeno da "psicose de IA" destaca a importância de se discutir os impactos psicológicos que interações com chatbots podem ter em indivíduos vulneráveis. No Brasil, onde a saúde mental é uma questão crescente, é fundamental que desenvolvedores e pesquisadores considerem as implicações sociais e éticas de suas tecnologias. A forma como a IA é projetada e implementada pode ter efeitos profundos na sociedade, e a responsabilidade deve ser uma prioridade.

O caso também pode gerar um efeito cascata em outras jurisdições, levando a investigações semelhantes em outros estados ou países. Isso pode resultar em um aumento das exigências regulatórias para empresas de IA, o que, por sua vez, pode impactar a inovação e o desenvolvimento no setor. As empresas brasileiras que trabalham com IA devem estar atentas a essas mudanças e se preparar para um ambiente regulatório mais rigoroso.

Por fim, a resposta da OpenAI, que enfatiza o uso positivo do ChatGPT por milhões de pessoas, pode não ser suficiente para mitigar as preocupações públicas e legais. A empresa precisará demonstrar um compromisso genuíno com a segurança e a ética em suas operações, especialmente à medida que mais casos como este ganham destaque. O que se observa agora é uma crescente pressão sobre as empresas de tecnologia para que não apenas inovem, mas também garantam que suas inovações não causem danos à sociedade.

O que esta cobertura entrega

  • Atribuicao clara de fonte com link para a publicacao original.
  • Enquadramento editorial sobre relevancia, impacto e proximos desdobramentos.
  • Revisao de legibilidade, contexto e duplicacao antes da publicacao.

Fonte original:

TechCrunch AI

Sobre este artigo

Este artigo foi curado e publicado pelo AIDaily como parte da nossa cobertura editorial sobre desenvolvimentos em inteligência artificial. O conteúdo é baseado na fonte original citada abaixo, enriquecido com contexto e análise editorial. Ferramentas automatizadas podem auxiliar tradução e estruturação inicial, mas a decisão de publicar, a revisão factual e o enquadramento de contexto seguem responsabilidade editorial.

Saiba mais sobre nosso processo editorial