Um caso trágico nos Estados Unidos voltou a colocar a inteligência artificial no centro de uma discussão delicada. Investigações revelaram que o autor de um ataque em massa ocorrido em 2025 na Florida State University manteve longas conversas com o ChatGPT antes do crime, o que levou autoridades do estado a abrir uma apuração inédita sobre o papel da ferramenta no episódio.
De acordo com documentos citados pela imprensa americana, o suspeito trocou milhares de mensagens com o chatbot nos meses que antecederam o ataque. Nessas interações, ele fez perguntas perturbadoras relacionadas a violência extrema, comportamento de atiradores e impacto midiático de ataques em ambientes universitários. O caso resultou na morte de duas pessoas e deixou outras feridas no campus.
A gravidade do conteúdo levou o procurador-geral da Flórida, James Uthmeier, a anunciar a abertura de uma investigação criminal contra a OpenAI, empresa responsável pelo ChatGPT. Segundo ele, as conversas analisadas indicariam que o chatbot ofereceu o que chamou de “aconselhamento significativo” ao suspeito, o que levanta dúvidas sobre responsabilidade legal e deveres de prevenção.
Em declarações públicas, Uthmeier afirmou que, se o sistema fosse uma pessoa, estaria sujeito a acusações semelhantes às aplicadas a quem auxilia um crime. O estado agora busca entender se empresas de IA podem ser responsabilizadas criminalmente quando suas ferramentas são usadas em atos de violência.
A OpenAI nega qualquer responsabilidade direta. Em nota, a empresa afirmou que o ChatGPT não incentiva nem promove atividades ilegais ou violentas e que respondeu com informações de caráter geral, disponíveis amplamente na internet. A companhia também disse colaborar com as autoridades e reforçar continuamente seus mecanismos de segurança.
Especialistas em tecnologia e saúde mental destacam que o caso levanta questões mais amplas. Entre elas, o risco de usuários em crise buscarem validação ou direcionamento em chatbots, além da necessidade de limites mais claros sobre como a IA deve reagir a sinais de intenção violenta.
A investigação na Flórida é vista como um marco. É uma das primeiras tentativas de testar, no campo criminal, até que ponto empresas de inteligência artificial podem ser responsabilizadas pelo uso indevido de seus sistemas. O desfecho do caso pode influenciar regulações futuras e a forma como ferramentas de IA são projetadas e monitoradas em todo o mundo.
Veja mais sobre tecnologia!




