Sexta, 24 de Abril de 2026
Publicidade

OpenAI pede desculpas por omitir alertas sobre atirador no Canadá

Empresa suspendeu conta de Jesse Van Rootselaar meses antes de ataque que deixou oito mortos, mas não acionou a polícia; caso gera processo por negligência e convocação ao Parlamento

Redação
Por: Redação Fonte: Correio do Povo
24/04/2026 às 19h36 Atualizada em 24/04/2026 às 20h22
OpenAI pede desculpas por omitir alertas sobre atirador no Canadá
Sam Altman, publicou uma carta aberta nesta sexta-feira (24) pedindo desculpas. (Foto: Reprodução)

O diretor-executivo da OpenAI, Sam Altman, publicou uma carta aberta nesta sexta-feira (24) pedindo desculpas à comunidade de Tumbler Ridge, no Canadá, pelo trágico ataque a tiros ocorrido em fevereiro. O pedido de perdão, divulgado no site local Tumbler RidgeLines, surge após a revelação de que a empresa identificou comportamentos perigosos em uma conta do ChatGPT vinculada ao atirador, Jesse Van Rootselaar, mas falhou em alertar as autoridades competentes.

A conta de Van Rootselaar havia sido suspensa em junho de 2025 devido a preocupações com atividades violentas. No entanto, a OpenAI optou por não informar a polícia na época, sob a justificativa de que não havia indícios de um ataque iminente. O massacre resultou na morte de oito pessoas, incluindo cinco crianças, um professor e dois familiares do atirador, que cometeu suicídio após o crime.

As autoridades canadenses reagiram com dureza à conduta da empresa e convocaram executivos da OpenAI a comparecer em Ottawa para prestar esclarecimentos sobre seus protocolos de segurança e comunicação. Paralelamente, a família de uma criança gravemente ferida no episódio move um processo judicial por negligência contra a companhia, alegando que a tragédia poderia ter sido evitada caso as informações sobre o perfil de Van Rootselaar tivessem sido compartilhadas.

Na carta, Altman reconheceu a dor irreversível da comunidade e afirmou que a empresa está sob pressão para revisar radicalmente suas políticas de monitoramento. Atualmente, o caso serve como um ponto de inflexão global sobre o dever de vigilância e a responsabilidade social das plataformas de Inteligência Artificial na prevenção de crimes violentos.

* O conteúdo de cada comentário é de responsabilidade de quem realizá-lo. Nos reservamos ao direito de reprovar ou eliminar comentários em desacordo com o propósito do site ou que contenham palavras ofensivas.
500 caracteres restantes.
Comentar
Mostrar mais comentários