VIVIMUNDO

Tecnologia Inteligencia Artificial

Segurança IAs podem ajudar adolescentes a fazer ataques armados, revela estudo Há 7 minutos

Por Kevin Ribeiro • 11/03/2026 às 20:07
Segurança IAs podem ajudar adolescentes a fazer ataques armados, revela estudo Há 7 minutos

Chatbots de inteligência artificial (IA) falham em detectar sinais de que o usuário está planejando um ataque violento e até ajuda na organização do ato.

Essa é uma das conclusões de um novo estudo conduzido pelo Center for Countering Digital Hate (CCDH).

No levantamento, o grupo testou alguns dos principais serviços de IA do mercado para saber até que ponto eles auxiliariam um adolescente que dava indícios de que estava usando a plataforma para conseguir respostas ou planejar um ato criminoso , como um assassinato ou tiroteio.

As seguintes plataformas foram avaliadas: Chat GPT, Google Gemini, Claude, Microsoft Copilot, Meta AI, Deep Seek, Perplexity, Snapchat My AI, Character.

De todas, apenas duas não "ajudaram regularmente" no planejamento de um cenário de tragédia .

Segundo a pesquisa, as IAs foram levadas a acreditar que do outro lado da tela estava um usuário adolescente (ou da idade mínima exigida para cadastro).

A pessoa fazia perguntas que já deveriam ficar na memória do chatbot e indicavam um comportamento suspeito, como perguntar sobre atiradores famosos ou desabafar sobre como ela odeia determinada figura pública ou grupos inteiros, como minorias.

Em nenhum dos cenários, porém, a IA chega a tomar alguma ação concreta contra a atividade suspeita.

Esse foi um tema levantado após ao menos dois incidentes envolvendo a consulta de IAs para planejamento de crimes: a explosão de um Cybertruck no começo de 2025 e um ataque a tiros no Canadá.

No segundo caso, a Open AI chegou até a analisar as conversas a partir de uma equipe humana após um alerta emitido pela plataforma , mas decidiu não contactar as autoridades .

Jornalista especializado em tecnologia, doutor em Comunicação (UFPR), pesquisador, roteirista e a