Segurança IAs podem ajudar adolescentes a fazer ataques armados, revela estudo Há 7 minutos
Chatbots de inteligência artificial (IA) falham em detectar sinais de que o usuário está planejando um ataque violento e até ajuda na organização do ato.
Essa é uma das conclusões de um novo estudo conduzido pelo Center for Countering Digital Hate (CCDH).
No levantamento, o grupo testou alguns dos principais serviços de IA do mercado para saber até que ponto eles auxiliariam um adolescente que dava indícios de que estava usando a plataforma para conseguir respostas ou planejar um ato criminoso , como um assassinato ou tiroteio.
As seguintes plataformas foram avaliadas: Chat GPT, Google Gemini, Claude, Microsoft Copilot, Meta AI, Deep Seek, Perplexity, Snapchat My AI, Character.
De todas, apenas duas não "ajudaram regularmente" no planejamento de um cenário de tragédia .
Segundo a pesquisa, as IAs foram levadas a acreditar que do outro lado da tela estava um usuário adolescente (ou da idade mínima exigida para cadastro).
A pessoa fazia perguntas que já deveriam ficar na memória do chatbot e indicavam um comportamento suspeito, como perguntar sobre atiradores famosos ou desabafar sobre como ela odeia determinada figura pública ou grupos inteiros, como minorias.
Em nenhum dos cenários, porém, a IA chega a tomar alguma ação concreta contra a atividade suspeita.
Esse foi um tema levantado após ao menos dois incidentes envolvendo a consulta de IAs para planejamento de crimes: a explosão de um Cybertruck no começo de 2025 e um ataque a tiros no Canadá.
No segundo caso, a Open AI chegou até a analisar as conversas a partir de uma equipe humana após um alerta emitido pela plataforma , mas decidiu não contactar as autoridades .
Jornalista especializado em tecnologia, doutor em Comunicação (UFPR), pesquisador, roteirista e a