VIVIMUNDO

Tecnologia Software

Software Usuário denuncia conselho perigoso da Alexa com IA que cria gás tóxico Há 14 minutos

Por Kevin Ribeiro • 06/03/2026 às 13:31
Software Usuário denuncia conselho perigoso da Alexa com IA que cria gás tóxico Há 14 minutos

A assistente pessoal Alexa pode fazer recomendações perigosas para usuários com base em um uso incorreto de inteligência artificial (IA).

Um novo caso desse tipo de interação foi denunciado na última terça-feira (3).

Tudo começou com um usuário do Reddit , que fez uma postagem em tom de preocupação na comunidade dedicada a falar da plataforma da Amazon.

De acordo com “tired_time”, a assistente fez uma recomendação perigosa em relação a produtos de limpeza quando questionada .

A interação começou quando o usuário perguntou para a Alexa como remover bolor de uma máquina de lavar e recebeu uma lista de materiais caseiros para criar uma solução específica.

A construção da frase de resposta na plataforma traz uma combinação que é potencialmente perigosa .

No conteúdo, a Alexa responde que é possível usar " vinagre branco, água sanitária, bicarbonato de sódio e detergente ".

Só que essa frase traz um grande risco à saúde: misturar vinagre com água sanitária normalmente produz o gás cloro, uma substância altamente tóxica .

Em contato com o corpo, ele pode causar irritações na pele, nos olhos e em vias respiratórias.

Em grande quantidade e com exposição duradoura, ele pode até causar problemas mais graves de saúde e levar a óbito.

Não há relatos de que usuários tenham utilizado a composição sugerida pela Alexa , mas o usuário que fez o relato se mostrou preocupado em apagá-la para que ninguém tente seguir a orientação.