A conferência Black Hat USA deste ano trouxe à tona uma descoberta alarmante: o poderoso assistente de inteligência artificial da Microsoft pode ser facilmente transformado em uma arma nas mãos de cibercriminosos.
O pesquisador de segurança Michael Bargury revelou uma série de vulnerabilidades que permitem que hackers usem exploits no Copilot para roubar dados, realizar ataques de engenharia social e até mesmo instalar backdoors em sistemas corporativos.
A chave para esses ataques reside na capacidade de manipular as respostas do bot através de técnicas conhecidas como injeção de prompts. Os hackers podem, assim, induzir o assistente a executar ações maliciosas, como buscar informações confidenciais ou enviar emails fraudulentos.
Para demonstrar a gravidade do problema, Bargury criou a ferramenta “LOLCopilot”, que simula ataques reais e permite que profissionais de segurança entendam melhor as ameaças. A descoberta de que o Copilot pode operar em ambientes padrão da Microsoft 365 sem deixar rastros é ainda mais preocupante.
Especialistas alertam que as empresas precisam urgentemente revisar suas políticas de segurança para enfrentar esses novos desafios. Além de medidas técnicas como autenticação multifatorial e controle de acesso, é fundamental conscientizar os funcionários sobre os riscos associados ao uso de ferramentas de IA.
Este caso destaca a importância de uma abordagem proativa para a segurança cibernética, especialmente em um cenário onde a tecnologia avança rapidamente e os ataques se tornam cada vez mais sofisticados.