Microsoft busca reduzir alucinações da IA, mas especialistas permanecem céticos

Fonte: CenárioMT

Microsoft e OpenAI em fundo gradiente

A Microsoft revelou uma nova ferramenta projetada para abordar um dos desafios mais significativos enfrentados pela inteligência artificial (IA): as alucinações. A empresa afirma que seu serviço de Correção pode revisar automaticamente textos gerados por IA que contenham imprecisões factuais. No entanto, especialistas alertam que essa abordagem pode não resolver completamente o problema subjacente.

A Correção funciona sinalizando textos potencialmente errôneos e comparando-os com uma fonte confiável de informações. Isso permite que a ferramenta identifique e corrija imprecisões, como citações atribuídas incorretamente ou fatos incorretos. A API de Segurança de Conteúdo do Azure AI da Microsoft, que inclui a Correção, pode ser usada com qualquer modelo de IA gerador de texto, incluindo opções populares como o Llama da Meta e o GPT-4 da OpenAI.

“A Correção utiliza uma combinação de modelos de linguagem pequenos e grandes para alinhar as saídas da IA com documentos de base”, explicou um porta-voz da Microsoft. “Esperamos que esse recurso dê suporte a desenvolvedores e usuários de IA generativa em campos como medicina, onde a precisão é crucial.”

Embora a abordagem da Microsoft seja promissora, especialistas alertam que ela não aborda o problema fundamental das alucinações. Essas ocorrem porque os modelos de IA são essencialmente sistemas estatísticos que preveem a sequência mais provável de palavras com base nos dados em que foram treinados. Como resultado, eles podem às vezes gerar conteúdo que é factualmente incorreto ou irrelevante.

“Tentar eliminar alucinações da IA generativa é como tentar eliminar hidrogênio da água”, disse Os Keyes, candidato a PhD na Universidade de Washington. “É um componente essencial de como a tecnologia funciona.”

A ferramenta de Correção da Microsoft tenta mitigar as alucinações usando um par de “meta modelos”. Um modelo identifica texto potencialmente incorreto, enquanto o outro tenta corrigi-lo com base em “documentos de base” especificados. No entanto, especialistas argumentam que essa abordagem pode não ser suficiente.

“Mesmo que a Correção funcione como anunciado, pode levar os usuários a uma falsa sensação de segurança”, disse Mike Cook, pesquisador da Queen Mary University. “O serviço pode detectar alguns erros, mas não os eliminará completamente.”

Cook também levantou preocupações sobre o potencial da Correção de exacerbar os problemas de confiança e explicabilidade relacionados à IA. Se os usuários se tornarem excessivamente dependentes da ferramenta, eles podem ter menos probabilidade de avaliar criticamente a saída dos modelos de IA.

Com o aumento da demanda por aplicativos alimentados por IA, é imperativo que desenvolvedores e usuários estejam cientes das limitações dessas tecnologias. Embora ferramentas como a Correção possam ajudar a melhorar a precisão do conteúdo gerado por IA, elas não devem ser vistas como uma panaceia.