A possibilidade de estudantes usarem a inteligência artificial para colar em tarefas escolares tem sido um pesadelo para professores. Apesar de existirem ferramentas que prometem detectar textos gerados por IA, sua eficácia é questionável.
A OpenAI, criadora do ChatGPT, desenvolveu um método de “marca d’água” para identificar conteúdo produzido por inteligência artificial. A técnica mostrou-se bastante eficaz em detectar até mesmo textos levemente modificados. Além disso, a empresa está explorando a inclusão de metadados criptografados para reforçar a identificação.
No entanto, apesar de a tecnologia estar praticamente pronta, a OpenAI ainda não liberou a ferramenta. O motivo? A empresa tem preocupações quanto à sua infalibilidade e possíveis consequências negativas.
Uma das limitações da marca d’água é a sua vulnerabilidade a manipulações mais complexas, como traduções ou reescritas profundas do texto. Além disso, há o risco de a ferramenta penalizar injustamente estudantes que usam a IA como ferramenta de aprendizado.
Diante desses desafios, a OpenAI se vê em um dilema: como garantir a integridade acadêmica sem prejudicar estudantes e pesquisadores legítimos?