ChatGPT com voz humana pode levar a dependência emocional, adverte OpenAI

Fonte: CenárioMT

ChatGPT copia voz de usuário em testes
Logo usada na arte: OpenAI

A OpenAI, empresa responsável pelo popular chatbot ChatGPT, emitiu um alerta sobre possíveis consequências emocionais do novo modo de voz da plataforma. De acordo com um relatório divulgado na última quinta-feira, a empresa conduziu estudos de segurança sobre o ChatGPT e sua nova função de voz com qualidade humana.

O ChatGPT com a nova tecnologia foi apresentado em maio, com capacidade de traduzir conversas em tempo real e detectar emoções humanas a partir de uma simples selfie. A OpenAI destaca que a nova ferramenta apresenta “novos riscos”, incluindo identificação de voz, geração de voz não autorizada e outros.

Uma das principais preocupações é a potencial dependência emocional dos usuários. A empresa observou que, em testes iniciais, pessoas utilizaram linguagem que sugeria a formação de vínculos com a tecnologia. Embora esses casos pareçam inofensivos inicialmente, a OpenAI ressalta a necessidade de investigações contínuas sobre os possíveis impactos a longo prazo.

Além disso, a capacidade da ferramenta de completar tarefas e lembrar detalhes de conversas pode levar a uma “experiência de produto envolvente” e, consequentemente, a uma “superdependência”. A OpenAI reconhece que, enquanto isso pode beneficiar indivíduos solitários, também pode afetar “relacionamentos saudáveis”.

A empresa enfatiza que a rapidez de resposta do ChatGPT com voz, semelhante à de um humano, aumenta os riscos de antropomorfização, ou seja, atribuir características humanas a entidades não humanas.

A OpenAI iniciou o lançamento do GPT-4o para clientes pagos na semana passada.