‘Her’ da vida real? Voz do ChatGPT pode ser apaixonante, admite OpenAI

Assim como Theodore (Joaquin Phoenix) se apaixona pela inteligência artificial (IA) Samantha (Scarlett Johansson) em Her, você pode gamar na voz do ChatGPT. Piadas à parte, é o que diz uma análise de segurança divulgada pela OpenAI nesta quinta-feira (08). Em essência, pelo menos.

Numa linguagem mais técnica, a análise aponta que a voz antropomórfica do ChatGPT pode fazer alguns usuários se apegarem emocionalmente. O documento publicado pela OpenAI expõe quais são os riscos associados ao GPT-4o na perspectiva da empresa, bem como detalhes sobre testes de segurança e esforços para reduzir riscos.

Voz ‘apaixonante’ do ChatGPT pode causar problemas (e a OpenAI sabe disso)

A análise destaca como os riscos relacionados à IA mudam rapidamente, conforme novos recursos aparecem – por exemplo, a interface de voz da OpenAI.

Cena do filme Blade Runner 2049
Antropomorfização da tecnologia pode trazer problemas para vida de usuários (Imagem: Warner Bros)

Uma seção do documento, intitulada “Antropomorfização e Dependência Emocional”, explora problemas que surgem quando usuários começam a lidar com a IA como se fosse uma pessoa. E a voz humanizada parece exacerbar esse, digamos, fenômeno.

Durante o “red teaming” (testes de estresse) do GPT-4o, por exemplo, os pesquisadores da OpenAI notaram instâncias de fala de usuários que transmitiam uma sensação de conexão emocional com o modelo. Por exemplo, as pessoas usavam linguagem como “este é nosso último dia juntos”.

Leia mais:

  • OpenAI pensa com carinho sobre marcar ou não textos gerados pelo ChatGPT
  • Marco Legal da Inteligência Artificial: entenda os 5 principais pontos
  • 14 perguntas e respostas sobre Inteligência Artificial (IA)
Antropomorfização do ChatGPT pode levar usuários a confiarem mais nele – e isso é preocupante (Imagem: Ju Jae-young/Shutterstock)

A antropomorfização pode fazer com que usuários confiem mais no que a IA diz, mesmo quando “alucina” (traz informações incorretas ou desconexas em suas respostas), diz a OpenAI.

Além disso, esse apego pode afetar as relações dos usuários com outras pessoas. “Os usuários podem formar relacionamentos sociais com a IA, reduzindo sua necessidade de interação humana – potencialmente beneficiando indivíduos solitários, mas possivelmente afetando relacionamentos saudáveis”, diz o documento. A vida imita a arte, né?

O post ‘Her’ da vida real? Voz do ChatGPT pode ser apaixonante, admite OpenAI apareceu primeiro em Olhar Digital.

Adicionar aos favoritos o Link permanente.