
A OpenAI começou a liberar hoje em versão alpha o modo de voz avançado do ChatGPT, demonstrado junto ao lançamento da versão 4o da inteligência artificial generativa. Por ora, a liberação abrange apenas um pequeno grupo de assinantes do ChatGPT Plus.
O recurso estava programado para ser lançado em alpha no mês passado, mas foi adiado por questões de segurança e qualidade. A tecnologia também sofreu críticas e acusações por soar muito similar à voz da atriz Scarlett Johansson, inclusive após ela ter revelado que negou uma oferta de acordo para que a sua voz fosse de fato utilizada. A voz que foi alvo dos apontamentos terminou sendo retirada pela empresa.
Para o modo de voz avançado, a OpenAI promete conversas em tempo real mais naturais em relação ao que o ChatGPT oferece atualmente. Na demonstração, funcionários da companhia fizeram a IA contar uma história de diferentes maneiras, com interrupções para que a ferramenta ajustasse as suas respostas.
A empresa afirmou que, desde a demonstração, trabalha para reforçar a segurança e a qualidade das conversas por voz, bem como que está se preparando para levar a tecnologia a milhões de pessoas. Foi dito anteriormente, ainda, que a capacidade do modelo de detectar e rejeitar certos conteúdos estava sendo melhorada.
Segundo a OpenAI, as capacidades de voz do GPT-4o foram testadas com mais de 100 especialistas em segurança cibernética e vulnerabilidades em 45 idiomas. A ferramenta foi treinada para falar apenas com quatro vozes predefinidas, para proteger a privacidade e impedir que vozes de outras pessoas sejam imitadas.
Foram construídos, ainda, sistemas para bloquear resultados que diferem das predefinidas. Também há novos filtros que reconhecem e bloqueiam certos pedidos para gerar músicas, outros áudios protegidos por direitos autorais ou conteúdo violento.
Ao The Verge, um porta-voz da OpenAI disse que a empresa planeja estender a disponibilidade do recurso para todos os assinantes do ChatGPT Plus no outono (do hemisfério norte), nos próximos meses. Em agosto, um relatório será divulgado tratando das capacidades, limitações e avaliações de segurança da versão 4o da IA e a fase alpha do modo de voz avançado também contribuirá para uma experiência mais segura e positiva, segundo a empresa.