Contents

Assustando você com sua própria voz em apenas alguns segundos!

contém o conteúdo principal do bloco de texto da caixa de compartilhamento do cabeçalho da página

A OpenAI revelou um novo recurso revolucionário: a capacidade de criar vozes sintéticas altamente realistas treinando em apenas 15 segundos de gravação de áudio.

/images/Voix-IA.jpg Crédito: 123RF

A OpenAI acaba de levantar o véu sobre o Voice Engine, uma IA totalmente nova que pode imitar qualquer voz depois de ouvi-la por apenas 15 segundos. O sistema Voice Engine não é totalmente novo, pois foi desenvolvido pela primeira vez pela OpenAI no final de 2022, com uma primeira versão já sendo utilizada para funções de síntese de fala no popular assistente de voz. O ChatGPT AI da empresa. No entanto, esta é a primeira vez que a Open AI fala sobre isso publicamente.

O Voice Engine, conforme mencionado em uma entrada recente do blog OpenAI, permite que os usuários gerem vozes sintéticas altamente convincentes, capazes de entregar qualquer texto com uma entrega emocional e autêntica. Embora vários exemplos de clones de voz tenham sido lançados pela empresa para fins de demonstração, eles ainda exibem uma artificialidade sutil em certos casos.

OpenAI quer revolucionar o mercado com Voice Engine

A OpenAI cita vários casos de uso promissores do mundo real para a tecnologia, como ferramentas educacionais, tradução de podcasts para novos idiomas, acesso a comunidades remotas e até mesmo assistência de comunicação para pessoas não-verbais. A empresa já lançou “uma prévia em pequena escala” com parceiros selecionados que receberam acesso antecipado.

As referidas entidades, nomeadamente Age of Learning e HeyGen, têm aproveitado as respetivas tecnologias com o objetivo de valorizar conteúdos educativos. Especificamente, a Age of Learning utilizou o Voice Engine para produzir dublagens com script, enquanto a HeyGen oferece aos seus usuários a capacidade de gerar traduções coerentes de áudio, replicando a voz e o sotaque do locutor original por meio de seu aplicativo de narrativa visual baseado em IA.

/images/Sam-Altman-OpenAI.jpg

O exemplo mais marcante é, sem dúvida, o dos pesquisadores que conseguiram “restaurar a voz” de uma jovem que perdeu o uso da fala após um tumor cerebral, treinando o Voice Engine em apenas 15 segundos de uma gravação antiga.

OpenAI já alerta sobre os perigos dessa tecnologia

No entanto, apesar destes casos de utilização potencialmente revolucionários, a OpenAI está a tomar uma posição deliberadamente cautelosa na disseminação do sistema de clonagem de voz. A empresa invoca a necessidade urgente de proteção contra o uso indevido de tecnologia para fins maliciosos, como divulgação de informações falsas e clonagem de voz sem o consentimento do usuário.

Pode-se imaginar indivíduos divertindo-se rapidamente ao propagar comunicações espúrias apresentadas por personalidades distintas por meio de plataformas sociais. Além disso, já testemunhamos fraudadores empregando tecnologia de inteligência artificial para replicar conhecidos queridos e solicitar contribuições pecuniárias por meios telefônicos.

As implicações da utilização da IA ​​de clonagem de voz para campanhas de desinformação são particularmente significativas tendo em conta as grandes eleições que terão lugar nos Estados Unidos e no Reino Unido este ano. À medida que as ferramentas generativas de IA se tornam cada vez mais sofisticadas nas áreas de áudio, texto, imagens e vídeo, é cada vez mais difícil distinguir conteúdo real de conteúdo artificial. Por exemplo, vimos recentemente Sora, outra IA da OpenAI que pode gerar vídeos muito realistas rapidamente.

A OpenAI reconheceu que era essencial começar a construir “resiliência social” face aos desafios colocados por estas tecnologias. Ela incentivou medidas como o abandono gradual da autenticação de voz para contas confidenciais e apelou a políticas para proteger as vozes dos indivíduos, bem como educar o público sobre as capacidades da IA.

Todas as amostras de motores de fala produzidas pelo nosso parceiro OpenAI passam por um processo de marca d’água digital para facilitar o rastreamento de sua procedência. Além disso, garantimos que é obtido o consentimento explícito do orador original antes de qualquer uso da sua voz e proibimos estritamente a criação de representações sintéticas das vozes dos candidatos políticos durante os períodos eleitorais.

/end Classificação do TextBlock ********************NOTAS ** ** ** ** ** ** ** ** ** ** * **** ****************************** Classificação Julio Paginação/Paginação Julio Nextprev-post Artigo anterior seção seção Taboola da área de classificação

*️⃣ Link da fonte: