Contents

Sonda de privacidade lançada na tecnologia inovadora da AI Giant

Lamentavelmente, a OpenAI encontrou-se novamente sob escrutínio do Fiador de Privacidade, com a sua mais recente criação, Sora, sob exame particular. Esta tecnologia inovadora, desenvolvida pelo estimado Sam Altman e sua equipe da OpenAI, permite aos usuários produzir conteúdo de vídeo com duração de até um minuto por meio de breves instruções escritas.

O Fiador de Privacidade tem como alvo Sora, o gerador de vídeo baseado em IA da OpenAI

A Inteligência Artificial (IA) suscita um discurso considerável sobre as suas potenciais ramificações nos mercados de trabalho e no emprego devido à iminente revolução generativa da IA, bem como sobre as consequências da utilização da IA ​​no que diz respeito à privacidade e aos direitos de propriedade intelectual, especialmente em regiões onde regulamentações rigorosas de protecção de dados existem como a Europa.

/images/sora%2520garante.png

Após o início de uma investigação pelo Fiador de Privacidade Italiano sobre OpenAI antes do lançamento do ChatGPT, os criadores da IA ​​suspenderam temporariamente a sua disponibilidade em Itália durante aproximadamente um mês para resolver certos problemas identificados pelo órgão regulador. Recentemente, o mesmo regulador reiniciou o seu escrutínio, desta vez centrando-se na cidade de Sora, onde foi iniciada uma investigação.

A referida declaração do Comunicado de Imprensa da Autoridade Italiana de Protecção de Dados (Garantidor de Privacidade) indica que, num prazo de vinte dias, a empresa deve divulgar se o seu modelo de Inteligência Artificial recentemente desenvolvido foi tornado acessível ao público em geral, particularmente na Europa. Europeia, com referência específica à Itália.

Embora não esteja claro quando exatamente o Sora será disponibilizado ao público em geral devido a medidas de segurança não divulgadas que estão sendo implementadas pela OpenAI, a empresa confirmou sua colaboração com especialistas externos em vários campos, incluindo desinformação, discurso de ódio e discriminação, para testes completos do capacidades do modelo. Além disso, não parece haver nenhum método atual disponível para solicitar acesso ao aplicativo no momento.

Além disso, a OpenAI deve fornecer informações adicionais ao Fiador sobre suas metodologias de treinamento, bem como divulgar quaisquer dados utilizados para tal treinamento, especialmente se tais dados pertencerem a informações pessoais sensíveis, como crenças religiosas, convicções filosóficas, afiliações políticas, informações genéticas ou saúde e orientação sexual. Além disso, a fonte desta informação deve ser divulgada pela OpenAI.

Corremos o risco de abrandar a inovação na Europa?

É imperativo regular a inteligência artificial e o papel das autoridades relevantes, como o Garantidor da Privacidade, é crucial. No entanto, temos preocupações relativamente à abordagem adoptada pelo Fiador Italiano, que acreditamos ter implementado medidas precipitadas. A consequência potencial destas ações poderá ser o desincentivo à investigação e à inovação na Europa. Embora seja inegavelmente vital garantir a segurança e a privacidade dos utilizadores, existe um desejo subjacente por parte dos países europeus, especialmente a Itália, de se exibirem como pioneiros em questões regulamentares, tal como a implementação do Regulamento Geral de Protecção de Dados (GDPR), que serviu como um plano para outros seguirem.

Avançar através deste método pode resultar num progresso dificultado na investigação e nos avanços tecnológicos, dando assim uma vantagem a outras nações. Além disso, deve-se notar que a União Europeia iniciou outro inquérito contra a OpenAI no final do mês passado. Esta investigação diz respeito a alegações de violação das leis de privacidade; no entanto, os detalhes sobre essas acusações não foram divulgados.

defendemos a opinião de que é imperativo que os organismos reguladores supervisionem e imponham a adesão aos regulamentos europeus de protecção de dados. No entanto, parece bastante desconcertante sugerir, no mínimo, que uma agência de supervisão como o Fiador iniciaria inquéritos em busca de informações que possam ser facilmente acessadas no site oficial da OpenAI.

*️⃣ Link da fonte:

investigação , este endereço , aberto ,