Contents

Privacy Watchdog enfrenta o gigante da IA ​​​​OpenAI na batalha contra o ChatGPT

/images/openai-chatgpt-contestazione-garante-privacy.jpg -Privacidade -Bate-papoGPT

Com um anúncio surpresa publicado no site do Garantidor de Privacidade nas últimas horas, a Autoridade Italiana anunciou que enviou uma reclamação formal à OpenAI, empresa liderada por Sam Altman que desenvolve-entre outros produtos e serviços-o conhecido ChatGPT.

A história não é exatamente nova. Observando uma série de deficiências no que diz respeito à legislação sobre o tratamento de dados pessoais (principalmente GDPR), no final de março de 2023 o Fiador havia prescrito uma limitação temporária para o chatbot OpenAI. Do escritório romano da Piazza Venezia, a OpenAI foi convidada a suspender o tratamento de dados de sujeitos estabelecidos em território italiano e a enviar, prontamente, um documento contendo informações sobre a forma como a empresa atua no setor de soluções baseadas em'* A *inteligência artificial** teria resolvido as questões críticas colocadas sobre a mesa pelo Fiador.

Nesse momento, em resposta à medida restritiva, a OpenAI optou por bloquear o acesso ao ChatGPT dos usuários italianos (a empresa fez isso espontaneamente, o Fiador não ordenou…). Cerca de um mês depois, no final de abril de 2023, o ChatGPT está novamente acessível na Itália. Certa de ter atendido às solicitações do Fiador, a OpenAI ofereceu a possibilidade de negar a reutilização de conteúdo de conversas para posterior treinamento do modelo e possibilitou a verificação da idade na primeira utilização da plataforma. Também atualizou a política de privacidade que prevê a exclusão de dados coletados e utilizados em modelos generativos.

Para o Garantidor de Privacidade, as intervenções no ChatGPT são insuficientes

A breve comunicação publicada no site do Fiador de Privacidade não especifica a base pela qual a Autoridade considerou apropriado enviar um aviso de disputa à OpenAI. Ele confirma, no entanto, que a decisão de hoje é resultado da previsão de limitação temporária do tratamento mencionada no início. Menos de um ano depois, reabre-se, portanto, o cabo de guerra entre o Fiador e a OpenAI: “a Autoridade considerou que os elementos adquiridos poderiam constituir uma ou mais infracções relativamente ao estabelecido pelo Regulamento da UE”, lê-se.

Neste ponto, a OpenAI tem 30 dias para enviar seus argumentos de defesa sobre as supostas violações denunciadas.

Não podendo conhecer o objeto da disputa, obviamente só podemos fazer suposições. E é claro observar que, evidentemente, as intervenções aplicadas no ChatGPT no final de abril de 2023 não são consideradas suficientes pelo Fiador, nos termos da regulação europeia.

Atualmente, não existem casos anteriores sobre os quais se possa estabelecer precedentes. Reconhecemos que a recente reclamação da Autoridade Italiana de Proteção de Dados à OpenAI representa uma ação sem precedentes na Europa. No entanto, deve notar-se que a autoridade reguladora relevante indicou a sua intenção de considerar os esforços contínuos do grupo de trabalho especial composto pelas autoridades de proteção de dados da UE ao formular uma resposta. Essencialmente, isto sublinha a natureza colaborativa do esforço que visa salvaguardar os direitos de privacidade dos indivíduos residentes nos estados membros da União Europeia.

O caso ChatGPT-Guarantee Privacy pode estar destinado a abrir um precedente

É importante notar que apenas porque o Fiador de Privacidade tomou medidas contra um determinado site, serviço online ou plataforma por certas violações de privacidade, isso não implica necessariamente que outros também não estejam cometendo infrações semelhantes. No entanto, estas ações servem como indicadores significativos da conduta adequada das entidades que operam na esfera digital.

Estávamos dizendo que não se sabe quais são as novas reclamações dirigidas à OpenAI em relação ao funcionamento do ChatGPT. O certo é que o sistema de verificação de idade implementado na plataforma (bem como em dezenas de outros sites) pode ser considerado inadequado. Por outro lado, um simples Sim Não mediante solicitação “Você é adulto?” na verdade, pode ser uma abordagem demasiado simplista do problema.

O outro problema poderia ter a ver com o material que a OpenAI usa para treinar seus modelos generativos. Tenha cuidado, porém, porque mesmo que o Fiador fale sobre ChatGPT, o assunto diz respeito a modelos generativos GPT que a empresa utiliza não apenas para alimentar o chatbot, mas também oferece comercialmente para profissionais e empresas em todo o mundo.

Mais uma vez, portanto, o tema ligado à legitimidade da recolha de dados poderá voltar a ser atual, nos termos do disposto no Regulamento Geral de Proteção de Dados ( RGPD ).

Quais são os riscos do OpenAI

Dissemos que, a partir do momento do recebimento da disputa assinada pelo Fiador de Privacidade, a OpenAI tem um mês para enviar seus contra-argumentos e explicar porque, na sua opinião, as medidas implementadas no ChatGPT são compatíveis com a legislação vigente.

Caso a autoridade italiana considere que as justificações da OpenAI e as"alegadas violações"se tornaram violações reais, então a empresa agora intimamente ligada à Microsoft poderá ser chamada a pagar uma sanção até 20 milhões de euros ou mesmo até 4 % do seu volume de negócios global anual.

barra lateral inferior relacionada 300

*️⃣ Link da fonte:

comunicação curta ,