Contents

UE toma medidas para regulamentar a inteligência artificial com nova lei que aborda riscos de segurança

,

O Parlamento Europeu acaba de assinalar um marco histórico aprovando a primeira Lei de Inteligência Artificial a nível mundial, norma que hoje é referência na regulamentação desta tecnologia emergente.

O texto, que tem sido objeto de intenso debate e deliberação desde a sua proposta inicial pela Comissão Europeia em abril de 2021, foi finalmente ratificado com amplo apoio: 523 votos a favor, 46 contra e 49 abstenções.

Sim, de facto, A sua publicação no Jornal Oficial da UE não está prevista até maio, altura em que terá início esta “nova era” na regulamentação da IA. Embora, mesmo assim, ainda demore alguns meses para que todos os países membros aprovem a implementação da norma nos seus países.

Isso não impediu o Comissário Europeu para o Mercado Interno, Thierry Breton, de sublinhar que a votação de hoje no Parlamento Europeu posiciona a UE como um “criador de padrões” em termos de inteligência artificial.

Os eurodeputados fizeram todos os possíveis para aprovar esta lei antes do final da legislatura (estiveram perto)

O que este novo regulamento propõe?

Esta legislação pioneira baseia-se num quadro regulamentar que visa classificar os sistemas de IA em quatro níveis de risco, do mínimo ao inaceitável, estabelecendo requisitos rigorosos e certificações para sistemas de IA considerados de alto risco, com o objetivo de que apenas aqueles que tenham aprovados pelas autoridades reguladoras podem ser comercializados.

/images/04aaff89aea69a6f3c7ff12681f54e1387c625bcdba86d65ba35f898d82dbeae.jpg Neste site, a OpenAI pressionou a UE para flexibilizar as regulamentações de IA enquanto seu CEO continuava a pedir publicamente por mais regulamentação

Estes são os quatro níveis:

-Risco inaceitável: Este nível inclui sistemas de IA que representam uma ameaça clara à segurança, aos meios de subsistência e aos direitos das pessoas e que, portanto, serão proibidos na UE. Exemplos disso seriam desde brinquedos com assistência de voz que promovem comportamentos perigosos até sistemas de reconhecimento em massa. -Alto risco: os sistemas classificados como de alto risco estão sujeitos a obrigações estritas antes da comercialização , como avaliação e mitigação de riscos, requisitos de alta qualidade para conjuntos de dados de treinamento, registro de atividades para rastreabilidade, documentação detalhada e supervisão humana. Isto inclui a identificação biométrica remota e sistemas utilizados em áreas críticas (justiça, controlo de fronteiras, segurança de produtos, gestão laboral, serviços essenciais…). -Risco limitado: Este nível refere-se a sistemas de IA que exigem transparência no seu uso, como chatbots (que devem ser claramente identificados como tal) e conteúdos gerados por IA (textos, vídeos e imagens), que devem ser rotulado como gerado artificialmente. A ideia é que os usuários Estejam cientes de que estão consumindo conteúdo gerado por IA. -Risco mínimo ou nenhum risco: Este nível permite o uso gratuito de sistemas de IA que não representam um risco significativo, como aqueles usados ​​para filtrar spam em e-mails ou em determinados videogames. A maioria dos sistemas de IA em uso atualmente na UE se enquadra nesta categoria, portanto não enfrentará novas obrigações legais. /images/07e81d9bde64945b409faeb9d7f1dba6e8bbdfc81326b2405e72efdb307f768f.jpg Imagem: este site

Pretende-se, assim, equilibrar a proteção dos direitos básicos dos cidadãos com a promoção da inovação tecnológica na Europa.

A Lei da IA ​​também estabelece um Escritório Europeu de IA encarregado de supervisionar a implementação da norma e garantir a conformidade, com o poder de impor multas significativas às empresas que violarem as suas disposições.

A burocracia favorece os grandes (do Vale do Silício)

No entanto, a sua aprovação gerou controvérsia: certos setores da indústria expressaram receios sobre como novas regras poderiam retardar o desenvolvimento e a implementação de aplicações inovadoras de IA, temendo um possível travão à inovação.

Mas não só a indústria: governos como os de França, Alemanha e Itália, em particular, Defenderam’abrir as mãos’com startups e PMEs , para não prejudicar a sua capacidade de competir com gigantes da tecnologia como Google e OpenAI.

/images/ffe514d70ff3a4960e9483c8c4816ec7948b68d44358c14c3e63988cd21eaa90.jpg Neste site, o Google e a OpenAI os temem, mas a UE pode afundá-los: é assim que esta nova regulamentação europeia afetará os projetos de IA de código aberto

Também foi solicitado a diversos setores favoráveis ​​ao código aberto que os projetos que se beneficiam deste tipo de licença fossem submetidos a regulamentação diferenciada em termos de requisitos e pagamentos, pois temem que, para efeitos práticos, a burocracia para que pretendem submeter a projetos de IA, concebidos para grandes empresas, acabariam por empurrar projetos mais pequenos, cheios de desenvolvedores voluntários, para fora do mercado europeu. Tudo isso, a favor, mais uma vez, das gigantes já consolidadas no mercado.

0

Imagem | Marcos Merino por meio de IA

A União Europeia aplicou uma multa sem precedentes de 1,8 mil milhões de euros à Apple, Inc., na sequência de uma ação movida pelo Spotify alegando abuso de posição dominante no mercado.

1

*️⃣ Link da fonte:

texto ,