Contents

O que você precisa saber sobre usos e exceções proibidos

,

Embora esta seja uma questão complicada e de longo prazo, onde Alemanha, França e Itália já estabeleceram inicialmente as suas bases, nos últimos dias conhecemos o estado e o alcance das conversações para estabelecer uma regulamentação da inteligência artificial na União Europeia que culminou em um acordo provisório, uma vez que deve ser ratificado pelos Estados-Membros e pelo Parlamento. O resultado? Uma definição de obrigações e regulamentos para inteligência artificial na nova Lei de IA: estes são os seus pontos mais importantes.

Entre a noite de sexta-feira e sábado, este acordo provisório deste género foi fechado. pioneira na lei de inteligência artificial no mundo, algo de que o comissário Thierry Breton se vangloriou em seu perfil no X/Twitter. De forma mais solene, a presidência espanhola do Conselho da UE explicou na mesma rede social que este acordo provisório visa «garantir que os sistemas de IA comercializados e utilizados na UE sejam seguros e respeitem os direitos fundamentais e os valores da UE». desta forma, a presidência europeia cumpre um dos objectivos planeados antes de encerrar o seu ciclo no final deste ano.

/images/34f1488900d070f9486e3fb4b461998b12107309a9c0e088a2d170ce590e429a.jpg

Este acordo provisório começou a ser elaborado na quarta-feira e, depois de horas e horas de duras negociações sobre questões fundamentais como até que ponto permitir a auto-regulação do sector e onde intervir, proibições e excepções ou simplesmente sobre detalhes que ainda não foram foi revelado. Veremos aplicações proibidas, exceções e obrigações fundamentais desta lei.

O essencial: transparência e classificação de risco

Transparência na presença da IA ​​no dia a dia. Chatbots, deepfakes e outros conteúdos gerados por inteligência artificial devem ser claramente identificados, para que os utilizadores saibam que estão a lidar com inteligência artificial. Aqueles conteúdos feitos em IA , também devem ser marcados para que sejam detectados como tal. Da mesma forma, se forem utilizados sistemas de categorização biométrica ou de reconhecimento de emoções, as pessoas devem ser informadas.

A categorização dos utilitários e funções da IA ​​depende do nível de perigo que apresentam:

-Risco mínimo , no qual a maioria entra. Sistemas de recomendação ou filtros de spam têm um lugar aqui. Considera-se que representam pouco ou nenhum risco para os direitos ou a segurança dos cidadãos e, como tal, não terão obrigações. No entanto, quem desejar pode comprometer-se a adotar códigos de conduta voluntários. -Alto risco. Serão considerados como tal devido aos seus potenciais danos para a saúde, a segurança, os direitos fundamentais, o ambiente, a democracia e o Estado de direito (por exemplo, aqueles que podem ser utilizados para influenciar o resultado das eleições), uma vez que podem ser energia infra-estruturas, dispositivos médicos, controlo de fronteiras, administração da justiça, sistemas biométricos. Os classificados neste nível terão que atender a uma série de requisitos como registro de atividades, documentação detalhada, informações claras dos usuários, supervisão humana e alto nível de robustez, precisão e segurança cibernética. Os cidadãos poderão apresentar queixas sobre estes sistemas e receber explicações sobre decisões de alto risco baseadas em IA que afetam os seus direitos. -Risco inaceitável porque são considerados uma clara ameaça aos direitos fundamentais das pessoas, como aqueles que manipulam o comportamento humano para contornar o livre arbítrio, brinquedos que incentivam comportamentos perigosos, sistemas de pontuação social, policiamento preditivo ou alguns usos biométricos, como para trabalho ou vigilância. Essas IAs serão banidas.

Estas são as aplicações proibidas ou altamente regulamentadas de IA

Merecem menção especial aquelas aplicações de inteligência artificial que constituem uma ameaça aos direitos, à cidadania e à democracia , cuja consequência implica a sua proibição:

-Sistemas de categorização biométrica que utilizam características sensíveis (como credo, religião, orientação sexual ou raça). -Sistemas de extração de bancos de dados captando informações indiscriminadamente através da Internet, TV ou CFTV. -Reconhecimento de emoções no ambiente de trabalho e nas instituições de ensino. -Pontuação social , ou o que é o mesmo, pontuação social baseada no comportamento social ou características pessoais. -Sistemas de IA que manipulam o comportamento humano para alterar seu livre arbítrio. -Sistemas de IA que exploram vulnerabilidades humanas, por exemplo idade, deficiência, estatuto social ou económico.

Exceção de sistemas de identificação biométrica. Tenha cuidado porque a identificação biométrica é uma questão complicada, pois não é totalmente proibida: pode ser utilizada para fins policiais com autorização judicial prévia e para uma série de crimes claramente estipulados. Assim, seria utilizado inclusive em tempo real para busca seletiva de suspeito ou condenado, vítimas (sequestro, tráfico, exploração sexual) ou ameaça terrorista, entre outros casos.

Que parte da lei se aplica ao ChatGPT e similares? Esses sistemas de inteligência artificial de uso geral terão que atender aos critérios de transparência acima mencionados, mas também à preparação de documentação técnica, ao cumprimento da lei de direitos autorais da UE e à divulgação de informações detalhadas resumos sobre o conteúdo utilizado no treinamento.

O que acontece se a lei não for seguida?

Conforme recolhe o comunicado de imprensa deste acordo provisório da lei, o incumprimento destas regras pode resultar em multas que variam entre 7,5 milhões ou 1,5% do volume de negócios até 35 milhões de euros ou 7% do volume, dependendo sobre o tipo de infração cometida e o porte da empresa.

Quando esta lei entrará em vigor?

O acordo provisório alcançado entre as partes marca mais uma etapa num processo alargado que está em curso há mais de dois anos, com mais progressos ainda por fazer. Como salientou recentemente a Presidente da Comissão Europeia, Ursula von der Leyen, o desenvolvimento da Lei da IA ​​remonta aos primeiros meses de 2021.

Os Estados-Membros e o Parlamento Europeu devem então ratificar o texto final antes de este entrar em vigor. Este processo provavelmente atrasará a entrada em vigor da lei até 2026, embora algumas destas secções estejam operacionais mais cedo.

0

O referido site, hospedado pelo Tingey Injury Law Firm e que apresenta o trabalho do fotógrafo Jernej Furman, pode ser acessado através do link disponibilizado nesta plataforma.

1

O debate em torno da supervisão regulamentar da inteligência artificial ganhou recentemente destaque, com os promotores a defenderem a intervenção governamental, ao mesmo tempo que expressam incerteza quanto às implicações e consequências de tais ações.

2

*️⃣ Link da fonte:

no seu perfil X/Twitter , na mesma rede social , , recolher o comunicado de imprensa , Ursula Von der Leyen lembrou ontem , Jernej Furman , Escritório de Advocacia de Lesões Tingey ,