Contents

Proposta da Alemanha, França e Itália

,

Depois de terem surpreendido meio mundo, as tecnologias generativas de inteligência artificial foram as protagonistas de grande parte de 2022 e de todo o ano de 2023. Desde o lançamento de ferramentas como ChatGPT, DALL-E, Bing Chat, bard e muitas outras, são muitos os que têm mudaram sua rotina para abrir espaço para algumas dessas tecnologias em seu dia a dia. No entanto, apesar dos seus benefícios, também existe um risco real que muitos especialistas e grandes empresas tecnológicas quiseram expor.

Na Europa há muito tempo que se quer regulamentar este tipo de tecnologia para fazer um uso responsável e sustentável delas. A última notícia sobre isto é que tanto a Alemanha como a França e a Itália têm sido os principais protagonistas no engavetamento do assunto com o desenvolvimento de uma regulamentação rigorosa para as tecnologias baseadas em IA, ao contrário dos Estados Unidos, onde defendem uma regulamentação muito mais permissiva e sem muita oposição ao desenvolvimento da IA ​​generativa.

Uma lei estrita que operará com base em três níveis de IA

Após o acordo do G7 realizado em 30 de outubro, os mais altos representantes da Comissão Europeia concordaram em estipular uma regulamentação rigorosa, embora semelhante à imposta pelo Japão, onde embora existam certas barreiras, ainda há uma certa margem em que grandes as empresas de tecnologia podem confiar para desenvolver este tipo de tecnologias disruptivas.

A certa permissividade que pode existir na regulamentação não prejudica o objetivo de proteger os direitos autorais ou impedir a exposição de nossas informações pessoais. Além disso, importa referir que os três governos chegaram a um acordo sem a intervenção de outros países, pelo que o documento ainda tem de ser aprovado pelos restantes países membros da Comissão Europeia.

/images/f6833c3bd34675b97e8001f6722bce25b80cfd0aaaa36d058af982ce9b4930fe.jpg Neste site A contratação de Sam Altman coroa a Microsoft como o gigante definitivo na nova era da IA

Apesar desses avanços, ainda há muito trabalho a ser feito. E durante a cimeira do G7 realizada há apenas três semanas, ele propôs um código de conduta que as grandes empresas tecnológicas que trabalham na área da IA ​​deveriam seguir. Para que este código de conduta entre em vigor deve ser revisto por uma multiplicidade de organizações internacionais , entre elas a OCDE (Organização para a Cooperação e Desenvolvimento Económico) ou a Aliança Global sobre Inteligência Artificial.

Este código de conduta é voluntário, portanto não levará à aprovação de uma ou mais leis. Algo muito diferente do regulamento que a União Europeia vem elaborando desde maio de 2022, a partir do qual será feita uma lei. A sua estratégia centra-se em dividir os sistemas baseados em IA em três níveis , cada um com benefícios diferentes e que serão regulados através de determinados tipos de restrições dependendo da capacidade de cada um deles.

O objetivo é que o referido regulamento esteja pronto o mais rapidamente possível, embora a proposta da Alemanha, França e Itália deverá ser discutida nas próximas reuniões da Comissão Europeia, do Parlamento Europeu e do Conselho da Europa, a fim de conhecer o veredicto dos demais países membros.

A regulamentação estipulada por estes países procura aplicar restrições ao uso dado à inteligência artificial e não à tecnologia em si. “Os riscos inerentes à IA residem no uso que vamos dar aos sistemas de inteligência artificial e não na própria tecnologia“como pode ser visto no documento proposto. Além disso, o regulamento também insiste que “os modelos devem incluir informação relevante que nos permita compreender o seu funcionamento, as suas capacidades e os seus limites, e devem ser suportados pelas melhores práticas da comunidade de desenvolvedores”.

As sanções pelo incumprimento do código de conduta não foram estipuladas, uma vez que o regulamento propõe aplicá-las quando a referida violação do código tiver sido fiscalizada para elaborar um sistema de sanções ao alcance das infrações. Resta saber como é que os restantes países da União Europeia acabam por receber esta proposta e saber como este regulamento afecta a comunidade. código aberto, que talvez poderia ser o mais afetado, pois não há muitas margens operacionais nessas tecnologias.

Imagem | Markus Spiske

Lamentavelmente, foi relatado que o órgão de supervisão responsável por garantir considerações éticas no desenvolvimento e implantação de tecnologia de Inteligência Artificial (IA), conhecido como “equipa de ética”, foi dissolvido por uma empresa proeminente especializada em inovação em IA. Esta decisão contrasta com o progresso contínuo da empresa no avanço das suas capacidades de IA. Notavelmente, outras empresas tecnológicas líderes parecem ter seguido o exemplo com ações semelhantes em relação às suas próprias equipas de ética que supervisionam as iniciativas de IA.

0

*️⃣ Link da fonte:

um código de conduta , Markus Spiske,