Contents

18 nações se comprometem a garantir o desenvolvimento seguro e ético da IA ​​com acordo histórico

A Inteligência Artificial ainda é muito atual. A UE deve fechar a Lei da IA ​​antes do final do ano, os EUA ainda estão imersos na limitação da sua lei, a Austrália está a considerar uma mistura de ambas quando estiverem concluídas e a China diz que irá implementar uma Lei… Mas isso será quando seu setor se expandir mais. Entretanto, para calibrar estas leis e estabelecer um mínimo a nível internacional, 18 países aderiram ao que foi descrito como o primeiro acordo internacional sobre como manter a IA a salvo de “atores desonestos”. O que isso implica? Bem, serão os governos que pressionarão as empresas a criar IA “segura desde a concepção”.

Os Estados Unidos e o Reino Unido têm sido os principais promotores deste acordo que atraiu 18 países, incluindo Alemanha, Itália, República Checa, Estónia, Polónia, Austrália, Chile, Israel, Nigéria ou Singapura. O framework trata de segurança, especificamente de cibersegurança, algo realmente interessante de se discutir, pois não só vale a pena criar uma IA, mas ela não deve cair em mãos erradas.

18 países assinam o primeiro acordo internacional para tornar a IA segura desde a concepção

/images/Clones-IA-crear-Eternity.AC_.jpg

O documento aparece com nada menos que 20 páginas, poucas em que poderíamos pensar a princípio, mas a realidade é que são bastantes se levarmos em conta a natureza geral do acordo. Além disso, não é vinculativo como tal, é simplesmente o primeiro contacto para resolver um problema que já é uma dor de cabeça para todos os governos: o crime cibernético.

Isto vai evoluir para roubo cibernético ou controle cibernético da Inteligência Artificial de empresas sediadas em cada país, ou seja, os atacantes não estão focando tanto em objetivos específicos de governos ou empresas, mas em capturar ou conseguir para copiar os AIs. É por isso que se fala em “atores desonestos”, e o acordo estabelece uma premissa geral muito clara: fazer com que as empresas que projetam e usam uma ou mais IAs as desenvolvam e trabalhem nelas de uma forma que clientes e público os deixem use-os estão protegidos contra uso indevido.

O desenvolvimento da IA ​​começa a tomar forma pelos governos

/images/IA-y-servidores.jpg

Enquanto os Estados Unidos, a Europa e a China estão envolvidos numa competição intensa para desenvolver as tecnologias de inteligência artificial mais avançadas em vários domínios, os quadros regulamentares e os sistemas jurídicos parecem estar a lutar para acompanhar o ritmo. É digno de nota que dezoito nações chegaram a um acordo sobre estas questões, o que representa um progresso no sentido de estabelecer diretrizes fundamentais para o uso ético da IA.

-Monitoramento de IA para detectar abuso. -Proteja os dados contra manipulações. -Examine os fornecedores de software. -Reduza os custos de manutenção e desenvolvimento. -Melhore os projetos de segurança.

Durante o curso das deliberações, diversas propostas foram fervorosamente defendidas. Jennifer Easterly, Diretora da Agência de Segurança Cibernética e de Infraestrutura dos Estados Unidos, expressou sua perspectiva sobre este assunto da seguinte forma:

“Esta é a primeira vez que vimos uma declaração de que esses recursos não deveriam ser apenas recursos interessantes e a rapidez com que podemos trazê-los ao mercado ou como podemos competir para reduzir custos. Este é um acordo sobre o que mais importa. O que fazer na fase de projeto: segurança”.

Para isso, existem medidas como só publicar os modelos quando os testes de segurança forem satisfatórios, mas por outro lado, fica algo em espera que parece estar contemplado nas leis de cada país, como o uso inadequado de IA ou a coleta de dados de modelo. Isto já é parcialmente uma realidade em França, Alemanha e Itália, que assinaram outro acordo sobre como a IA deve ser regulamentada: “através de códigos de conduta.”

*️⃣ Link da fonte:

como manter a IA segura,