Contents

O futuro da proteção de direitos autorais

Em janeiro de 2023, vários artistas apresentaram queixa contra determinados sistemas de inteligência artificial que geram imagens, apenas alguns meses após a sua introdução. Artistas como Sarah Andersen, Kelly McKernan e Karla Ortiz apresentaram uma acusação contra Midjourney, Stability AI e DeviantArt, alegando uso não autorizado de material protegido por direitos autorais pertencente a vários profissionais criativos. Alega-se que estas entidades facilitaram a criação de geradores de imagens, incluindo Stable Diffusion, Midjourney e DreamUp, através da extração não licenciada de propriedade intelectual de fontes online, sem procurar aprovação ou fornecer compensação às partes afetadas. Pouco depois, a Getty Images, uma importante agência fotográfica, também

Para que os sistemas de geração de imagens produzam eficazmente imagens de alta qualidade, eles requerem grandes quantidades de dados de treinamento. No entanto, isto representa um desafio, uma vez que estes sistemas podem ser potencialmente utilizados de forma maliciosa para replicar ou distribuir material protegido por direitos de autor sem permissão. Para resolver este problema, uma equipa de investigadores da Universidade de Chicago desenvolveu uma ferramenta concebida para introduzir intencionalmente informações enganosas nestes sistemas, minando assim a sua precisão e eficácia. Este trabalho foi disponibilizado publicamente na internet, mas ainda não passou pelo processo tradicional de revisão por pares.

Uma baga venenosa

quando um modelo de imagem gerado por IA ingere essas imagens digitais atraentes, porém prejudiciais, encontradas on-line, ele fica doente e sofre um declínio no desempenho, tornando sua produção irreconhecível. Por exemplo, o que parece ser um cachorro pode parecer um gato.

Os pesquisadores descobriram que existe uma distinção fundamental entre como a percepção humana e a visão mecânica processam a informação visual. De acordo com Shawn Shan, um dos autores do estudo, esta percepção permitiu-lhes realizar alterações minuciosas em imagens digitais que são indetectáveis ​​para os humanos, mas que criam desafios significativos para os algoritmos de computador.

Na sua explicação, Shawn Shan descreve a nossa abordagem para atacar o sistema, conhecida como “envenenamento”. Especificamente, pretendemos manipular certas ideias conceituais, incluindo cachorros, bolsas e o estilo cubo. Para ilustrar esse ponto, consideremos o caso de um cachorro. Nosso método envolve a alteração de imagens representando cães para que, dentro do campo visual do modelo de IA, elas pareçam mais semelhantes à imagem de um gato. No entanto, da nossa perspectiva, o cão permanece reconhecível como tal.

/images/capture-decran-2023-11-22-153145-1024x500.jpg Exemplos de saída do modelo quando não está envenenado (modelo limpo) ou após o treinamento em 50, 100 ou 300 exemplos envenenados por Nightshade//Fonte: S. Shan et al, Prompt-Specific Poisoning Attacks on Text-to-Image Generative Models , 2023

Um exemplo de inteligência artificial necessita de uma quantidade modesta de imagens representando cães alterados usando a técnica Nightshade para uma instrução eficaz, variando de aproximadamente cinquenta a cem casos. Da mesma forma, após a exposição a cerca de cinquenta ilustrações contaminadas do estilo cúbico, o sistema irá gerar um resultado visualmente animado, em vez de aderir aos princípios do cubismo.

O ataque acima mencionado foi concebido por estudiosos com a intenção de obrigar as empresas de inteligência artificial a reconhecer os direitos de propriedade intelectual. Segundo um dos pesquisadores, “esta ferramenta deverá ser utilizada por criadores e pessoas físicas que publicam conteúdo online e desejam impedir sua aplicação em processos de treinamento de modelos. Especificamente, imaginamos que empresas como a Disney, possuindo capacidades computacionais substanciais, também empregarão esse método.

Esmalte: proteção do estilo dos artistas

A equipe de desenvolvimento do Google introduziu uma ferramenta adicional chamada “Glaze”, que funciona para proteger contra ataques a estilos artísticos em modelos de aprendizado de máquina. Este processo envolve a alteração dos elementos visuais das imagens a tal ponto que as características e características únicas associadas a um determinado artista se tornam indistinguíveis para o sistema. Em essência, Glaze procura neutralizar as qualidades estilísticas distintivas de um artista, substituindo-as por influências alternativas, como as encontradas nas obras de Vincent van Gogh ou Pablo Picasso. Embora estas modificações possam ser imperceptíveis para os observadores humanos, elas servem para mitigar os danos potenciais causados ​​por ataques adversários direcionados especificamente à abordagem criativa individual de um artista.

A utilização não autorizada de informações pessoais para fins de formação é uma preocupação crescente na era digital de hoje, mas não é o único problema em questão. Nossas fotografias são vulneráveis ​​a serem roubadas e manipuladas para objetivos nefastos por meio da criação de imagens deepfake. Estas criações fraudulentas podem ser utilizadas para difundir desinformação ou para produzir conteúdos explícitos. É imperativo que tomemos medidas para nos protegermos desses tipos de ameaças cibernéticas.

Proteja imagens contra manipulação

O desafio agora reside não apenas no facto de as representações visuais terem inspirado modelos de IA para gerar imagens semelhantes, mas também na capacidade dessas mesmas imagens serem manipuladas através de tais tecnologias. Cientistas do MIT desenvolveram uma contramedida conhecida como PhotoGuard, que torna as imagens resistentes à alteração por sistemas de inteligência artificial. O coautor Guillaume Leclerc enfatiza que este mecanismo de defesa emprega uma abordagem “adversarial”.

/images/capture-decran-2023-11-22-153417-1024x452.jpg Exemplos de imunização com PhotoGuard: sem proteção, a imagem pode ser modificada para fazer as duas pessoas dançarem. No segundo caso, após a imunização de seus rostos, a saída não corresponde mais à consulta.//Fonte: H. Salman et al., Raising the Cost of Malicious AI-Powered Image Editing, 2023

O conceito é análogo; pequenos ajustes nas informações digitais que compõem uma imagem podem ser utilizados para proteger seus componentes delicados, como características faciais. Um método proposto por um dos especialistas envolve alterar os valores dos pixels de forma que o modelo perceba a parte vulnerável da imagem como um tom de cinza em vez de um rosto reconhecível. Como resultado, quando a imagem é processada, ela não atende às especificações pretendidas.

Ideias enquanto espera pelas medições

Embora tenham sido feitos progressos na abordagem da questão da manipulação de imagens utilizando técnicas de aprendizagem profunda, ainda há muito trabalho a ser feito. Segundo Guillaume Leclerc, mesmo que uma ferramenta consiga detectar com sucesso imagens editadas que utilizam a técnica de Difusão Estável, ela pode não ser eficaz contra outros modelos ou futuras iterações dessas técnicas. Isto realça a necessidade de investigação e desenvolvimento contínuos, a fim de nos mantermos à frente das ameaças emergentes. Além disso, Leclerc sugere que a indústria deve adoptar uma abordagem proactiva no desenvolvimento de estratégias de protecção contra tais ataques, em vez de simplesmente confiar apenas em soluções técnicas.

A expectativa dos pesquisadores é que ao apresentar ataques a sistemas de inteligência artificial, medidas regulatórias sejam surgidas e cumpridas. Shawn Shan prevê que tais táticas resultarão em mudanças significativas dentro do campo.

A assinatura do nosso site por meio do Google Notícias garante que você receba atualizações oportunas e permaneça informado sobre os eventos atuais, permitindo assim que você fique atualizado sobre os desenvolvimentos relevantes de maneira integrada.

*️⃣ Link da fonte:

Sarah Andersen, Kelly McKernan e Karla Ortiz , pesquisadores da Universidade de Chicago , S. Shan et al, Ataques de envenenamento específicos de prompt em modelos geradores de texto para imagem, 2023 , outra ferramenta foi proposta pela mesma equipe , um estudo , H. Salman et al., Aumentando o custo da edição maliciosa de imagens alimentadas por IA, 2023 ,