As empresas de tecnologia parecem estar treinando ilegalmente IA com imagens de fabricantes holandeses

Este artigo foi atualizado pela última vez em agosto 6, 2024

As empresas de tecnologia parecem estar treinando ilegalmente IA com imagens de fabricantes holandeses

training AI with images

As empresas de tecnologia parecem estar treinando ilegalmente IA com imagens de fabricantes holandeses

Parece fortemente que os modelos de IA da OpenAI e Midjourney para gerar imagens sem permissão foram treinados com imagens de criadores holandeses. Isto fica evidente na investigação da NOS e é confirmado por quatro especialistas. Ao fazer isso, as empresas de tecnologia podem ter infringido direitos autorais.

A OpenAI não quis responder de forma substantiva à investigação, mas referiu-se, entre outras coisas, à possibilidade de os criadores de imagens se oporem. Midjourney não respondeu às nossas perguntas.

Vestido amarelo

Para a pesquisa, pedimos aos modelos de IA que gerassem imagens no estilo de vários criadores de imagens holandeses conhecidos, incluindo Erwin Olaf, Eddy van Wessel e Dick Bruna. Pedimos apenas para imitar o estilo, sem maiores instruções.

Traços característicos de obras conhecidas surgiram a cada vez. Por exemplo, os modelos de IA geraram imagens de mulheres com um vestido amarelo, como em uma série de fotos de Erwin Olaf.

No caso de Eddy van Wessel, foram criadas imagens em preto e branco de zonas de guerra, cenas pelas quais o fotógrafo é conhecido. Imagens de Miffy também foram geradas quando solicitamos uma imagem no estilo de Dick Bruna. Os detentores dos direitos de Bruna não dão permissão para uso dessas imagens neste artigo.

Notavelmente, a criação de imagens no estilo de certos artistas com DALL-E da OpenAI (a empresa por trás do ChatGPT) às vezes é rejeitada por violar seus termos. No entanto, tentar novamente em outra guia geralmente funciona.

A NOS apresentou os resultados a quatro especialistas na área da IA: Evangelos Kanoulas e Efstratios Gavves da Universidade de Amesterdão, Olya Kudina da TU Delft e Noelle Cicilia da Brush AI. Todos dizem que, embora não possa ser afirmado com 100 por cento de certeza, parece fortemente que os modelos de IA foram treinados nas obras holandesas.

“Esta é uma descrição muito genérica”, diz Kanoulas da UvA. “Ainda assim, os modelos de IA são capazes de fazer uma associação com, por exemplo, um vestido amarelo baseado apenas no nome de alguém.”

Cicilia enfatiza que um modelo de IA não é criativo em si. “Os modelos de IA generativa apenas tentam imitar ou reproduzir o mais fielmente possível os dados nos quais são treinados.”

“Se as obras são protegidas, a violação de direitos autorais é geralmente assumida muito rapidamente se alguém fugir com elas”, diz Mirjam Elferink, advogada de propriedade intelectual da Elferink & Kortier.

Mas há uma exceção para a recolha de dados públicos, explica Elferink. Esta exceção aplica-se, por exemplo, a instituições científicas. Mas as partes comerciais também podem fazer uso desta medida, desde que os titulares dos direitos não se oponham explicitamente: o chamado opt-out.

Tal opt-out foi utilizado para as obras de Dick Bruna e Eddy van Wessel, o que pode constituir uma violação de direitos autorais. Este não é o caso de Erwin Olaf, diz Shirley den Hartog, que agora gere o seu trabalho: “Discutimos antes da sua morte que seria muito bom se pessoas de todo o mundo continuassem envolvidas no seu trabalho”.

Não atualizado

“É bom saber que a exceção aos direitos de autor foi introduzida na lei antes de estas ferramentas de IA se tornarem acessíveis ao público”, afirma o advogado Elferink. Segundo ela, isso agora gera incertezas sobre sua aplicação no treinamento de modelos de IA.

“A pena é que ainda não houve quaisquer processos judiciais nos Países Baixos sobre este assunto, por isso o juiz ainda não foi capaz de se pronunciar sobre esta questão.” Existem vários processos contra isso nos Estados Unidos OpenAI como Meio da jornada. Ainda não há declarações.

Hanneke Holthuis, advogada da organização de direitos de imagem Pictoright, diz que muitos criadores de imagens não estão familiarizados com esta “reviravolta dos direitos autorais”. Segundo ela, ninguém levou em conta que os modelos de IA seriam subitamente treinados com trabalhos disponíveis publicamente: “Não se pode esperar que alguém faça uma reserva para algo que ainda não existe naquele momento”.

Excluir

A lei europeia sobre IA, em vigor desde este mês, parece estar alinhada com o sistema de opt-out. Os criadores de imagens devem indicar que desejam usar o seu direito de exclusão. As empresas de tecnologia devem então ser transparentes sobre como os modelos são treinados e podem demonstrar que não infringem direitos autorais.

O problema com o opt-out é que ele realmente precisa ser aplicado antes que a IA seja treinada para fazer o trabalho, diz Holthuis. “Uma vez treinado, é difícil para um sistema de IA ‘desaprender’ dados específicos. Isso significa que trabalhos que não foram publicados sob opt-out antes do treinamento da IA ​​podem ter sido usados ​​de forma irreversível.” Criadores de imagens holandeses são bem-vindos optoutnow.ai indicar que desejam exercer o seu direito de autoexclusão.

treinando IA com imagens

Compartilhe e curta

Seja o primeiro a comentar

Faça um comentário

Seu e-mail não será divulgado.


*