As imagens parecem fotos premiadas. São falsificações de IA.

Tempo de leitura: 9 minutes

Loading

Imagens geradas artificialmente de eventos noticiosos do mundo real proliferam em sites de imagens, confundindo a verdade e ficção

Uma jovem israelense, ferida, agarrada aos braços de um soldado angustiado. Um menino e uma menina ucranianos, de mãos dadas, sozinhos nos escombros de uma cidade bombardeada. Um inferno que se ergue improvavelmente das águas tropicais do oceano em meio aos incêndios devastadores de Maui. As imagens parecem fotos premiadas, mas são falsificações de IA.

À primeira vista, eles poderiam ser considerados trabalhos icônicos de fotojornalismo. Mas nenhuma delas é real. Elas são o produto de um software de inteligência artificial e faziam parte de uma vasta e crescente biblioteca de falsificações fotorrealistas à venda em um dos maiores sites de imagens da Web até o anúncio de uma mudança de política nesta semana.

Em resposta a perguntas do The Washington Post sobre suas políticas, o site de banco de imagens Adobe Stock disse na terça-feira que reprimiria imagens geradas por IA que parecem retratar eventos reais e dignos de notícia e tomaria novas medidas para evitar que suas imagens fossem usadas de forma enganosa.

Uma foto falsa gerada por IA, rotulada pelo The Washington Post, de uma mulher israelense ferida agarrada a um soldado pode ser encontrada no Adobe Stock. (Adobe)

À medida que os rápidos avanços nas ferramentas de geração de imagens com IA tornam as imagens automatizadas cada vez mais difíceis de distinguir das reais, os especialistas dizem que sua proliferação em sites como Adobe Stock e Shutterstock ameaça acelerar sua disseminação em blogs, materiais de marketing e outros lugares na Web, inclusive nas mídias sociais, obscurecendo os limites entre ficção e realidade.

O Adobe Stock, um mercado on-line no qual fotógrafos e artistas podem fazer upload de imagens para que clientes pagantes façam o download e publiquem em outros lugares, tornou-se no ano passado o primeiro grande serviço de banco de imagens a adotar envios gerados por IA. Essa medida foi submetida a um novo exame minucioso depois que uma imagem fotorrealista gerada por IA de uma explosão em Gaza, retirada da biblioteca da Adobe, apareceu em vários sites sem qualquer indicação de que era falsa, conforme relatou o site de notícias australiano Crikey.

A imagem da explosão em Gaza, que foi rotulada como gerada por IA no site da Adobe, foi rapidamente desmascarada. Até o momento, não há indicação de que essa ou outras imagens de banco de imagens com IA tenham se tornado virais ou enganado um grande número de pessoas. Mas as buscas em bancos de dados de imagens de estoque feitas pelo The Post mostraram que essa era apenas a ponta do iceberg de imagens de estoque com IA.

Uma foto falsa gerada por IA, rotulada pelo The Washington Post, mostra uma explosão em Gaza. Desde então, ela foi removida do Adobe Stock. (Adobe)

Uma pesquisa recente por “Gaza” no Adobe Stock trouxe mais de 3.000 imagens classificadas como geradas por IA, de um total de cerca de 13.000 resultados. Vários dos principais resultados pareciam ser imagens geradas por IA que não foram classificadas como tal, em aparente violação das diretrizes da empresa. Elas incluíam uma série de imagens que mostravam crianças pequenas, assustadas e sozinhas, carregando seus pertences enquanto fugiam das ruínas fumegantes de um bairro urbano.

Não é apenas a guerra entre Israel e Gaza que está inspirando imagens de estoque de eventos atuais criadas por IA. Uma busca por “guerra da Ucrânia” no Adobe Stock revelou mais de 15.000 imagens falsas do conflito, incluindo uma de uma menina segurando um ursinho de pelúcia em um cenário de veículos militares e escombros. Centenas de imagens de IA retratam pessoas em protestos do Black Lives Matter que nunca aconteceram. Entre as dezenas de imagens feitas por máquinas dos incêndios florestais em Maui, várias são muito parecidas com as tiradas por fotojornalistas.

Essa foto falsa gerada por IA, rotulada pelo The Washington Post, aparece no Adobe Stock com a legenda “uma menina segurando seu ursinho de pelúcia em uma área civil destrutiva durante a guerra, cenário de tristeza das vítimas da guerra, ideia para apoiar o direito das crianças, especialmente ucranianas, Generative Ai”. (Adobe)

Essa foto falsa gerada por IA, classificada pelo The Washington Post, pode ser encontrada no Adobe Stock quando os usuários pesquisam por “BLM protests”. (Adobe)

Essa foto falsa gerada por IA, classificada pelo The Washington Post, pode ser encontrada no Adobe Stock quando os usuários pesquisam por “Maui fires”. (Adobe)

Estamos entrando em um mundo em que, quando você olha para uma imagem on-line ou off-line, precisa fazer a pergunta: “É real?””, disse Craig Peters, CEO da Getty Images, um dos maiores fornecedores de fotos para editoras do mundo todo.

Inicialmente, a Adobe disse que tem políticas para classificar claramente essas imagens como geradas por IA e que as imagens deveriam ser usadas apenas como ilustrações conceituais, não passadas como fotojornalismo. Depois que o The Post e outras publicações apontaram exemplos contrários, a empresa lançou políticas mais rígidas na terça-feira. Essas políticas incluem a proibição de imagens de IA cujos títulos impliquem a representação de eventos dignos de notícia; a intenção de tomar medidas em relação a imagens com classificações incorretas; e planos para anexar rótulos novos e mais claros ao conteúdo gerado por IA.

“A Adobe tem o compromisso de combater a desinformação”, disse Kevin Fu, porta-voz da empresa.

Ele observou que a Adobe liderou uma Iniciativa de Autenticidade de Conteúdo que trabalha com editores, fabricantes de câmeras e outros para adotar padrões para classificar imagens que são geradas ou editadas por IA. Na quarta-feira, no entanto, milhares de imagens geradas por IA permaneciam em seu site, incluindo algumas ainda sem classificação.

Essa foto falsa gerada por IA, classificada pelo The Washington Post, pode ser encontrada no Adobe Stock com a legenda “Poor orphan child in destroyed city in Palestine Israel war conflict. Conceito de crise humanitária. IA generativa”. (Adobe)

O Adobe Stock inseri uma classificação ao lado das imagens geradas por IA quando os usuários desejam licenciá-las. (Ilustração do Washington Post; Adobe)

A Shutterstock, outro grande serviço de banco de imagens, fez uma parceria com a OpenAI para permitir que a empresa de IA sediada em São Francisco treine seu gerador de imagens Dall-E na vasta biblioteca de imagens da Shutterstock. Por sua vez, os usuários da Shutterstock podem gerar e carregar imagens criadas com o Dall-E, mediante o pagamento de uma taxa de assinatura mensal.

Uma pesquisa no site da Shutterstock por “Gaza” retornou mais de 130 imagens classificadas como geradas por IA, embora poucas delas fossem tão fotorrealistas quanto as do Adobe Stock. A Shutterstock não retornou os pedidos de comentários.

Tony Elkins, membro do corpo docente da organização de mídia sem fins lucrativos Poynter, disse que tem certeza de que alguns meios de comunicação usarão imagens geradas por IA no futuro por um motivo: “dinheiro”, disse ele.

Desde a recessão econômica de 2008, as organizações de mídia cortaram a equipe visual para otimizar seus orçamentos. As imagens de estoque baratas há muito tempo provaram ser uma maneira econômica de fornecer imagens juntamente com artigos de texto, disse ele. Agora que a IA generativa está facilitando para quase qualquer pessoa a criação de uma imagem de alta qualidade de um evento noticioso, será tentador para as organizações de mídia sem orçamentos saudáveis ou forte ética editorial usá-las. As imagens parecem fotos premiadas, são falsificações de IA.

Essa foto falsa gerada por IA, classificada pelo The Washington Post, pode ser encontrada no Adobe Stock com a legenda “Black Protester in Hoodie and Mask Raising Fists for Social Justice” (Manifestante negro com capuz e máscara erguendo os punhos pela justiça social). IA generativa”. (Adobe)

“Se você for apenas uma pessoa administrando um blog de notícias, ou mesmo se for um grande repórter, acho que a tentação [para a IA] de me dar uma imagem fotorrealista do centro de Chicago – ela estará lá, e acho que as pessoas usarão essas ferramentas”, disse ele.

O problema se torna mais evidente à medida que os americanos mudam a forma de consumir notícias. Cerca de metade dos americanos, às vezes ou com frequência, recebe notícias das mídias sociais, de acordo com um estudo do Pew Research Center divulgado em 15 de Novembro. Quase um terço dos adultos as obtém regularmente do site de rede social Facebook, segundo o estudo.

Em meio a essa mudança, Elkins disse que várias organizações de notícias de renome têm políticas em vigor para classificar o conteúdo gerado por IA quando usado, mas o setor de notícias como um todo ainda não enfrentou essa questão. Se os veículos não o fizerem, disse ele, “eles correm o risco de que as pessoas em sua organização usem as ferramentas da maneira que acharem melhor, e isso pode prejudicar os leitores e a organização – especialmente quando falamos de confiança”.

Se as imagens geradas por IA substituírem as fotos tiradas por jornalistas em campo, Elkins disse que isso seria um desserviço ético para a profissão e para os leitores de notícias.

“Você está criando um conteúdo que não aconteceu e passando-o como uma imagem de algo que está acontecendo no momento”, disse ele. “Acho que prestamos um grande desserviço aos nossos leitores e ao jornalismo se começarmos a criar narrativas falsas com conteúdo digital.”

Imagens realistas, geradas por IA, da guerra Israel-Gaza e outros eventos atuais já estavam se espalhando nas mídias sociais sem a ajuda de serviços de banco de imagens.

Essa foto falsa gerada por IA, classificada pelo The Washington Post, pode ser encontrada no Adobe Stock quando os usuários pesquisam por “Gaza”. (Adobe)

A atriz Rosie O’Donnell recentemente compartilhou no Instagram a imagem de uma mãe palestina carregando três crianças e seus pertences por uma estrada cheia de lixo, com a legenda “mães e crianças – parem de bombardear gaza”. Mais uma vez as imagens parecem fotos premiadas, são falsificações de IA, um seguidor comentou que a imagem era uma falsificação de IA, O’Donnell respondeu “não, não é”. Mas depois ela a excluiu. As imagens parecem fotos premiadas, mas são falsificações de IA.

Uma pesquisa de imagem reversa do Google ajudou a rastrear a imagem até sua origem em uma apresentação de slides do TikTok de imagens semelhantes, com a legenda “The Super Mom” (A Super Mãe), que obteve 1,3 milhão de visualizações. Em contato via mensagem do TikTok, o criador da apresentação de slides disse que usou IA para adaptar as imagens a partir de uma única foto real usando o Microsoft Bing, que, por sua vez, usa o software de geração de imagens Dall-E da OpenAI.

A Meta, que é proprietária do Instagram e do Facebook, proíbe certos tipos de vídeos “deepfake” gerados por IA, mas não proíbe que os usuários publiquem imagens geradas por IA. O TikTok não proíbe imagens geradas por IA, mas suas políticas exigem que os usuários classifiquem imagens geradas por IA de “cenas realistas”.

Um terceiro grande fornecedor de imagens, a Getty Images, adotou uma abordagem diferente da Adobe Stock ou da Shutterstock, banindo completamente as imagens geradas por IA de sua biblioteca. A empresa processou uma das principais empresas de IA, a Stable Diffusion, alegando que seus geradores de imagens infringem os direitos autorais de fotos reais sobre as quais a Getty detém os direitos. Em vez disso, a Getty fez uma parceria com a Nvidia para criar seu próprio gerador de imagens com IA, treinado apenas em sua própria biblioteca de imagens criativas, que, segundo ela, não inclui fotojornalismo ou representações de eventos atuais.

Peters, CEO da Getty Images, criticou a abordagem da Adobe, dizendo que não é suficiente confiar em artistas individuais para classificar suas imagens como geradas por IA – especialmente porque essas classificações podem ser facilmente removidos por qualquer pessoa que use as imagens. Ele disse que sua empresa está defendendo que as empresas de tecnologia que fazem ferramentas de imagem de IA criem marcadores indeléveis nas próprias imagens, uma prática conhecida como “marca d’água”. Mas ele disse que a tecnologia para fazer isso é um trabalho em andamento.

“Vimos o que a erosão dos fatos e da confiança pode fazer com uma sociedade”, disse Peters. “Nós, como mídia e coletivamente como empresas de tecnologia, precisamos resolver esses problemas.”

 

 

 

Autores:  
Fonte: The Washington Post
Artigo Original: https://wapo.st/49QjzDb

Fernando Giannini

Pesquisador de tecnologia aplicada à educação, arquiteto de objetos virtuais de aprendizagem, fissurado em livros de grandes educadores e viciado em games de todos os tipos. Conhecimentos aprimorados em cursos de grandes empresas de tecnologia, principalmente no Google Business Educational Center e Microsoft. Sócio-proprietário da Streamer, empresa que alia tecnologia e educação. Experiência de 18 anos produzindo e criando objetos de aprendizagem, cursos a distância, design educacional, interfaces para sistemas de aprendizagem. Gestor de equipe para projetos educacionais, no Ensino Básico, Médio e Ensino Superior. Nesse período de trabalho gerenciou equipes e desenvolveu as habilidades de liderança e gestão. Acredita na integração e aplicação prática dos conhecimentos para a realização de projetos inovadores, sólidos e sustentáveis a longo prazo. Um dos grandes sonhos realizados foi o lançamento do curso gratuito Mande Bem no ENEM que atingiu mais de 500 mil estudantes em todo o Brasil contribuindo para a Educação Brasileira.

Participe da nossa comunidade no Whatsapp sobre Educação e Tecnologia

0 comentários

Enviar um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Posts Relacionados

Competências essenciais na era digital

A proliferação da IA em muitos aspectos da vida humana - desde o lazer pessoal até o trabalho profissional, passando pelas decisões políticas globais - impõe uma questão complexa sobre como preparar as pessoas para um mundo interconectado e em rápida mudança, que está...

Educação digital para prevenir abusos sexuais online

Depois de participar de uma aula incrível com a professora Beatriz Lorencini e o Felipe, fui tirado da bolha onde costumo estar a maior parte do meu tempo se não o tempo todo. Quando percebi eu estava em choque por "não saber ou escolher não saber" que existem...

Cinco passos para utilizar o ChatGPT na sala de aula

Como professor, é quase certo que você já tenha utilizado inteligência artificial (IA), mesmo que uma vez ou diariamente em seus trabalhos acadêmicos sem saber ou se importar como ela funciona. Um exemplo disso é a filtragem de spam de e-mail e o verificador...

43 exemplos de inteligência artificial aplicados na educação

O potencial do uso da inteligência artificial na educação para aprimorar o aprendizado, auxiliar os professores e estimular um aprendizado individualizado mais eficaz é empolgante, mas também um pouco assustador. Para se ter uma conversa inteligente sobre IA na...

Impacto de robôs na curiosidade infantil

Resumo A curiosidade é fundamental para o aprendizado, mas as crianças em idade escolar apresentam variações em sua vontade de adquirir informações. Pesquisas recentes sugerem que outras pessoas têm uma forte influência no comportamento exploratório das crianças. Será...

10 práticas para utilizar IA em sala de aula

Nos primeiros dias de dezembro de 2022, tarde da noite, sob o manto da escuridão, digitei avidamente "ChatGPT" em minha barra de pesquisa do Google. Entrei no mundo da IA com nervosismo e entusiasmo, como quando entrava em uma loja de doces quando criança e era...

Tag Cloud

Posts Relacionados

[dgbm_blog_module posts_number=”4″ related_posts=”on” show_categories=”off” show_pagination=”off” item_in_desktop=”2″ equal_height=”on” image_size=”mid” author_background_color=”#ffffff” disabled_on=”off|off|on” module_class=”PostRelacionado” _builder_version=”4.16″ _module_preset=”default” title_font=”Montserrat||||||||” title_text_color=”#737373″ title_font_size=”19px” title_line_height=”25px” meta_text_color=”#666″ meta_font_size=”13px” content_font_size=”13px” content_line_height=”30px” author_text_color=”#666666″ custom_css_content_container=”display:flex;||flex-wrap:wrap;” custom_css_image-container=”padding-top:70%;||overflow:hidden;” custom_css_image=”position:absolute;||top:0;||left:0;||bottom:0;||right:0;||object-fit: cover;||height:100%;||width:100%;” custom_css_title=”padding:20px;||margin-top:0;||order:2;” custom_css_content=”padding:0 20px 20px;||order:3;” custom_css_post-meta-middle=”order:1;||padding:20px;||border-bottom:1px solid #dcdcdc;||border-top:1px solid #dcdcdc;” border_width_all_post_item=”0px” border_width_all_content=”0px” box_shadow_style_container=”preset1″ box_shadow_blur_container=”5px” box_shadow_spread_container=”1px” box_shadow_color_container=”rgba(0,0,0,0.1)” global_colors_info=”{}”][/dgbm_blog_module]

Receba a nossa newsletter

Fique por dentro e seja avisado dos novos conteúdos.

Publicações mais recentes