Em meio ao avanço contínuo da tecnologia fotográfica, as fabricantes de câmeras Nikon, Sony e Canon correm para incrementar suas máquinas com um sistema que marca as fotografias com um selo digital. O objetivo da tecnologia é diferenciar as fotos das imagens geradas por inteligência artificial, de acordo com informações do jornal japonês Nikkei.
As empresas correm para manter sua credibilidade diante do avanço das plataformas de inteligência artificial geradoras de imagens. Já viralizaram fotos falsas porém, realistas de papa Francisco, Elon Musk e Donald Trump, além de vídeo artificial com o apresentador do Jornal Nacional, da TV Globo, William Bonner.
Essa tecnologia ficou popular com o lançamento em abril de 2022 do Dall-E 2, da OpenAI (mesma criadora do ChatGPT). Desde então, outras plataformas similares ganham projeção, e as artes geradas, verossimilhança. Um modelo de inteligência artificial desenvolvido por pesquisadores da Universidade de Tsinghua, da China, é capaz de produzir 700 mil fakes por dia.
Conteúdos relacionados
- Apple consegue na Justiça liberação de venda de smartwatches
- Tire dúvidas sobre o aplicativo que bloqueia celular roubado
Os primeiros esforços começam em parcerias com jornalistas. Uma aliança global de veículos de imprensa, empresas de tecnologia e fabricantes de câmeras desenvolveram uma ferramenta capaz de fazer checagens online, chamada de Verify. Se houver selo de autenticação, a plataforma exibe data, geolocalização entre outros metadados.
Esse padrão será adotado, em comum acordo, entre Nikon, Sony e Canon. As empresas japonesas controlam cerca de 90% do mercado global de máquinas fotográficas.
Além de imagens completamente falsas, o sistema também aponta fotos editadas como não autênticas. A mensagem padrão para imagens criadas ou alteradas é "No Content Creditials" (algo como sem credenciais de conteúdo, em português).
Quer saber mais notícias do Brasil? Acesse nosso canal no Whatsapp
A Canon trabalha para adotar a tecnologia em escala de mercado ainda em 2024. A fabricante planeja também autenticar vídeos
A empresa já lançou um aplicativo de gestão de imagens que permite verificar se o arquivo em análise foi produzido por humanos.
A fabricante de câmeras trabalha em parceria com a agência Reuters e o Starling Lab for Data Integrity, laboratório cofundado pelas universidades de Stanford e Carolina do Sul dedicado a verificar a integridade de informações que circulam na internet.
A Nikon, por sua vez, começará a acrescentar a tecnologia de autenticação às suas câmeras topo de linha, com o objetivo de atrair fotojornalistas e outros profissionais. O selo de autenticidade será resistente a interferências externas.
A Sony planeja adotar a marca de autenticação a partir de abril também em seu equipamento topo de linha. A empresa disponibilizará um pacote de atualização para adequar as máquinas já em circulação.
A fabricante de câmeras fotográficas tem testado junto com a agência de notícias Associated Press um sistema de verificação automática das imagens lançadas em um servidor. A tecnologia também deve funcionar em vídeos.
Do lado dos desenvolvedores de IA, o Google lançou em agosto uma ferramenta que acrescenta marcas dágua invisíveis às imagens geradas com inteligência artificial. As imagens geradas pelo Dall-E da OpenAI também vêm com selos para indicar a origem artificial.
Ainda assim, existem diversos modelos de IA geradores de imagem de código aberto, como o Stable Diffusion, disponíveis na internet. Isso permite que programadores criem versões próprias e descartem os selos de autenticação.
Ainda em 2022, a Intel desenvolveu uma plataforma capaz de determinar se uma imagem é autêntica a partir de análise de alterações na cor da pele decorrentes do fluxo de sangue. A tendência, porém, é que as imagens criadas por inteligência artificial se tornem mais realistas e, consequentemente, difíceis de identificar.
Seja sempre o primeiro a ficar bem informado, entre no nosso canal de notícias no WhatsApp e Telegram. Para mais informações sobre os canais do WhatsApp e seguir outros canais do DOL. Acesse: dol.com.br/n/828815.
Comentar