A OpenAI, criadora do ChatGPT, disse que introduzirá ferramentas para combater a desinformação antes das dezenas de eleições deste ano em países que abrigam metade da população mundial.
O sucesso explosivo do gerador de texto ChatGPT estimulou uma revolução global de inteligência artificial, mas também desencadeou alertas de que tais ferramentas poderiam inundar a internet com desinformação e influenciar os eleitores.
Com eleições previstas para este ano em países como Estados Unidos, Índia e Grã-Bretanha, a OpenAI disse na segunda-feira que não permitirá que sua tecnologia — incluindo o ChatGPT e o gerador de imagens DALL-E 3 — seja usada em campanhas políticas.
“Queremos ter certeza de que nossa tecnologia não seja usada de uma forma que possa prejudicar” o processo democrático, disse a OpenAI em uma postagem de blog.
“Ainda estamos trabalhando para entender quão eficazes nossas ferramentas podem ser para persuasão personalizada”, acrescentou.
“Até que saibamos mais, não permitiremos que as pessoas criem aplicativos para campanhas políticas e lobby.”
A desinformação e a desinformação impulsionadas pela IA são os maiores riscos globais de curto prazo e podem prejudicar governos recém-eleitos nas principais economias , alertou o Fórum Econômico Mundial em um relatório divulgado na semana passada.
Os temores sobre desinformação eleitoral começaram anos atrás, mas a disponibilidade pública de potentes geradores de texto e imagem de IA aumentou a ameaça, dizem especialistas, especialmente se os usuários não conseguem dizer facilmente se o conteúdo que veem é falso ou manipulado.
A OpenAI disse na segunda-feira que estava trabalhando em ferramentas que atribuiriam atribuição confiável ao texto gerado pelo ChatGPT e também dariam aos usuários a capacidade de detectar se uma imagem foi criada usando o DALL-E 3.
“No início deste ano, implementaremos as credenciais digitais da Coalizão para Proveniência e Autenticidade de Conteúdo — uma abordagem que codifica detalhes sobre a procedência do conteúdo usando criptografia”, disse a empresa.
A coalizão, também conhecida como C2PA, visa melhorar métodos para identificar e rastrear conteúdo digital. Seus membros incluem Microsoft, Sony, Adobe e as empresas japonesas de imagem Nikon e Canon.
A OpenAI disse que o ChatGPT, quando questionado sobre questões processuais sobre eleições nos EUA, como onde votar, direcionará os usuários para sites confiáveis.
“As lições deste trabalho orientarão nossa abordagem em outros países e regiões”, disse a empresa.
Ele acrescentou que o DALL-E 3 tem “guardrails” que impedem os usuários de gerar imagens de pessoas reais, incluindo candidatos.
O anúncio da OpenAI segue medidas reveladas no ano passado pelas gigantes de tecnologia dos EUA Google e Meta, controladora do Facebook, para limitar a interferência eleitoral, especialmente por meio do uso de IA.
A AFP já desmascarou deepfakes — vídeos adulterados — do presidente dos EUA, Joe Biden, anunciando um recrutamento militar e da ex-secretária de Estado Hillary Clinton apoiando o governador da Flórida, Ron DeSantis, para presidente.
Imagens e áudios adulterados de políticos circularam nas redes sociais antes da eleição presidencial deste mês em Taiwan, descobriu a AFP Fact Check.
Embora grande parte desse conteúdo seja de baixa qualidade e não esteja imediatamente claro se foi criado com aplicativos de IA, especialistas dizem que a desinformação está alimentando uma crise de confiança nas instituições políticas.
© 2024 AFP