A Meta, gigante da tecnologia, anunciou no domingo (25) medidas para combater o uso indevido de inteligência artificial (IA) generativa em suas plataformas, visando garantir a segurança durante as eleições para o Parlamento Europeu em junho de 2024.
A empresa aplicará os princípios dos "Padrões da comunidade" e "Padrões de anúncios" a conteúdos gerados por IA, permitindo que seus parceiros de verificação de fatos independentes revisem e classifiquem tais materiais. Um dos parâmetros visa identificar conteúdos "alterados", ou seja, "falsificados, manipulados ou transformados em áudio, vídeo ou fotos".
A Meta exige que imagens fotorrealistas criadas com suas ferramentas de IA sejam rotuladas como tal. A empresa também está desenvolvendo recursos para rotular conteúdos gerados por IA de outras ferramentas, como Google, OpenAI, Microsoft, Adobe, Midjourney e Shutterstock.
No comunicado, a empresa informou que exigirá que anunciantes de conteúdos políticos ou relacionados a eleições que utilizem IA divulguem essa prática. Entre julho e dezembro de 2023, a empresa removeu 430 mil anúncios na União Europeia por falta de aviso de isenção de responsabilidade.
Em fevereiro desse ano, 20 empresas, incluindo Microsoft, Google, Anthropic, Meta, OpenAI, Stability AI e X, assinaram um compromisso para conter a interferência da IA em processos eleitorais.