sábado, 14 de setembro, 2024

Inteligência Artificial

A+ A-

OpenAI apoia projeto de lei na Califórnia para identificação de conteúdo gerado por IA

Empresa responsável pelo ChatGPT apoia o projeto de lei AB 3211 na Califórnia, que exige marcas d'água em metadados de conteúdos criados por IA

quarta, 28 de agosto, 2024 - 18:07

Redação MyCryptoChannel

A startup de inteligência artificial OpenAI, conhecida pelo desenvolvimento do ChatGPT, expressou apoio a um novo projeto de lei na Califórnia que visa a identificação de conteúdo gerado por IA.  

O projeto de lei AB 3211, que foi discutido no final de agosto, propõe a obrigatoriedade de marcas d'água nos metadados de fotos, vídeos e clipes de áudio criados por inteligência artificial, como uma forma de diferenciar esse conteúdo do produzido por humanos. 

Jason Kwon, diretor de estratégia da OpenAI, manifestou o apoio da empresa ao projeto, destacando que a identificação clara do conteúdo gerado por IA ajudaria os usuários a evitarem confusões.  

"Novas tecnologias e padrões podem ajudar as pessoas a entenderem a origem do conteúdo que encontram on-line e evitar confusão entre conteúdo gerado por humanos e conteúdo fotorrealista gerado por IA", disse Kwon em carta revisada pela Reuters.  

Além da OpenAI, outras grandes empresas de tecnologia como Microsoft e Adobe também apoiam o AB 3211. No entanto, a OpenAI havia se oposto a outro projeto de lei relacionado à IA, o SB 1047, que exigiria testes de segurança para modelos de IA.  

Inteligência Artificial

Meta agora pode usar dados de brasileiros para treinar Inteligência Artificial

Suspensão da ANPD foi revertida após recurso da empresa e criação de Plano de Conformidade

segunda, 02 de setembro, 2024 - 14:50

Redação MyCryptoChannel

Continue Lendo...

Na última sexta-feira (30), a Autoridade Nacional de Proteção de Dados (ANPD) suspendeu a proibição que havia imposto à Meta. Agora a empresa pode utilizar dados pessoais de usuários brasileiros para treinar sua inteligência artificial (IA).  

Em julho, a ANPD, autarquia federal ligada ao Ministério da Justiça e Segurança, havia proibido o uso de dados pessoais publicados em plataformas da Meta, como Facebook, Instagram e WhatsApp, para o treinamento de sistemas de inteligência artificial.  

A suspensão foi motivada por preocupações com a privacidade e a segurança dos dados dos usuários brasileiros. 

A suspensão foi revertida após a Meta enviar um recurso que incluía documentos e compromissos assumidos pela empresa, os quais foram suficientes para que o Conselho Diretor da ANPD aprovasse um Plano de Conformidade.  

Este plano inclui uma série de medidas que a Meta deve adotar para garantir a conformidade com a Lei Geral de Proteção de Dados Pessoais (LGPD). 

Entre as restrições impostas pelo órgão, está a obrigação da Meta de notificar os usuários do Facebook e Instagram por e-mail e através dos aplicativos sobre o tratamento de seus dados para treinamento de IA. 

“Além disso, o Plano de Conformidade prevê o compromisso da Meta de não usar dados pessoais de contas de menores de dezoito anos para treinar o seu modelo de IA, até que uma decisão definitiva seja tomada pela ANPD no âmbito do processo de fiscalização”, afirmou publicação do site do governo federal.  

Os usuários terão o direito de manifestar oposição ao uso de seus dados para treinamento de IA, mesmo depois da utilização dos dados pela empresa. A Coordenação-Geral de Fiscalização da ANPD acompanhará o cumprimento do Plano de Conformidade pela Meta e a implementação do sistema de IA da empresa 

“Cabe ressaltar que a atuação da ANPD se deu com o objetivo de promover a conformidade com a Lei Geral de Proteção de Dados Pessoais e o esclarecimento dos direitos dos titulares de dados”, afirmou o presidente da ANPD, Waldemar Gonçalves. “Esse episódio, mais uma vez, demonstrou que a atuação do órgão se dá no sentido de disseminar uma cultura da proteção de dados”.  

 

Inteligência Artificial

Vídeo deepfake de Pablo Marçal ataca Boulos e viola normas do TSE

Marçal já enfrenta investigação da PF sobre difamação contra candidato do PSOL

quarta, 28 de agosto, 2024 - 15:06

Redação MyCryptoChannel

Continue Lendo...

Na segunda-feira, 26 de agosto, Pablo Marçal, candidato à prefeitura de São Paulo pelo PRTB, divulgou um vídeo de campanha que utiliza deepfake para atacar seu rival, Guilherme Boulos (PSOL-SP).  

O vídeo publicado nas redes sociais de Marçal violou duas diretrizes do Tribunal Superior Eleitoral (TSE) sobre o uso de inteligência artificial (IA) em campanhas eleitorais para as eleições municipais de 2024. O TSE proíbe o uso de deepfakes e exige que todo material gerado por IA seja claramente rotulado como tal 

O vídeo, que mostra o rosto de Marçal sendo usado como máscara sobre uma pessoa desconhecida assoprando um pó branco, foi considerado uma violação das normas eleitorais.  

>>> Quer saber como o Roda Viva revelou um viés surpreendente nas entrevistas de Marçal e Boulos? Confira a análise completa agora: Leia mais! <<<

A peça, com a legenda "POV: Marçal fazendo Bolos", faz parte de uma campanha de difamação contra Boulos e está sendo investigado pela Polícia Federal (PF) por suspeitas de crime eleitoral.  

O uso de deepfakes e outros conteúdos sintéticos pode resultar na cassação do registro de candidatura e perda do mandato, caso o candidato seja eleito. Além disso, a divulgação de informações falsas que influenciem o eleitorado pode levar a penas de detenção de dois meses a um ano.  

A legislação exige que todo conteúdo sintético em campanhas seja acompanhado por um aviso de que foi gerado por IA. Caso contrário, as plataformas e a Justiça devem remover esses conteúdos.