domingo, 08 de setembro, 2024

Inteligência Artificial

A+ A-

Senado votará marco de inteligência artificial no dia 9 de julho

Comissão CTIA agenda votação para próxima semana e define diretrizes para marco legal da IA

sexta, 05 de julho, 2024 - 11:38

Redação MyCryptoChannel

Após discussões, a Comissão Temporária Interna sobre Inteligência Artificial no Brasil (CTIA) do Senado Federal decidiu a data de votação do relatório final sobre o Projeto de Lei (PL) 2.338/2023, que visa regulamentar o uso da inteligência artificial (IA) no país. A votação está agendada para a próxima terça-feira, dia 9 de julho. 

O presidente da CTIA, senador Carlos Viana (Podemos), ressaltou a importância da transparência no processo de elaboração do relatório, que contou com a participação ativa de diversos setores da sociedade.  

"Nossa proposta, junto com o relator, o senador Eduardo Gomes (PL), é a de máxima transparência possível. Naturalmente, a decisão final cabe a nós, membros da Comissão, que elaboramos o relatório para posterior avaliação dos demais senadores", afirmou Viana. 

O senador Eduardo Gomes, relator do PL, enfatizou que o projeto não busca englobar temas como fake news, código eleitoral ou reforma do sistema de regulação setorial, como algumas críticas sugeriam.  

“Estamos discutindo uma coisa que já está regulada, o medo das interpretações e das decisões verticais, monocráticas ou qualquer coisa queiram ler, o medo da ausência da legislação, ele já impera para qualquer segmento político, para qualquer corrente política. Enquanto a gente não tiver regulação mínima, a gente não tem parâmetro para saber quem é quem nesse jogo”, destacou Gomes. 

O debate em torno da regulamentação da IA no Brasil também abordou os riscos e oportunidades dessa tecnologia. O senador Esperidião Amin (PP-SC) alertou para os perigos do mau uso da IA para a segurança cibernética e o Produto Interno Bruto (PIB) do país, com potencial de prejuízos de até 12%.  

Já o senador Marcos Pontes (PL-SP) defendeu a necessidade de encontrar um equilíbrio entre os riscos e os benefícios da IA. "Não podemos fazer uma legislação baseada no medo", defendeu Pontes. 

O relatório final do PL 2.338/2023 apresenta algumas alterações, como a flexibilização, por um período de cinco anos, do tempo de manutenção de documentação técnica referente ao desenvolvimento de ferramentas de IA e a adoção de padrões internacionais de boas práticas para modelos de certificação.  

Além da a permissão de mineração de dados por entidades públicas e privadas para o combate a ilícitos e a criação do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), responsável pela normatização infralegal da tecnologia no país. 

 

Inteligência Artificial

OpenAI apoia projeto de lei na Califórnia para identificação de conteúdo gerado por IA

Empresa responsável pelo ChatGPT apoia o projeto de lei AB 3211 na Califórnia, que exige marcas d'água em metadados de conteúdos criados por IA

quarta, 28 de agosto, 2024 - 18:07

Redação MyCryptoChannel

Continue Lendo...

A startup de inteligência artificial OpenAI, conhecida pelo desenvolvimento do ChatGPT, expressou apoio a um novo projeto de lei na Califórnia que visa a identificação de conteúdo gerado por IA.  

O projeto de lei AB 3211, que foi discutido no final de agosto, propõe a obrigatoriedade de marcas d'água nos metadados de fotos, vídeos e clipes de áudio criados por inteligência artificial, como uma forma de diferenciar esse conteúdo do produzido por humanos. 

Jason Kwon, diretor de estratégia da OpenAI, manifestou o apoio da empresa ao projeto, destacando que a identificação clara do conteúdo gerado por IA ajudaria os usuários a evitarem confusões.  

"Novas tecnologias e padrões podem ajudar as pessoas a entenderem a origem do conteúdo que encontram on-line e evitar confusão entre conteúdo gerado por humanos e conteúdo fotorrealista gerado por IA", disse Kwon em carta revisada pela Reuters.  

Além da OpenAI, outras grandes empresas de tecnologia como Microsoft e Adobe também apoiam o AB 3211. No entanto, a OpenAI havia se oposto a outro projeto de lei relacionado à IA, o SB 1047, que exigiria testes de segurança para modelos de IA.  

Inteligência Artificial

Vídeo deepfake de Pablo Marçal ataca Boulos e viola normas do TSE

Marçal já enfrenta investigação da PF sobre difamação contra candidato do PSOL

quarta, 28 de agosto, 2024 - 15:06

Redação MyCryptoChannel

Continue Lendo...

Na segunda-feira, 26 de agosto, Pablo Marçal, candidato à prefeitura de São Paulo pelo PRTB, divulgou um vídeo de campanha que utiliza deepfake para atacar seu rival, Guilherme Boulos (PSOL-SP).  

O vídeo publicado nas redes sociais de Marçal violou duas diretrizes do Tribunal Superior Eleitoral (TSE) sobre o uso de inteligência artificial (IA) em campanhas eleitorais para as eleições municipais de 2024. O TSE proíbe o uso de deepfakes e exige que todo material gerado por IA seja claramente rotulado como tal 

O vídeo, que mostra o rosto de Marçal sendo usado como máscara sobre uma pessoa desconhecida assoprando um pó branco, foi considerado uma violação das normas eleitorais.  

>>> Quer saber como o Roda Viva revelou um viés surpreendente nas entrevistas de Marçal e Boulos? Confira a análise completa agora: Leia mais! <<<

A peça, com a legenda "POV: Marçal fazendo Bolos", faz parte de uma campanha de difamação contra Boulos e está sendo investigado pela Polícia Federal (PF) por suspeitas de crime eleitoral.  

O uso de deepfakes e outros conteúdos sintéticos pode resultar na cassação do registro de candidatura e perda do mandato, caso o candidato seja eleito. Além disso, a divulgação de informações falsas que influenciem o eleitorado pode levar a penas de detenção de dois meses a um ano.  

A legislação exige que todo conteúdo sintético em campanhas seja acompanhado por um aviso de que foi gerado por IA. Caso contrário, as plataformas e a Justiça devem remover esses conteúdos.