terça, 17 de setembro, 2024

Inteligência Artificial

A+ A-

Debate no Senado destaca urgência de regulamentação para tecnologias digitais nas eleições

Especialistas discutem legislação próprio para deter desinformação durante as campanhas eleitorais que começam nesse mês

quarta, 07 de agosto, 2024 - 16:13

Redação MyCryptoChannel

Nesta semana, o Conselho de Comunicação Social (CCS) promoveu uma audiência pública no Senado Federal focada no uso da Inteligência Artificial (IA) nas campanhas eleitorais das eleições municipais deste ano, que terão início em 16 de agosto em todo o Brasil.  

A audiência se concentrou na necessidade de uma regulamentação sobre o tema. Com a proximidade das eleições municipais, previstas para outubro, a ausência de legislação específica sobre o uso de tecnologias digitais tem gerado questionamentos. 

A doutora em Direito Administrativo Marilda Silveira, professora do Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa (IDP), destacou que plataformas digitais têm o poder de moldar a visão de mundo dos eleitores. Para a advogada Ângela Ginachi, conselheira do CCS, as eleições municipais costumam servir como um "laboratório" para os pleitos gerais que ocorrerão dois anos depois. 

Em resposta à lacuna legislativa, o Tribunal Superior Eleitoral (TSE) alterou sua resolução sobre propaganda eleitoral para abordar algumas questões relacionadas ao uso de tecnologias digitais.  

As novas regras proíbem deepfakes, exigem aviso sobre o uso de IA nas campanhas, restringem o uso de robôs para interações com eleitores e responsabilizam as grandes plataformas tecnológicas pela remoção rápida de conteúdos desinformativos e nocivos, incluindo discurso de ódio e conteúdo antidemocrático. 

O diretor-geral da Associação Brasileira de Rádio e Televisão (Abratel) e membro do CCS, Samir Nobre, disse que há leis que podem enquadrar as plataformas digitais em diversas situações. “A legislação está posta. Entendemos que nós conseguimos avançar em relação às plataformas com os próprios instrumentos que nós temos hoje em nossas mãos”, argumenta. 

Apesar de concordar que existam legislações que podem ser aplicadas nesses casos, Marina Giancoli Pita, coordenadora de Liberdade de Expressão e Enfrentamento à Desinformação da Secretaria de Políticas Digitais da Presidência da República, ainda defende regras próprias para o setor.   

Inteligência Artificial

Meta agora pode usar dados de brasileiros para treinar Inteligência Artificial

Suspensão da ANPD foi revertida após recurso da empresa e criação de Plano de Conformidade

segunda, 02 de setembro, 2024 - 14:50

Redação MyCryptoChannel

Continue Lendo...

Na última sexta-feira (30), a Autoridade Nacional de Proteção de Dados (ANPD) suspendeu a proibição que havia imposto à Meta. Agora a empresa pode utilizar dados pessoais de usuários brasileiros para treinar sua inteligência artificial (IA).  

Em julho, a ANPD, autarquia federal ligada ao Ministério da Justiça e Segurança, havia proibido o uso de dados pessoais publicados em plataformas da Meta, como Facebook, Instagram e WhatsApp, para o treinamento de sistemas de inteligência artificial.  

A suspensão foi motivada por preocupações com a privacidade e a segurança dos dados dos usuários brasileiros. 

A suspensão foi revertida após a Meta enviar um recurso que incluía documentos e compromissos assumidos pela empresa, os quais foram suficientes para que o Conselho Diretor da ANPD aprovasse um Plano de Conformidade.  

Este plano inclui uma série de medidas que a Meta deve adotar para garantir a conformidade com a Lei Geral de Proteção de Dados Pessoais (LGPD). 

Entre as restrições impostas pelo órgão, está a obrigação da Meta de notificar os usuários do Facebook e Instagram por e-mail e através dos aplicativos sobre o tratamento de seus dados para treinamento de IA. 

“Além disso, o Plano de Conformidade prevê o compromisso da Meta de não usar dados pessoais de contas de menores de dezoito anos para treinar o seu modelo de IA, até que uma decisão definitiva seja tomada pela ANPD no âmbito do processo de fiscalização”, afirmou publicação do site do governo federal.  

Os usuários terão o direito de manifestar oposição ao uso de seus dados para treinamento de IA, mesmo depois da utilização dos dados pela empresa. A Coordenação-Geral de Fiscalização da ANPD acompanhará o cumprimento do Plano de Conformidade pela Meta e a implementação do sistema de IA da empresa 

“Cabe ressaltar que a atuação da ANPD se deu com o objetivo de promover a conformidade com a Lei Geral de Proteção de Dados Pessoais e o esclarecimento dos direitos dos titulares de dados”, afirmou o presidente da ANPD, Waldemar Gonçalves. “Esse episódio, mais uma vez, demonstrou que a atuação do órgão se dá no sentido de disseminar uma cultura da proteção de dados”.  

 

Inteligência Artificial

OpenAI apoia projeto de lei na Califórnia para identificação de conteúdo gerado por IA

Empresa responsável pelo ChatGPT apoia o projeto de lei AB 3211 na Califórnia, que exige marcas d'água em metadados de conteúdos criados por IA

quarta, 28 de agosto, 2024 - 18:07

Redação MyCryptoChannel

Continue Lendo...

A startup de inteligência artificial OpenAI, conhecida pelo desenvolvimento do ChatGPT, expressou apoio a um novo projeto de lei na Califórnia que visa a identificação de conteúdo gerado por IA.  

O projeto de lei AB 3211, que foi discutido no final de agosto, propõe a obrigatoriedade de marcas d'água nos metadados de fotos, vídeos e clipes de áudio criados por inteligência artificial, como uma forma de diferenciar esse conteúdo do produzido por humanos. 

Jason Kwon, diretor de estratégia da OpenAI, manifestou o apoio da empresa ao projeto, destacando que a identificação clara do conteúdo gerado por IA ajudaria os usuários a evitarem confusões.  

"Novas tecnologias e padrões podem ajudar as pessoas a entenderem a origem do conteúdo que encontram on-line e evitar confusão entre conteúdo gerado por humanos e conteúdo fotorrealista gerado por IA", disse Kwon em carta revisada pela Reuters.  

Além da OpenAI, outras grandes empresas de tecnologia como Microsoft e Adobe também apoiam o AB 3211. No entanto, a OpenAI havia se oposto a outro projeto de lei relacionado à IA, o SB 1047, que exigiria testes de segurança para modelos de IA.