quarta, 11 de setembro, 2024

Inteligência Artificial

A+ A-

Ministra Luciana Santos será convocada para audiência pública sobre plano de IA do Brasil

Comissão Temporária Interna sobre Inteligência Artificial do Brasil convocou a ministra de Ciência e Tecnologia, Luciana Santos, para uma audiência pública a fim de discutir o Plano Brasileiro de Inteligência Artificial

quinta, 08 de agosto, 2024 - 14:51

Redação MyCryptoChannel

Na última quarta-feira (7), a Comissão Temporária Interna sobre Inteligência Artificial do Brasil (CTIA) tomou a decisão de convocar a ministra de Ciência e Tecnologia, Luciana Santos, para uma audiência pública a ser agendada posteriormente.  

O objetivo do convite é obter um detalhamento do Plano Brasileiro de Inteligência Artificial (PBIA), que foi recentemente lançado pelo governo federal com a promessa de investir R$ 28 bilhões até 2028. “Seria muito importante a presença dela aqui para detalhar esse projeto, esse plano estratégico do governo”, disse o autor do requerimento, senador Izalci Lucas (PL).  

“Esse convite é importante e urgente, né? Porque, essa matéria, nós estamos debatendo, inclusive, a regulamentação, aqui, no Congresso, então, é importante ver a posição do governo com relação a essa matéria”, destacou Lucas.  

O PBIA foi divulgado no final de julho e surge em meio a um debate sobre a regulamentação da inteligência artificial no país. Luana Lund, consultora legislativa do Senado, comentou que, apesar das semelhanças entre o PBIA e o projeto de lei em debate, como a proteção de dados e a promoção da inovação, existem diferenças.  

Felipe França, diretor executivo do Conselho Digital do Brasil, destacou uma divergência relacionada ao treinamento de máquinas. Ele explicou que o PBIA procura maior liberdade para o desenvolvimento de modelos avançados de linguagem que reflitam a diversidade cultural e linguística do Brasil, enquanto a regulamentação proposta no Senado, na forma atual, impõe restrições mais severas. 

Luana observou que, embora as propostas possam se complementar, também é possível que ocorram sobreposições e conflitos entre os dois conjuntos de diretrizes. Para ela, "as propostas podem se influenciar mutuamente. As negociações entre os decisores, eventuais pressões de grupos de interesse e as próprias demandas da opinião pública podem levar a alterações em ambas as propostas”.  

Inteligência Artificial

Meta agora pode usar dados de brasileiros para treinar Inteligência Artificial

Suspensão da ANPD foi revertida após recurso da empresa e criação de Plano de Conformidade

segunda, 02 de setembro, 2024 - 14:50

Redação MyCryptoChannel

Continue Lendo...

Na última sexta-feira (30), a Autoridade Nacional de Proteção de Dados (ANPD) suspendeu a proibição que havia imposto à Meta. Agora a empresa pode utilizar dados pessoais de usuários brasileiros para treinar sua inteligência artificial (IA).  

Em julho, a ANPD, autarquia federal ligada ao Ministério da Justiça e Segurança, havia proibido o uso de dados pessoais publicados em plataformas da Meta, como Facebook, Instagram e WhatsApp, para o treinamento de sistemas de inteligência artificial.  

A suspensão foi motivada por preocupações com a privacidade e a segurança dos dados dos usuários brasileiros. 

A suspensão foi revertida após a Meta enviar um recurso que incluía documentos e compromissos assumidos pela empresa, os quais foram suficientes para que o Conselho Diretor da ANPD aprovasse um Plano de Conformidade.  

Este plano inclui uma série de medidas que a Meta deve adotar para garantir a conformidade com a Lei Geral de Proteção de Dados Pessoais (LGPD). 

Entre as restrições impostas pelo órgão, está a obrigação da Meta de notificar os usuários do Facebook e Instagram por e-mail e através dos aplicativos sobre o tratamento de seus dados para treinamento de IA. 

“Além disso, o Plano de Conformidade prevê o compromisso da Meta de não usar dados pessoais de contas de menores de dezoito anos para treinar o seu modelo de IA, até que uma decisão definitiva seja tomada pela ANPD no âmbito do processo de fiscalização”, afirmou publicação do site do governo federal.  

Os usuários terão o direito de manifestar oposição ao uso de seus dados para treinamento de IA, mesmo depois da utilização dos dados pela empresa. A Coordenação-Geral de Fiscalização da ANPD acompanhará o cumprimento do Plano de Conformidade pela Meta e a implementação do sistema de IA da empresa 

“Cabe ressaltar que a atuação da ANPD se deu com o objetivo de promover a conformidade com a Lei Geral de Proteção de Dados Pessoais e o esclarecimento dos direitos dos titulares de dados”, afirmou o presidente da ANPD, Waldemar Gonçalves. “Esse episódio, mais uma vez, demonstrou que a atuação do órgão se dá no sentido de disseminar uma cultura da proteção de dados”.  

 

Inteligência Artificial

OpenAI apoia projeto de lei na Califórnia para identificação de conteúdo gerado por IA

Empresa responsável pelo ChatGPT apoia o projeto de lei AB 3211 na Califórnia, que exige marcas d'água em metadados de conteúdos criados por IA

quarta, 28 de agosto, 2024 - 18:07

Redação MyCryptoChannel

Continue Lendo...

A startup de inteligência artificial OpenAI, conhecida pelo desenvolvimento do ChatGPT, expressou apoio a um novo projeto de lei na Califórnia que visa a identificação de conteúdo gerado por IA.  

O projeto de lei AB 3211, que foi discutido no final de agosto, propõe a obrigatoriedade de marcas d'água nos metadados de fotos, vídeos e clipes de áudio criados por inteligência artificial, como uma forma de diferenciar esse conteúdo do produzido por humanos. 

Jason Kwon, diretor de estratégia da OpenAI, manifestou o apoio da empresa ao projeto, destacando que a identificação clara do conteúdo gerado por IA ajudaria os usuários a evitarem confusões.  

"Novas tecnologias e padrões podem ajudar as pessoas a entenderem a origem do conteúdo que encontram on-line e evitar confusão entre conteúdo gerado por humanos e conteúdo fotorrealista gerado por IA", disse Kwon em carta revisada pela Reuters.  

Além da OpenAI, outras grandes empresas de tecnologia como Microsoft e Adobe também apoiam o AB 3211. No entanto, a OpenAI havia se oposto a outro projeto de lei relacionado à IA, o SB 1047, que exigiria testes de segurança para modelos de IA.