O que o mundo fez para regular as tecnologias em 2024?

São muitas as preocupações das nações em torno da tecnologia, o que as fez apressar as negociações em torno de um meio-termo para proteger, sobretudo, aos usuários O post O que o mundo fez para regular as tecnologias em 2024? apareceu primeiro em Olhar Digital.

Dez 30, 2024 - 09:05
 0
O que o mundo fez para regular as tecnologias em 2024?

2024 foi o ano das regulações tecnológicas em todo o mundo. Esse movimento é antigo, mas já ficou mais forte no fim de 2022, após o surgimento da inteligência artificial (IA) a partir do ChatGPT, da OpenAI.

São muitas as preocupações das nações em torno da tecnologia, o que as fez apressar as negociações em torno de um meio-termo para proteger, sobretudo, aos usuários. A seguir, o Olhar Digital elenca algumas das principais mudanças nas legislações mundiais ao longo de 2024.

Europa

Lei da IA

Em março, o Parlamento Europeu aprovou lei que regulamenta o uso da IA na União Europeia (UE). Isso marcou a última fase antes da adoção formal da regulamentação pelo bloco.

  • Com amplo suporte, a legislação visa equilíbrio entre inovação e proteção de interesses;
  • A lei, considerada pioneira, enfatiza a importância de desenvolver a IA com abordagem centrada no ser humano. O regulamento protege direitos fundamentais e estabelece modelo para tecnologia confiável;
  • A regulamentação também define obrigações de transparência para IA de uso geral, requisitos rigorosos para sistemas de alto risco e proíbe práticas, como classificação massiva de cidadãos e vigilância em massa, visando proteger a privacidade e a liberdade dos cidadãos;
  • Enquanto a lei é vista como um passo importante, críticos apontam para possíveis atrasos no desenvolvimento de IA devido a regras pouco claras e preocupações sobre a influência de grupos de lobby em sua implementação.

Deputados do parlamento europeu, como Brando Benifei e Dragos Tudorache, destacaram o ato como histórico para a regulamentação da IA. Eles enfatizaram a criação de marco centrado no ser humano para o desenvolvimento da tecnologia.

A lei – proposta pela Comissão Europeia em abril de 2021 e considerada pioneira globalmente – busca equilibrar inovação com a proteção de interesses essenciais. Thierry Breton, comissário europeu para o Mercado Interno, considerou a votação um marco para a UE como pioneira em estabelecer padrões para IA confiável.

Mapa da Europa em azul, com os dizeres "AI" em cima
Ano foi de muitas regulações rígidas na Europa (Imagem: Ivan Marc/Shutterstock)

A relevância do projeto aumentou após o lançamento do ChatGPT. Esta plataforma de IA destacou tanto o potencial quanto os riscos da tecnologia, como a geração de conteúdo falso capaz de contribuir para a manipulação da opinião pública.

A nova regulamentação exige que os modelos de IA de uso geral sigam obrigações de transparência e cumpram as normas europeias de direitos autorais. Sistemas de alto risco, como aqueles usados em infraestruturas críticas, terão que aderir a requisitos mais rigorosos, incluindo análises de impacto nos direitos fundamentais.

A lei proíbe a classificação massiva de cidadãos, sistemas de vigilância em massa e a identificação biométrica remota em espaços públicos, estabelecendo mecanismos de fiscalização e sanções.

Um Gabinete Europeu de IA será responsável por aplicar multas, que podem variar de 7,5 milhões a 35 milhões de euros (R$ 48,45 milhões a R$ 226,1 milhões, na conversão direta), a depender da infração e do tamanho da empresa.

Contudo, existem críticas à regulamentação. Boniface de Champris, da Associação da Indústria de Tecnologia da Informação (CCIA, na sigla em inglês), argumenta que as regras podem atrasar o desenvolvimento de aplicações inovadoras devido à falta de clareza.

Organizações, como o Observatório Multinacional, o Observatório Europeu de Empresas e o LobbyControl, expressam preocupação com a influência dos grupos de lobby na implementação da legislação e a necessidade de esclarecer detalhes da lei, incluindo a composição do conselho consultivo da nova agência de IA.

Já em julho, foi publicado no Diário Oficial (DO) da UE o texto completo e final da Lei de Inteligência Artificial do bloco. As regras começaram a valer em 1º de agosto.

  • A lei adotou abordagem em fases para implementar as regras na UE; 
  • Isso significa que as disposições legais começaram a ser aplicadas em períodos diferentes, todas importantes; 
  • A estrutura coloca diferentes obrigações sobre os desenvolvedores de IA, dependendo dos casos de uso e do risco percebido; 
  • A lei determina os chamados casos de uso de baixo e alto risco – é o caso do uso de biometria no mercado de trabalho, em educação e infraestrutura crítica. Serão permitidos por lei, mas os desenvolvedores desses aplicativos enfrentarão obrigações; 
  • Há ainda um terceiro nível de risco que aplica alguns requisitos de transparência mais leves para fabricantes de ferramentas, como chatbots de IA; 
  • O objetivo é que, até 2026, todas as disposições estejam totalmente aplicáveis aos desenvolvedores de IA;
  • Os legisladores da UE aprovaram o primeiro conjunto abrangente de regras do bloco para IA em dezembro do ano passado. 

A lista de usos proibidos de IA, ou seja, alto risco ou risco inaceitável, será aplicada seis meses após a lei ter entrado em vigor — assim, no início de 2025.

Em abril de 2025, espera-se que os códigos de prática (códigos de prática para modelos de IA de propósito geral) sejam aplicados aos desenvolvedores de aplicativos de IA dentro do escopo. Esses códigos serão fornecidos por órgão de construção e supervisão de ecossistemas estabelecido pela lei, o AI Office da UE.

Outra data importante é 1º de agosto de 2025, quando as regras da lei sobre modelos de IA, como o GPT, da OpenAI, começarão a ser aplicadas.

Um subconjunto de sistemas de IA de alto risco recebeu o prazo de conformidade mais generoso: 36 meses após a entrada em vigor — até 2027. Outros sistemas de alto risco devem cumprir antes, após 24 meses.

Queda de braço entre UE e Vale do Silício

As novidades mais recentes em IA de Apple e Meta não chegaram à Europa. Para a Bloomberg, isso é sintoma de “escalada preocupante” no conflito entre Vale do Silício e Velho Continente. E as principais razões são: regulamentação rígida e escrutínio antitruste.

Segundo a agência, as empresas estadunidenses geralmente enquadram suas críticas não como objeção à regulamentação em geral, mas ao que a Meta descreveu como “natureza imprevisível do ambiente regulatório europeu“.

De um lado, empresas argumentam que os legisladores europeus ameaçam retardar o progresso de tecnologia extremamente útil. De outro, autoridades europeias dizem que adotar abordagem branda pode agravar os danos que o domínio do Vale do Silício sobre a tecnologia global já está causando.

A UE tem ampla regulamentação de privacidade – é o chamado Regulamento Geral de Proteção de Dados (GDPR, na sigla em inglês). E três leis entraram em vigor em 2024, dando à UE maior autoridade para mirar nas big techs. São elas:

  • Lei dos Mercados Digitais: mira comportamentos que a UE considera anticompetitivos (plataformas favorecerem seus próprios serviços ou combinar dados pessoais entre diferentes serviços, por exemplo);
  • Lei dos Serviços Digitais: série de regras destinadas a fazer com que as plataformas fortaleçam suas defesas contra conteúdo ilegal e prejudicial;
  • Lei da IA: proíbe ou restringe o uso de IA que considera particularmente de alto risco; também impõe regras de transparência em modelos de IA avançados destinados a uso geral.

Em junho, a Apple anunciou que interromperia o lançamento do Apple Intelligence na Europa. Na época, a empresa disse que a Lei dos Mercados Digitais a obrigaria a fazer o que considerava comprometimentos de segurança inaceitáveis.

A Meta seguiu a mesma linha ao segurar o lançamento da nova versão do Llama, seu modelo de IA de código aberto mais avançado, na Europa. A decisão veio após troca de mensagens com reguladores sobre seus planos de treinar o Llama, em parte, com dados coletados de contas públicas do Facebook e Instagram no continente europeu.

Segundo a Bloomberg, o caso da Meta foi assim: um mês após a empresa notificar as autoridades europeias sobre suas intenções, os reguladores disseram para parar o treinamento do Llama e enviaram mais de 270 perguntas sobre como a prática estava em conformidade com a lei de proteção de dados da UE. Em vez de responder às perguntas, a Meta tirou o produto de lá.

Elon Musk também tem tido desentendimentos com a UE. Recentemente, o bloco econômico obrigou uma de suas empresas, o X, a parar de coletar dados de usuários europeus para o Grok, seu modelo de IA. Foi um caso bem parecido ao do Llama da Meta na Europa (e no Brasil).

A Bloomberg apontou que, por ora, as consequências desse cabo de guerra entre big techs estadunidenses e UE têm sido mínimas para o bloco. “As empresas estão apostando que futuros avanços – ou o apelo deles – serão tão críticos que as autoridades da UE vão aliviar as regulamentações”, diz a reportagem.

Logos de big techs
Big techs não estão satisfeitas com maioria das leis dispostas na Europa (Imagem: Ascannio/Shutterstock)

Lei de concorrência

No mesmo mês, a UE aprovou lei referente à concorrência entre as big techs. Ela se aplica às seis maiores empresas de tecnologia mundiais: Apple, Amazon, Alphabet (Google), Meta, Microsoft e ByteDance (TikTok). O X e o Booking.com também pode entrar na dança.

O advogado criminalista no Brasil, Espanha, Portugal e Hungria, mestre em Direito pela Universidade de Coimbra e doutorando pela Universidade de Salamanca, Eduardo Maurício, explica que as mudanças são decorrentes da Lei dos Mercados Digitais de 2022, que determina que as plataformas on-line dominantes na atualidade disponibilizem mais escolhas aos usuários e, aos concorrentes, uma maior oportunidade de competição.

“Caso as empresas listadas descumpram as normas dispostas expressamente na Lei dos Mercados Digitais de 2022, pode culminar em multas severas de até 10% do faturamento global da empresa, podendo chegar em até 20% caso o descumprimento seja reiterado”, ressalta.

A medida foi determinada após acusações de que essas empresas monopolizam os mercados digitais e usam os dados pessoais de usuários “para consolidar seu poder e monopólio e, até, mesmo identificar novos mercados que podem ser alvo de domínio por parte dos gigantes da internet”.

Em suma, as gigantes de tecnologia precisam, agora:

  • Informar a UE sobre qualquer aquisição relevante que seja feita;
  • Oferecer aos usuários europeus maiores opções de navegadores web e mecanismos de busca;
  • Permitir que usuários possam enviar mensagens entre os próprios aplicativos, por exemplo, do Telegram para o WhatsApp, e vice-versa;
  • Comprovar a adequação da empresa à lei com descrição auditada de forma independente das técnicas utilizadas para definir perfis dos usuários em conjunto com uma versão não confidencial;
  • Os relatórios serão analisados pela comissão, que irá decidir se as medidas são eficazes para alcançar o objetivo do cumprimento da lei.

Os cidadãos da UE passaram a poder escolher o navegador e buscador padrão dos celulares e computadores de forma mais fácil, visando, assim, permitir que eles não sejam induzidos a somente utilizar o Safari (navegador da Apple) ou o buscador Google no Android. Além disso, a Apple deve permitir lojas alternativas à App Store.

Essas mudanças marcam um ponto de virada num esforço global dos reguladores para colocar os gigantes da tecnologia sob controle, após anos de alegações de que as empresas prejudicaram a concorrência e deixaram os consumidores na pior, sendo necessário agora um olhar direcionado à inteligência artificial. Eduardo Maurício, advogado criminalista no Brasil, Espanha, Portugal e Hungria, mestre em Direito pela Universidade de Coimbra e doutorando pela Universidade de Salamanca

EUA: Califórnia no olho do furacão

Em ano de eleição presidencial, os Estados Unidos redobraram a atenção com a IA e seus riscos, como deepfakes de áudio e vídeo. A preocupação não está restrita ao solo estadunidense: o debate sobre a regulamentação da IA já mobilizou desenvolvedoras, especialistas e governos ao redor do mundo.

A Califórnia, estado mais populoso dos EUA, teve a chance de mudar os rumos da tecnologia: um projeto de lei que controla ferramentas e empresas foi aprovado pela Assembleia Estadual e pelo Senado no final de agosto. Contudo, o governador do Estado, Gavin Newsrom, vetou o polêmico projeto.

De um lado, apoiadores da legislação acreditam que é uma proteção necessária contra tecnologia que já se mostrou poderosa (e perigosa). De outro, críticos acreditam se tratar de cenário quase apocalíptico, defendendo que a regulamentação limitaria desenvolvedoras, startups e acadêmicos.

O que a Califórnia decidiu vale para o Estado, não para o país – nem para o mundo. No entanto, vale lembrar que as principais desenvolvedoras e companhias relacionadas à inteligência artificial estão alocadas por lá, a exemplo de OpenAI, Anthropic e Google.

A primeira versão do projeto de lei foi apresentada pelo senador estadual Scott Wiener. A proposta era regular modelos avançados de IA de forma rigorosa, principalmente tecnologias com maior poder de computação.

Ele também propunha que desenvolvedores conduzissem testes completos, inclusive com avaliações de terceiros, e comprovassem que os modelos não apresentavam riscos.

Os profissionais também deveriam implementar espécies de “botões de segurança” que desligassem máquinas rebeldes, fossem obrigados a relatar incidentes e pudessem ser julgados por perjúrio (podendo ser presos) se mentissem sobre a segurança da tecnologia.

Especialistas do setor não gostaram nada do projeto. Em julho, Andrew Ng, cofundador da Coursera e fundador do Google Brain, falou, durante evento da Y Combinator sobre regulamentação da IA, declarando que pretendia protestar contra o SB 1047. Ele defendeu que o problema das ferramentas não são elas mesmas, mas, sim, as pessoas que as usam.

Quando alguém treina um grande modelo de linguagem… isso é uma tecnologia. Quando alguém os coloca em um dispositivo médico ou em um feed de mídia social ou em um chatbot ou usa isso para gerar deepfakes políticos ou pornografia deepfake não consensual, essas são aplicações. O risco da IA ​​não é função. Não depende da tecnologia — depende da aplicação. Andrew Ng, em fala durante evento da Y Combinator

Outros críticos da legislação temiam que a regulamentação retardasse o progresso e deixasse os EUA para trás em relação aos seus concorrentes, principalmente a China.

Gavin Newsom
Gavin Newsom, governador da Califórnia (Imagem: National Governors Association)

A versão mais radical do projeto de lei não durou muito. Um segundo rascunho “suavizado” foi apresentado e aprovado pelo comitê em 15 de agosto. Entre as mudanças, os desenvolvedores teriam que fornecer declarações públicas sobre a segurança da tecnologia, mas não seriam cobrados judicialmente por isso.

A nova proposta também estabelecia que empresas que gastem menos de US$ 10 milhões (R$ 61,98 milhões, na conversão direta) em modelo de linguagem não sejam consideradas desenvolvedoras. Isso abriria espaço para que startups e desenvolvedores de código aberto pudessem continuar progredindo.

Alguns argumentam que as medidas enfraqueceram a almejada regulamentação da IA nos EUA. Outros acreditam que, mesmo enfraquecido, o projeto ainda teria efeito, uma vez que faria com que grandes desenvolvedoras repensarem suas práticas.

O CEO da Anthropic, Dario Amodei, que havia sido contra a primeira versão do SB 1047, revelou que a atualização do PL foi melhorado “a ponto de acreditarmos que seus benefícios provavelmente superam seus custos”.

Uma declaração de 120 funcionários atuais e antigos de OpenAI, Anthropic, DeepMind e Meta, publicada pela Axios, demonstrou apoio à regulamentação da IA proposta, a chamando de “viável”. Eles disseram que “acreditam que os modelos de IA mais poderosos podem em breve representar riscos graves, como acesso expandido a armas biológicas e ataques cibernéticos em infraestrutura crítica”.

Ainda há críticos que argumentam que a proposta diminuiria a liberdade das desenvolvedoras e do progresso da IA. Outros defendem medidas de segurança federais, não estaduais. De qualquer forma, com o veto de Newsrom, nada foi adiante.

  • Newsom concordou que é necessário proteger o público, mas argumentou que qualquer solução deve ser fundamentada em análises rigorosas;
  • Ele afirmou que trabalhará com a legislatura para desenvolver novas leis sobre IA, já que a regulamentação federal ainda não avançou;
  • A Câmara do Progresso, uma coalizão da indústria de tecnologia, elogiou o veto, destacando que a competição e a abertura são essenciais para o setor.

Em contrapartida, o governador californiano aprovou, em setembro, oito leis, algumas das mais abrangentes dos Estados Unidos até o momento, que abordam desde a criação de imagens de nudez via deepfake até a manipulação de conteúdos em eleições. Entenda-as:

  • Combate a imagens de nudez por deepfake: duas das leis assinadas criminalizam a criação e distribuição de imagens de nudez geradas por IA que se assemelham a pessoas reais, impondo também que plataformas sociais criem canais para denúncias e remoção desse conteúdo;
  • Identificação de conteúdo gerado por IA: uma nova lei exige que sistemas de IA amplamente utilizados, como o Dall-E, da OpenAI, incluam etiqueta em seus dados de proveniência, identificando-os como gerados por IA;
  • Deepfakes em eleições: três leis foram criadas para regular deepfakes que possam influenciar eleições, exigindo que grandes plataformas online removam ou rotulem esses conteúdos e criem canais de denúncia;
  • Proteção de Direitos de Imagem de atores: duas novas leis fortalecem a proteção dos direitos de imagem na Califórnia: estúdios devem obter a permissão de atores antes de criar réplicas digitais de suas vozes ou aparências e é proibido criar réplicas digitais de artistas falecidos sem o consentimento de seus herdeiros.

Newsrom destacou a importância de entender e mitigar os riscos reais e hipotéticos que a IA apresenta, refletindo abordagem cautelosa e ponderada na formulação dessas políticas.

O governador expressou durante a conferência Dreamforce 2024, realizada em setembro pela Salesforce, que, embora não seja possível resolver todos os desafios imediatamente, o Estado está buscando soluções pragmáticas para os riscos demonstráveis.

Separadamente, Newsom aprovou legislação para avaliar as ameaças que a IA generativa representa para a infraestrutura crítica da Califórnia, começando pela análise dos riscos no setor de energia.

Leia mais:

António Guterres
António Guterres, secretário-geral da ONU (Imagem: Truba7113/Shutterstock)

ONU

Em setembro, governos de 193 países da Organização das Nações Unidas (ONU) chegaram a acordo sobre a regulação da IA e das big techs.

Após quatro anos de intensas discussões, foi formalizado pacto que estabelece padrões éticos e de direitos humanos no desenvolvimento da IA. O que foi anunciado como “histórico”, no entanto, acabou enfraquecido.

Em Nova York (EUA), teve início a Cúpula do Futuro, promovida pela ONU – com a aprovação do Pacto do Futuro, plano para orientar as negociações internacionais nos próximos dez anos. 

O documento abrange temas, como mudanças climáticas, direitos humanos e desenvolvimento social, além de propor a reforma do Conselho de Segurança da ONU e a revisão de organismos financeiros para incluir países emergentes.

De acordo com o UOL, a expectativa era de que o pacto fosse aprovado por consenso, mas a Rússia, de forma inesperada, apresentou novas exigências, ameaçando barrar o acordo caso seus interesses não fossem atendidos.

Embora o pacto tenha sido aprovado, a manobra russa evidenciou a polarização global e enfraqueceu o impacto do documento. Moscou e seus aliados, como Nicarágua e Belarus, expressaram seu distanciamento, alegando que o acordo favorecia pequeno grupo de países e criticaram a falta de consultas adequadas.

A Rússia, em particular, exigiu garantias de que a ONU não interferisse em assuntos internos de nações soberanas, questão que gerou tensões ao longo das negociações.

O esvaziamento político da cúpula ficou evidente, com a ausência dos líderes das cinco potências do Conselho de Segurança (EUA, França, Reino Unido, Rússia e China), que enviaram apenas seus ministros, indicando que o pacto não teria o peso desejado. 

No entanto, o impasse chegou ao auge durante a sessão final, quando a Rússia interrompeu a reunião para criticar o acordo, alegando que o Ocidente estava manipulando as negociações em benefício próprio. “Isso não pode ser chamado de multilateralismo Isso é uma derrota para a ONU e um acordo para atender a um grupo pequeno de países”, disse a chefia da delegação russa.

A delegação do Congo, representando os países africanos, defendeu o pacto e alertou que a ONU se encontrava em “encruzilhada“, destacando a importância de demonstrar unidade frente aos desafios globais. O México também se posicionou contra as emendas russas, afirmando que essas propostas não foram devidamente discutidas.

Outros países, como Camarões, apoiaram o pacto, enquanto Venezuela, representando Irã e Síria, criticaram o Ocidente e apoiaram as exigências russas, afirmando que a falta de disposição para negociar por parte dos países ocidentais havia causado o impasse.

No final, a proposta russa de votar emenda ao pacto foi rejeitada, com 143 países, incluindo o Brasil, se posicionando contra a iniciativa de Moscou, que recebeu o apoio de apenas sete nações. Embora tenha sido seguido de aplausos, o resultado escancarou a divisão entre os países. O Pacto do Futuro foi aprovado, porém, sem conseguir apaziguar as tensões entre as principais potências mundiais.

António Guterres, secretário-geral da ONU, declarou que o objetivo da cúpula era “resgatar o multilateralismo do abismo“, mas poucos acreditam que o pacto aprovado será capaz de atingir esse objetivo de forma significativa.

O processo negociador, marcado por divergências profundas, demonstrou os desafios em alcançar verdadeira cooperação global diante de interesses conflitantes.

Brasil

No Brasil, o Ministério da Fazenda apresentou, em outubro, proposta para regular as big techs. Estão na mira empresas, como Google, Meta, Apple, Amazon, Booking, ByteDance (dona do TikTok) e Microsoft.

O objetivo das autoridades brasileiras é evitar práticas consideradas predatórias. Dessa forma, a regulamentação visa impedir ações que limitem ou encareçam o acesso de consumidores a outros produtos e empresas, caso das IAs.

A proposta se baseia em regras para a atuação dessas companhias já aplicadas em dez países, caso dos EUA, Inglaterra e Austrália.

O texto prevê que o Conselho Administrativo de Defesa Econômica (Cade) passe a ser o regulador da atuação desses conglomerados, que deverão abolir práticas, como dar preferência à aparição de produtos vendidos por sua própria plataforma, aumentando a concorrência.

O número de empresas monitoradas deve acompanhar o cenário internacional. No entanto, o governo propõe regulação distinta da europeia, por exemplo, que é criticada pela burocracia. O “modelo intermediário” traçará regras de conduta prévias para as empresas, mas adaptadas ao negócio de cada uma delas e em atenção a problemas específicos identificados pelo Cade.

  • A reação das empresas que serão monitoradas foi negativa;
  • Segundo a Zetta, entidade que reúne fintechs, como Nubank, Mercado Pago e PicPay, a regulamentação pode frear a inovação;
  • Já a Brasscom, que reúne as big techs no Brasil, disse que “buscará entender os detalhes da proposta, em conjunto com todas as suas empresas associadas”;
  • Por fim, a Câmara Brasileira da Economia Digital destacou, em nota, “que o Brasil já possui arcabouço regulatório e jurisprudência robustos, flexíveis e eficazes para enfrentar desafios concorrenciais”;
  • A entidade destacou que nova regulação “poderia sufocar a competitividade e impactar negativamente a qualidade dos serviços digitais e os preços para os consumidores”.

Mapa do Brasil, em amarelo, com um fundo verde
Assim como em outros países, o Brasil também tem propostas avançadas para legislar a IA (Imagem: Kreativorks/Shutterstock)

Marco Legal da IA

No mês passado, o relator do projeto de lei (PL) que visa estabelecer marco legal para a IA no Brasil, senador Eduardo Gomes (PL/TO), disse, segundo o Valor Econômico, que a proposta deve ser mais branda.

A fala foi proferida durante participação do 50º Painel Telebrasil, que reuniu vários nomes importantes da área de telecomunicações. Ainda, o senador afirmou ser necessário deixar de lado versões anteriores do PL (oficialmente denominado PL 2.338/23) que coloquem barreiras significativas para o desenvolvimento de novas aplicações e modelos de negócios.

“Precisamos de regulação que não inviabilize o progresso da IA e que permita que a inovação floresça sem entraves excessivos”, disse. O relatório do senador está na terceira versão. Contudo, pode haver prorrogação para ajustes finais antes de ser encaminhado ao Senado. Se for aprovado, será votado pela Câmara dos Deputados novamente.

  • A discussão para regularizar a IA no Brasil começou no ano passado;
  • À época, o presidente do Senado, Rodrigo Pacheco (PSD/MG), criou comissão temporária;
  • Em análise inicial, um grupo de juristas e especialistas sugeriu modelo mais rigoroso, o que gerou críticas por impor requisitos que pessoas da área consideraram excessivos para utilizar a tecnologia por aqui;
  • O relator do PL disse que, “no início, imaginávamos regulação mais abrangente, mas percebemos que isso a tornaria mais restritiva”;
  • Ele também indicou que a nova proposta não exigirá análises prévias de riscos de cada projeto de IA por parte de órgãos governamentais;
  • Espera-se, ao invés disso, definir princípios gerais, com punições caso haja desrespeito às novas normas.

Além disso, Gomes disse que o marco legal da IA vai determinar se o Brasil será enxergado como mercado atrativo para investimentos no setor e citou interesse de empresas de data centers e demais da área.

“Foi importante não termos aprovado a primeira versão do relatório, que poderia ter prejudicado o setor. O Congresso avança quando aprova boas leis, mas avança ainda mais quando deixa de aprovar leis ruins”, opinou.

No novo modelo proposto pelo relator, consta a criação do Sistema Nacional de Regulação e Governança de IA e não estipula a criação de órgão regulador. Sendo assim, a Autoridade Nacional de Proteção de Dados (ANPD) seria a responsável por fiscalizar a IA brasileira em geral. Já Banco Central e Agência Nacional de Telecomunicações (Anatel), por exemplo, supervisionariam suas respectivas áreas de atuação.

O senador afirmou que a ANPD precisaria ser reestruturada para ter mais responsabilidades, já que, desde 2020, o órgão atua com servidores de outras instituições e ainda não fez concurso público.

Ainda no evento, o presidente da Anatel, Carlos Baigorri, informou que, no ano que vem, será realizada consulta pública para discutir a regulação de plataformas digitais. Ele apontou, ainda, que a iniciativa é resultado de tomadas de subsídios realizadas pela agência para ampliar a discussão sobre a área.

“Além de direitos, os grandes usuários das redes de telecomunicações têm obrigações a cumprir”, frisou Baigorri. Como lembrou o Brasil 247, a Anatel coibiu, no passado, práticas abusivas em call centers com uso de robôs. Mas, no caso das redes sociais, não se sabe ainda em quais situações o órgão terá condições de intervir com multas ou bloqueios.

Visão aérea do Planalto em Brasília
Executivo e Legislativo analisam projetos de IA (Imagem: Alexandre Siqueira/Shutterstock)

Regulamentação da IA

No último dia cinco, a comissão especial criada no Senado para avaliar a proposta de regulamentação do uso da IA no Brasil aprovou o texto. O material foi para o plenário da Casa, onde foi aprovado. O objetivo do congresso é levar o projeto para a Câmara ainda este ano. Após isso, o texto vai para sanção do presidente Luiz Inácio Lula da Silva (PT), mas pode sofrer mudanças no caminho.

O cronograma original previa que as discussões sobre o tema fossem finalizadas até dezembro de 2023. No entanto, uma série de impasses, além da pressão exercida pelas big techs e as eleições municipais, adiaram os trabalhos.

O que parece ter destravado a tramitação do projeto é um acordo entre governo e o relator da proposta, que faz parte da oposição. Ao mesmo tempo, há interesse de diversos estados na regulamentação do setor de IA. O Brasil pode receber mais de R$ 400 bilhões nos próximos anos em investimentos na instalação de centros de processamentos de dados, os chamados datacenters.

A avaliação é de que a regulamentação da inteligência artificial criaria maior segurança jurídica para que investidores estrangeiros escolham o País como destino estratégico, em função do potencial de energia limpa e renovável.

  • O relator do projeto, Eduardo Gomes, fez ajustes e apresentou nova versão do texto;
  • Ele retirou regulações que aumentavam o custo da cadeia econômica de IA, determinou foco das obrigações e medidas de governança para as tecnologias consideradas de alto risco, ou seja, aquelas que impactem a vida humana e direitos fundamentais como educação e segurança pública, e concedeu tratamento diferente para micro e pequenas empresas e startups;
  • Isso fez com que entidades representativas de setores produtivos, como a Federação das Indústrias de São Paulo (Fiesp) e a Confederação Nacional da Indústria (CNI), que, antes, eram contrárias, passassem a defender a aprovação do texto;
  • Ao mesmo tempo, Gomes manteve regras baseadas em experiências produzidas em outros países e ressaltou que os produtores de IA terão liberdade de expressão garantida, reduzindo temores da oposição sobre possibilidade de controle de conteúdo pelo governo;
  • O texto prevê ainda a regulamentação da remuneração dos direitos autorais, uma forma de defender os produtores de conteúdo.

Ao Olhar Digital, Leandro Alvarenga, consultor de privacidade e segurança, destaca que o projeto traz regulação mais flexível do que a europeia, “mas, ainda assim, é uma regulação bem rígida”.

“Ele vai afetar todos os segmentos porque ele é baseado no risco. Antes de começar a fazer o tratamento de dados baseado na IA, você tem que fazer avaliação de risco e ela vai de baixo, médio, alto e o risco que vai ser proibido. Inclusive, há situações que são proibidas de ter risco de fazer o tratamento de dados, como, por exemplo, a criação de tecnologias, como armas autônomas com a IA”, explica Alvarenga.

Também há outros pontos, como você induzir pessoas conforme a sensibilidade delas, conforme os sentimentos delas, para tomar decisões, também é situação que vai ser proibitiva na lei.

E, aí, outros fatos, como biometria facial, controle de pessoas, escoragem de crédito, a parte educacional, todos os segmentos, a medicina, por meio dos aplicativos que ajudam médicos a fazer diagnósticos, robôs, todas essas áreas vão ser afetadas com regulações mais simples conforme a sensibilidade do assunto que está sendo tratado e o impacto dela na vida das pessoas. Leandro Alvarenga, consultor de privacidade e segurança, ao Olhar Digital

Ainda segundo o especialista, a grande novidade é que os titulares dos dados vão ter direito de pedir a revisão da decisão automatizada, já previsto na Lei Geral de Proteção de Dados (LGPD).

“Mas, agora, também, é quando não tratados só de dados pessoais, por IA, você vai ter direito de pedir revisão daquele fato por um humano, traz proteção bem grande sobre direitos autorais. Quando a IA usa direitos autorais de músicas, de livros, escritores, prevê remuneração para esses autores, inclusive, que eles possam proibir a IA de usar seus materiais”, prossegue Alvarenga.

Outro ponto que o consultor de privacidade e segurança destaca do texto revisado é a flexibilização, que, segundo ele, beneficiou as pequenas e médias empresas. Contudo, Alvarenga crê que ainda veremos muitas alterações na propositura.

Inteligência artificial se aplica no mundo virtual, no mundo físico e no mundo real. Mas o mundo virtual e o mundo físico, ambos são reais. Há certa redundância na escrita. Há alguns pontos de ajuste e outros pontos bem polêmicos. Leandro Alvarenga, consultor de privacidade e segurança, em entrevista ao Olhar Digital

“Há uma discussão muito grande se deve-se ou não discutir os direitos autorais para uso dentro desse projeto que está regulando a tecnologia e não direitos autorais, que nós temos uma lei específica de direitos autorais”, explana o especialista que opina:

“Acredito que ficou muito claro que não há unanimidade nem no Senado. Foi um acordo que passou, mas acredito que vai ter mudança ainda no plenário do Senado para depois ir para a Câmara dos Deputados, que, certamente, fará mudanças, Aí vai ter que voltar pro Senado, pro Senado aprovar as mudanças.”

Responsabilidade das big techs

Países como EUA, União Europeia, Reino Unido, Índia e Brasil discutem formas de aumentar a responsabilidade das plataformas digitais, que são de big techs. Mas o Brasil é o único entre os citados a cogitar a obrigação de remover conteúdo antes de ordem judicial ou notificação extrajudicial.

Os enfoques dos rumos discutidos mudam conforme o contexto político e jurídico dos países em questão, conforme apontado pela Folha de S. Paulo.

  • União Europeia (UE), Reino Unido, Índia e Brasil, por exemplo, consideram incentivar a remoção de conteúdos ilegais sob a justificativa que as grandes plataformas não agem suficientemente nesse sentido;
  • Nos EUA, republicanos consideram que plataformas moderam “demais”, caracterizando isso como censura, enquanto democratas defendem exceções à imunidade das plataformas para aumentar a regulação.

No julgamento do Marco Civil da Internet pelo Supremo Tribunal Federal (STF), em realização já há algumas semanas, as teses do ministro Dias Toffoli e da Advocacia-Geral da União (AGU) sugerem regime de responsabilidade objetiva (entenda mais abaixo).

  • Hoje, plataformas são responsabilizadas apenas após ordem judicial (exceto em casos específicos);
  • A proposta inclui responsabilidade objetiva, onde as empresas seriam responsabilizadas mesmo sem notificações prévias (ordem judicial ou notificação extrajudicial);
  • A proposta inclui responsabilização por crimes, como racismo, terrorismo, violência contra crianças e mulheres, indução ao suicídio, e atos contra o Estado democrático de Direito.

Em outros países mundo afora, é assim:

  • EUA: debate reflete divisões políticas (republicanos acusam as plataformas de censura contra conservadores, enquanto democratas pressionam por mais regulação);
  • União Europeia: modelo “notice and action” (“tomar conhecimento e agir”, em tradução livre) exige que plataformas ajam rapidamente após notificações;
  • Reino Unido: lei demanda relatórios sobre aplicação de termos de uso;
  • Índia: governo restringe a imunidade das plataformas gradualmente.

Ministro do STF Dias Toffoli durante sessão
Ministro Dias Toffoli (Imagem: Fábio Rodrigues Pozzebom/Agência Brasil)

Tese de Dias Toffoli

O ministro Toffoli votou pela inconstitucionalidade do artigo 19 do Marco Civil da Internet. Esse artigo estabelece que as plataformas só podem ser responsabilizadas civilmente caso não removam o conteúdo ilícito após ordem judicial.

Toffoli concluiu seu voto pelo aumento da responsabilidade por conteúdos postados pelos usuários e propôs adoção de dever de monitoramento de conteúdos ilícitos pelas companhias. Contudo, no último dia 12, mais uma vez, o julgamento foi adiado. O ministro Luís Roberto Barroso pediu vista e suspendeu o julgamento.

O pedido de suspensão do julgamento ocorreu durante a quinta sessão que discute a validade do artigo 19 do Marco Civil da Internet. Um pouco antes, o ministro Luiz Fux propôs tese em que determina a remoção sem ordem judicial de conteúdos ilícitos – ofensivos à honra, incitadores de crimes contra a democracia, pedofilia, racismo – pelas plataformas após notificação.

Fux também apontou que, enquanto as empresas lucram com a “viralização de conteúdos degradantes que atraem cliques e geram receita publicitária”, a imprensa tradicional adota práticas mais rigorosas e respeitosas com os envolvidos. E defendeu que, diante de publicações “obviamente ofensivas”, a empresa deveria ter “o dever de indisponibilizar o conteúdo na referida comunidade”.

  • Até agora, o Supremo tem três votos para obrigar as plataformas a retirar imediatamente conteúdos ilegais;
  • Segundo o artigo 19 do Marco Civil da Internet, as plataformas só estão sujeitas a pagar indenização por algo postado por terceiros se, após decisão judicial ordenando a retirada, mantiverem o conteúdo no ar;
  • Autores dos recursos que estão sendo discutidos no STF, Facebook e Google apresentaram seus argumentos, alegando que as empresas já dispõem de mecanismos de moderação e remoção de conteúdos, sem que haja necessidade de regra que permita a remoção sem decisão judicial;
  • Ao mesmo tempo, as big techs concordam que o Marco Civil deve ser aprimorado, desde que se estabeleçam garantias procedimentais e critérios que evitem insegurança jurídica e o incentivo à censura.

O terceiro voto veio em 18 de dezembro, a favor, proferido pelo presidente do Supremo, ministro Luís Roberto Barroso. Após o posicionamento, o julgamento foi suspenso por pedido de vista do ministro André Mendonça.

Barroso criticou o artigo 19 do Marco Civil da Internet, que regula a responsabilidade das plataformas digitais. Para ele, o dispositivo oferece proteção insuficiente a direitos fundamentais, como a dignidade da pessoa humana, e a valores essenciais para a democracia.

O ministro afirmou que, em casos que envolvam crimes evidentes, como criação de perfis falsos, não é necessário aguardar ordem judicial para a retirada do conteúdo. “Não há fundamento constitucional para um regime que incentiva que as plataformas permaneçam inertes após tomarem conhecimento de claras violações da lei penal”, declarou.

Por outro lado, Barroso ressaltou que, em situações envolvendo crimes contra a honra — como injúria, calúnia ou difamação —, a remoção de conteúdos deve ser precedida de decisão judicial.

Ele argumentou que a supervisão do Judiciário é fundamental para evitar censura e proteger a liberdade de expressão. “A supervisão judicial é necessária para evitar a censura e tentativas de silenciar pessoas ou ocultar fatos criminosos ainda pendentes de apuração”, explicou.

Barroso defendeu que, ao invés de monitoramento ativo de cada conteúdo individual, as plataformas devem adotar “dever de cuidado”. Isso implica a implementação de medidas para reduzir riscos sistêmicos associados aos serviços oferecidos, minimizando impactos negativos sobre direitos individuais, segurança e estabilidade democrática.

Nesse sentido, o ministro destacou que as empresas precisam atuar de forma proativa para manter seus ambientes livres de conteúdos gravemente prejudiciais, como pornografia infantil, crimes graves contra crianças e adolescentes, incitação ao suicídio ou à automutilação, tráfico de pessoas, terrorismo, abolição violenta do Estado Democrático de Direito e golpes de Estado.

Barroso lembrou que o Marco Civil da Internet reflete o contexto em que foi promulgado, quando a supervisão judicial era vista como a melhor forma de evitar censura e remoções arbitrárias. No entanto, com o avanço das tecnologias e novos formatos de interação online, o ministro avaliou que a lei se tornou insuficiente para enfrentar os desafios atuais.

O ministro sugeriu ao Congresso Nacional a criação de novo regime jurídico que regule as medidas para avaliar e minimizar riscos, defina sanções e estabeleça órgão regulador responsável por monitorar a conformidade das plataformas. “Essa prerrogativa é do Congresso. Nós só estamos atuando porque ainda não há lei”, enfatizou.

Casos concretos em análise

O julgamento envolve dois casos específicos. No Recurso Extraordinário (RE) 1037396, relatado pelo ministro Dias Toffoli, o Facebook questiona decisão do Tribunal de Justiça de São Paulo (TJ-SP) que determinou a exclusão de um perfil falso.

Já no RE 1057258, relatado pelo ministro Luiz Fux, o Google contesta decisão que o responsabilizou por não excluir do Orkut uma comunidade ofensiva e impôs o pagamento de danos morais. Em ambos os casos, os relatores rejeitaram os recursos das empresas.

Mão de robô tocando um holograma da Terra apoiado em um gramado
Mundo está preparado para o futuro da tecnologia? (Imagem: tete_escape/Shutterstock)

Science20 e pedidos por uso moderado e equilibrado da IA

Entre o fim de junho e o início de julho, foi realizada a cúpula do Science20 (S20) Brasil 2024, na qual autoridades e cientistas que representam os países-membros do G20 assinaram documento que traz recomendações aos líderes do bloco, incluindo questões sobre IA.

O grupo defende a regulamentação do uso da tecnologia, bem como a criação de políticas que defendam equilíbrio entre inovação, segurança do emprego e direitos trabalhistas. A IA foi um dos cinco eixos abordados no documento, que também tratou de bioeconomia, processo de transição energética, desafios de saúde e justiça social.

O evento, organizado pela Academia Brasileira de Ciências (ABC), levantou a bandeira “Ciência para a transformação mundial” e foi conduzido pela presidente da ABC, Helena Nader, que exaltou a importância de o Brasil ser o líder da iniciativa, visando reduzir desigualdades existentes entre os países do G20.

O Norte Global não está preocupado, não está olhando como deveria para as necessidades do Sul Global. O G20 pode ajudar a mudar isso. O Brasil está ocupando posição de liderança e pode fazer mudanças dentro do grupo. E, com isso, pressionar para garantir os engajamentos sociais que a área de ciência e tecnologia está buscando. Helena Nader, presidente da Academia Brasileira de Ciências (ABC), durante o Science20 Brasil 2024

Proposituras apresentadas durante o evento

A seguir, confira o que os cientistas do Science20 pedem aos líderes do G20 quando se trata da IA:

  • Criar políticas em economia impulsionada por IA fundamentadas em princípios éticos compartilhados para assegurar inovação casada à segurança no emprego e os direitos dos trabalhadores;
  • Contribuir para estabelecer regulamentações de IA e padrões de governança de dados de maneira justa, que defendam valores humanos;
  • Trabalhar em conjunto para criar e compartilhar grandes conjuntos de dados científicos valiosos e bem curados;
  • Buscar estabelecer estruturas intergovernamentais para supervisionar tecnologias de IA que possam operar além do controle ou supervisão humana.

Para saber todos os pontos abordados no documento, acesse este link.

Estiveram presentes no S20 do Brasil representantes das Academias de Ciências da África do Sul, Alemanha, Arábia Saudita, Argentina, Austrália, Brasil, Canadá, China, Coreia do Sul, Estados Unidos, França, Japão, Índia, Indonésia, Itália, México, Reino Unido, Turquia e a Academia Europeia, representando a União Europeia (UE).

O post O que o mundo fez para regular as tecnologias em 2024? apareceu primeiro em Olhar Digital.

Qual é a sua reação?

like

dislike

love

funny

angry

sad

wow

Equipe Noticiar Noticiar: Notícias Online em Tempo Real do Brasil e do Mundo!