3ª SESSÃO LEGISLATIVA ORDINÁRIA DA 57 ª LEGISLATURA
Comissão Especial destinada a proferir parecer ao Projeto de Lei nº 2338, de 2023, do Senado Federal, que "dispõe sobre o desenvolvimento, o fomento e o uso ético e responsável da inteligência artificial com base na centralidade da pessoa humana"
(Audiência Pública e Deliberação Extraordinária (semipresencial))
Em 17 de Junho de 2025 (Terça-Feira)
às 13 horas e 30 minutos
Horário (Texto com redação final.)
13:42
RF
A SRA. PRESIDENTE (Luisa Canziani. Bloco/PSD - PR) - Havendo número regimental, declaro aberta a 4ª Reunião Extraordinária da Comissão Especial destinada a proferir parecer ao Projeto de Lei nº 2.338, de 2023, do Senado Federal, que dispõe sobre o desenvolvimento, o fomento e o uso ético e responsável da inteligência artificial com base na centralidade da pessoa humana.
Encontra-se à disposição, na página da Comissão, na Internet, Ata da 3ª Reunião Deliberativa, realizada no dia 10 de junho de 2025.
Fica dispensada a sua leitura, nos termos do Ato da Mesa nº 123, de 2020.
Não havendo quem queira retificá-la, em votação a ata.
As Sras. Deputadas e os Srs. Deputados que a aprovam permaneçam como se encontram. (Pausa.)
Aprovada.
Informamos que a sinopse do expediente recebido encontra-se à disposição na página da Comissão, na Internet.
Passamos à Ordem do Dia, que está dividida em duas partes.
A primeira parte será a audiência pública e a deliberação de requerimentos.
Assim que alcançarmos o quórum — resta um membro para conseguirmos —, deliberaremos os requerimentos.
A audiência pública de hoje refere-se aos Requerimentos nºs 1, 9, 11, 16, 17, 20, 26, 27, 29, 31, 35, 42, 44, 45, 55, 68, 79 e 93, de 2025, de autoria dos Deputados Adriana Ventura, Jandira Feghali, Gustavo Gayer, Fernanda Melchionna, Reginaldo Lopes, Orlando Silva, Soraya Santos, Kim Kataguiri, Luizianne Lins e David Soares.
Agradecemos muito especialmente a presença ao nosso grande e competente Relator, o Deputado Aguinaldo. Agradecemos também a presença aos nossos expositores.
Convidamos para tomar assento à mesa inicialmente: Marina Pita, que representa a Secretaria de Comunicação Social da Presidência da República; Luis Fernando Prado, Líder do Comitê da IA responsável e membro do Conselho Consultivo da Associação Brasileira de Inteligência Artificial; Nicolas Andrade, Head of Latam and Caribbean Policy at OpenAI.
Também já estão conosco, pelo Zoom, Gabriel Renault, Diretor-Executivo e cofundador da Dharma-AI; Nina da Hora, cientista da computação, pesquisadora e ativista; Rodrigo Ferreira, assessor da Diretoria de Governança, Orçamento e Finanças da Casa da Moeda do Brasil; e Paula Guedes, que representa a organização não governamental Artigo 19.
Para melhor andamento dos trabalhos, esclarecemos novamente que vamos adotar os seguintes procedimentos. O tempo concedido a cada expositor será de 10 minutos. Terminadas as exposições, será concedida a palavra às Deputadas e aos Deputados inscritos para o debate pelo prazo de 3 minutos. Lembro que a lista de inscrição já está aberta pelo Infoleg. A cada bloco de cinco falas de Deputados inscritos e de uma comunicação de Liderança, será concedida a palavra aos convidados, para respostas e considerações finais, por até 3 minutos cada.
Começaremos, então, as nossas exposições. Solicitamos a todos os presentes que observem as placas de identificação de assentos. Embora hoje nós estejamos em um plenário um pouco maior, é importante sempre avisá-los da disposição dos assentos, na medida em que as três primeiras fileiras são de uso exclusivo dos Parlamentares.
13:46
RF
A nossa segunda audiência tem como objetivo debater o equilíbrio entre a proteção dos direitos fundamentais e o incentivo a inovações tecnológicas, com foco nos potenciais riscos de sistemas de inteligência artificial e discussões sobre inteligência artificial confiável.
Mais uma vez, ressalto a importância de que os nossos expositores se atenham ao tema e, inclusive, façam sua análise baseando-se no projeto sobre o qual nós estamos deliberando, o projeto que veio do Senado Federal, sob a perspectiva, portanto, da proteção de direitos fundamentais e das novas tecnologias.
Inicialmente, passamos a palavra ao Luis Fernando Prado, que é o líder da comissão de IA Responsável e membro da Abria.
O senhor tem a palavra, Luis Fernando. Muito obrigada por estar conosco.
O SR. LUIS FERNANDO PRADO - Boa tarde a todas e a todos. Queria, em primeiro lugar, agradecer ao convite à representação da Deputada Luisa Canziani e do Deputado Aguinaldo Ribeiro.
Quero saudar todas as autoridades presentes e dizer que é muito salutar o cronograma aprovado na Câmara neste ano para amplo debate da regulação de inteligência artificial, sem deixar que a pressa atropele o nosso processo democrático, com uma discussão multissetorial, o que vai ser super-relevante para chegarmos a um texto maduro de regulação da IA.
Hoje falo em nome da Associação Brasileira de Inteligência Artificial — Abria, que foi fundada em 2017 e é composta majoritariamente por empreendedores brasileiros. Hoje a Abria reúne mais de 700 empresas no seu ecossistema. Eventos, iniciativas e associados fazem parte dessas dinâmicas propostas pela Abria, que surgiu justamente para colocar o Brasil no foco da inovação e do debate global sobre inteligência artificial.
A minha fala talvez vá ser focada em trazer uma visão mais positiva e otimista em relação ao futuro da tecnologia, em relação ao desenvolvimento da inteligência artificial. Reconheço que a gente vai ter excelentes debatedores, que vão apresentar visões de risco da inteligência artificial. Reconheço que o texto do Senado reflete bastante essa visão de riscos da inteligência artificial. Então, para a gente ter equilíbrio no debate, vou concentrar a minha fala em aspectos positivos da inteligência artificial e até em alguns casos de uso de soluções de inteligência artificial que — por que não? — catalisam direitos fundamentais.
Para começar, eu gostaria de citar algumas iniciativas de inteligência artificial que hoje, de alguma forma, empoderam direitos fundamentais, inclusive no Brasil.
Por exemplo, hoje a gente tem a startup Laura, que monitora pacientes em hospitais, prevenindo, por exemplo, a deterioração clínica por infecção hospitalar. Há uma estimativa — na verdade, já há um estudo concreto — de que, entre 2016 e 2020, a Laura impediu a morte de 24 mil pacientes em leitos de hospitais.
Há ainda o caso bastante interessante para compartilhar com todos vocês da Orbe, que é uma startup brasileira também. Ela tem o Ortec, uma solução que basicamente auxilia na recuperação motora de pacientes que tiveram AVC, Parkinson ou lesões medulares.
No campo da educação, temos o exemplo da startup Letros. Ela é muito interessante porque auxilia os alunos de ensino médio, especialmente do Espírito Santo, a terem simulações de redação do Enem corrigidas de uma forma instantânea, muito rápida. Logo após sua implementação, a gente teve uma experiência empírica. A nota média de redação dos alunos do ensino médio do Espírito Santo, no Enem, foi elevada 1 ano após a implementação dessa tecnologia.
No campo da igualdade e da acessibilidade, a gente tem tecnologias como o Hand Talk e o Be My Eyes, ferramentas que basicamente tornam sites e plataformas digitais acessíveis para pessoas com deficiência auditiva ou pessoas com deficiência visual. Inclusive, o Be My Eyes não é tão novo assim. Esse aplicativo já existe há algum tempo. Antes da inteligência artificial, ele dependia majoritariamente de voluntários que se inscreviam na plataforma para traduzir e narrar imagens e textos de sites. Hoje, graças à tecnologia da inteligência artificial, o Be My Eyes é potencializado, justamente por depender menos de voluntários para que as pessoas tenham essa igualdade, essa acessibilidade no campo digital.
13:50
RF
No campo da segurança pública — por que não? — e também da proteção à infância, a Universidade Federal de Minas Gerais, em parceria com a Polícia Federal, desenvolveu uma inteligência artificial para diagnosticar e identificar, na verdade, imagens que poderiam ser resultantes de abuso infantil e pedofilia. Antes, um agente humano da Polícia Federal tinha que analisar centenas de milhares de conteúdos para identificar esse tipo de conteúdo indevido. Agora a persecução penal, nesses casos de pedofilia, foi potencializada por causa do uso da IA. Inclusive, a Polícia Federal já tem um planejamento de expandir isso nacionalmente.
Enfim, para a gente chegar aos exemplos positivos da inteligência artificial como catalisadora de direitos fundamentais, eu gostaria de citar também o Monitor do Trabalho Decente, ferramenta do Conselho Superior de Justiça do Trabalho, que, basicamente, filtra processos trabalhistas que lidem com temas relacionados a trabalho escravo, trabalho infantil e abusos laborais. Ele prioriza essas avaliações justamente para a gente ter um julgamento mais sério nessas questões que tocam fundamentalmente em direitos fundamentais previstos pela nossa Constituição Federal.
Todos esses exemplos, Excelências, público que está nos ouvindo agora, para serem bem aceitos pela sociedade, dependem, basicamente, de um treinamento adequado do ponto de vista do desenvolvimento de inteligência artificial, inclusive com dados representativos da realidade brasileira. Então, a percepção que a gente vai ter enquanto sociedade se o sistema é ético, se é seguro, se ele não é discriminatório, se ele é aderente à Constituição está diretamente relacionada ao quão bem treinado esse sistema foi. E, para a gente bem treinar um sistema de inteligência artificial, para que ele seja bom, basicamente, a gente vai precisar sempre de uma diversidade de dados representativos.
Aqui me chama a atenção um pouco como o debate regulatório está indo para um caminho talvez de que o treinamento de sistemas de IA seja o grande vilão da equação, quando, na verdade, ele é a solução. Parece que a gente está questionando e criticando o estudo porque há aluno que vai mal na prova, quando, na verdade, o problema do aluno que vai mal na prova normalmente não é o estudo, mas, talvez, os dados insuficientes de estudo no seu processo.
Falando especificamente do projeto de lei que veio do Senado, a parte principal, que traz um pouco de dificuldade para a gente realizar esse treinamento no Brasil, é, sem dúvida, a cessão de direitos autorais, arts. 62 a 66. A Câmara tem o papel fundamental de trazer clareza e legitimidade para que o treinamento de IA aconteça no Brasil sem entraves. Isso vai ser a peça fundamental para que a gente tenha sistemas bem aceitos pela sociedade, e não discriminatórios, para que respeitam direitos fundamentais.
Então, sem prejuízo das contribuições por escrito que a Abria vai encaminhar para esta Comissão, eu queria ressaltar alguns pontos de ajuste prioritários para o PL, no sentido de garantir a possibilidade e a legitimidade do treinamento de inteligência artificial no Brasil.
O primeiro deles, claro, é a revisão da parte de direitos autorais. Acho que o texto atual realmente, se não inviabiliza o treinamento de inteligência artificial no Brasil, quase o faz. A gente tem que lembrar que quase todos os conteúdos disponibilizados de modo on-line estão protegidos por direitos autorais.
Ao final da minha fala, eu vou publicar um texto sobre esses pontos de que falei. Esse texto está protegido também por direitos autorais. Aqui a gente não está falando só da produção de artistas e de jornalistas, mas de qualquer conteúdo disponível de forma on-line. E uma restrição muito ampla nesse sentido vai prejudicar o desenvolvimento de inteligência e treinamento de inteligência artificial no Brasil.
A gente também vai sugerir especificamente que o treinamento de inteligência artificial seja incluído com um fundamento do marco legal de inteligência artificial. Para que a gente dê vazão aos princípios e aos direitos fundamentais e para que isso acompanhe as novas tecnologias, a gente vai precisar de marcos legais que não vejam o treinamento com maus olhos. Eles precisam incentivar e trazer diretrizes claras de que as empresas e até a iniciativa pública devem estimular o treinamento de dados e o treinamento de IA no Brasil, a partir de dados relevantes da sociedade brasileira. Do contrário, a gente vai ter acesso a sistemas que foram treinados só lá fora, com dados de estrangeiros, que não vão ser bons para a sociedade brasileira. Inclusive esse é um risco. Por fim, eu também entendo que, na parte de fomento à inovação, mais especificamente no art. 59 do projeto de lei, deve haver diretrizes para o poder público. Assim, ele também incentivará o acesso a dados diversificados e representativos para o treinamento de inteligência artificial no Brasil.
13:54
RF
Eram esses os pontos iniciais que eu queria trazer para abrir este debate. Coloco à disposição a Abria e a minha pessoa também, para seguir contribuindo no aprimoramento desse texto legal. Mas faço isso sem jogar fora todo o esforço que a gente teve enquanto sociedade para, talvez, chegar a um texto hoje. O fato é que, especialmente na questão de treinamento de sistemas de inteligência artificial, esse texto ainda merece aprimoramento, para nós vermos isso como solução e, não, como parte do problema.
Eu queria agradecer. Fico à disposição para aprofundamento da discussão e para sanar dúvidas da plateia e de quem nos acompanha.
Muito obrigado.
A SRA. PRESIDENTE (Luisa Canziani. Bloco/PSD - PR) - Muito obrigada, Luis, pela gentileza e pela participação.
Neste momento, passamos a palavra para Nina da Hora, cientista da computação, pesquisadora e ativista, que está conosco através do Zoom.
Nina, V.Sa. tem a palavra.
Muito obrigada.
A SRA. ANA CAROLINA DA HORA (NINA DA HORA) - Obrigada pelo convite.
Boa tarde a todos.
Cumprimento os Deputados e as demais autoridades, na figura do Relator, o Deputado Aguinaldo Ribeiro.
Na minha fala, eu vou trazer alguns pontos que eu acho que são cruciais até para o texto e para a nossa discussão aqui. Como pesquisadora da área da computação, nós temos alguns pontos de atenção em relação a como nós estamos identificando os riscos. Como a inteligência artificial é ampla, existem conceitos específicos que podem nos ajudar a identificar os riscos e a preveni-los, sem necessariamente paralisar a inovação.
(Segue-se exibição de imagens.)
Eu queria colocar alguns aspectos cruciais em relação a conceitos como machine learning, de aprendizagem de máquina, e deep learning e alguns pontos de atenção em relação à transparência decisória, como a explicação das tomadas de decisões e as qualidades dos dados de treinamento. Eu acho que não é só trazer dados de treinamento em relação ao Brasil, mas trazer também a qualidade e a representatividade da diversidade populacional.
Destaco também a auditabilidade, porque tem que ser possível rastrear e validar o processo decisório que está sendo implementado nessas ferramentas. Há também o viés algorítmico, que eu vou repetir durante a minha fala, que é como nós podemos fazer a prevenção e o resgate, para impedir algumas discriminações históricas já presentes na nossa sociedade, que acabam sendo reproduzidas por essas ferramentas.
Algumas considerações transversais são em relação à proporcionalidade. O benefício vai justificar os riscos aos direitos fundamentais? Se nós estamos discutindo como centralizar na figura da sociedade, da responsabilidade e principalmente dos direitos fundamentais, como nós vamos conseguir equilibrar o avanço da tecnologia em termos de desenvolvimento no Brasil com também essa finalidade legítima de que a gente está alinhado aos propósitos democráticos?
Alguns exemplos em relação a isso seriam o de colocar por categorias tecnológicas. Isso consegue trazer para o texto um embasamento e uma discussão que vão colocar todos na mesa, não só pessoas do direito digital, mas principalmente pessoas da computação, como eu, preocupadas em continuar desenvolvendo no Brasil.
Há, então, alguns riscos por ferramenta. Quando a gente consegue catalogar o risco por ferramenta, antes de falar sobre a responsabilidade do indivíduo que está desenvolvendo, a gente consegue uma aderência maior do público que está participando dessas discussões.
13:58
RF
Um exemplo prático para a ferramenta de reconhecimento facial foi o relatório da Inclo — International Network of Civil Liberties Organizations, que desenvolveu um conjunto abrangente, com a colaboração de organizações latino-americanas e da Europa, de princípios para proteger o uso do reconhecimento facial, porque nós estamos entendendo que ele está cada vez mais avançado não só na segurança pública, mas na educação e em outros aspectos relacionados à segurança.
Então, nós entendemos que trazer os princípios fundamentais para a utilização dessa ferramenta pode ser um primeiro caminho entre o equilíbrio, a inovação e a proteção dos direitos fundamentais.
Esse documento está sendo traduzido pela organização da qual eu sou diretora, o Instituto da Hora, em parceria com a Conectas Direitos Humanos. Nas próximas semanas, a gente espera liberar a tradução desse material. Nós consideramos que ele é importante para o debate no Brasil.
Alguns pontos mais ligados à informação, algo que a gente tem trabalhado em conjunto com os laboratórios de universidades, são as ameaças de deepfakes. Ao mesmo tempo em que os áudios e vídeos sintéticos são extremamente convincentes e até um pouco engraçados para o entretenimento, eles ferem diretamente a integridade da informação e a dignidade individual.
Então, a detecção que está sendo feita com base na linguagem e em imagens criadas no Brasil é uma detecção brasileira. Aqui é importante trazer não só essa contribuição para o texto, mas alguns nomes e representações universitárias, como a própria Unicamp, na figura do Recod.ai, a Unesp e a própria USP, que têm laboratórios de IA dedicados a identificar essas deepfakes e essa desinformação. E essas ferramentas são abertas. Isso pode ser utilizado tanto na área governamental quanto na sociedade civil.
Trazendo mais a responsabilização de quem está desenvolvendo essas ferramentas, seria importante implementarmos e trazermos a privacy by design, esse olhar do design responsável atrelado à transparência e à auditabilidade. Acreditamos que isso já foi mencionado no texto, já foi categorizado, mas a responsabilização do desenvolvedor, de quem está desenvolvendo essas ferramentas, tem que ser com um olhar de conseguir trazer luz e trazer a responsabilidade para eles, e não o olhar da culpabilização. Senão, nós afastamos a comunidade técnica de continuar a (falha na transmissão) e continuar o bom caminho, o crescimento, na verdade, do desenvolvimento de pesquisa em IA no Brasil.
Por último, foi bastante representativa na minha fala essa necessidade de colaboração não só entre juristas, sociedade civil e reguladores, mas principalmente entre os desenvolvedores, as universidades e esses laboratórios. Nós estamos à disposição para conseguir implementar metodologias de avaliação que vão contribuir para o mapeamento de risco e, ao mesmo tempo, conseguir quebrar essa lógica de que (falha na transmissão) é neutra.
Então, para esses 10 minutos de contribuição, essa colaboração entre reguladores, juristas, sociedade civil, desenvolvedores, laboratórios universitários e a própria universidade é o que a gente acredita que vai chegar a uma inovação, o que nós estamos chamando de inovação responsável.
Obrigada.
A SRA. PRESIDENTE (Luisa Canziani. Bloco/PSD - PR) - Muito obrigada, Nina, pela participação.
Neste momento, passaremos a palavra ao Gabriel Renault, Diretor Executivo e Cofundador da Dharma-AI.
Agradeço aos nossos expositores, que estão dentro do tempo. Os nossos dois primeiros expositores nos ajudaram muito com o tempo. Isso é excelente, para a gente poder aprofundar o debate.
Então, muito obrigada.
14:02
RF
O Gabriel tem a palavra.
O SR. GABRIEL RENAULT - Boa tarde a todos e a todas.
Obrigado pela presença.
Vocês estão me escutando bem?
A SRA. PRESIDENTE (Luisa Canziani. Bloco/PSD - PR) - Sim.
O SR. GABRIEL RENAULT - Desculpem-me. Comecei em cima da hora porque estou me deslocando, mas estou conseguindo ouvir bem.
Vou falar aqui como empreendedor em série. Montei uma startup de IA em 2015 e a vendi no final de 2018, antes do boom e da moda. E agora, no final do ano passado, montei outra, novamente, para justamente treinar modelos. Queria aqui falar um pouco com essa perspectiva.
No início da minha fala, eu queria trazer primeiro um contexto técnico, só para a gente distinguir um pouco os vários usos de IA. Como a gente está vivendo um hype, há um pouco de exagero nos usos, e isso confunde um pouco.
Então, só queria dizer, primeiro, que existe a IA generativa, que são esses modelos como o GPT, o Gemini, o Claude, o Grok, o DeepSeek. São modelos de IA generativa, que tratam dados não estruturados e geram dados não estruturados. Dados não estruturados são o quê? Textos, áudio, vídeo e imagem. Esse é um tipo de IA que roda em cima de redes neurais. A IA generativa o pessoal hoje em dia tem chamado de IA mesmo, digamos, essa é a uma forma como tem sido citada. Mas, fora isso, existem vários modelos que já se usavam, de machine learning, com, por exemplo, otimizações, predição de venda, score de crédito. Isso é outro grupo de modelos que também, academicamente, são definidos como inteligência artificial e que eu entendo que estão menos nessa polêmica. Acho que o primeiro ponto é só distinguir um pouco. Esses modelos matemáticos não carregam vieses, eles dependem das variáveis que você coloca ali. São só números, e você vai calcular a probabilidade de a pessoa não pagar o crédito ou o quanto vai vender, etc. Então, acho que o primeiro ponto é que existem modelos de IA generativa e existem os modelos de IA tradicional. Os modelos de IA generativa fundacionais são esses grandes que eu citei. O GPT, da OpenAI, é o mais famoso, mas também há outros bem relevantes. Quando a gente fala de IA, além de pensar em IA generativa, a gente só pensa nesses fundacionais e nas big techs, que são, hoje em dia, quem tem dinheiro, exceto o DeepSeek, que é um caso à parte, para treinar modelos desse porte, desse tamanho. São investimentos muito altos para treinar modelos desse tipo. Hoje em dia se fala que está chegando em torno de 100 milhões de dólares.
Então, o que eu acho importante, sob a perspectiva do empreendedor, trazer para o debate de direitos nesta Casa tão importante para o País? Que a gente não pense sob a ótica de modelos de IA generativa apenas para os grandes modelos e modelos fundacionais. Acho que uma oportunidade enorme que o Brasil vai ter, como o maior País de fala portuguesa, é ter modelos mais especializados em português. Então, você vai poder criar todo um bloco de modelos que a gente chama de IAs verticais — não só português, e eu acho que a gente não precisa se limitar no Brasil a isso, mas também sobre assuntos. Então, posso ter um modelo de IA que foi treinado especificamente para grandes indústrias. É uma coisa que a gente na Dharma fez. Então, ele já conhece os termos de indústria, ele é especializado.
E por que isso? Porque é importante a gente distinguir os large language models, que são esses fundacionais de altíssimo investimento, e os small language models, que, como o nome diz, são menores. Os large language models, em geral, são acima de 400 bilhões de parâmetros, e os small language models são até 10 bilhões. Então, são modelos muito mais focados. Eles não sabem responder sobre tudo. Eles só vão responder sobre manutenção ou sobre jurídico, que é um caso para o qual a gente também já treinou modelo.
14:06
RF
Então, o ponto para o qual eu queria trazer luz aqui é que a gente precisa ter consciência de que existe todo um grupo de empresas que podem gerar um altíssimo valor agregado para o País, numa indústria de ponta, que vai reforçar, inclusive, que os data centers globais, tendo uma boa indústria de criação de modelos e treino de modelos aqui... Reforça que as empresas globais tragam seus data centers para cá, porque o Brasil já tem uma grande diferença em energia elétrica limpa, que muito interessa a esses data centers, mas precisa de produção de modelo aqui, para rodar no País. Então, se a gente não estimular isso, a gente vai matar uma coisa que pode ser muito relevante para o futuro econômico do País. Ao limitar e achar que todo modelo tem que passar pelo crivo prévio de alguma entidade, você vai limitar a entrada no mercado e talvez você mate muitos empreendedores no Brasil que podem gerar uma grande entrega para a sociedade em geração econômica. Acho que esse é o primeiro ponto.
Ainda na linha de distinguir um pouco, tecnicamente, os elementos, digo que uma coisa são os modelos. Então, é bom a gente distinguir, como eu disse, os fundacionais large language models, que provavelmente serão grandes empresas internacionais que farão. Existem, porém, esses menores, os small language models, que vão ter altíssimo valor.
Só para tangibilizar para vocês, para os doutores aí, com um exemplo prático, esclareço que eu e minha ex-empresa de consultoria participamos do chamamento público do STF que o Ministro Barroso fez. Fomos lá e entregamos a solução final, que virou MARIA, do STF. A gente concorreu com 81 empresas. Entre elas, na final, estava inclusive a Palantir, que é uma gigante americana de tecnologia de IA. Com muito orgulho, essa empresa nacional, do grupo de que eu era sócio até então, ganhou esse concurso — nesse caso, era o modelo fundacional do GPT — pela técnica que a gente tem aqui. Os outros também poderiam usar esses modelos e não conseguiram.
Legal. Até aí, qual é o ponto? A gente pegou essa mesma solução que a gente entregou para o STF, que está rodando lá, usando o GPT... A gente treinou um modelo para a Constituição Brasileira, para o Direito brasileiro, que responde com a mesma qualidade do que foi feito lá com o GPT, porém, custando duzentas vezes menos. Então, imaginem isso. E é só para o Direito do Brasil, então essa é uma oportunidade enorme — só para tangibilizar que a gente não pense em regular para limitar as big techs, mas também que a gente pense na oportunidade dessas startups de alta tecnologia no Brasil.
O segundo bloco, tecnicamente, são quem faz as aplicações, os softwares que vão usar grandes modelos fundacionais. Então, acho que esse é outro mercado e que é importante ter muita startup também, é importante entender como não limitá-lo também.
E eu acho que o último ponto a tratar, para tentar manter a fala no tempo estabelecido, seria a necessidade de se utilizar dados para treinar esses modelos, dados do Brasil. Então, por exemplo, o processo jurídico é público, você pode pegar esse dado e treinar um modelo, como o PL vai tratar essa questão de direito autoral, para que você não limite também o treinamento de modelos para o português do Brasil ou outras linguagens, mas que sejam de conhecimentos específicos que a gente precisa aqui no Brasil. Nossa legislação é superespecífica. Se a gente treinar modelos para essa legislação, ele não vai servir para o resto. Então, pergunto: como é que a gente também não inibe o florescimento desse mercado de tecnologia de startups ao limitar o treinamento de modelo por questões de direito autoral?
14:10
RF
Não acho que essa seja uma solução simples. Eu quis muito trazer a perspectiva, como empreendedor, de que não é só um jogo contra as big techs e de limitação do poder delas ou da influência dela. Os algoritmos podem ter vieses — isso é um fato, eles podem tê-los —, mas é passível avaliar se eles estão tendo vieses e saber lidar com isso.
Mas eu, particularmente, como uma contribuição, acredito muito mais que deveria ser uma validação a posteriori e que o órgão de controle deveria ser ágil e, não, a priori, para limitar o lançamento de produtos. Do contrário, você mata o mercado.
Se você fizer isso a posteriori, via denúncia ou por qualquer problema, investigar e punir com toda a severidade, eu acho que a gente controla e defende a soberania, mas também mantém espaço para um mercado que pode ser de altíssimo valor agregado aqui para o Brasil. O nosso País já tem condições naturais para hospedar esses data centers.
Eu acho que essa é uma corrida importante que a Redata está trazendo para o País em desenvolvimento econômico. Mas a gente também precisa que as empresas que criam aplicações específicas tenham espaço para isso.
Fui sucinto do meu lado, tentando respeitar também o tempo. Esses seriam os meus pontos de contribuição, resumidamente.
A SRA. PRESIDENTE (Luisa Canziani. Bloco/PSD - PR) - Muito obrigada, Gabriel, pelas considerações e pela sua visão a respeito do tema de que estamos tratando.
Neste momento, passamos a palavra ao Nicolas Robinson Andrade, que é Head of Latam & Caribbean Policy da OpenAI.
V.Sa. tem a palavra.
Muito obrigada.
O SR. NICOLAS ROBINSON ANDRADE - Obrigado, Deputada.
Obrigado também, Deputado Aguinaldo Ribeiro, pelo convite e pela oportunidade de a OpenAI poder participar deste diálogo e poder trazer os insumos técnicos que a nossa empresa descobriu ao longo do processo de treinamento do modelo. Assim, podemos ver como os modelos, principalmente, o ChatGPT, têm sido adotados ao longo dos últimos 2 anos.
Eu sou Nicolas Andrade. Sou representante da OpenAI aqui no Brasil. Sou Head de Relações Governamentais. O meu trabalho é trazer a missão da nossa empresa para o País e assegurar que todas as pessoas possam se beneficiar da Inteligência Artificial Geral.
Quando eu falo de Inteligência Artificial Geral, ou seja, a AGI — pela sua sigla em inglês —, eu estou falando de uma inteligência artificial que seja, pelo menos, tão inteligente como uma pessoa. E eu faço isso de duas formas.
Uma delas é estar aqui e participar do debate legislativo, de mesas redondas, de conversas, em que a gente esteja pensando junto, como país, em como fazer essa promoção, por um lado, e, ao mesmo tempo, em regular a inteligência artificial. Também tenho feito muitas parcerias aqui no Brasil com organizações que têm o objetivo de usar a tecnologia para o bem do desenvolvimento social, econômico e ambiental do País.
Por exemplo, lançamos o Projeto Favela GPT, nas comunidades do Rio de Janeiro, em parceria com a Prefeitura do Rio de Janeiro, e, em São Paulo, com a ONG Unas. Dessa forma, facilitamos que pessoas dessas comunidades possam acessar o ChatGPT de forma gratuita — empreendedores, pais, moradores — e descobrir como essa tecnologia pode ser útil para eles e para elas no dia a dia.
Lançamos também o Projeto Amazônia GPT, em parceria com os alunos de Ciência da Computação da Universidade Federal de Manaus. A nossa tecnologia está sendo usada em áreas remotas da Amazônia. É feito acompanhamento, por vídeo, de animais protegidos e, por áudio, o mapeamento do canto dos pássaros. Faz-se também até a identificação de possíveis intervenções em saúde pública, ao se acompanhar a qualidade da água e de poluição que podem afetar as comunidades ribeirinhas.
14:14
RF
A gente ficou muito feliz e honrado pela menção no Plano Brasileiro de Inteligência Artificial, que foi publicado, se não me engano, na sexta-feira. Eu trouxe uma versão impressa do documento. Em uma das primeiras páginas, tem uma tabelinha que mostra que a OpenAI, apesar de ter apenas dois funcionários no Brasil, é a empresa com mais projetos neste momento no País, alguns dos quais eu citei aqui.
Mas a gente não está sozinho nessa. O Luis Fernando Prado falou agora há pouco sobre várias empresas brasileiras que estão trabalhando com inteligência artificial, com modelos da OpenAI e outras empresas, para que o Brasil não seja apenas um consumidor de tecnologia, mas seja também um criador. Cito empresas, como a Arco Educação, que estão diminuindo o tempo que os professores brasileiros passam em tarefas administrativas e permitindo que eles passem mais tempo focando o aluno e a educação; empresas que todos nós conhecemos, grandes e pequenas, como a iFood e o Nubank, que estão usando a nossa tecnologia para aprimorar os processos internos e oferecer um serviço muito melhor ao cliente; e até empresas de setores muito menos previsíveis, mais tradicionais, como o agro. A Solentec é uma empresa brasileira que desenvolve um robô, aqui no Brasil, que usa inteligência artificial e que já está exportando essa tecnologia para os Estados Unidos. Por meio dessa tecnologia, eles conseguem diminuir o pesticida usado no campo, aumentar a produtividade da safra, seja de soja, seja de tomate, e gerar resultados muito melhores no setor agro, que representa até 25% do PIB nacional. Imaginem a diferença que isso pode fazer para o nosso País!
E trago um ponto importante, que é o ecossistema. Quando a gente fala em inteligência artificial, não estamos falando apenas de um aplicativo em que a pessoa entra e faz uma pergunta. Essa é, talvez, a janela da inteligência artificial para a maioria dos cidadãos aqui no Brasil. Estamos falando de um ecossistema de criadores que usam a API da OpenAI e de outras empresas para gerar e criar soluções no Brasil. E trago para vocês um dado pouco conhecido: o Brasil é um dos top 5 países do mundo com mais desenvolvedores usando a OpenAI para gerar soluções; ele está muito, muito acima de todos os outros países, com exceção de poucos. Quando converso com tomadores de decisão de outros países, Deputada e Deputados, muitas das perguntas deles são sobre como criar um ecossistema. E aqui no Brasil eu vejo que a gente já tem isso; estamos partindo de uma base muito boa.
Mas é importante falar do ecossistema também, porque, assim como em outros setores, por exemplo, o da construção, a responsabilidade do fabricante de tijolo ou do construtor não necessariamente é a mesma da pessoa que pinta o prédio no final da construção. Se a pessoa pinta o prédio com uma cor que talvez não seja a permitida pelas regras estéticas de uma Prefeitura, não necessariamente a culpa ou a responsabilidade deve ser do produtor de tijolo. Eu trago esse exemplo para ilustrar a complexidade desse assunto. E quero, como está sendo feito aqui — e agradeço esse tempo de todos vocês —, ouvir todos os participantes dessa cadeia de valor, incluindo os desenvolvedores.
Pensem também na quantidade de empregos no Brasil, empregos com remuneração alta que estão existindo graças a essa tecnologia e que podem continuar aumentando. Hoje em dia, o ChatGPT, que todos nós usamos em algum momento — e, muitos de nós, todos os dias ou todas as semanas —, é desenvolvido, em parte, por engenheiros brasileiros que estão no Vale do Silício. E eu gostaria de um futuro com cada vez mais desses engenheiros no Brasil.
14:18
RF
Justamente porque muitos de nós usamos o ChatGPT de forma recorrente, diária, semanal, acho que vale a pena falar um pouquinho sobre como ele é treinado. Prometo que serei breve. Isso nos ajuda a entender um pouquinho como algumas das preocupações legítimas da sociedade já estão sendo pensadas, debatidas e discutidas de forma transparente dentro das empresas.
A gente tem três pontos, três processos, três momentos durante o treinamento de um modelo de inteligência artificial. O primeiro é o pré-treinamento, onde a gente usa supercomputadores durante um período de meses para ensinar o modelo a predizer a seguinte palavra. Antes disso, a gente tira duplicados e remove ou reduz as informações pessoais. E temos uma página com mais informação que eu posso direcionar aos senhores. Mas pensamos muito também nos riscos, assim como todos nós aqui. E é por isso que a gente publicou um documento, que eu trouxe — e vou deixá-lo para a Comissão, está disponível também on-line —, chamado Preparedness Framework. Ele é tão recente que ainda não foi traduzido. Mas ele detalha como a gente pensa os riscos e as capacidades dos modelos à medida que eles vão ficando cada vez mais sofisticados. Além disso, acredito que sejamos a única empresa, salvo engano, a divulgar esse tipo de informação de forma transparente, porque a nossa origem como empresa deu-se em um laboratório de pesquisa.
A gente tem um documento, que hoje eu trouxe de forma impressa — e também vou deixá-lo, contém 188 páginas —, chamado Model Spec — Model Specifications, em inglês, "especificações do modelo". Ele explica quais são as decisões que a gente toma na hora de colocar salvaguardas, na hora de decidir como o modelo precisa ou deve responder certas perguntas mais difíceis. As respostas estão aqui; vou deixar aqui de novo com a Comissão.
Depois desse processo, a gente tem mais uma fase, chamada Post-Training, onde colocamos ainda mais salvaguardas, colocamos um olhar humano para trazer feedback humano da vida real e mostrar para o modelo se ele está dando respostas que são úteis ou não para o usuário, aprimorando cada vez mais as respostas que o usuário recebe. E também trabalhamos para que os resultados sejam úteis e objetivos a todas as pessoas, mais do que a base de dados de treinamento que a gente tem como mundo, que infelizmente ainda é limitado e aparece mais em inglês do que em outras línguas.
E, finalmente, a gente tem um processo chamado de Fine-Tuning: "afinamento". Nesse processo de afinamento, imaginem que a gente está dando para o aluno uma aula adicional em um tema específico, como física ou matemática: a gente ensina o modelo como ser melhor em uma área muito refinada de conhecimento que pode ser útil para um setor ou um usuário específico.
Há perguntas importantes nesse processo. E eu gostaria de falar, mais à frente, se os senhores tiverem interesse, sobre temas como futuro do trabalho e futuro da educação. Mas, para me limitar no pouco tempo que tenho para essa apresentação inicial, quero focar em regulação. Quero focar em regulação porque os investimentos, seja em treinamento de modelo, seja em abertura de operações de grandes e pequenas empresas, ou em infraestrutura — e a infraestrutura é o destino do País quando a gente fala em inteligência artificial —, irão fluir na direção dos países que têm ambientes regulatórios favoráveis, porque são investimentos de longo prazo e de custo altíssimo. Especificamente no Projeto de Lei nº 2.338, a gente tem um documento — e vamos deixá-lo também com a Comissão — que traz alguns pontos.
14:22
RF
Acreditamos que mais trabalho ainda pode ser feito nas definições técnicas. Por exemplo, há muita diferença entre falar de um modelo fundacional e de um sistema. É parecido quando a gente fala em motor e carro. Há diferença entre a regulação do motor, que pode ser grande, pode ser pequeno, pode ser motor de barco, pode ser motor de veículo, pode ser motor elétrico, pode ser motor híbrido, flex, e a regulação do carro, que pode ser um carro grande, pequeno, etc., e assim por diante.
É importante que a categorização de riscos aqui no Brasil seja harmonizada com a de outros países líderes em IA. E falo propositalmente de líderes em IA porque acredito que o Brasil é um líder em IA. Eu viajo muito pelo Brasil e às vezes fico frustrado em ver que as coisas que eu trago de casa não podem ser usadas no hotel, porque tem outra voltagem, outra tomada, tomada de dois pinos, tomada de três pinos. A gente está agora num momento em que se pode determinar um sistema único, harmonizado não só com o Brasil, mas também com o mundo, que vai facilitar o investimento e também a fiscalização no que diz respeito à segurança e aos riscos no futuro.
Assim como no exemplo que eu trouxe anteriormente sobre o construtor de tijolo, a construtora e a pessoa que pinta o apartamento no fim das contas, acreditamos que precisa ser muito melhor definida a responsabilização nessa cadeia de IA, que envolve não duas ou três empresas, mas centenas, talvez, milhares de empresas diferentes, brasileiras e estrangeiras.
E, finalmente, acreditamos que é importantíssimo para o desenvolvimento do Brasil, mas também para que os modelos sejam cada vez mais diversos, que haja menores barreiras ao treinamento de modelos aqui no Brasil.
Vou encerrar, para respeitar o tempo. Mas agradeço mais uma vez a oportunidade de poder participar deste diálogo, não só hoje, com esses documentos, mas também nos próximos meses.
A SRA. PRESIDENTE (Luisa Canziani. Bloco/PSD - PR) - Muito obrigada, Nicolas, pelas palavras e pelas suas considerações.
Neste momento, passo a palavra à Paula, que está conosco pelo Zoom, que representa a organização não governamental Artigo 19. A senhora tem a palavra.
Muito obrigada.
A SRA. PAULA GUEDES - Olá! Boa tarde.
Eu sou Paula Guedes, sou advogada, atualmente doutoranda em Direito e Inteligência Artificial na Universidade Católica Portuguesa, pesquisadora do Legalite da PUC-Rio, assessora de programas de ecossistemas de tecnologia da informação e comunicação na Artigo 19 Brasil e Ponto Focal, conjuntamente com a Fernanda Rodrigues, no Grupo de Trabalho de Inteligência Artificial da Coalizão Direitos na Rede, que tanto tem se empenhado nas pautas de regulação de inteligência artificial nos últimos anos.
Eu queria agradecer o espaço aqui hoje especialmente à Deputada Presidente Luisa Canziani e ao Relator, o Deputado Aguinaldo Ribeiro, por terem permitido essa inclusão de espaço também aos representantes da sociedade civil, assim como às Deputadas Fernanda Melchionna e Soraya Santos, que fizeram requerimentos para a adição de nomes para esta audiência pública. Ainda agradeço e parabenizo todos os Deputados membros da Comissão pelo trabalho que têm conduzido de forma diligente e empenhada.
Como já foi falado aqui hoje, a inteligência artificial, quando bem utilizada, pode, sim, trazer muitos ganhos relacionados à eficiência, à acessibilidade, à otimização e até mesmo à garantia de direitos fundamentais. Mas, para que isso seja efetivamente alcançado, é fundamental que o seu desenvolvimento e a sua utilização sejam pensados a partir de um olhar ativamente protetivo de direitos.
14:26
RF
O atual contexto de autorregulação apenas por princípios ou códigos privados de boas condutas (falha na transmissão) para prevenir e mitigar os muitos riscos e atuais danos causados pela inteligência artificial. A gente não está falando de presunção, mas de realidade que precisa ser considerada.
Respondo a primeira pergunta das três que me foram passadas: quais os principais direitos fundamentais potencialmente impactados pela tecnologia? Como a inteligência artificial está cada vez mais sendo utilizada para a tomada de decisão em diferentes instâncias, ela é potencialmente violadora de todos os direitos fundamentais políticos, sociais, individuais e coletivos. Há violação do direito à imagem e à honra, por exemplo, quando um sistema de IA é utilizado para criar deepfakes ou deepnudes de meninas e crianças. Há violação do direito à igualdade quando sistemas de IA discriminam ilegítima ou ilegalmente, direta ou indiretamente, com base em marcadores sociais como raça, gênero, território e condição social, especialmente quando esses critérios são somados. Vale destacar também o repositório Racismo Algorítmico criado pelo Tarcízio Silva. Muitas discriminações algorítmicas podem impactar o bom exercício de diversos direitos, como direito à saúde, à moradia, à educação, ao trabalho, à liberdade e até mesmo ao acesso a crédito.
A segunda pergunta é: como identificar e mitigar eventuais impactos negativos dos sistemas de IA? Previamente à sua utilização, esses sistemas devem passar por testes e avaliações que permitam a identificação dos riscos e a consequente mitigação dos seus efeitos negativos, inclusive com a possibilidade da sua não utilização, quando o risco de impacto negativo em direitos for muito maior que os benefícios. Aqui entram os casos de risco excessivo. O Projeto de Lei nº 2.338 prevê esses mecanismos. Inicialmente, no art. 12 há previsão da figura da avaliação preliminar. Idealmente, essa avaliação ocorre para que, antes do emprego ou da utilização do sistema pelo agente de IA, seja possível avaliar o sistema e determinar o seu grau de risco, baseado nos critérios previstos na lei. Caso o sistema seja de alto risco, vai ser obrigatória a realização de uma avaliação de impacto do algoritmo, que é uma ferramenta fundamental para a identificação e a mitigação dos riscos de sistemas de inteligência artificial.
Eu gosto de citar o Prof. Alessandro Mantelero, que é um dos grandes especialistas na área de avaliação de impacto. Para ele, as avaliações de impacto devem ter, pelo menos, as fases de preparação, cognição do risco, que seria a identificação desses riscos, mitigação dos riscos encontrados e monitoramento. No geral, as fases de identificação de risco e de classificação devem seguir uma matriz de risco que leve em conta a probabilidade do risco de se materializar e a sua gravidade. O projeto de lei, na Seção IV do Capítulo III, prevê a obrigatoriedade da avaliação de impacto para sistemas de alto risco.
Também é importante destacar que, nesse processo de avaliação, é sempre importante, dentro do possível, que haja participação social diversa. Isso garante que os verdadeiros riscos possam ser levantados pelos reais impactados pelo sistema.
A partir da identificação e da classificação dos riscos, é possível tomar diferentes medidas de mitigação, sejam testes de qualidade, sejam readequações para impedir potenciais impactos discriminatórios, sejam testes de acurácia e de robustez, sejam medidas de transparência, seja nomeação de responsáveis, e por vai.
É importante que essas avaliações sejam sempre feitas previamente à introdução do sistema no mercado ou à sua disponibilização em serviço, que os sistemas sejam constantemente monitorados e, sempre que necessário, atualizados.
A última pergunta refere-se a como incentivar a inovação e, ao mesmo tempo, garantir a proteção dos direitos fundamentais. Eu queria, desde logo, deixar claro que o Projeto de Lei nº 2.338, de 2023, é um caminho bastante equilibrado para garantir direitos e incentivar a inovação responsável.
14:30
RF
Eu aproveito a oportunidade para esclarecer o mito de que a regulação e a inovação são conflitantes. Uma regulação que proteja direitos e que crie obrigações de governança e incentivos à inovação, como faz o Projeto de Lei nº 2.338, de 2023, não é oposta ou impeditiva à inovação e ao desenvolvimento econômico do Brasil. A gente não quer um tipo qualquer de inovação, quer um tipo que seja protetivo de direitos e que seja responsável.
A existência de obrigações faz com que as pessoas tenham mais confiança nos produtos. No caso de aviões, por exemplo, as pessoas em geral não sabem exatamente como eles são produzidos, mas a gente tem confiança de que eles passaram por todos os testes de segurança. A regulação cria segurança jurídica para que os agentes de inteligência artificial saibam as obrigações que eles têm que seguir.
Quando eu falo sobre isso, gosto de lembrar o Código de Defesa do Consumidor — CDC. Nos anos 1990, havia o argumento de que o modelo regulatório do CDC impediria o avanço do Brasil. Hoje, há um contexto muito maior de proteção de direito dos consumidores, que não se deparam mais com produtos defeituosos ou que apresentam risco à saúde, à integridade ou à segurança. Mesmo quando eles deparam com esses tipos de produtos, eles sabem os caminhos que eles têm que seguir e a quem eles podem recorrer. Apesar de criar regras protetivas, o CDC não trouxe atraso ao nosso desenvolvimento, que é pautado em bem-estar e promoção de direitos fundamentais.
Feitas essas premissas, eu queria levantar alguns pontos que fazem com que o Projeto de Lei nº 2.338 seja um modelo equilibrado entre proteção de direitos e incentivo à inovação responsável. O primeiro ponto é a abordagem baseada em riscos e em direitos. Isso faz com que cada agente de inteligência artificial tenha diferentes graus de impacto e de força regulatória. Quanto maior o risco, maior o número de obrigações que eles têm que cumprir. Por exemplo, um chatbot que esclarece dúvidas em um site provavelmente será de baixo risco, não tendo tantas obrigações a cumprir, diferentemente de um sistema de IA que vai auxiliar no diagnóstico de alguma doença.
Eu também quero falar da análise de impacto regulatório trazida pelo regulamento da União Europeia para IA. A maior parte dos sistemas na União Europeia são enquadrados como de médio e baixo risco, e provavelmente isso aconteceria também no Brasil. Fica a sugestão ao setor privado para fazer um cálculo e trazer um documento nesse modelo também.
O segundo ponto de equilíbrio entre inovação e direitos no Projeto de Lei nº 2.338 é a importância de levantar as flexibilizações. Há algumas exceções de escopo de aplicação no art. 1º, ou seja, há situações em que a lei não vai se aplicar, como é o caso do uso de IA para fins particulares e não econômicos, e de sistemas utilizados para atividades de investigação, pesquisa, testagem e desenvolvimento, que não são obrigados a seguir o projeto de lei, a princípio.
Além disso, o § 2º do art. 1º determina que o Sistema Nacional de Regulação e Governança de Inteligência Artificial — SIA vai regulamentar regimes simplificados, envolvendo flexibilização de obrigações regulatórias em alguns casos como, por exemplo, o incentivo à inovação e à pesquisa científica, além de capacitação tecnológica.
Outro ponto de flexibilização que o projeto de lei traz é a previsão de flexibilização das obrigações de governança. O § 1º do art. 18 dispõe que as autoridades setoriais vão definir as hipóteses em que as obrigações serão flexibilizadas ou dispensadas. O § 4º do art. 25 determina que caberá à autoridade setorial definir as hipóteses em que a avaliação de impacto do algoritmo será flexibilizada. O Capítulo X fala das medidas de fomento à inovação responsável. A Seção V traz o art. 67, que permite às autoridades setoriais definir critérios diferenciados para sistemas de IA ofertados por microempresas, empresas de pequeno porte e startups que promovam o desenvolvimento da indústria tecnológica nacional.
14:34
RF
Nesse ponto, vale destacar que, apesar de existirem flexibilizações de acordo com o porte das empresas, se uma empresa de pequeno porte vai desenvolver ou utilizar sistemas de IA que tenham um risco considerável, essa empresa vai estar sujeita às obrigações previstas, já que a prioridade do ordenamento jurídico brasileiro tem que ser a proteção de direitos.
O terceiro ponto em relação à flexibilização entre a inovação e a proteção de direitos é que a lei seja viva e permita a atualização, já que os sistemas de IA evoluem rapidamente. Essa possibilidade está tanto no rol exemplificativo dos sistemas de alto risco do art. 14, quanto no art. 15 do projeto de lei, que traz critérios para que o SIA identifique novos casos de aplicação de alto risco. Isso mostra que a lei não vai ser fadada à obsolescência no decurso do tempo.
Respondidas as perguntas, eu gostaria de finalizar minha manifestação enfatizando que o Projeto de Lei nº 2.338 é o ponto de partida. A partir dele, a gente pode desenvolver alguns pontos para melhorias, para que ele seja ainda mais compatível com o nosso histórico de proteção aos direitos fundamentais e estimule a inovação responsável.
Estes são os pontos principais: um rol de direitos mais robusto; uma avaliação preliminar, que não deve ser uma mera boa prática, mas um passo obrigatório para que a lei faça sentido; a volta da redação original dos artigos de avaliação de impacto, que traziam maior detalhamento; e a readequação do art. 13 sobre risco excessivo em dois pontos. O primeiro é a desvinculação das alíneas do inciso I do art. 13 a um propósito; e a segunda é, considerando o potencial discriminatório dos sistemas, o banimento de sistemas de identificação biométrica a distância em tempo real para fins de segurança pública ou, ao menos, uma moratória até que exista lei federal específica para o uso desses sistemas, sempre atrelado à obrigação de realização de avaliação de impacto ao algoritmo.
Além haver comprovadamente discriminações contra a população negra e periférica pelo uso dessas tecnologias, elas também não se mostraram eficientes no que se propõem, gerando desperdícios de dinheiro público em prol de um "tecnosolucionismo" não comprovado. Eu os convido a conhecer os estudos do Panóptico, que mapeia os casos de mau uso de sistemas de reconhecimento facial.
Outras sugestões de melhoria são: a retomada de sistemas de avaliação de crédito e de sistemas de recomendação para o rol de alto risco; a garantia de maior participação social, tanto nos processos de governança dos agentes de IA quanto no SIA, para garantir que os sistemas de IA sejam responsáveis e protetivos de direitos, gerando escrutínio público dos regulados e dos reguladores; e maior incentivo à capacitação e ao aumento das garantias trabalhistas.
Eu queria agradecer o espaço aqui. Fico à disposição para as perguntas que serão feitas.
Obrigada.
A SRA. PRESIDENTE (Luisa Canziani. Bloco/PSD - PR) - Muito obrigada pela participação e pelas contribuições trazidas, Paula.
Passamos a palavra ao Rodrigo, que representa a Diretoria de Governança, Orçamento e Finanças da Casa da Moeda do Brasil.
O SR. RODRIGO DA SILVA FERREIRA - Boa tarde a todos.
É uma honra estar participando, ainda que virtualmente. Pela limitação de tempo, eu não consegui superar a logística do Rio de Janeiro para Brasília.
(Segue-se exibição de imagens.)
O tema da proteção dos direitos fundamentais com o uso de novas tecnologias é muito caro para mim, que sou pesquisador com foco em regulação algorítmica. No convite me foi solicitado enfrentar três perguntas. A primeira é: como incentivar a inovação e, ao mesmo tempo, garantir a proteção dos direitos fundamentais? A segunda é: quais são os principais direitos fundamentais potencialmente impactados por sistemas de IA? E a terceira é: como identificar e mitigar eventuais impactos negativos nos sistemas de IA? Eu vou tentar respondê-las nos próximos 9 minutos. Que Deus me ajude!
A primeira pergunta é como incentivar a inovação e compatibilizar isso com direitos fundamentais. Esse é um tema extremamente difícil no mundo inteiro. A gente vê diferentes reguladores em diferentes países se debruçando sobre esse tema, que é de difícil solução.
14:38
RF
Parece-me que a primeira ação para o Brasil é definir a sua estratégia, é saber que papel o Brasil quer ter nisso. O Congresso e o Executivo têm um papel importante na definição dessa estratégia do País, que deve anteceder a regulação e deve orientá-la. Não faz sentido estabelecer uma regulação conflitante com o que o País fixou como sendo a sua estratégia. Se a estratégia é favorecer o desenvolvimento de, por hipótese, modelos generativos compatíveis com a realidade brasileira, com características regionais brasileiras, a regulação não pode impedir o treinamento de modelos com esses dados. Isso seria um conflito evidente.
O segundo aspecto importante é que regulação e inovação não são um fim em si mesmo. Ninguém regula por regular, ninguém inova só pelo prazer de inovar. Isso normalmente tem outra finalidade. Regulação e inovação nesse contexto devem ser instrumentos de desenvolvimento benéfico para a sociedade. Esse é o fim. Não se pode regular por regular, na correria, nem se pode fazer uma defesa intransigente da inovação, sem se importar com o mal que essa inovação possa trazer. Eu acho muito prudente ter foco em desenvolvimento benéfico dentro de um contexto de estratégia do País.
Eu queria começar abordando o que me parece ser um grande debate da Terra plana que eu vejo hoje no Brasil. O lado A da Terra plana é a ideia de que regulação impede inovação. Isso é uma grande bobagem, porque há setores altamente regulados e com atividades altamente inovadoras. Então, o simples fato de existir regulação não impede inovação. O lado B da Terra plana é a ideia de que regulação promove inovação: "Se eu regulo, eu trago segurança jurídica, e isso, por si só, vai gerar inovação". Essa é outra grande bobagem, porque, se o conteúdo regulatório veda a atividade, ou traz condições impossíveis de cumprir na prática, ou traz um peso regulatório que torna aquela atividade proibitiva, a regulação vai inevitavelmente impedir a inovação. Regulação é instrumental. A realidade objetiva é que a regulação pode tanto impedir quanto promover a inovação benéfica. Isso vai depender do teor da inovação. Vejam, portanto, a importância que esse debate no Congresso tem nesse momento.
Nesse contexto de realidade objetiva, eu chego ao segundo ponto fundamental: a regulação deve considerar a realidade objetiva. Há uma frase sensacional do filósofo francês Georges Ripert: "Quando o direito ignora a realidade, a realidade se vinga ignorando o direito". Eu acho que essa é uma frase fantástica. Eu vou começar por ela e vou terminar por ela, porque eu vejo diversas medidas prescritivas. Isso aconteceu na Europa e, recentemente, numa resolução do CNJ. Muitas vezes, com boas intenções, acaba-se estabelecendo determinados critérios que, por não poderem ser atendidos na realidade, vão gerar uma desconsideração daquela norma na prática. Esse é o pior cenário possível.
Quais são os desafios que a gente vê hoje nesse debate regulatório? Há narrativas de grupos de interesse, sejam da indústria, sejam da sociedade civil, não importa, que tentam, digamos assim, (falha na transmissão) um pouco mais os argumentos a seu favor, muitas vezes fugindo da realidade objetiva. Também há iniciativas pautadas em boas intenções conectadas com a realidade.
Quais são as possibilidades para abordar esses desafios? Eu sugeriria, na linha do que a Nina propôs aqui, uma maior participação de especialistas que realmente dominem as tecnologias envolvidas. A gente tem ouvido muitos juristas e profissionais das mais diversas áreas, mas eu tenho sentido falta de mais profissionais que efetivamente dominem as tecnologias no âmbito desse debate.
Como já foi comentado, a análise de impacto regulatório ou algo equivalente seria fundamental para as principais medidas prescritivas presentes no PL nº 2.338 e em outros documentos que pretendam regular inteligência artificial no Brasil.
Em relação aos principais direitos fundamentais potencialmente impactados por sistemas de IA, acho necessário considerar que o uso de inteligência artificial vai ser cada vez mais abrangente.
14:42
RF
A gente não pode criar hoje uma lei ou uma norma que tenha a intenção de ser consistente ao longo dos próximos 5 a 10 anos olhando para a IA tal como ela é utilizada hoje. Na verdade, os componentes de IA vão estar cada vez mais integrados às atividades humanas e organizacionais. Vai haver níveis cada vez maiores de automação no dia a dia. Todos os direitos fundamentais vão ser potencialmente impactados, para o bem e para o mal. Por isso, o grande objetivo da regulação tem que ser maximizar esse impacto benéfico e minimizar o impacto negativo.
Falar é fácil, fazer é extremamente difícil. Conciliar essas abordagens é muito complicado porque, quando se viabiliza determinado avanço tecnológico, ele acaba funcionando para o bem e para o mal. Isso justifica uma regulação flexível, porque a situação vai ter que ser continuamente medida e abordada pelos reguladores. Portanto, a regulação deve focar os riscos, não a tecnologia empregada. Esse é um dos grandes problemas do PL 2.338 e de outras iniciativas de regulação de inteligência artificial.
Consideremos os fundamentos da regulação de atividades de alto risco. Vamos usar como exemplo veículos autônomos, equipamentos médicos e score de crédito. Todas essas normas têm um conceito de IA. No Brasil, assim como no modelo europeu, aproveita-se um pouco o conceito estabelecido pela OCDE. O conceito compreende essa linha, esse círculo roxo aqui no meio, em relação ao alto risco do que se está regulando. Os riscos dessa atividade nos equipamentos médicos, por exemplo, excedem substancialmente aquilo que está abrangido por IA. Em veículos autônomos e em score de crédito, há riscos relacionados a sensores e atuadores da robótica, e riscos relacionados a sistemas decisórios determinísticos. Em relações de emprego, pode haver discriminação algorítmica não relacionada à IA. Em acesso a crédito, pode haver discriminação algorítmica não relacionada à IA. E por aí vai. Portanto, o risco deve determinar o contorno da regulação, e não a tecnologia empregada.
Caso se defina alto risco da aplicação genérica, é fundamental que haja uma regra de mitigação quando o risco concreto for baixo. O AI Act da União Europeia tem essa previsão, o PL 2.338, no parágrafo único do art. 14, também tem uma previsão mais ou menos nesse sentido. Como o texto pode mudar, acho importante que se faça essa ressalva aqui.
Outro ponto que já foi citado hoje — é importante ressaltar — é que há um foco excessivo em IA generativa. Pensa-se na regulação considerando a IA generativa, mas IA generativa é um pequeno campo de implementação de soluções de IA, que é muito mais abrangente que IA generativa. Por outro lado, IA é só um subcampo de aplicação de algoritmos. Existe uma série de riscos algorítmicos que não dizem respeito nem a IA e muito menos a IA generativa. Algoritmos são só uma parte dos riscos e das oportunidades mais abrangentes trazidos pela automação. Eu estou falando aqui em risco, mas tudo isso vale para o campo da oportunidade e do fomento. Parece-me que regular riscos de automação considerando apenas a IA generativa é um grande erro, e idem para projetos de fomento e estímulo dentro de uma estratégia nacional. A gente precisa compreender melhor aquilo que a gente quer fomentar e delimitar melhor o foco, sem foco excessivo em IA.
A heterogeneidade dos riscos inviabiliza um conceito uniforme de IA que limite adequadamente a incidência da lei. Se a gente quer regular veículo autônomo, se a gente quer ter uma preocupação com score de crédito, com equipamento médico e com todas as outras atividades de risco que estão inseridas no PL 2.338 hoje, a gente precisa compreender que a abrangência desses riscos e a abrangência do fomento previsto na lei terão que ser superiores àquilo que está definido na lei como conceito de IA. Por isso, me parece que a melhor abordagem é a de que esses contornos de risco, por serem complexos, sejam parte de uma avaliação de regulação setorial, inclusive quanto à delimitação de incidência das prescrições regulatórias.
14:46
RF
Então, se o Banco Central, ao tratar score de crédito, entende que tem que abranger também sistema determinístico, que assim o faça. Idem para educação, idem para relações de emprego, idem para (falha na transmissão) autônomos, idem para todas as categorias de risco nas quais se entende que há risco suficiente para merecer esse cuidado regulatório maior.
Na questão da identificação de riscos e de oportunidades, de novo, é fundamental a gente entender que o ciclo de desenvolvimento do sistema de IA é bastante complexo. Nenhuma entidade, nem mic techs, na verdade, dominam, num sistema concreto, todas essas etapas. O próprio Google, por exemplo, utiliza dados de terceiros. Como exemplo, está aqui a Common Crawl, que o Google utiliza no treinamento dos seus modelos.
A gente tem algoritmos, a OpenAI. Temos aqui um representante da OpenAI, que, ao desenvolver o sistema GPT, usou o PyTorch, que é um framework, uma biblioteca inicialmente desenvolvida pela Meta. Vejam que nem os gigantes dominam todos esses ciclos. A gente tem dados, e esses dados são processados por algoritmos. Isso gera modelos, e esses modelos geram previsões. Essa capacidade de gerar previsão gera produtos. O ChatGPT, por exemplo, não é um modelo, é um produto que está no mercado. Desses produtos, surgem outros produtos derivados. É muito importante frisar isso, porque a regulação não vai conseguir cobrir isso tudo de forma consistente, o que é mais um sinal de que a gente precisa quebrar as cadeias de responsabilidade, reconhecer a complexidade desse processo, entender a importância da regulação setorial e a dificuldade de uma lei centralizada que consiga endereçar bem esse problema, conciliando inovação e proteção de direitos. Diferentes etapas desse ciclo de desenvolvimento dos sistemas de IA vão ter agentes distintos, com riscos distintos, se submeter a reguladores distintos e em jurisdições distintas. É realmente algo extremamente complexo regular essa atividade.
Já estou me encaminhando para o final da minha fala. Direitos impõem escolhas. Existem trade-offs sobre a mesa que precisam ser avaliados pelo Congresso e que precisam ser avaliados pelos reguladores depois.
Uma questão muito importante que a Nina trouxe é a questão da discriminação algorítmica e a sub-representação de determinadas categorias. Isso é fundamental. Se quero garantir que um algoritmo, por exemplo, não tenha uma discriminação em relação a pessoas negras, eu preciso necessariamente ter esses dados rotulados na minha base de treinamento, no meu corpus. E se tenho uma legislação de proteção de dados que me impede de utilizar esses dados na base de treinamento — eles seriam dados sensíveis, e o que legitima o treinamento é, por exemplo, o interesse legítimo —, eu não consigo endereçar adequadamente na discriminação algorítmica. Aí está a importância de haver previsões legais expressas que autorizem o uso desses dados sensíveis quando isso for necessário, para evitar a discriminação algorítmica.
De novo, os europeus criaram esse dispositivo especificamente no EU AI Act. A gente ainda não tem nada equivalente a isso no Brasil, e é fundamental que isso seja enfrentado no âmbito do PL 2.338. Se eu preciso de dados sensíveis para diminuir a discriminação, não há por que supor que esse uso seja ilegal por conta do atual treinamento da LGPD em relação a dados sensíveis.
A gente tem outros trade-offs na mesa atualmente. (Falha na transmissão), os dados pessoais e a capacidade nacional que a gente vai ter ou não de tratar modelos que demandam dados em larga escala, modelos de linguagem de fronteira ou modelos multimodais de fronteira. Se a gente cria uma restrição excessiva em propriedade intelectual ou dados pessoais... E aí não é uma questão do que é mais legítimo. São escolhas políticas que precisam ser feitas, entendendo as suas consequências. Se criarmos uma restrição excessiva por conta de dados pessoais ou propriedade intelectual, o Brasil vai efetivamente limitar a possibilidade de construção nacional de grandes modelos de linguagem e de grandes modelos multimodais. Isso é um consequente lógico, e essa escolha política precisa ser feita. Por fim, o dilema que existe entre explicabilidade e efetividade. A explicabilidade, muitas vezes, não decorre de má vontade do desenvolvedor. Ela decorre de um efeito colateral da arquitetura que é utilizada. E por que aquela arquitetura é utilizada, de uma rede neural mais profunda, com uma quantidade maior de parâmetros? Porque aquela rede neural oferece maior efetividade. Aliás, elas são muito mais caras. Elas não seriam desenvolvidas dessa forma se elas não fossem mais efetivas. A depender do cenário, se eu exijo mais explicabilidade, eu estou limitando a efetividade daquele sistema. E vice-versa. Há uma escolha política também associada necessariamente — deve ser — a riscos de onde eu vou ou não exigir maior explicabilidade e onde eu vou admitir, sacrificar um pouco a explicabilidade, para buscar maior efetividade daqueles modelos.
14:50
RF
A restrição a dados sensíveis agrava a discriminação algorítmica em diversas aplicações. É fundamental que haja hipótese de tratamento própria para dados sensíveis para esse caso de uso. Hoje, a LGPD não traz essa previsão. Seria algo que, talvez, o PL 2338/23 pudesse incorporar, o IA Act já incorpora.
Algoritmos com maior explicabilidade podem possuir menor precisão e efetividade. Essa exigência de explicabilidade local, que admite e que permite ali a contestabilidade, tem que ter como base o risco e considerar o estado da arte para que essa escolha seja feita. E ela é dinâmica. Então, ao longo do tempo, essa regulação tem que ser flexível nesse sentido, para se ajustar para mais rigor ou menos rigor, conforme evoluam o risco e o estado da arte.
As limitações ao treinamento de modelos com base em propriedade intelectual e dados pessoais restringem acesso à base de dados para modelos massivo, isso é fato, especialmente os generativos. Uma alternativa, talvez, que eu colocaria na mesa, seria flexibilizar o uso desses dados para treinamento, mas restringir as saídas, para que, por exemplo, a saída desses modelos não possam competir com aqueles que produzem esses dados. A saída do modelo não pode competir com o jornalista, não pode competir com um artista, mas o uso do dado para treinamento dos modelos base seria flexibilizado. Essa, talvez, seja uma saída de meio termo razoável.
Finalmente, a regulação me parece tem que ser predominantemente setorial, dinâmica e fruto de um debate multidisciplinar. Então, me parece contraproducente a criação de uma autoridade centralizada, porque vai gerar, para riscos heterogêneos, uma sobreposição regulatória.
As regras prescritivas devem ser evitadas em leis gerais. É melhor usar leis gerais para segurar princípios e direitos, mas deixar que as regras prescritivas sejam setoriais e atualizáveis.
O processo regulatório deve incluir debates de verdade, multidisciplinares de verdade para cada ponto crítico.
Eu cito o open source, nosso modelo, que hoje é mais rígido do que o europeu, não me parece ter sentido para o Brasil, propriedade intelectual, como a gente comentou aqui, dados pessoais, como a gente comentou aqui, medidas prescritivas para alto risco e o problema da sobreposição regulatória.
Eu finalizo, de novo, com a frase de Georges Ripert: "Quando o Direito de ignorar a realidade, a realidade se vinga ignorando o Direito".
Acho que o Congresso tem um grande desafio na mão. Desejo sucesso nessa jornada.
Muito obrigado.
A SRA. PRESIDENTE (Luisa Canziani. Bloco/PSD - PR) - Muito obrigada pelas considerações e pela participação, Rodrigo.
Neste momento, passamos a palavra à nossa última expositora Marina Pita, que representante da Secretaria de Comunicação Social da Presidência da República. Ela representa o Governo.
Obrigada, Marina, por sua presença.
A SRA. MARINA GIANCOLI CARDOSO PITA - Eu que agradeço.
Eu queria agradecer o convite na pessoa da Deputada Luisa Canziani, que preside esta Comissão, e na pessoa do Deputado Aguinaldo Ribeiro, o Relator, em quem a gente tem plena confiança.
Eu queria começar destacando que eu estou nervosa para falar aqui, porque este é um momento de decisão da sociedade brasileira, e o Legislativo vai tomar essa decisão.
14:54
RF
É uma decisão que vai decidir o futuro do País ou vai amarrar o País ao passado. Isso pode acontecer de duas maneiras. Uma das formas é a gente não aprovar uma regulação de inteligência artificial rápida, e neste momento.
Nós vamos ficar para trás se não previrmos direitos e não garantirmos que as medidas de prevenção e precaução estejam incorporadas ao longo do texto, se nós não incorporarmos medidas para uma regulação assimétrica baseada em risco, que traga espaço para a inovação para as pequenas e médias empresas. Se não olharmos para o nosso passado de discriminação, nós não poderemos criar remédios para ele e entregar uma sociedade mais justa para o futuro. É por isso que nós estamos aqui nesta audiência pública falando de direitos.
(Segue-se exibição de imagens.)
Como Governo, por uma discussão com dezenove Ministérios, entendemos que o Senado fez um bom trabalho. O Senador Eduardo Gomes ouviu diversos atores e setores. O texto foi bastante aprimorado — ele é flexível, é projetado para a realidade brasileira, reconhece direito e os protege a partir da simetria orientada por grau de risco e incentiva a inovação.
A gente estava falando aqui, como os meus colegas de Mesa já detalharam, de um ecossistema extremamente complexo em que há uma sobreposição de fornecedores para a oferta dos serviços. Estamos falando de sistemas opacos que levam à enorme assimetria entre cidadãos e prestadores de serviço.
Portanto, nós precisamos de um projeto de lei que responda a essa complexidade. Não pode ser tão enxuto porque o sistema é muito complexo.
A regulação pode incentivar a inovação. A regulação é importante, pois pode orientar a direção da inovação e promover segurança jurídica; corrigir falhas de mercado, minimizar externalidades negativas e garantir a proteção do interesse público. A regulação, muitas vezes, estimula as empresas a aprimorarem suas tecnologias, o que elas não fariam se não houvesse um estímulo econômico porque existem sanções previstas em lei.
A inovação depende de vários fatores. Nós não podemos acreditar na falácia de que a União Europeia não tem empresas de primeira classe porque ela tem regulação. A regulação na União Europeia passou a ser muito mais densa e reforçada a partir de 2010, quando o Google e a Meta já tinham sido criados, embora existam outros fatores.
Eu convido todos a lerem o artigo da Anu Bradford que fala justamente que não existe essa contradição absoluta entre regulação e inovação. Existem outros fatores. O Estado brasileiro está investindo no desenvolvimento da inovação, já apresentou o Plano Brasileiro de Inteligência Artificial para a sociedade brasileira e tem disposição para o diálogo para aprimorar esse plano.
O apoio à inovação está em todo o PL. A gente fez um exercício aqui de recortar todos os artigos que dão apoio para pequenas e microempresas e para startups. Não é pouco, como os senhores e as senhoras podem ver.
14:58
RF
Vamos concretamente à previsão de direitos que nós temos no projeto para ver se ele é realmente pesado. A gente está falando de pessoas ou grupos afetados por sistema de IA, art. 5º: direito à informação, direito à privacidade, direito à não discriminação. É esse o texto concretamente.
Direitos da pessoa ou grupo afetado por sistemas de IA de alto risco. Aí, sim, a gente está falando de alto risco de afetação a direitos fundamentais previstos na Constituição brasileira. A gente tem uma previsão de direitos um pouco mais ampla: direito à explicação sobre a decisão, recomendação ou a precisão feitas pelo sistema; direito de contestar e de solicitar a revisão de decisões, recomendações ou previsões de sistema de IA; direito à revisão humana das decisões.
Esse direito à revisão humana das decisões está enquadrado dentro de uma lógica em que a autoridade competente pode modular os critérios a partir da complexidade do sistema de IA, do porte do agente, inclusive no caso de pequenas e microempresas e startups.
O direito à explicação deve ser gratuito e simples para a pessoa compreender o resultado da decisão ou previsão dentro de um prazo razoável.
Hoje, os sistemas de tecnologia da informação e comunicação não têm obrigação de informar os seus usuários, em um prazo razoável, sobre o que está acontecendo, o impacto disso em suas vidas.
Essa previsão de direitos está em acordo com as recomendações internacionais da OCDE e da ONU, no Global Digital Compact.
A declaração de líderes do G-20, realizada no ano passado, no Rio de Janeiro, estabelece: "(...) é necessário abordar a proteção dos direitos humanos, a transparência e a explicabilidade, a justiça, a responsabilidade, a regulamentação, a segurança, a supervisão humana apropriada, a ética, os preconceitos, a privacidade, a proteção de dados e a governança de dados".
Nós estamos falando de uma realidade concreta de discriminação. A literatura já registra esses casos.
Eu vou deixar aqui os meus eslaides para quem quiser se aprofundar no assunto, com todos os links para as referências. Eu vou passar rapidamente para tentar me ater ao tempo disponível.
Um estudo da Universidade Carnegie Mellon apontou que anúncios com vagas executivas com salários superiores a 200 mil/ano, nos Estados Unidos, foram exibidos 1,8 mil vezes para um grupo de usuários masculino enquanto apenas 318 vezes para o grupo feminino.
Isso, Presidenta, é um ponto de atenção. Nós já temos uma disparidade salarial entre homens e mulheres. Nós não podemos nos prender ao passado.
Esses perfis foram criados do zero. Isso significa que não havia vieses pelo uso passado desses perfis. Isso foi única e exclusivamente pela diferença de sexo entre eles.
Nós temos, então, também registrada a discriminação por idade, o etarismo.
A iTutorGroup aceitou pagar 365 mil dólares por usar a ferramenta de IA para contratar tutores que, automaticamente, rejeitavam mulheres com mais de 55 anos e homens com mais de 60 anos. Na Califórnia, um caso recente, a juíza também dá sequência ao processo contra a Workday por suas ferramentas de IA para a seleção de candidatos excluírem candidatos mais velhos.
Nós temos uma série de condenações na Europa porque as empresas que contratam motoristas e entregadores os excluem da plataforma e não oferecem explicações adequadas. Isso é restrição ao direito ao trabalho. E esse ponto é bastante importante no Brasil.
15:02
RF
Discriminação em IA: saúde: um estudo de 2019 publicado na revista Science mostrou que um sistema usado em mais de 200 milhões de pessoas nos Estados Unidos era racialmente enviesado. O algoritmo recomendava desproporcionalmente mais atenção especial para pacientes brancos, enquanto pacientes negros tinham menos chance de serem considerados como alto risco e, portanto, de receberem tratamento especial. Por quê? Porque eles historicamente demandaram menos tratamento. Existe um componente de acesso à renda, de acesso à saúde, etc. Então, isso precisa ser considerado.
Discriminação em estudantes: há um caso no Reino Unido em que o Governo usou a inteligência artificial para dar nota aos alunos, e o resultado foi que estudantes de escolas públicas receberam notas desproporcionalmente inferiores às de estudantes de escolas particulares. O processo não foi adequado, e isso resultou em perda de recursos públicos.
Enfim, este é o último exemplo. Na segurança pública, o sistema de IA usado para calcular a probabilidade de um réu reincidir tinha o dobro de falsos positivos para pessoas negras em relação a pessoas brancas.
Então, de fato, nós estamos lidando com a realidade, ninguém está inventando nada aqui. Nós precisamos, portanto, manter um texto que já está enxuto na garantia de direitos, e acho que nós precisamos entender em que pontos é mais importante avançar. É claro que os Deputados têm todo o direito de fazer adequações e aprimoramentos em um projeto, e acho uma das questões é olhar para obrigações da IA de propósito geral e generativa. Mas o art. 31 foi excluído em plenário. Se vocês virem o registro do texto, perceberão que falta o art. 31. E por quê?
Nós temos uma questão para amadurecer. Nós estamos falando de impacto na vida de crianças. Vimos esse caso dos nudes falsos por IA, os deepnudes, em uma escola particular, que foram feitos por alunas e vendidos por alunos. Existe a propaganda enganosa, a população brasileira está sendo explorada, por meio de golpes e fraudes com o uso de figuras públicas, inclusive de Deputados e Deputadas. Então, a gente não pode deixar que isso continue acontecendo, até porque isso leva a uma falta de confiança nos conteúdos. Isso não pode continuar acontecendo.
É claro que os deepnudes afetam majoritariamente as mulheres, e não é possível fecharmos os olhos para isso. Eu sei que esta Casa tem enfrentado a discussão da perspectiva do perpetrador da violência, mas é preciso que todos os agentes na cadeia tenham responsabilidade e impeçam que essas coisas aconteçam.
É isso.
Desculpe passar um pouco do tempo, Presidenta. Obrigada.
A SRA. PRESIDENTE (Luisa Canziani. Bloco/PSD - PR) - Obrigada, Marina, pela participação, pela apresentação, pelas contribuições.
Terminadas, portanto, as nossas exposições e apresentações, passaremos inicialmente a palavra ao nosso nobre Relator, o Deputado Aguinaldo, e depois seguiremos com as inscrições dos nobres Parlamentares presentes.
O Deputado Aguinaldo Ribeiro tem a palavra.
15:06
RF
O SR. AGUINALDO RIBEIRO (Bloco/PP - PB) - Boa tarde, Sra. Presidente, minha querida Deputada Luisa Canziani.
Quero saudar os nossos colegas Parlamentares aqui presentes. Está acontecendo agora, ao mesmo tempo, uma sessão do Congresso Nacional, que começou um pouco mais cedo e ainda não se encerrou — eu também estava lá. Quero cumprimentar os expositores que estão presentes e aqueles que estão participando por meio virtual, agradecendo-lhes a participação.
Há algumas questões que eu quero trazer para aprofundarmos o debate. Nós tivemos aqui algumas visões que foram mais explícitas sobre o próprio PL 2.338, e outras visões que foram mais de caráter geral, algumas se aprofundando tecnicamente, inclusive, de forma genérica, tratando não só de inteligência artificial, mas da própria automação como um todo. E, como a gente aqui na Câmara escuta que este foi um dos grandes temas tratados no Senado, de grande discussão, eu estou surpreso em ver que quase todo mundo está convergindo para o texto que veio do Senado, pelo menos aparentemente — não sei se é isso —, com algumas divergências, algumas pequenas divergências. Mas nós vimos aqui uma avaliação sobre o texto que está no Senado como um texto que prevê majoritariamente um equilíbrio entre a própria inovação e a proteção dos direitos fundamentais.
Eu vou ser mais provocativo no que diz respeito exatamente à questão, que alguns já levantaram aqui, do direito autoral. Eu vou fazer um resumo rápido.
O Luis Fernando Prado falou sobre a revisão dos direitos autorais no texto. Disse, em relação ao treinamento de IA, que deve ser incluída no texto do marco regulatório a permissão para a utilização de dados públicos para o treinamento de inteligência artificial.
A Nina da Hora falou abordou a questão dos riscos por categoria tecnológica, a questão das boas práticas de responsabilização, metodologia de avaliação.
O Gabriel, da Dharma, falou sobre a oportunidade de criação de modelos treinados em português, o que seria uma oportunidade, inclusive, para o País, a produção de modelos. Também falou sobre a questão do direito autoral, inclusive questionando qual seria a melhor forma de tratar esse tema, e é exatamente isso que nós estamos aqui querendo saber.
15:10
RF
O Nicolas falou sobre — eu esqueci os óculos, e nem eu estou entendendo o que eu escrevi aqui — as definições, a importância do Brasil hoje para o mundo, inclusive na utilização da própria OpenAI, alguns programas que foram feitos, mas também mencionou a categorização de riscos.
A Paula Guedes falou sobre uma abordagem baseada em riscos e direitos, e ela menciona alguns avanços do texto também, como a questão das flexibilizações, no art. 1º. Ela menciona uma coisa interessante que eu destaquei aqui: que a lei seja viva. Isso está lá, segundo ela, no art. 14 e no art. 15. Trouxe também algumas preocupações, como a questão de garantias trabalhistas, a retomada da avaliação de crédito, que são pontos também importantes.
O Rodrigo abordou o tema de forma geral, com um escopo bem abrangente. Mas fez uma menção que eu queria destacar aqui, de que a estratégia do País em relação à IA precede a própria regulação. Também advertiu aqui sobre o excesso de foco em IA generativa, provocando-nos para que tivéssemos uma abordagem mais voltada para a inteligência artificial geral. E falou também sobre a questão dos riscos, mas com um olhar para as questões setoriais.
A Marina também trouxe uma visão muito clara em relação ao texto do Senado, destacando as avaliações que foram feitas e mostrando também uma preocupação mais, vamos dizer, concreta em relação à utilização da IA e a problemas que nós temos que mitigar no texto — temos problemas nas sociedades do mundo como um todo e, na aplicação da IA, acabamos tendo a manutenção desses problemas sociais, alguns culturais, outros históricos. Precisamos ter flexibilidade para que, nessa aplicação, tentemos corrigir ao máximo algum tipo de preconceito, seja de raça, seja de renda, por exemplo, como aqui foi colocado. Nós precisamos nos aprofundar nisso.
Parece que o ponto central passa a ser a construção dos modelos, como construirmos esses modelos e como treinarmos esses sistemas. Aqui vários expositores fizeram menção à questão do treinamento. É importante que, ao longo desse processo, seja possível mitigar muitas questões e encontrar uma maneira, do ponto de vista regulatório, de endereçar melhor essas preocupações, que são preocupações de todos nós.
15:14
RF
O Nicolas falou aqui sobre um tratado que eles têm, o Preparedness Framework, depois o Model Spec. Parece-me que já é uma cadeia de ações dentro da empresa, que seria quase um "auto compliance", vamos dizer assim, dentro da OpenAI, que trata exatamente disso, de fazer o pós-treinamento, o post-training, e depois o fine-tuning, que seria o ajuste fino de como lidar com isso.
Então, a minha provocação aqui para todos é a seguinte: como nós podemos afunilar no texto que está proposto, que foi apresentado para nós, que é o PL 2.338, essa questão de nós preservamos o máximo de direitos do cidadão, também preservando o máximo de inovações que nós possamos ter com esse marco regulatório, talvez passando por um modelo de ajuste que poderíamos, de fato, aprofundar, e de forma objetiva. Eu acho que a Marina foi muito feliz quando já pontuou os artigos em que a lei está tratando disso. Eu sei que alguns já mencionaram que vão nos entregar um material escrito, não é, Presidente, como contribuição, para que a gente possa levar em consideração, e isso é muito bom.
Então, eram essas as considerações que eu queria fazer, de forma inicial, e ficarei também aqui à disposição de todas as senhoras e senhores.
A SRA. PRESIDENTE (Luisa Canziani. Bloco/PSD - PR) - Muito bem. Muito obrigada ao nosso Relator.
Neste momento passaremos à lista de inscrição, lembrando que, infelizmente, nós não conseguimos deliberar sobre os nossos requerimentos, em razão do início da Ordem do Dia e da falta de quórum da nossa Comissão. Então, na nossa próxima audiência pública, teremos certamente a deliberação e a aprovação dos requerimentos.
Passamos a palavra agora ao primeiro Deputado inscrito, o Deputado Lafayette de Andrada.
O SR. ORLANDO SILVA (Bloco/PCdoB - SP) - Presidente, eu posso fazer uma consulta a V.Exa.?
A SRA. PRESIDENTE (Luisa Canziani. Bloco/PSD - PR) - Por gentileza, Deputado.
O SR. ORLANDO SILVA (Bloco/PCdoB - SP) - Considerando o número de Parlamentares que se apresentaram até aqui, seria possível, em vez de 3 minutos, falarmos por 5 minutos?
A SRA. PRESIDENTE (Luisa Canziani. Bloco/PSD - PR) - Acredito que não haverá problema.
O SR. ORLANDO SILVA (Bloco/PCdoB - SP) - Poderíamos, pelo menos, ter uma flexibilidade, que nos permitisse falar por 5 minutos.
A SRA. PRESIDENTE (Luisa Canziani. Bloco/PSD - PR) - Acredito que até 5 minutos não haverá problema, tendo em vista a ausência de muitos membros da nossa Comissão.
O SR. ORLANDO SILVA (Bloco/PCdoB - SP) - Obrigado, Presidente.
A SRA. PRESIDENTE (Luisa Canziani. Bloco/PSD - PR) - Mas lembro que nós queremos ouvir novamente os nossos expositores. Então, é importante que eles também tenham tempo suficiente para fazer as suas considerações.
O SR. ORLANDO SILVA (Bloco/PCdoB - SP) - Foi uma vastidão de informações.
A SRA. PRESIDENTE (Luisa Canziani. Bloco/PSD - PR) - Exato, foram muitas boas informações, e certamente muitos questionamentos virão por parte de V.Exas.
O Deputado Lafayette de Andrada tem a palavra.
O SR. LAFAYETTE DE ANDRADA (Bloco/REPUBLICANOS - MG) - Sra. Presidente, Sr. Relator, prezados convidados, Srs. Deputados, eu vou ser breve. Hoje tivemos aqui um conjunto bom de informações que nos foram trazidas, principalmente de ordem técnica, mas eu só queria fazer a seguinte reflexão ao Relator, à Presidente: o que é necessário para nós na construção dessa lei é compreendermos adequadamente a teoria constitucional que fundamenta a nossa legislação.
15:18
RF
O que eu quero dizer? O art. 5 da Constituição, no § 1º, já diz que os princípios e as garantias fundamentais já são de aplicação imediata. Nós estamos tratando aqui de direitos fundamentais. Então, tem pouco proveito a gente elencar na lei todos os princípios, todos os fundamentos que a lei deve observar. "A lei deve observar a não discriminação, deve garantir..." Isso tudo está na Constituição, isso tudo tem aplicação imediata.
O que eu acho que é mais importante para nós, e o Relator vai ter que suar para escrever, é dizer objetivamente quais são as medidas concretas que precisam ser observadas para que esse mundo de direitos seja garantido. A gente fica elencando quais são os direitos, quais são os fundamentos, quais são os princípios. Está bem, vamos observar esse, esse e esse direito. Mas quais são as medidas concretas que devem ser tomadas para que esses direitos, esses fundamentos, sejam garantidos? Essa é a grande interrogação, a grande ginástica, o grande exercício que o nosso Relator vai ter que fazer.
E eu não queria deixar de aproveitar a oportunidade da presença do representante da OpenAI para perguntar exatamente isto: quando foi criado o ChatGPT, quais foram os instrumentos, as ferramentas, utilizados pela OpenAI que propiciaram e continuam propiciando a garantia desses direitos fundamentais? Esse é o grande "x" da questão.
Muito obrigado, Sra. Presidente e Sr. Relator.
A SRA. PRESIDENTE (Luisa Canziani. Bloco/PSD - PR) - Muito obrigada, Deputado Lafayette pela participação e pelas sempre boas contribuições.
O Deputado Orlando Silva tem a palavra por até 5 minutos.
O SR. ORLANDO SILVA (Bloco/PCdoB - SP) - Presidente, eu quero agradecer a V.Exa. pela condução, cumprimentar nosso Relator e os colegas que participam e agradecer a participação de todos os nossos convidados e a contribuição que trouxeram para a nossa Comissão.
Eu queria fazer duas observações políticas, Presidente, que têm a ver com o nosso trabalho aqui e comentar um pouco sobre a fala dos convidados.
Primeiro, o Deputado Aguinaldo Ribeiro chamou a atenção para uma percepção que ele está tendo: em torno do que gira o debate? É como se estivesse migrando o debate que girava em torno do eixo voltado para o Projeto de Lei nº 2.338, de 2023.
Eu queria chamar a atenção, Deputado Aguinaldo, para que deveríamos, talvez, aprofundar esse caminho. Por quê? Pela natureza da nossa posição neste processo legislativo, que é a condição de Casa revisora. Sou daqueles que creem que, politicamente, o correto era nós sermos a Casa para encerrar o assunto, porque votamos a matéria, o Projeto de Lei nº 21, de 2020, antes do exame no Senado. Pelo que eu entendi, isso é matéria vencida. Sendo matéria vencida, sendo Casa revisora, é natural que nós façamos uma análise objetiva do texto que veio do Senado.
A minha percepção é que, nesta segunda audiência, nós seguimos ainda numa posição híbrida: é um pouco análise do texto do Senado, é um pouco um resgate do debate conceitual, que, na minha percepção, precisava ser revisto.
Nós deveríamos focar o texto. Essa é uma observação da minha percepção política. Por que digo isso? Porque eu valorizo muito, por exemplo, as disposições preliminares do texto. Não por acaso estão qualificadas como disposições preliminares. Ali nós temos princípios, ali nós temos conceitos.
15:22
RF
Eu me considero prisioneiro do debate que fiz durante a votação da Lei Geral de Proteção de Dados — LGPD para sustentar uma lei principiológica. Eu considero correto que, quando versamos sobre tecnologia, nós tenhamos uma lei que seja principiológica e tenhamos um espaço para normas infralegais, que podem mudar o nome. Aqui apareceu com força "regulação setorial". Faz sentido para mim regulação setorial.
Digo isso porque, no exame dos artigos do texto, alguns citados pela Paula Guedes — arts. 1º, 2º, 14, 15 e inúmeros outros —, vemos que temos um texto, na minha percepção, Presidente, flexível. O texto é flexível. Ele dá margem à regulação setorial. Apenas aquela competência reminiscente, que agora tem um outro nome por aqui, é que gera dúvida, pela centralização da Autoridade Nacional de Proteção de Dados — ANPD. Mas a leitura que eu faço do texto é que é um texto flexível, como deve ser uma norma que versa sobre temas digitais.
Aqui apareceu um dos convidados — parece-me que foi o Rodrigo Ferreira — que reiterou algo que já apareceu anteriormente, e eu queria que o nosso Relator considerasse como uma certa regra para nós: nós não vamos regular tecnologia. Ninguém aqui, em sã consciência, iria propor regular uma tecnologia que amanhã estará defasada. Depois de amanhã, surgirá uma outra.
Então, esta é a nossa perspectiva, Relator, imagino: não regular a tecnologia, mas regular temas. Daí vi a necessidade da matriz de riscos como algo central. Na minha percepção, também é algo que cabe na regra flexível dos artigos anteriores, porque há hipóteses em que essa lei é aplicada e hipóteses em que ela não é aplicada. A matriz de risco pode ser revista em determinados momentos, ampliada ou não, por um órgão regulador. Aonde é que eu quero chegar? A minha leitura é que o texto que veio do Senado tem a flexibilidade necessária para nós termos uma regra que seja uma regra eficiente para regular IA.
Mas, devo dizer que este debate me trouxe um alerta de um tema que é supersensível porque diz respeito ao racismo, ao algoritmo, à possibilidade de discriminação. A Nina Hora o introduziu e, uma vez mais, o Rodrigo o trouxe para cá. E por que é sensível? Porque, de verdade, a LGPD restringe o interesse legítimo se aplicado a dados sensíveis. Aqui, por exemplo, na minha percepção, nós temos um problema. Por isso eu acho que é preciso que a gente aja e regule com abertura máxima. Eu falo aqui como Relator da LGPD, mas eu assumo. Nos termos em que nós tratamos a base legal do tratamento de dados no art. 7º e prevemos, durante a lei, a aplicação do interesse legítimo, se nós não temos o quesito raça sendo aplicado em treinamento de máquina, sim, nós podemos ter base para a operação, digamos assim, racista do algoritmo. Olha que problema que nós temos! Há que se refletir sobre como criar uma alternativa que compatibilize o que estabelece a LGPD e o que nós vamos fixar como regra para a inteligência artificial.
Então eu concluo, Presidente. Não tive oportunidade de falar exatamente questionando os colegas, mas refletindo sobre o debate que foi oferecido aqui pelos convidados. Pareceu-me um debate importante, mas, primeiro, devemos ter mais foco no texto, porque é o papel de uma Casa revisora.
Segundo, sustento que a lei tenha uma flexibilidade necessária para que seja eficiente.
Terceiro, a matriz de risco deve ser utilizada com parcimônia, porque são inúmeros os usos de inteligência artificial e, na maior parte deles, não há nenhum risco. E, quando não há nenhum risco, o que está previsto não se aplica. Há gradação de risco. Portanto, nós não podemos raciocinar com matriz de risco elevado ou risco excessivo e imaginar que aquele usuário de temas é o que vai balizar toda atividade de IA, porque não se trata disso. Isso é uma parte muito restrita. Por isso nós temos que valorizar, na minha percepção, o trabalho que nós fizemos até aqui.
15:26
RF
Por fim, eu achei bacana a afirmação do Rodrigo sobre o contorno dos riscos ser tratado com ênfase por reguladores setoriais, uma vez mais. Naquilo que é mais complexo, o regulador setorial pode ter um peso importante para que a gente tenha uma lei mais eficiente, uma norma infralegal, uma vez mais.
Por isso, na minha sensibilidade, nós caminhamos bem examinando o texto que discutimos neste momento.
Muito obrigado.
Desculpe o excesso de tempo, Presidente.
A SRA. PRESIDENTE (Luisa Canziani. Bloco/PSD - PR) - Muito bem. Muito obrigada, Deputado Orlando, por suas sempre precisas considerações.
Neste momento, então, o Deputado Vitor Lippi tem a palavra.
O SR. VITOR LIPPI (Bloco/PSDB - SP) - Quero cumprimentar a nossa Deputada Luisa Canziani pela condução dos trabalhos e o nosso Deputado Aguinaldo por estar atento à responsabilidade dos pares desta Casa de apresentar um bom projeto ao Brasil.
Esse bom projeto, esse projeto importante para o Brasil tem que considerar que essa nova tecnologia é transformadora e será determinante para o futuro. Cada vez mais, todos nós — a sociedade, as pessoas, as empresas, o poder público — e tudo usaremos a inteligência artificial. Então, ela é algo que vai, cada vez mais, fazer parte das nossas vidas. Naturalmente, como qualquer tecnologia com essa amplitude, às vezes, ela pode ser utilizada de forma perigosa, de forma inadequada, de forma que traz riscos, e cabe a esta Casa a responsabilidade.
Se isso é um fator determinante de produtividade e de eficiência no País, de novas soluções econômicas e sociais, enfim, de a gente poder ajudar a reposicionar o Brasil como um país soberano, um país que inova, um país que tem tecnologia, é uma obrigação nossa defender os interesses nacionais para que o Brasil não seja um mero consumidor de tecnologia e inovação de outros países, mas tenha um protagonismo. No nosso País, nós não podemos pensar pequeno, nós temos que pensar com o tamanho do Brasil. O Brasil tem uma das maiores economias do mundo, uma das maiores populações do mundo. Ele é um dos países com maior potencial econômico do mundo, maior potencial quando se fala em questões comparativas no mundo. Portanto, nós temos um ambiente muito favorável e um povo muito criativo.
E muitas situações de desigualdade neste País poderão receber contribuições efetivas da inovação através de inteligência artificial, porque ela, até pela velocidade dos dados e de análise, acelera tudo: descoberta de novos medicamentos, informações para a sociedade e para ajudar o poder público numa série de análises. Ela acelera tudo que diz respeito às questões e aos desafios da tecnologia e inovação.
Por outro lado, nós temos os riscos. Esses riscos, que não podemos, obviamente, subestimar, foram citados aqui. Entre essas preocupações, acredito que nós temos algumas premissas que precisam ser buscadas. Primeiro, nós temos que regular isso de alguma forma. A gente espera que não seja muito regulado e que seja feito de modo principiológico.
15:30
RF
Mas, de qualquer forma, nós precisamos ver na prática, Relator Aguinaldo Ribeiro, o que isso vai impactar — nós não somos profissionais da área, mas estamos aqui atentos para aprender, por isso estas audiências são importantes para quem utiliza, para quem trabalha com essas tecnologias, para quem tem empresas onde se aplicam essas tecnologias — no custo, principalmente para as pequenas empresas. Nós temos uma infinidade de startups no Brasil, um dos países que mais tem startups no mundo. Como é que isso vai se aplicar? Se isso prejudicar, aumentar custo, apesar da nossa boa intenção, nós vamos criar uma tragédia de limitação do crescimento e das soluções no Brasil.
Por outro lado também, parece-me bastante razoável que nós tenhamos que buscar, principalmente das grandes plataformas, uma autorregulação. São importantes as regras de compliance porque, se ali trafegam os dados, é preciso que a gente tenha mecanismos de prevenção para que possa minimizar riscos. Então, tudo isso me parece muito lógico.
Como escrever isso e como entender a aplicação disso? Como fazer com que isso efetivamente aconteça para que a gente traga aqui a melhor solução, que, volto a dizer, é ter um Brasil tecnológico e inovador, com muitas soluções, com muitas startups, com um ambiente favorável para a tecnologia e a inovação, mas, ao mesmo tempo, tenha uma contribuição das empresas no sentido de minimizar risco?
Eu acho que essas são as relevantes questões, sempre lembrando que só a boa intenção não basta. A gente precisa fazer uma análise de impacto real nas empresas, para entender que impacto aquilo que nós estamos escrevendo vai ter lá na ponta para quem está desenvolvendo as tecnologias de que nós tanto precisamos. Então, são apenas essas as considerações.
Talvez a pergunta seja: de que forma as plataformas, principalmente as grandes plataformas, podem e devem desenvolver autorregulação e regras de compliance para minimizar os riscos para a sociedade?
Obrigado.
A SRA. PRESIDENTE (Luisa Canziani. Bloco/PSD - PR) - Muito bem. Muito obrigada, Deputado Vitor Lippi pelas considerações.
Neste momento, passamos a palavra ao Deputado Pedro Uczai.
Muito obrigada pela participação.
O SR. PEDRO UCZAI (Bloco/PT - SC) - Eu queria cumprimentar a todos os palestrantes pela provocação que fizeram ao nosso Relator e pelas falas aqui.
Eu acho que este tema é complexo e assimétrico. Há os representantes das próprias empresas que entendem os mecanismos da inteligência artificial, e nós entendemos alguma coisa de regulação, porque fazemos parte do Legislativo e estamos tentando entender este tema na sua complexidade, num lugar social que se chama Brasil.
Então, Relator, eu acho que este tema, como tema estratégico para o desenvolvimento econômico e tecnológico do País, refere-se a como o Brasil vai se inserir num mundo multipolar, como está colocado o cenário internacional. Acho que o Deputado Lippi trabalha um pouco esta ideia da potência em que o Brasil pode se transformar se a gente decidir uma perspectiva e induzir para uma construção.
A tecnologia, diferentemente de outras visões, não necessariamente distribui riqueza, renda, oportunidades. Eu estava relendo um texto que fala de mil anos para cá: Poder e progresso. Muitas vezes, quando avançam determinadas tecnologias, é o período em que às vezes também se produz mais desigualdade. Nós imigrantes que viemos para o Rio Grande do Sul somos filhos do progresso europeu. Quando se industrializou lá, expropriaram-se milhões e milhões de descendentes italianos, alemães, poloneses, ucranianos. Eu sou ucraniano e polonês.
15:34
RF
Portanto, o progresso, dependendo do processo feito, produz profundas contradições. E não é por nada que, nos Estados Unidos, três big techs têm mais riqueza que 170 milhões de norte-americanos. Essa é a realidade hoje.
Então, a inteligência artificial nos coloca até uma pergunta ética. O que se treina? Dados. O ChatGPT tem 150 bilhões de dados. Quem produziu esses dados? Quem produziu essas informações? Quem produziu esse conhecimento? A humanidade, os seres humanos. Ele se apropria privadamente desse conhecimento para treiná-lo e dar respostas. Não chego a ponto de imaginar, como o Deputado Nikolas, que a inteligência artificial vai chegar à inteligência do ser humano. Não acredito, não sou tão otimista assim. E não acredito profundamente, com convicção. Nunca chegará à inteligência humana a inteligência artificial, até porque ela não projeta o futuro. Ela pega o que se produziu no passado, com as suas contradições, e prevê possibilidades futuras.
Em terceiro lugar, se esse é o dado, há os direitos autorais, Relator, que têm uma expressão lato sensu, e os direitos autorais específicos, como de audiovisuais, literatura, etc. Como fazer isso? Como socializar essa apropriação privada das informações produzidas pelo planeta, pela humanidade? Qual é a relação entre o privado e o público?
Inclusive, isso envolverá uma questão tributária no futuro. Acho que aqui nós não vamos resolver isso. Mas a inteligência artificial apropria-se privadamente de tudo que a humanidade produziu na literatura, na escultura, nas artes, na cultura, na economia, na educação, na agricultura, etc., etc., e essa apropriação é distribuída através dos mecanismos tecnológicos. Então, os direitos autorais — eu acho que este é um debate entre o público e o privado inclusive — do que a humanidade produziu são públicos ou o que a humanidade produziu é privado? Apropria-se privadamente. Mas este é um debate mais filosófico do que político.
Termino com o segundo ponto: a questão dos riscos. Aqui nosso papel é regular. Eu não acredito muito em autorregulação. Agora tiraram até a checagem. Lá nos Estados Unidos, tiraram até a obrigação de checagem. Eu acho que nosso papel aqui, independentemente das empresas, é regular. Este é o nosso papel: regular e inovar — regular e inovar no Brasil — e fortalecer essas tecnologias para empresas brasileiras de pequeno, médio e grande porte. A regulação, eu tendo a acreditar que dá para aperfeiçoar a partir do texto do Senado. Lá consta risco excessivo, alto, médio. Dá para perfeiçoar, mas devemos caminhar nessa regulação de riscos, por causa da discriminação algorítmica.
Se você tem o que a humanidade produziu, e o preconceito é uma produção humana, você reproduz no algoritmo a discriminação e o preconceito. Portanto, transforma isso em texto. Eu li um texto de inteligência artificial sobre a Alemanha e sobre a ocupação do Afeganistão pelas tropas alemãs. O texto da inteligência artificial me respondeu que foi uma missão dos alemães matar os afegãos. Não foi uma guerra. O próprio conceito não era de guerra, era de missão que os soldados alemães estavam cumprindo no Afeganistão. Portanto, o preconceito, o conceito e o que se produziu de conhecimento se incorporam na resposta da inteligência artificial. Está embutida a subjetividade também, está embutido o preconceito também.
15:38
RF
Imaginem a questão das línguas, o que a inteligência artificial nos responde quando pedimos a tradução da língua de estrangeiro.
Há inclusive o colonialismo digital. A maior parte da linguagem a partir da inteligência artificial é de concepção colonial. Eles não consideram, no caso do Brasil, isso que V.Exa. estava falando, Deputado Lippi. Grande parte nos consideram como colônia, tem uma concepção colonial, o que eu chamo de colonialismo digital. É como o de raça, o de gênero, o dos imigrantes, etc.
Então, às vezes, incorpora-se a cultura dominante na inteligência, no conhecimento, nos textos, nas elaborações. Não há neutralidade nisso aí. Isso é cultura — é cultura! E, dentro dessa cultura, como um todo, está a educação, o conhecimento, a literatura, todas as áreas do conhecimento humano.
Precisamos ver, então, como podemos transformar, no ambiente da inteligência artificial, o conteúdo, fazendo com que o Brasil se fortaleça, com que seja fortalecido como Nação, e não reproduzir o colonialismo. Senão, lá, nós nunca seremos uma potência, nunca seremos uma economia soberana, nunca seremos uma economia desenvolvida. Não há neutralidade em qualquer decisão que nós vamos tomar aqui nessa construção.
Relator, eu estou muito contente com a mediação que V.Exa. está fazendo aqui. Estou muito contente, como brasileiro, independentemente de questão ideológica. A regulação vai definir que País a gente quer. A incorporação dessa tecnologia vai definir que Brasil a gente quer. A questão não é a tecnologia que a gente quer; não é a regulação que a gente quer; é que Brasil nós queremos para os brasileiros. Aí a gente regula, aí a gente induz, aí a gente promove crédito, desenvolvimento, para exportar tecnologias brasileiras, para brasileiro ser cientista — não só para irem para lá, Nicolas; para os brasileiros ficarem aqui, para fomentar a ciência e a inovação aqui.
Desculpem-me, eu me estendi um pouco, mas esta é uma oportunidade que estou tendo, mais na simetria de uma pessoa ignorante nessa temática, de tentar entender algumas coisas, do ponto de vista tecnológico, filosófico e político, do que cabe a nós aqui como legisladores, que nós vamos ficar para a história, numa direção de País que a gente vai definir.
Então, Relator, dada a sua sensatez e a sua moderação, não tenho dúvida de que nós vamos construir um texto que efetivamente vai nos dar orgulho de ser brasileiro.
A SRA. PRESIDENTE (Luisa Canziani. Bloco/PSD - PR) - Muito bem. Muito obrigada, Deputado Pedro, pelas contribuições.
Tem a palavra a nossa última inscrita, a Deputada Fernanda Melchionna.
A SRA. FERNANDA MELCHIONNA (Bloco/PSOL - RS) - Obrigada, Presidenta Luisa Canziani.
É um prazer estar aqui com vocês.
Cumprimento o nosso Relator, Deputado Aguinaldo Ribeiro, cumprimento todos os expositores e expositoras.
Eu queria compartilhar com vocês o que aconteceu com a nossa Deputada Estadual Renata Souza, do Rio de Janeiro, ao usar uma trend da Disney Pixar de inteligência artificial. Ela colocou, Marina, naquele avatar a descrição que fazia dela mesma, e a inteligência artificial gerou uma imagem a partir disso. Ela colocou uma mulher negra na favela, e a inteligência artificial gerou a imagem de uma mulher armada, como se bandida fosse. Esse é um caso clássico, e grave, de racismo algorítmico. E não é um raio no céu azul.
O que nós estamos vendo é um conjunto de pesquisas que têm mostrado a utilização, a transferência de preconceitos já existentes na sociedade para o ambiente tecnológico. Acho que o Deputado Pedro Uczai acerta quando coloca esse conceito, porque o mundo virtual é uma extensão do mundo real. Essa transferência agregaria apenas os interesses comerciais das grandes big techs, que não querem a regulação para não se comprometer com a garantia de direitos fundamentais. Nesse caso é uma violência não só com a Renata, com as mulheres negras, mas também com o conjunto das mulheres que moram em favelas do Brasil, como uma forma de perpetuar essa prática criminosa ou racista, a partir desse exemplo específico.
15:42
RF
Eu estava vendo as pesquisas que a Marina trouxe. Quero lhe agradecer por tê-las compartilhado conosco, sinceramente. Eu não tinha conhecimento de algumas pesquisas novas que tu trouxeste. Gente, como se pode aceitar como normal essa informação de um estudo feito nos Estados Unidos que mostra que salários superiores a 200 mil/ano foram exibidos 1.800 vezes para o grupo masculino e só 318 vezes para o grupo feminino, sendo que os perfis não tinham nenhuma interação anterior para direcionar a vaga? Sabe qual era a diferença, Nicolas, entre um e outro? Gênero! O que é isso? Discriminação! Machismo!
Há questões etaristas de direitos em inteligência artificial na saúde. Tu nos trouxeste vários temas, eu vou olhá-los com qualidade.
O que eu penso ao fazer todo esse debate ou ao trazer esses dados? Que o projeto final do Senado é fraco comparado ao desafio de preservação de direitos fundamentais. Quero dizer isso a vocês. Acho que o texto original dos juristas tem coisas a ser repostas aqui, como o art. 31. O art. 31 precisa voltar para o texto da Câmara dos Deputados, se quisermos preservar direitos fundamentais, se quisermos que o texto preserve direitos fundamentais. O texto diz muito claramente que "o desenvolvedor de um sistema de IA generativa deve antes de disponibilizar no mercado para fins comerciais garantir a adoção de medidas de identificação, análise e medicação de riscos razoavelmente previstos no que tange a direitos fundamentais, meio ambiente, integridade da informação, liberdade de expressão e acesso à informação". Simples assim, mas foi excluído na hora da votação no plenário. Tem que voltar para o texto original, tem que ser uma obrigação do texto original.
Alguém vai me dizer: "Ah, mas vai pegar as empresas de desenvolvimento de IA de baixo impacto". O texto já faz essa diferenciação, gente. E mais. Quando coloca a avaliação preliminar na versão final nós temos aqui quase uma análise de boas intenções e não de obrigatoriedade, obrigatoriedade que é fundamental para preservar direitos.
Eu não vou me debruçar sobre as outras áreas, porque nós vamos debatê-las em outras audiências públicas, mas o texto do Senado tirou a proteção de direitos dos trabalhadores. Recuou, retirou a proteção aos trabalhadores, como a avaliação de impacto sobre emprego — isso foi tirado do texto, isso também tem a ver com direitos fundamentais, objeto do nosso debate hoje. A vedação à demissão em massa foi tirada na versão final do texto do Senado. Portanto, a regulação frágil só prejudica os trabalhadores e os usuários, mas favorece as grandes corporações.
Além dessas considerações, eu acho que há muitos temas para debatermos. Queria ouvir os integrantes da Mesa sobre o que precisa ser devolvido ao projeto original e ampliado. Nós vamos sugerir, Deputado Agnaldo, V.Exa. nos conhece, a ampliação de proteções para além do texto do Senado, dos juristas.
Queria perguntar também ao Nicolas, primeiro, sobre as ações que a OpenAI tem promovido para limitar a discriminação causada por arbitrariedade de algoritmo, se é que tem. Nos casos que acontecem, qual é a política de compensação da empresa? Se foi comprovado que isso aconteceu, qual é a compensação para o usuário? Segundo, recentemente a OpenAI conseguiu 11 bilhões de dólares em financiamento para o seu maior data center.
15:46
RF
Depois nós vamos debater o custo ambiental dos data centers, porque nós queremos debater o consumo de água, bem como temas que são também estruturantes no tempo de emergência climática que vivemos. Fecho esses parênteses.
A OpenAI certamente arca com altos valores em eletricidade e água para o funcionamento do seu data center. Por que a OpenAI não está disposta a pagar pelos subsídios dos seus modelos, ou seja, o direito autoral do conteúdo utilizado em seus treinamentos?
Terceiro, queria perguntar também se o senhor crê na possibilidade de ser líder em inovação sem nenhuma estrutura legal obrigatória de responsabilização e supervisão ao algoritmo do ponto de vista de país. Eu desconheço que algum país não tenha nenhuma obrigação, supervisão ou regulação. Ao contrário, nós temos modelos até mais — não posso dizer rígidos, porque eu não concordo com a palavra rígidos — criteriosos em países europeus, em outras modalidades. O que estamos vendo aqui é uma tentativa das empresas de flexibilizar o que já foi bem flexibilizado no texto final do Senado, para que de fato não haja regulação.
Essa lógica eu não posso aceitar, porque a gente precisa garantir a inovação, é óbvio, mas com direitos para a população, para os trabalhadores, para o meio ambiente, sobretudo os direitos fundamentais.
A SRA. PRESIDENTE (Luisa Canziani. Bloco/PSD - PR) - Muito obrigada, Deputada Fernanda.
Lembro que nós teremos mais uma audiência relacionada a esta temática. Também ressalto que as apresentações já estão no nosso grupo de WhatsApp, só falta a Ana.
Quero agradecer à Ana, ao Leandro, à Alexandra e ao Arthur também, nossa competente equipe que está conosco nesta missão. Os nossos consultores enviarão os resumos e análise de todas as apresentações posteriormente ao nosso grupo. Quero deixar, mais uma vez, avisado aos nossos queridos e competentes colegas.
Passamos, então, às considerações finais.
(Intervenção ininteligível fora do microfone.)
Estamos trabalhando nisso, Deputado Orlando, já fizemos um teste hoje. Sério.
Passamos, neste momento, a palavra para Luis Fernando Prado, para suas considerações finais.
O SR. LUIS FERNANDO PRADO - Obrigado.
Nobres Deputados, foram excelentes as provocações neste pós-painel.
Para finalizar, eu queria, na verdade, abrir uma leve divergência com a fala do Relator, o Deputado Aguinaldo Ribeiro. Excelência, não sei se temos consenso em relação ao fato de que o texto do Senado é o melhor, seja por um lado, seja pelo outro. Todas as falas, acho que o consenso que eu consegui identificar, levam para o fato de que todos esses problemas que foram apontados em relação à inteligência artificial são agravados e potencializados se houver uma limitação do treinamento dos modelos de inteligência artificial.
Acho que todo esse debate sobre direitos autorais serve para escolhermos o caminho que queremos como Brasil: queremos, de fato, preservar direitos? Para isso vamos precisar de uma possibilidade de acesso a dados diversos. Vários dos problemas relatados aqui passam por uma base amostral de dados de treinamento que não foi a melhor possível. Por isso, o sistema gerou aquele output.
Um ponto citado em várias falas de colegas também é que a gente se baseou muito no texto da União Europeia. Alguns colegas citaram o texto da lei da União Europeia como referência para o debate. De fato, a lógica de construção desse texto que veio do Senado parte muito da lei europeia. Acho que o Senado fez, sim, adaptações em cima disso. Mas vale ressaltar também que a própria União Europeia está num momento de refletir se ela aprovou o melhor texto global de regulação de inteligência artificial, especialmente porque estamos num momento em que países diferentes adotam estratégias diferentes para a regulação de inteligência artificial.
15:50
RF
Temos o exemplo do Reino Unido, que saiu da União Europeia recentemente e que tradicionalmente copia e cola leis europeias para facilitar transações comerciais, etc. Mas, no ponto da inteligência artificial, ele está adotando uma estratégia radicalmente diferente, até agora, da adotada pela União Europeia.
Para não contaminar o nosso debate legislativo só com a referência europeia, eu trago também a referência da lei japonesa, recentemente aprovada, que é uma lei que basicamente obriga a sociedade japonesa a utilizar a inteligência artificial, especialmente...
O SR. AGUINALDO RIBEIRO (Bloco/PP - PB) - Desculpe interromper, mas tenho uma observação a fazer, que eu tenho insistido em fazer nas audiências públicas, que tem sido um pouco o nosso foco. Ao abrir uma divergência — e é bom que se tenha divergência, esse é um lugar para se ter divergência —, seria muito bom que você trouxesse, num comparativo do que tem sido feito nos outros países, a aplicação na nossa lei, para não ficarmos aqui apenas emitindo opinião, dizendo o que existe lá fora. A gente sabe o que está acontecendo na União Europeia, o que se votou, o que não se votou. Mas seria muito interessante se pudéssemos direcionar dessa forma.
Eu fiz uma fala geral na minha reflexão, e estou aproveitando para que também os outros possam direcionar suas observações da mesma forma, para que, nessa compreensão, concordando ou divergindo, possamos trazer isso para o que nós temos de concreto, que é o PL 2.338.
Então, se puderem fazer isso, eu agradeço demais, porque vai ser muito útil para o nosso juízo de valor. Como nós temos duas audiências públicas sobre esse tema, isso seria muito positivo.
Eu fiz algumas considerações sobre o que você havia comentado também, e queria pedir para confrontarmos e dizermos: "Olha, para a nossa realidade, é melhor fazermos uma adequação para proteger os direitos"; "No artigo tal, a gente precisa fazer isso, precisa melhorar isso, precisa tirar isso".
Eu sei que vocês vão nos entregar também as observações por escrito, mas, se puderem comentar dessa forma, será muito positivo.
Obrigado.
Desculpe a interrupção indevida.
O SR. LUIS FERNANDO PRADO - Imagine, Deputado Aguinaldo, é muito assertiva a sua provocação.
Como eu ia dizendo, só para citar o exemplo da lei japonesa, em relações aos pontos em que ela difere da lei brasileira e ao que poderíamos importar como reflexão, na verdade, ela estimula políticas públicas de uso responsável de IA, deixando muito das sanções, das questões — sem negar os riscos decorrentes da inteligência artificial — para autoridades regulatórias setoriais, e tenta, de alguma forma, colocar o Japão como um modelo global de País que vai incentivar o uso de inteligência artificial.
Então, eu acho que a Câmara tem uma oportunidade de ouro aqui para, sim, repensar o texto que veio do Senado. É claro que, como eu disse na minha fala inicial, acho que não é o caso de se jogar fora todo o tempo de discussão que a gente teve no Senado sobre esse tema e, sim, aproveitar essas discussões. Mas acho que há pontos estruturantes que temos que desenvolver no texto.
Por exemplo, muito se falou aqui, para dar exemplos concretos, Deputado, que o alto risco tem hipóteses limitadas ali na lei e que muito disso vai ser regulado por uma futura autoridade, talvez central, que vai poder ampliar essas questões de alto risco. E aqui a gente tem critérios extremamente amplos, em que a gente aprova uma lei hoje, considerando alguma coisa como alto risco, e amanhã essa autoridade competente poderá ampliar o que ela considera como alto risco. Foi, inclusive, retirada do texto no Senado uma disposição que falava que essa autoridade precisaria submeter toda essa futura regulamentação à consulta pública também, para que a gente possa minimamente reproduzir esse debate aqui na esfera da regulamentação complementar da futura autoridade, se é que a gente vai seguir esse modelo de ter uma autoridade centralizada.
Então, essas eram as minhas contribuições finais. Agradeço o convite.
15:54
RF
Como disse, a gente vai, sim, continuar contribuindo com a Câmara com proposições concretas de melhorias no texto da lei.
A SRA. PRESIDENTE (Luisa Canziani. Bloco/PSD - PR) - Muito obrigada, Luis, pelas considerações e pela participação.
Passamos, neste momento, a palavra à Nina da Hora, que está conosco virtualmente, atendendo ao requerimento da Deputada Fernanda e da Deputada Soraya, se não me engano.
Nina, muito obrigada por estar conosco.
A SRA. ANA CAROLINA DA HORA (NINA DA HORA) - Obrigada, Presidenta. Agradeço também o convite não só às figuras das duas Deputadas que você citou, mas também à figura do Deputado Reginaldo, que também endossou esse convite.
Eu acho que é superimportante trazer o ponto que o Deputado Orlando e a Deputada Fernanda trouxeram, sobre o foco no texto, e também trazer os pontos em relação à discriminação, ao combate, à desinformação e à violência direcionada às mulheres negras.
Desculpa, Deputado Aguinaldo, mas eu não sou do direito. Eu sou incapaz de ficar citando os artigos relacionados ao projeto de lei, mas, como uma pessoa da computação e técnica, eu acho que é superimportante a gente trazer à luz como esses conceitos são trabalhados e desenvolvidos.
Em sua fala, o Nicolas situou que a OpenAI nasceu como um laboratório de pesquisa. Como um laboratório de pesquisa, na sua natureza, uma de nossas responsabilidades é tornar transparentes os nossos métodos e resultados de pesquisas, claro, para colaborar, mas independente dos resultados negativos ou positivos.
Eu queria trazer à luz a transparência quando a gente se coloca como laboratório de pesquisa, por mais que hoje a OpenAI seja uma startup, uma empresa que está buscando a sua consolidação. Essa natureza do laboratório é uma natureza que não deve ser colocada de lado quando o debate público começa a acontecer. Então, para a gente, enquanto pesquisadora e ativista da área da computação, é superimportante haver a transparência dessas tomadas de decisões que estão sendo feitas por essas big techs.
Algumas das perguntas que foram colocadas foram essas direcionadas para a OpenAI. Então, acho que esse documento que o Nicolas trouxe, das metodologias, dos conceitos da inteligência artificial, precisa ser adaptado ao contexto brasileiro.
Quando a gente conceitua inteligência, aprendizagem de máquina, deep learning e os próprios modelos do ChatGPT, a gente não conceitua a partir do nada, a gente conceitua a partir do contexto que eles estão inseridos. Então, se esses conceitos estão sendo definidos a partir de um contexto europeu ou americanizado, isso dificulta para a gente ter um entendimento básico de como ele pode funcionar no Brasil.
Um dos comentários dos Deputados foi que estamos em um momento de aprendizado desses conceitos. Eu me coloco à disposição, assim como meus colegas da área, para que as próximas audiências públicas tenham mais pessoas da computação podendo explicar sobre esses conceitos, como eles funcionam e qual a sua natureza, para que a gente faça, de fato, uma regulação compreensiva e não só punitivista.
Um outro ponto que eu acho importante trazer nas minhas considerações finais, o qual foi um pouco colocado pelos colegas da Mesa, é sobre essa diferenciação regional, de quando os modelos são treinados no Brasil, ou fora do Brasil, ou a partir da língua portuguesa. Eu acho que é importante observar — o Rodrigo trouxe um pouco isso na fala dele — que não basta haver modelos com textos brasileiros ou modelos com imagens de brasileiros. Não se trata só do dataset e da diversidade nele posta, mas principalmente das decisões das regras algorítmicas colocadas quando se está desenvolvendo esse modelo de treinamento.
15:58
RF
Eu acho que esses conceitos, quando eles são abertamente explicados e bem posicionados, podem contribuir para o texto. Eu confesso que um dos pontos que muito dos meus colegas de área têm colocado é a dificuldade de compreender qual a responsabilidade de quem está criando essas tecnologias de fato, quando essa lei for implementada, se ela for implementada. Então, colocar esses conceitos no texto ajudaria inclusive nessa compreensão e nesse entendimento para gente buscar a responsabilização.
Obrigada mais uma vez.
Desejo boas próximas audiências!
A SRA. PRESIDENTE (Luisa Canziani. Bloco/PSD - PR) - Muito obrigada, Nina, pela participação, pelas considerações e por estar conosco.
O Nicolas agora tem a palavra.
Muito obrigada.
O SR. NICOLAS ROBINSON ANDRADE - Eu sei que 5 minutos é pouco tempo, porque há muitas perguntas, mas eu me comprometo para que isso seja uma parte de um engajamento ao longo das próximas semanas, assim como tem sido nos últimos meses aqui na Câmara, no Senado e no Executivo.
Uma das coisas que me chamou atenção durante o processo de conversar com pessoas relacionadas à inteligência artificial é que todos nós estamos aprendendo, todos aqui nesta Casa e, de forma geral, a população. Por essa razão a gente decidiu fazer um bootcamp, uma aula para Parlamentares e assessores no dia 26 de setembro. Todos os membros da Comissão já receberam o convite, mas, se os senhores tiverem mais pessoas interessadas, elas são bem-vindas. Vai ser uma capacitação de uma tarde inteira, se não me engano de 13 horas a 19 horas, no dia 26, que vai trazer insumos técnicos e regulatórios. Não será a OpenAI dando aula, mas a gente trouxe experts nacionais para falar sobre esse assunto.
Sinto também, às vezes, que há uma confusão entre algumas propriedades de rede social e de modelos de inteligência artificial, que são coisas diferentes. A gente pode entrar mais em detalhe, mas acho que é importante que, no momento da regulação, principalmente quando a gente fala em categorias, em definições, seja entendido que são coisas diferentes.
Houve algumas perguntas.
Deputado Lippi, o senhor perguntou como fazer o Brasil se tornar líder. O Brasil já é líder. Se 5 ou 10 anos atrás alguém me falasse que ia chegar uma tecnologia nova em que o Brasil seria o líder... Eu estou falando não só em criação mas em uso do ChatGPT. O Brasil é um dos países que mais usa no mundo o ChatGPT e que mais constrói com o ChatGPT — top 5!
Quando a gente fala em desenvolvimento, a gente está falando de pessoas que estão desenvolvendo aqui, em todos os Estados brasileiros, e também na sede da OpenAI, nos Estados Unidos, e em todas as empresas no meio dessa cadeia de valor. Eu acho que é importante lembrar isso, que em inglês é chamado de stack, que é aquela cadeia de valor desde o desenvolvedor do modelo de IA até o usuário final, que não é uma linha reta. Isso é importante.
A palestrante Marina trouxe algumas questões preocupantes. Acho que ninguém acha interessante que uma mulher receba algum tipo de oferta de emprego que um homem não receba, ou o contrário. Esse tipo de decisão não é tomada pela OpenAI, não é tomada pelo desenvolvedor de modelo de IA. Ela é tomada por uma empresa que está aplicando esse tipo de decisão. Cada país, incluindo, claro, o Brasil, tem suas leis, e é importante que elas sejam aplicadas.
Eu falei um pouquinho sobre pré-treinamento, pós-treinamento e afinamento dos modelos de inteligência artificial. A gente pode até ir ao gabinete da Deputada para explicar com mais tempo essas três fases.
Na fase de pós-treinamento, a gente faz uma coisa muito interessante relacionada à diversidade. A grande base de dados global que a gente tem criado de seres humanos é muito em inglês, com muitas pessoas brancas, com profissões que, ao longo dos últimos 200, 300 anos, como parlamentar, como médico, como engenheiro, são sempre retratadas por homens na literatura. O que a gente faz é aumentar a diversidade nas respostas com relação ao prompt. O que isso quer dizer? Que, se alguém procura uma informação relacionada a uma profissão — por exemplo, um parlamentar — e pede para se criar uma imagem, a imagem possa ser tanto de uma mulher como de um homem. Como em português existem as palavras "deputada" e "deputado", já há um direcionamento, mas, em inglês, o termo "Member of Congress" é neutro.
16:02
RF
Eu convido a senhora a tentar esse exemplo que a senhora trouxe do Rio de Janeiro. Como morador do Rio de Janeiro, acho preocupante. Isso não aconteceu no nosso modelo, mas acho que a preocupação continua e é muito válida.
Eu gostaria de trazer duas observações. A primeira é relacionada a data center, porque não mencionei na minha fala inicial. Há uma impressão de que as empresas de IA — lembrando que são milhares — operam os próprios data centers. A enorme maioria das empresas de IA não opera os próprios data centers. Então, mais uma vez, acho que, nas categorias, nas definições, é muito importante que essa realidade seja refletida no texto. O Brasil tem inúmeras empresas de data center.
Na semana passada, o nosso fundador Sam Altman publicou dados de uso de energia no blog dele. Eu não quero dar o número aqui, porque é um número muito, muito, muito pequeno, que tem muitos zeros, mas eu convido os senhores a visitarem o blog pessoal dele, se não me engano, blog.samaltman.com. A última postagem detalha quanta energia e quanta água se usa em uma busca de ChatGPT. Acho superinteressante essa leitura, a qual podemos encaminhar também.
Houve algumas menções hoje da União Europeia como modelo regulatório. Acredito que todo mundo leu o AI Act, que tem ideias interessantes, assim como o Brasil quer também ter as próprias ideias relevantes para o País. A observação que eu traria é que na própria União Europeia existem agora debates sobre se foram longe demais. Em que sentido? De que agora os modelos de inteligência artificial de todas as empresas, por questões regulatórias, são lançados na Europa meses depois do que no resto do mundo. Vários meses depois: 2, 3, 4, 5, 6 meses. Por que isso é um problema? Porque, pelo menos agora, o modelo mais avançado está saindo mais ou menos a cada mês, mês e meio, 2 meses. Então, todas as empresas que estão criando soluções estão usando, por questões regulatórias, modelos antigos.
Acho que a observação que eu traria, concordando muito com outros palestrantes, é que existe um caminho, com certeza, em que os cidadãos têm proteção de direitos. Essa é uma iniciativa e uma preocupação legítima e louvável, mas, do ponto de vista técnico, puramente técnico, o texto, do jeito que ele existe hoje, do jeito que ele está escrito, é muito difícil ou impossível de se implementar. Isso não é uma divergência ou uma oposição ideológica que a gente está trazendo aqui, mas apenas uma opinião de um desenvolvedor de IA que está analisando o texto e tentando implementá-lo.
O SR. AGUINALDO RIBEIRO (Bloco/PP - PB) - Desculpe interrompê-lo. Você poderia apontar onde especificamente o texto tem essa dificuldade de implementação?
O SR. NICOLAS ROBINSON ANDRADE - Com certeza. A gente vai encaminhar. Isso está aqui nos documentos que eu trouxe. Inclusive, Deputado, eu trouxe aqui um documento, que a gente pode encaminhar depois, sobre como a gente treina os modelos.
Especificamente, a dificuldade está nas definições e no compreendimento da cadeia de valor. Voltando ao meu exemplo anterior, não são a mesma coisa o fabricante de tijolo e a pessoa que pinta o quarto no fim da obra, não são a mesma coisa o modelo fundacional e o sistema, assim como não são a mesma coisa um motor e um veículo. Esses tipos de definições são extremamente importantes, porque o Brasil é um dos maiores, como eu mencionei, criadores de soluções com inteligência artificial da OpenAI no mundo. E isso traz um recurso impressionante, que são os desenvolvedores. Eles estão aqui, eles são brasileiros, eles falam português.
16:06
RF
Então, acho que, com o nosso apoio, com o apoio de todos nós aqui, seria interessante trazer mais deles para dar uma olhada técnica no texto, porque acredito que não há tantas divergências, porém há divergências importantes, que são técnicas, enfim.
O SR. AGUINALDO RIBEIRO (Bloco/PP - PB) - Só implicando aqui para não perder... (Risos.)
Era isso que nós estávamos esperando aqui.
O SR. NICOLAS ROBINSON ANDRADE - No dia 26, teremos uma aula técnica, e estão todos convidados.
O SR. ORLANDO SILVA (Bloco/PCdoB - SP) - Presidente, interrompendo...
Brincadeiras à parte, é bastante relevante que o que vai aparecer no dia 26, em forma de documento, de texto, de nota, vai dialogar com os termos que o Relator sugeriu. Brincadeiras à parte, quando falamos da voz, a OpenAI é muito importante, ouvi-los é muito importante, e uma nota técnica balizada seria muito importante.
Fica a provocação.
O SR. NICOLAS ROBINSON ANDRADE - Seria interessantíssimo. Inclusive, quem vai participar dessa capacitação, na sua grande parte, são os assessores aqui. Eu acho que eles estão acostumados a notas técnicas. Elas vão sair com um certificado da Finatec, e eu acho que seria superinteressante que isso se transformasse em definições melhores, porque acredito que há espaço para muito mais convergência do ponto de vista técnico.
Obrigado a todos pelo convite.
A SRA. PRESIDENTE (Luisa Canziani. Bloco/PSD - PR) - Muito obrigada, Nicolas, pela participação, pelas contribuições, pela gentileza de sempre conosco.
Tem a palavra o Deputado Lafayette de Andrada.
O SR. LAFAYETTE DE ANDRADA (Bloco/REPUBLICANOS - MG) - Presidente, só para encerrar aqui as palavras, eu quero dizer que concordo com o que o Nicolas falou.
Desde o princípio, tenho dito que o texto do Senado — sem querer fazer uma crítica ao trabalho deles — tem exatamente o que foi dito aqui, conceitos abertos. A falta de critérios objetivos, a falta de regras claras é o que traz insegurança jurídica, é o que afugenta o investidor, afugenta o empreendedor, até mesmo nós.
Segurança jurídica é o mesmo que obrigações claras, e é isso que eu acho que está faltando no texto do Senado. Eu não sei se sou voz contrária ou não. Eu defendo que é necessário, sim, uma revisão profunda no texto do Senado por esses aspectos.
Por fim, eu queria insistir com a pergunta que eu tinha feito ao Nicolas sobre o que o ChatGPT, a OpenAI tem feito para garantir os direitos fundamentais. É sobre isso que eu falei que o Relator vai ter que suar. Ele vai ter que objetivamente colocar o que é preciso fazer para que esses direitos sejam garantidos.
Era isso. Muito obrigado.
A SRA. PRESIDENTE (Luisa Canziani. Bloco/PSD - PR) - Deputado Reginaldo Lopes, V.Exa. deseja utilizar a palavra?
O SR. REGINALDO LOPES (Bloco/PT - MG) - Se o texto é aberto, muito amplo e flexível... A gente acha que numa inovação... Se o texto do Senado, na avaliação do Nicolas — eu não peguei a fala toda dele —, é muito flexível e aberto, então, qual é a opinião... Eu acho que o Relator falou muito bem isso. Quais são os pontos para se materializar uma proposta que a gente possa avaliar? Porque eu entendo que uma lei de uma tecnologia nova mais flexível e mais aberta é melhor do que uma mais amarrada.
Então, eu acho que seria bom ter isso por escrito, para que a gente possa ler, reler, revisitar se de fato fica difícil a aplicabilidade do que o Senado aprovou. Seria importante um detalhamento dessa opinião que o senhor traz aqui.
16:10
RF
O SR. NICOLAS ROBINSON ANDRADE - Eu me comprometi diante da Deputada a falar por 1 minuto, então vou responder de forma muito rápida, mas a gente pode mandar um documento depois.
A questão aqui é que acreditamos que não é sobre ser aberto ou fechado, é sobre haver confusão no significado das palavras, assim como a gente não regularia o carro falando em motor. Então, é mais por aí. A gente tem um documento e vai encaminhá-lo.
Vou responder ao Deputado Lafayette. Como disse, viemos de um laboratório de pesquisa. Fala-se muito em big techs, mas o ChatGPT foi lançado por mais ou menos 200 pessoas, que talvez coubessem nesta sala. Somos uma empresa muito pequena, com dois funcionários na América Latina. Temos pensado muito em como democratizar o acesso a conhecimento, a aprendizagem e a inovação. Estamos tentando colocar na mão de mais pessoas esse tipo de conhecimento.
Trabalho há muito tempo focando também na educação, no impacto social, e milhares de pessoas me disseram que teriam gostado de acessar empregos que não podiam acessar porque não falavam inglês, por exemplo. Essa tecnologia permite isso.
Acreditamos em gerar emprego e oportunidades aqui, o que já está acontecendo com esse ecossistema, e muito, muito em conversar com sociedade civil, com academia e com governos, na região toda — mas acredito que aqui no Brasil esse tipo de conversa é muito mais aprofundado pela natureza do ecossistema. Falamos com todo o stack e tentamos ver como a nossa missão, que é, mais uma vez, assegurar que todas as pessoas possam se beneficiar da inteligência artificial, pode ser implementada.
Como é muito papel, eu vou encaminhar apenas a versão digital para o gabinete de todos os senhores. Aqui há muito mais detalhes, e eu estou disposto, é claro, a sempre contribuir com mais insumos e opiniões.
Obrigado.
A SRA. PRESIDENTE (Luisa Canziani. Bloco/PSD - PR) - Muito bem. Obrigada, Nicolas.
O Rodrigo Ferreira, que está conosco virtualmente, tem a palavra para as suas considerações finais.
O SR. RODRIGO DA SILVA FERREIRA - Obrigado a todos.
Acho que este foi um encontro excelente.
Eu, com certeza, vou enviar ponto a ponto, a partir do PL na versão atual, as contribuições. Eu não fiz isto aqui na apresentação porque, com certeza, eu não seria capaz de respeitar o prazo de 10 minutos.
Eu penso que a base do PL 2.338, na versão atual, é uma base razoável, embora, definitivamente, o projeto não pareça ainda maduro. Alguns pontos parecem mais leves do que deveriam ser; outros pontos, bem mais rígidos do que deveriam ser, até mesmo inviabilizando o desenvolvimento.
A Marina trouxe um exemplo bem interessante, de filtros de idade e filtros de gênero. E esse é um aspecto que faz parecer que o PL é mais leve do que deveria ser, porque, vejam, quando a gente tem um filtro determinístico de emprego... Trago como exemplos estes filtros objetivos: "eu vou excluir do processo todo mundo que tenha mais de 50 anos" e "eu vou excluir do processo mulheres em idade reprodutiva". Esse tipo de filtro determinístico, numa decisão automatizada, não é IA. Então, vejam que interessante: todas as medidas prescritivas de risco que eu teria eventualmente nessa regulação de IA, porque isso não é IA, esse sistema não é um sistema de IA, estariam fora da abrangência da lei, caso o PL fosse aprovado hoje com a redação que tem. Nova York, por exemplo, quando quis tratar a questão de discriminação nos processos de emprego, focou na discriminação. E aí, pelo critério estatístico, pelo critério que seja, não interessa o método, não interessa a tecnologia, interessa a discriminação. Veja que interessante, Deputado Orlando Silva: numa situação desta, de decisão automatizada por critério determinístico, vai incidir o art. 20 da LGPD, que de forma muito feliz não previu a tecnologia, bastando que a decisão seja automatizada, mas não incidiria a lei de IA. Assim, parece haver um grande paradoxo, diante de uma decisão automatizada, quando o risco apontado é o risco de discriminação no acesso a (falha na transmissão).
Por outro lado, parece-me que há diversos pontos em que a lei ainda parece mais rígida do que os equivalentes no exterior. E o que talvez seja o mais adequado para o Brasil — obviamente, na minha leitura —, eu vou encaminhar ponto a ponto. Mas vou citar aqui alguns elementos.
16:14
RF
O tratamento a open source me parece muito complicado. Houve flexibilização europeia. O que a gente está fazendo no Brasil é um pouco parecido com o que aconteceu com o encarregado de dados no regime geral europeu — quando veio a LGPD: lá era restrito e aqui virou geral. Só depois a ANPD restringiu a figura do encarregado. A gente está fazendo mais ou menos isso com o open source. Lá eles estão sendo muito mais flexíveis, e aqui a gente está criando uma regra inicialmente mais rígida, dizendo que pode ser flexibilizada depois. Isso me parece um problema em questões de propriedade intelectual.
E, vejam, pela redação atual do PL, o simples fato de o desenvolvedor ter que listar tudo o que é objeto de propriedade intelectual, independentemente de ele ter que pagar, só essa tarefa, se a gente considerar as bases massivas de dados que são utilizadas no treinamento dos modelos maiores, já inviabilizaria (falha na transmissão).
Então, eu acho que, se o pessoal que trabalha realmente com o desenvolvimento desses modelos puder dar uma orientação melhor acerca de como esse processo ocorre, vai ficar muito claro que o que está hoje no PL, de fato, inviabiliza. Mesmo que digam: "Ah, a OpenAI pode pagar, a Microsoft pode pagar, o Google pode pagar", isso não tem a ver com o pagamento. O simples fato (falha na transmissão) já impediria o desenvolvimento por inúmeras organizações no Brasil, porque é objetivamente impossível você obter esses dados quando usa, por exemplo, o Common Crawl.
Existe a questão de dados pessoais, sobretudo a questão de uma flexibilização maior, talvez, na lei, por inclusão de um dispositivo que autorize o uso de dados sensíveis para mitigar discriminação algorítmica. Talvez isso possa ser uma previsão na lei, alterando o próprio art. 11 da LGPD. Talvez seja uma exceção da própria lei. Aí, teriam que discutir a medida legislativa. Parece-me que essa abertura legislativa para uso de dados sensíveis para treinamento de modelos, quando a finalidade for redução de discriminação algorítmica, é importante.
E parece-me que a gente saiu de um modelo que era setorial, o do PL 21/2020, depois fomos para um modelo mais centralizado, o da comissão dos juristas, e a versão final do Senado ficou com um modelo meio híbrido, em que parte é descentralizada e setorial e outra parte é central. Parece-me que isso vai gerar problemas sérios de sobreposição regulatória, pela forma como está escrito. Eu pretendo trazer também alguns pontos mais concretos sobre como superar, talvez, essa questão da sobreposição regulatória.
Seriam essas as minhas ponderações finais.
Mais uma vez, agradeço bastante esta oportunidade e parabenizo a Câmara pela iniciativa.
Obrigado.
A SRA. PRESIDENTE (Luisa Canziani. Bloco/PSD - PR) - Muito obrigada, Rodrigo, pela participação.
Neste momento, tem a palavra Paula Guedes, da Artigo 19, por até 3 minutos.
A SRA. PAULA GUEDES - Obrigada, Deputada, também por todas as perguntas que foram feitas.
O Deputado Aguinaldo disse que o Projeto de Lei nº 2.338, de 2023, é um consenso. Eu acredito que, sim, ele é o consenso básico. Ele é o ponto de partida, e eu tenho certeza de que a Câmara pode trabalhar para ele ser melhor, ainda mais protetivo de direitos.
Eu acho que a gente vem de uma construção de regulações de inteligência artificial e que vai aprendendo conforme a tecnologia vai evoluindo também. A gente teve um projeto de lei que foi feliz no sentido de ter nascido na Câmara dos Deputados e de ser bastante principiológico. Esses princípios foram concretizados em medidas de governança a partir de todos os estudos e das audiências realizadas no Senado, e agora o projeto está sendo continuado na Câmara dos Deputados novamente.
Dito isso, quero dizer que o PL 21/2020, mais principiológico, teve o seu lugar na época em que foi discutido e que, de lá para cá, a gente avançou muito também e aprendeu muito mais sobre o avanço da inteligência artificial e sobre como melhor regulá-la.
Aqui foi falado sobre a lei europeia, foi dito que eles já estão revisitando também a carga regulatória que isso talvez tenha trazido para a União, lá. Destaco que o Projeto de Lei nº 2.338, por mais que tenha, sim, se inspirado um pouco no regulamento europeu, ele não é um copia e cola. Então, a gente tem muitas flexibilizações, que eu levantei, que a Marina também levantou no eslaide dela. Não é como se o projeto de lei não olhasse para as diferenças entre os atores envolvidos também, em que, eventualmente, as obrigações de governança, que são, sim, muito necessárias, possam ser flexibilizadas.
16:18
RF
Então, o Projeto de Lei nº 2.338 não é muito robusto. Eu acredito, inclusive, que ele possa melhorar, sim, nessa proteção de direitos, porque, ao longo do processo legislativo no Senado, algumas obrigações protetivas, algumas regras de transparência, algumas regras de prestação de contas e de participação social foram retiradas.
A Coalizão Direitos na Rede também vai enviar contribuições escritas para que os Srs. Deputados tenham isso documentado de forma mais facilitada. E as empresas que produzem tecnologias e sistemas de inteligência artificial já têm que fazer testes e avaliações internas sobre como suas ferramentas funcionam.
Então, o que esse projeto de lei faz quando prevê as obrigações é simplesmente tornar isso obrigatório, porque eles já fazem isso, no geral, como boa prática. A questão é que eles não disponibilizam, normalmente, esses documentos, dentro do possível também, respeitando o segredo industrial e comercial.
Eu acho que o Nicolas fez uma fala de que haverá uma formação no dia 26, e eu faço um convite também, porque, provavelmente, a coalizão vai, no segundo semestre, fazer uma segunda formação sobre regulação de inteligência artificial. A gente fez uma em março. A sociedade civil tem muitos especialistas em diferentes temas, em modelo regulatório, em proteção dos direitos. A gente já é formado também por muitos pesquisadores e acadêmicos e conseguimos contribuir bastante.
Então, espero estarmos mais presentes também nas próximas audiências.
Quero parabenizar novamente todo o trabalho da Comissão, da Presidente, do Relator, e agradeço aqui pelo tempo.
Obrigada.
A SRA. PRESIDENTE (Luisa Canziani. Bloco/PSD - PR) - Muito obrigada, Paula, pela participação.
A Marina é a nossa última expositora e tem a palavra para suas considerações finais.
Muito obrigada.
A SRA. MARINA GIANCOLI CARDOSO PITA - Eu queria agradecer pela possibilidade de dialogar.
Acho que existem alguns pontos que eu não vou conseguir aprofundar. Eu tentei me ater ao objeto desta audiência pública, respeitando o plano de trabalho aqui da Mesa, mas não vou deixar de pontuar alguns elementos neste momento, Relator.
Quando a gente fala sobre inteligência artificial e direitos autorais, eu queria dizer que parece inimaginável o que a publicidade digital direcionada por dados pessoais faz hoje. A gente está falando de uma coisa muito semelhante à Bolsa de Valores, com apostas sendo feitas em tempos reais. A gente está falando de data brokers. E é papel do Estado brasileiro observar a necessidade de desenvolvimento de modelos de negócio que possam responder à necessidade de oferta de dados e obras para o ecossistema, obras protegidas ou não.
Então, de fato, nós estamos nos debruçando sobre essa necessidade do ecossistema. E eu gosto de dizer que houve um momento em que todo mundo baixava filme pela pirataria e falava: "Ah, eu consigo baixar". E ninguém achava um modelo. As grandes empresas estavam...
O SR. AGUINALDO RIBEIRO (Bloco/PP - PB) - (Intervenção fora do microfone.)
A SRA. MARINA GIANCOLI CARDOSO PITA - Exatamente, Relator. E o que fez a Apple? Ela achou um modelo de negócio. Ela remunerou pelas obras. Encontrou um acordo. E o que aconteceu? O mercado prosperou no streaming. E ele é tão simples e fácil que é mais fácil para o usuário usar isso. A gente pretende fazer com que seja mais fácil, inclusive para as empresas de inteligência artificial, utilizar data brokers de obras e dados. Mas é claro que isso exige um investimento.
16:22
RF
Deputado Vitor Lippi, sei que o senhor é um profundo conhecedor do sistema nacional de inovação, de sistemas setoriais de inovação e de arranjos produtivos locais. E é nisso que a gente tem que investir, para construir ecossistemas e gerar valor no País. É claro que nós estamos olhando para isso também.
Queria falar rapidamente sobre a questão do órgão central ou setorial. Parece-me que não há essa dicotomia que está sendo apresentada. O projeto endereça aos órgãos setoriais os setores regulados, só que hoje existe uma assimetria regulatória, há empresas que não são reguladas por nenhum órgão regulador. Então, o que vai acontecer é que a gente vai aprofundar uma assimetria regulatória, que já tem custado bastante aos brasileiros no setor de telecomunicações. Então, é importante a gente entender a necessidade de um complemento, e é nisso que o projeto avança.
Por fim, eu queria dizer que o Governo tem feito um trabalho interno de discussão e gostaria muito de continuar trazendo pessoas para este espaço de discussão, para contribuírem de forma qualificada, apresentando propostas para a Mesa, Deputada Luisa Canziani.
E, se for possível, gostaria inclusive de ser convidado para os eventos, sem discriminação, Nicolas. A gente fica esperando um convite para participar da formação da OpenAI, entender qual é a visão de vocês e nos aprofundar no conhecimento técnico. Eu acho que é muito importante essa interação, e a gente não se furta a isso.
Obrigada.
A SRA. PRESIDENTE (Luisa Canziani. Bloco/PSD - PR) - Muito bem. Muito obrigada, Marina, pela participação.
Eu queria, mais uma vez, agradecer aos expositores.
Eu acredito que nós tivemos uma Mesa equilibrada, que possibilitou inclusive a divergência, o debate de ideias. Acredito que, com as nossas novas audiências públicas, a gente vai conseguir trazer mais clareza, inclusive no que se refere a essa preocupação que o nosso Relator tem, de tratarmos especificamente de pontos legais do texto que merecem aprimoramento. Acredito que a gente vai, a partir das novas audiências, fazer esse afunilamento com que nós tanto sonhamos, que queremos.
Eu queria também agradecer demais ao Deputado Vitor Lippi, ao Deputado Lafayette de Andrada, ao Deputado Reginaldo Lopes e ao Deputado Orlando Silva. Hoje é um dia um tanto quanto atípico para a gente. Nós estamos com sessões semipresenciais, sessões do Congresso Nacional, e V.Exas., mais uma vez, tiveram essa deferência com a Comissão, com o nosso Relator, de estarem aqui participando, contribuindo. Então, eu queria, mais uma vez, agradecer a V.Exas.
Quero agradecer ao nosso brilhante Relator também, à nossa equipe, enfim, a todos que participaram, à imprensa que está com a gente, aos membros da sociedade civil organizada, aos juristas. Muito obrigada pela participação de vocês.
E nós voltaremos com uma nova audiência pública sobre o mesmo tema de hoje no dia 8.
Relator Aguinaldo, V.Exa. gostaria de utilizar a palavra para fazer, também, suas considerações finais? Está satisfeito?
O SR. AGUINALDO RIBEIRO (Bloco/PP - PB) - A minha colocação é sempre esta: devemos ter uma Mesa em que haja contrapontos.
Algumas pessoas disseram que eu defendi que havia consenso sobre o texto do Senado. Não, não existe consenso. Aliás, não existe consenso em texto nenhum, o que existe é a construção de maioria. Mas o objetivo aqui é exatamente este: confrontar.
Achei muito ricas as exposições que tivemos aqui e a visão que a Marina trouxe aqui, uma visão muito bacana sobre, por exemplo, o data broker.
16:26
RF
Hoje a gente vive numa bolha, praticamente — não sei se tem o data consumer, que é o que a gente consome hoje. Você vive numa bolha, e o algoritmo vai produzindo aquilo que você gosta. Então, é uma coisa de fato muito complexa.
Eu acho que em cada audiência pública a gente vai evoluindo mais. Mas eu fiquei satisfeito com o fato de que a gente entrou nos contrapontos e, depois, os próprios Parlamentares disseram: "Não, o texto do Senado tem imperfeições e precisa ser aperfeiçoado".
Qual é o desafio agora? A gente começar a discutir. Quando eu os provoco sobre o texto, é para gente começar a discutir a partir do texto e ir para o mérito do texto. Se aquele ponto é omisso, por exemplo, ou se ele é dúbio na definição, como é que você pode agir? A primeira discussão é se é ou não é. Se é, como é que a gente aperfeiçoa isso?
Presidente, eu acho que se cumpriu o propósito aqui hoje, mesmo sendo um dia de fato atípico. A gente estava acompanhando, ao mesmo tempo, a sessão do Congresso, que também está animada.
Quero agradecer a todos a qualidade da exposição. Agradeço aos nossos pares aqui e a toda a equipe que nos permitiu fazer esta audiência pública. Obrigado.
A SRA. PRESIDENTE (Luisa Canziani. Bloco/PSD - PR) - Muito bem, nosso Relator.
Relembro que a nossa próxima audiência será realizada no dia 8 de julho no mesmo horário, às 13h30min.
Eu tenho convicção de que nós saímos desta audiência com mais aprendizado e mais reflexão.
Espero que todos nós, juntos, possamos promover um ambiente legislativo capaz de alcançar os nossos desafios enquanto Nação, proteger aquilo que é mais caro para todos nós, o nosso bem mais precioso, que são os brasileiros, as nossas crianças, os nossos jovens, aqueles que mais precisam, as pessoas com deficiência. Precisamos proteger a integridade física e moral de todos os brasileiros e, ao mesmo tempo, fazer com que o nosso País inove, possa gerar oportunidades, possa gerar riqueza e desenvolvimento através dessa tecnologia e de outras tecnologias também.
Então, muito, mas muito obrigada a todos. A gente agradece a presença, mais uma vez, de todos.
Declaro encerrada a presente reunião. (Palmas.)
Voltar ao topo