3ª SESSÃO LEGISLATIVA ORDINÁRIA DA 57 ª LEGISLATURA
Comissão Especial destinada a proferir parecer ao Projeto de Lei nº 2338, de 2023, do Senado Federal, que "dispõe sobre o desenvolvimento, o fomento e o uso ético e responsável da inteligência artificial com base na centralidade da pessoa humana"
(Audiência Pública Extraordinária (semipresencial))
Em 10 de Setembro de 2025 (Quarta-Feira)
às 10 horas
Horário (Texto com redação final.)
10:21
RF
O SR. PRESIDENTE (Reginaldo Lopes. Bloco/PT - MG) - Bom dia a todos e a todas.
Declaro aberta a 12ª Reunião da Comissão Especial destinada a proferir parecer ao Projeto de Lei nº 2.338, de 2023, do Senado Federal, que dispõe sobre o desenvolvimento, o fomento e o uso ético e responsável da inteligência artificial com base na centralidade da pessoa humana.
Encontra-se à disposição na página da Comissão na Internet a Ata da 11ª Reunião, realizada no dia 9 de setembro de 2025.
Fica dispensada a leitura da ata, nos termos do Ato da Mesa nº 123, de 2020.
Não havendo quem queira retificá-la, coloco em votação a ata.
Os Deputados e as Deputadas que a aprovam permaneçam como se encontram. (Pausa.)
Aprovada.
Informamos que a sinopse do expediente encontra-se à disposição na página da Comissão na Internet.
Esclarecemos que na Ordem do Dia de hoje está prevista a realização de audiência pública convocada em razão da aprovação dos Requerimentos nºs 6, 31, 32, 42, 55, 79, 91 e 119, todos de 2025. Os requerimentos são de autoria dos Deputados Adriana Ventura, Reginaldo Lopes, Luiz Carlos Busato, Orlando Silva, Luizianne Lins e Vitor Lippi e têm como tema a inteligência artificial generativa, direitos autorais e integridade da informação.
Para os melhores andamentos dos trabalhos, adotamos os seguintes procedimentos: o tempo concedido aos convidados será de até 10 minutos; a lista de inscrição para o debate está aberta no aplicativo Infoleg; cada Deputado inscrito pelo aplicativo terá 3 minutos para interpelações.
Vamos começar convidando o nosso Relator, o Deputado Aguinaldo Ribeiro.
Convido para compor a Mesa os Srs. João Caldeira Brant Monteiro de Castro, Secretário de Políticas Digitais da Secretaria de Comunicação Social da Presidência da República — seja bem-vindo; Antônio Paulo da Silva Santos, Secretário de Relações Institucionais da Federação Nacional dos Jornalistas — Fenaj; Bia Barbosa, Coordenadora de Incidência do Escritório para América Latina da Repórteres sem Fronteiras. (Palmas).
Quero também registrar a presença dos demais convidados que comporão a segunda Mesa, o Sérgio Branco, a Carla Egydio, o Victor Drummond e o Diogo Cortiz. Obrigado pela presença. (Palmas.)
Então, vamos iniciar a nossa audiência de hoje.
Concedo a palavra, por 10 minutos, para o João Caldeira Brant Monteiro de Castro, Secretário de Políticas Digitais da Secretaria de Comunicação Social da Presidência da República.
O SR. JOÃO CALDEIRA BRANT MONTEIRO DE CASTRO - Obrigado, Deputado Reginaldo Lopes, 2º Vice-Presidente da Comissão, que está presidindo esta reunião.
Cumprimento o Deputado Aguinaldo Ribeiro, Relator, o Antônio, a Bia, o Diogo, o Sérgio, a Carla e os demais convidados.
Quero agradecer ao Leandro e aos consultores envolvidos.
10:25
RF
Esse tema é extremamente caro para nós do Governo, especialmente para nós da Secom. Nós temos trabalhado internacionalmente o debate sobre a integridade da informação.
Eu vou trazer uma contribuição, Deputado, de uma forma que acho que vai ser complementar e vai dialogar com as falas que vêm a seguir. Eu quero tentar dar um panorama de onde vem esse fundamento.
O projeto, como aprovado no Senado, traz a discussão da integridade da informação como fundamento.
Eu queria saudar o Deputado Orlando Silva, promotor desta audiência, o Deputado Pedro Uczai, os demais Deputados presentes, a Rejane.
Temos feito um trabalho muito específico no ambiente internacional sobre esse tema e entendemos que essa é uma abordagem bastante ampla e universal, que nos permite enfrentar temas e desafios próprios no momento digital de hoje sem cair na armadilha da polarização, sem trazer o tema ou a abordagem da desinformação para um primeiro plano, coisa que sabemos que dificultaria inclusive a condução da conversa por aqui.
Ao mesmo tempo, nós temos um desafio grande de cercar o PL de IA para entender aquilo que é específico do processo de inteligência artificial e questões que precisariam ser trabalhadas em outros projetos. Trazemos uma contribuição justamente com essas preocupações, que sabemos que são preocupações do Relator e da Deputada Luisa Canziani.
(Segue-se exibição de imagens.)
A integridade da informação é um conceito que foi adotado pela Organização das Nações Unidas, pela OCDE, que reúne os 38 países mais ricos do mundo — nesse caso, o Brasil aderiu junto com a OCDE — e pelo G20, sob a Presidência do Brasil. Poderíamos falar do Mercosul também, que o aprovou por unanimidade. Na OCDE, vale dizer, quem coordenou esse processo foram os Estados Unidos e a França, como os países que lideraram a agenda a partir do conceito de integridade da informação.
E é um conceito que parte da ideia de que precisamos constituir um ecossistema de informação em que informações confiáveis e precisas estejam disponíveis para todos, permitindo que as pessoas se envolvam significativamente na vida pública, tomem decisões informadas e exerçam seus direitos. Portanto, é uma expressão do direito à liberdade de expressão e do acesso à informação, previsto no Pacto Internacional sobre Direitos Civis e Políticos, e é a materialização e a atualização de um conceito que dialoga e está sustentado por esse direito previsto no art. 19 do pacto.
Vale dizer que houve processos internacionais relevantes. Tivemos primeiro a ONU pautando esse tema em 2023 e uma declaração liderada pelo Canadá e pela Holanda, que o Brasil assinou. Depois, em 2024, a ONU publica Princípios globais para a integridade da informação. O Grupo de Trabalho de Economia Digital do G20 traz esse tema, e isso é aprovado na Declaração de Líderes, com consenso entre Estados Unidos, China, Arábia Saudita, União Europeia, Reino Unido, todo mundo. Houve a aprovação das recomendações da OCDE sobre a integridade da informação em dezembro de 2024, com a assinatura dos 38 países e do Brasil. O Brasil foi convidado, pelo protagonismo que vinha tendo no debate internacional, a assinar essa declaração e optou por fazê-lo. Há também o Pacto Digital Global da ONU, que tem aprovação de duzentos países.
Então, nós estamos falando de um conceito muito sólido, fundado no direito internacional, e atual na discussão do digital.
10:29
RF
Como os sistemas de IA generativa podem impactar positiva ou negativamente a integridade da informação?
Só para citar alguns exemplos, a alimentação dos sistemas é o que impacta a capacidade dos sistemas de IA generativa, é o que favorece e impacta positivamente a integridade da informação. Sabemos que as empresas sérias, como a OpenAI, por exemplo, dizem: "Nós temos um treinamento geral na Internet, mas nós temos um treinamento de fontes confiáveis. Nós temos treinamentos de fontes selecionadas. Nós temos um cuidado justamente para oferecer as respostas mais acuradas para os usuários". Isso nem sempre é assim.
Precisamos olhar também para os produtos dos sistemas. Fraudes e golpes são talvez os problemas que mais nos preocupam — o uso de IA generativa para fortalecer fraudes e golpes. Nós temos que olhar para a sustentabilidade das fontes de informação e notícias. Eu sei que vai aparecer o tema da relevância da remuneração compensatória no formato de direitos autorais no jornalismo nas próximas falas. Acho que isso dialoga diretamente com a necessidade de os sistemas de IA não matarem a galinha dos ovos de ouro, que é quem produz informação de qualidade. Temos a ideia também de que os sistemas de IA podem reproduzir ou romper padrões de discriminação que afetam grupos historicamente vulnerabilizados. Podemos falar de mulheres, crianças e adolescentes, pessoas negras, etc.
O desafio do projeto de lei, no nosso ponto de vista, Relator, é justamente não tratar de desinformação. Isso foi uma opção que o Senado fez e que eu tenho certeza de que vocês pretendem manter. Ao mesmo tempo, temos que mitigar os efeitos dos deepfakes, que constituem fraude, induzem o usuário a erro e geram danos a terceiros — portanto, aquilo que é crime, aquilo que já está estabelecido como crime e que pode ser enquadrado como tal.
A Presidência da República criou um GT para olhar para o tema dos deepfakes, com vinte juristas especialistas — estão aqui Bia, Diogo e outras pessoas que têm participado —, que se debruçou sobre isso para trazer um conjunto de contribuições. Eu faço isso aqui de maneira ainda preliminar. Depois isso vai ser entregue ao senhor por esse grupo. Ele parte de alguns diagnósticos.
Primeiro, os deepfakes são um problema emergente e urgente, ameaçam direitos, colocam em risco a segurança das pessoas e podem alimentar atividades criminosas. Nós temos um tema de preocupação com crianças e adolescentes, de como isso tem sido usado em escolas, por exemplo. Isso, inclusive, suscitou um projeto de lei da Deputada Jandira Feghali para mexer no Código Penal, mas isso não está no universo da discussão de inteligência artificial. Temos a questão também da proteção das mulheres, a questão das imagens íntimas. Temos várias manchetes importantes de como isso já tem causado problemas reais a partir de deepfakes.
Nós temos um problema maior, que são as fraudes e golpes — maior, no sentido de que tem sido mais comum. A questão das fraudes e golpes no ambiente digital tem sido um problema muito frequente. As pesquisas mostram que metade da população brasileira, mais ou menos, já foi diretamente afetada ou já teve familiares próximos afetados. Nós temos imagens de Deputados de esquerda e de direita sendo usadas, como imagens do Deputado Nikolas Ferreira e do Ministro Fernando Haddad. Nós temos exemplos vários de figuras públicas que são usadas para aplicar golpes. O Drauzio Varella ou o Pedro Bial, se estivessem aqui, poderiam dar depoimentos muito fortes. O Pedro Bial diz: "Eu, todo dia, tenho que ficar mapeando como a minha imagem é usada para isso". O Drauzio Varela, a mesma coisa. Nós temos vários exemplos de figuras públicas.
10:33
RF
Frente a isso, nossa leitura é de que precisamos de mecanismos legais para enfrentar os deepfakes e os crimes associados a ela, especialmente quando envolvem uso de marcas de empresas e governos e uso de imagem de figuras públicas — a partir daí isso já é detectável no processo de criação — e quando afetam mulheres e grupos vulneráveis, como crianças e adolescentes. A nossa leitura é que os dispositivos do PL, do jeito que estão, são insuficientes para isso. É preciso avançar, mas é preciso cercar, justamente lidarmos com aquilo que é crime, e crime grave, como fraudes e golpes, crimes contra mulheres, crimes contra crianças e adolescentes.
Algumas sugestões: trazer dispositivos que protejam a imagem da pessoa contra o seu uso por deepfakes no artigo de direitos; trabalhar no risco excessivo, para fortalecer a vedação contra deepfakes de abuso sexual de crianças; proibir também deepfakes de imagens íntimas não consentidas; trabalhar, no art. 19, sobre a IA de geração de conteúdo sintético; prever identificador também com relação à pessoa retratada e ao seu consenso; ao mesmo tempo prever proteção da liberdade de expressão, sátira, paródia, crítica, que sabemos que são elementos que precisam estar especialmente preservados.
Entendemos que é preciso trazer algum nível de responsabilidade para os sistemas de IA, quando há uma geração de deepfake criminosa que envolva o uso de imagens de pessoas públicas ou marcas. Sabemos que esse debate não é fácil, que essa discussão sobre responsabilidade precisa ser feita com cautela, mas entendemos também que é preciso haver uma implicação. Diferentemente de um ator de distribuição com uma rede social que não sabe necessariamente que isso foi criado, no caso dos sistemas de IA generativa, eles estão sendo pedidos para criar algo fraudulento. Então, nós precisamos entender qual o nível de responsabilidade que é preciso estabelecer para esses atores desde o começo.
Deixo isso como contribuição inicial, sem prejuízo de partilhar justamente a visão sobre sustentabilidade do jornalismo, que eu tenho certeza que vai ser apresentada nas falas seguintes e que é um tema caro para nós também.
Muito obrigado. (Palmas.)
O SR. PRESIDENTE (Reginaldo Lopes. Bloco/PT - MG) - Grato pela contribuição, João Brant, Secretário de Políticas Digitais da Secom.
Passo a palavra para o nosso próximo convidado, o Antônio Paulo da Silva Santos, Secretário de Relações Institucionais da Fenaj, por 10 minutos.
O SR. ANTÔNIO PAULO DA SILVA SANTOS - Bom dia a todos.
Bom dia, Presidente, Deputado Reginaldo Lopes, Deputado Relator Aguinaldo Ribeiro, demais Deputadas e Deputados, colegas aqui presentes, Bia e João Brant, e demais que vão compor a Mesa.
Antes de mais nada, a Federação Nacional dos Jornalistas agradece o convite para participar deste debate e contribuir com algumas posições a respeito do Projeto de Lei nº 2.338, de 2003, que trata do desenvolvimento, fomento, uso ético e responsável da inteligência artificial.
Inicialmente, gostaríamos de questionar um termo que tem se popularizado, o de inteligência artificial generativa, que muitos especialistas já apontam que o nome é no mínimo inadequado. Isso porque essas ferramentas, de fato, não criam, não inventam, não geram nada de novo. O que elas fazem é recombinar de forma probabilística conteúdos previamente produzidos por seres humanos. Portanto, são operações estatísticas que reaproveitam, de maneira automatizada, textos, imagens, sons e vídeos já existentes, ou seja, o que se chama de geração é, na prática, reaproveitamento e redistribuição do trabalho humano. É justamente aqui que entram as nossas maiores preocupações enquanto jornalistas, comunicadores e criadores de conteúdo.
O Projeto de Lei nº 2.338 traz artigos que reconhecem a centralidade dos direitos autorais nesse debate. Por isso, queremos destacar os pontos que consideramos imprescindíveis e que devem ser mantidos e fortalecidos no texto.
10:37
RF
O art. 2º, inciso XVII, é claro ao estabelecer que o desenvolvimento e o uso de IA no Brasil deve respeitar a proteção dos direitos autorais e conexos, além da propriedade intelectual. O art. 4º, inciso XIII, por sua vez, define a mineração de textos e dados, base de muitos sistemas de IA, mas ressalta que esse processo precisa estar em conformidade com a legislação vigente, inclusive com a nossa Lei de Direitos Autorais. Além disso, no art. 30, o inciso IV estabelece que os desenvolvedores só podem usar o conjunto de dados coletados legalmente, e o inciso V obriga a publicação de um resumo dos dados utilizados no treinamento das IAs.
Esses dispositivos são fundamentais porque tocam em um ponto central: a inteligência artificial só funciona porque se alimenta do conteúdo produzido por jornalistas, artistas, escritores, fotógrafos, cinegrafistas e tantos outros profissionais.
O SR. PRESIDENTE (Reginaldo Lopes. Bloco/PT - MG) - Antônio Paulo, só instante. Quero convidar a nossa Presidenta para se sentar à mesa e coordenar a nossa reunião.
O SR. ANTÔNIO PAULO DA SILVA SANTOS - Bom dia, Deputada Luisa.
A SRA. PRESIDENTE (Luisa Canziani. Bloco/PSD - PR) - Bom dia.
Desculpe-me pela intromissão. Fique à vontade.
O SR. ANTÔNIO PAULO DA SILVA SANTOS - Continuando sobre essa questão dos dispositivos fundamentais como ponto central, a inteligência artificial só funciona porque se alimenta desses conteúdos. Se esse conteúdo é utilizado sem autorização, sem citação e sem remuneração, ocorre aí uma clara violação de direitos autorais, uma prática que a Fenaj tem corretamente chamado de plágio e desvio ético.
Precisamos contextualizar toda essa problemática com a realidade do mercado de trabalho.
Em pesquisa realizada pela Fenaj, em parceria com o Dieese, ficou demonstrado que entre 2013 e 2023, portanto, 1 década, o jornalismo brasileiro perdeu 10.982 postos de trabalho, o que corresponde a uma redução de 18% do número de empregos com carteira assinada. Em 1 década, saímos de quase 61 mil vínculos formais para menos de 50 mil. Esse é um dado alarmante que mostra o encolhimento das redações, a precarização da profissão e a substituição de vínculos formais por trabalhos cada vez mais informais e instáveis.
Ora, se já vivemos esse cenário de perdas, como imaginar o impacto que terá a utilização indiscriminada das chamadas IAs generativas, ferramentas que são capazes de reproduzir, recombinar e apresentar conteúdo jornalístico sem fonte, sem checagem e sem crédito ao autor? O risco é a ampliação do desemprego, a precarização ainda maior do jornalismo e a substituição da informação apurada por sistemas automáticos que cometem erros graves.
Aqui destaco outro ponto importante do PL 2.338/2023 que consideramos essencial: a integridade da informação, sobre a qual o João Brant já fez uma explanação com mais rigor e mais detalhes.
O art. 2º fala em garantir confiabilidade, precisão e consistência. Isso é vital, porque sabemos que as IAs produzem as chamadas alucinações, respostas inventadas, dados imprecisos, informações falsas apresentadas como verdadeiras, sem checagem humana, sem supervisão. O que se multiplica, portanto, é a desinformação.
10:41
RF
Portanto, Deputadas, Deputados e demais participantes desta audiência, precisamos ser firmes. Não há dúvida de que o PL 2.338/2023 é uma oportunidade histórica para o Brasil se colocar na inovação tecnológica, na vanguarda mundial, protegendo não apenas essa inovação mas também os trabalhadores da comunicação e a própria democracia.
A Federação Nacional dos Jornalistas defende três pilares fundamentais para o aprimoramento deste projeto de lei. Primeiro: respeito integral aos direitos autorais, com remuneração obrigatória para jornalistas e criadores de conteúdo, quando suas obras forem utilizadas no treinamento de IA. Segundo: transparência total sobre as bases de dados usadas sobre os conteúdos gerados, de modo que a sociedade saiba diferenciar o que é humano e o que é máquina. Terceiro: proteção ao emprego no jornalismo, para que a tecnologia não seja instrumento de precarização, mas de apoio à atividade profissional.
Finalizo reforçando que sem jornalismo não há democracia; que, se o trabalho do jornalista for inviabilizado, invisibilizado ou apropriado por máquinas, sem ética e sem responsabilidade, estaremos diante de um retrocesso civilizatório. Cabe a nós garantir que a inteligência artificial esteja a serviço do interesse público, e não apenas do lucro das grandes empresas de tecnologia.
Muito obrigado. (Palmas.)
A SRA. PRESIDENTE (Luisa Canziani. Bloco/PSD - PR) - Muito obrigada, Antônio, pela presença e pela representação dos nossos jornalistas aqui na Comissão.
Quero aproveitar para agradecer e registrar também a presença constante dos jornalistas aqui no andamento dos trabalhos da Comissão, acompanhando-nos. Quero deixar o nosso reconhecimento à imprensa, que nos acompanha de forma tão séria.
Agora passaremos a palavra à Bia Barbosa, nossa representante feminina aqui da Mesa. A Bia é Coordenadora de Incidência do Escritório para América Latina da Repórteres sem Fronteiras.
Bia, você está com a palavra.
Muito obrigada.
A SRA. BIA BARBOSA - Bom dia, Deputada.
Bom dia a todas as pessoas, ao Relator Aguinaldo Ribeiro, a todos os Parlamentares presentes.
Queria agradecer em especial ao Deputado Orlando Silva pelo requerimento desta audiência e pela inclusão da Repórteres sem Fronteiras neste ciclo de debates tão importantes que esta Comissão está fazendo.
A Repórteres sem Fronteiras é uma organização internacional que há 40 anos atua em defesa de um jornalismo plural, diverso e independente, em defesa dos jornalistas que encarnam esse trabalho de maneira muito difícil em várias regiões de conflito pelo mundo. E, cada vez mais, temos nos debruçado também sobre os novos desafios. Ao mesmo tempo que precisamos dar conta dos desafios históricos do exercício dessa atividade, precisamos olhar para novas questões que são trazidas.
(Segue-se exibição de imagens.)
No campo do jornalismo, temos várias preocupações com a maneira como a inteligência artificial tem mudado a forma como criamos, distribuímos, consumimos informação e como esses sistemas também podem ser facilmente utilizados por grupos políticos, por interesses não legítimos que queiram manipular o debate público, que queiram enganar a sociedade, enganar o cidadão, enganar os tomadores de decisão em relação a isso, influenciando nesses processos e semeando dúvidas sobre fatos que devem constituir a base do nosso discurso público.
10:45
RF
No jornalismo, a gente tem hoje dois desafios específicos. Primeiro, eu quero falar sobre a criação da informação. A inteligência artificial apresenta estes desafios: a autenticidade e a confiabilidade dos conteúdos jornalísticos.
Ao reduzir os obstáculos para uma produção de conteúdos enganosos de forma muito convincente, a inteligência artificial permite que um grupo cada vez maior e mais diversificado possa criar e distribuir desinformação adaptada em grande escala para cidadãos e cidadãs de todo o mundo. A utilização da inteligência artificial sem um controle humano adequado para produzir esse tipo de conteúdo pode resultar na produção de conteúdos sintéticos, cuja manipulação seja imperceptível para a maioria da população, e os impactos podem ser desastrosos.
Se há centenas de vídeos falsos dizendo que o Deputado Nikolas Ferreira encontrou o Papa, pode ser que não haja grande impacto para o debate público essa informação falsa estar circulando. Porém, se o vídeo for do Presidente dos Estados Unidos falando sobre o resultado das eleições no Brasil ou dizendo que o Ministro Barroso está preparando as malas para fugir do País, começa a haver um impacto mais sério no nosso debate público. A gente está falando do Presidente da Suprema Corte.
Podemos falar também de vídeos manipulados do Presidente Zelensky na Ucrânia. Estou trazendo outros exemplos para mostrar que esse fenômeno não ocorre só do Brasil, é internacional. A gente sabe disso e do quanto se pode manipular a opinião pública sobre o que está acontecendo na Ucrânia. Isso também aconteceu recentemente nas eleições da Argentina. Lá, vídeos manipulados impactaram as votações.
O Secretário João Brant já citou Pedro Bial e Drauzio Varella, que tiveram a imagem utilizada em golpes. Eu trago o exemplo de outro jornalista que também teve a imagem utilizada. O apresentador do Jornal Nacional, William Bonner, em uma série de vídeos de deepfake circulando na Internet, aparecia apoiando candidatos à vereança nas últimas eleições locais no Brasil.
Quando a gente olha para o que aconteceu durante as enchentes do Rio Grande do Sul, do ponto de vista da massiva campanha de desinformação, a gente também percebe um impacto significativo para a formação da opinião, seja para saber quem estava distribuindo ajuda ou resolvendo aquela situação, seja para saber a origem dos problemas que aconteceram ali.
Esse tipo de conteúdo, se disseminado de maneira massiva e não regulada, mina a confiança da sociedade em relação não só a esses conteúdos específicos, mas a todos os conteúdos que circulam nos meios de comunicação. A IA, nesse sentido, pode corroer a confiança do cidadão num debate público baseado em fatos. Então, mesmo os conteúdos que não forem manipulados de maneira sintética passam a ser alvo da desconfiança e da descredibilidade da população.
O segundo desafio tem a ver com a forma como a gente consome os conteúdos informativos e a distribuição deles. Hoje, a inteligência artificial influencia na decisão sobre quais informações cada cidadão vai ter acesso ou não, a partir dos modelos de moderação e recomendação de conteúdos que são feitos principalmente pelas plataformas de redes sociais. Ao fazer a moderação e a recomendação de conteúdos de maneira ultrapersonalizada, há impactos na decisão sobre a que conteúdo um cidadão vai ter ou não acesso. Aí, eu estou falando especificamente de conteúdos jornalísticos. Dessa maneira, pode haver uma influência significativa em como o panorama informativo é percebido pela sociedade como um todo. A gente passa a ter acesso a menos pluralidade, a menos diversidade, a menos fontes de informação, porque a IA direciona esses conteúdos de maneira muito segmentada. Atualmente, 5 bilhões de pessoas acessam informações diariamente por meio do Google e da Meta. As redes sociais transformaram-se hoje no principal mecanismo de acesso e consumo de informação jornalística por parte de cidadãos e cidadãs no mundo todo.
10:49
RF
Esse direcionamento tem a ver com a questão de inteligência artificial. Mesmo que a gente não esteja falando de conteúdos desinformativos, mesmo que a gente não esteja falando de deepfakes, a gente está falando do direcionamento e do acesso à informação por meio de recomendação e moderação desses conteúdos. E isso, no cenário em que a gente conhece qual é a lógica do modelo de negócios das grandes plataformas digitais, que não é oferecer informação de confiança, mas, sim, manter o cidadão engajado e consumindo ou interagindo cada vez mais com esses conteúdos, pode ter um impacto muito significativo. Várias pesquisas no mundo já têm mostrado esse comportamento, do ponto de vista da ampliação da circulação da desinformação e do seu fortalecimento, o que a gente chama, na Repórteres sem Fronteiras, de caos informacional.
Para evitar, então, que a inteligência artificial se torne, de fato, uma arma de desinformação em massa, a Repórteres sem Fronteiras defende uma regulação abrangente voltada para a inteligência artificial e o direito a informações confiáveis. A gente sabe que a inteligência artificial não foi criada para isso, não nasceu com esse objetivo, mas, se a gente não regula esse sistema, verifica os impactos que já estão acontecendo. O Secretário João falou aqui de casos de proteção de crianças e adolescentes, de fraudes, de golpes, de conteúdos que violam direitos fundamentais, e a gente precisa olhar também para o impacto disso no debate público e no sistema informacional.
Eu termino trazendo cinco recomendações da Repórteres sem Fronteiras específicas para o texto do PL 2.338.
A primeira delas pode não parecer necessária. No entanto, em função das enormes pressões que esse projeto tem recebido, é fundamental que a gente mantenha a integridade da informação como fundamento da legislação, no seu art. 2º.
Segunda recomendação: é preciso que a gente estabeleça uma estrutura clara de responsabilidade para evitar a criação e a distribuição de deepfakes prejudiciais. A gente sabe que o Presidente Donald Trump em uma dancinha com o Elon Musk não vai prejudicar o Presidente Donald Trump nem o Elon Musk, mas há deepfakes — e vários exemplos foram dados aqui — que são deliberadamente criadas para prejudicar atores políticos das mais diferentes vertentes e colorações políticas.
Então, é fundamental a gente garantir que o conteúdo gerado por inteligência artificial, em primeiro lugar, seja sinalizado, que a marcação possa ser lida por máquina, para que não haja dúvida de quem está consumindo esse conteúdo de que houve a sintetização e a manipulação de imagens ou de áudios. No entanto, a transparência por si só não é suficiente, porque, mesmo quando identificadas, as deepfakes podem prejudicar pessoas.
A recomendação, então, que a Repórteres sem Fronteiras tem feito, não só no Brasil, mas também em vários países que estão discutindo a regulação da inteligência artificial, é que os provedores de IA sejam obrigados a impedir, de forma robusta, a geração de deepfakes prejudiciais e não consentidas. Ao mesmo tempo, deve haver um regime de responsabilidade claro e abrangente para a criação e a disseminação de deepfakes prejudiciais, incluindo sanções proporcionais em relação à publicação intencional desses conteúdos que causem danos ou que sejam criados sem o consentimento das pessoas.
10:53
RF
Uma terceira recomendação é que os sistemas de inteligência artificial que fornecem acesso a notícias e a informações sejam considerados como sistemas de alto risco. O texto do Senado previa isso, mas houve uma grande pressão das plataformas na reta final da discussão no Senado, no fim do ano passado, e a questão da moderação e recomendação de conteúdo saiu do texto da lei por conta disso. A Repórteres Sem Fronteiras faz um apelo a esta Casa para que reveja, em razão de todos os estudos e das informações que estão sendo compartilhadas aqui, a importância de esses sistemas serem considerados de alto risco e que fontes de informação confiáveis possam ter visibilidade maior no ambiente.
Na mesma linha, há uma quarta recomendação. O art. 77, que foi inserido no texto da lei, exige que o uso de IA para moderação e recomendação de conteúdo e que esses tipos de sistemas sejam regulados por meio de legislação específica. Isso foi uma pressão na reta final e acabou entrando no texto. A gente recomenda a exclusão disso por entender que esse tema dos sistemas de IA para moderação e recomendação de conteúdo é fundamental de ser trabalhado no texto.
E, por fim, não vou me alongar nisso, acho que o representante da Fenaj já falou muito bem sobre a importância de manter no texto a previsão de direitos de compensação do jornalismo para utilização de conteúdos para o desenvolvimento e treinamento de sistemas de IA.
Eu gostaria, se a Presidenta me der 1 minuto, de compartilhar um vídeo, que tem 58 segundos, sobre uma campanha que a Repórteres Sem Fronteiras lançou, que se soma a um esforço maior de vários colegas e de organizações que estão aqui pela regulação e por uma IA responsável.
(Exibição de vídeo.)
Esse é um vídeo bem curtinho para poder circular nas redes. A gente fez uma projeção aqui em Brasília, recentemente, na Biblioteca Nacional, fazendo um apelo aos Parlamentares para que garantam o direito à integridade da informação dos usuários no ambiente digital em geral e de sistemas de IA nesse texto.
Agradeço e fico à disposição. E deixo de presente aqui, tanto para a Presidente da Comissão quanto para o nosso Relator, um bonezinho da nossa campanha que diz: Regulação da IA Já. Sem regras, o futuro é programado por poucos.
Obrigada. (Palmas.)
A SRA. PRESIDENTE (Luisa Canziani. Bloco/PSD - PR) - Obrigada, Bia, pela gentileza, pela participação e pelas contribuições precisas inclusive em relação ao texto que nós estamos analisando aqui. Agradecemos a você e a toda equipe da Repórteres Sem Fronteiras.
Pedimos licença aos nossos expositores para que possamos formar a nossa segunda Mesa. Fiquem à vontade.
Nós formaremos a nossa segunda Mesa a partir do Sr. Sérgio Branco, Diretor do ITS — Instituto de Tecnologia e Sociedade.
Agradecemos também a presença da Sra. Carla Egydio, Diretora de Relações Institucionais da Associação de Jornalismo Digital.
10:57
RF
Convidamos também o Victor Drummond, Presidente-Executivo da Interartis, e o Diogo Cortiz, Professor da PUC-SP e pesquisador em Inteligência Artificial e sociedade.
Aproveito também para agradecer as presenças do Napoleão e do José Eduardo Pieri, que representam aqui a Associação Brasileira da Propriedade Intelectual. Muito obrigada pelas suas presenças e contribuições trazidas não só a mim, mas também ao nosso Relator, que avaliaremos com toda cautela e discernimento. Muito obrigada.
E queria pedir licença aos meus colegas para fazer uma saudação muito especial ao meu amigo e parceiro, o Vereador Moisés, da cidade de Apucarana, que está conosco. Muito obrigada.
Começaremos as exposições com a apresentação do Sérgio Branco, representante do ITS — Instituto de Tecnologia e Sociedade.
Tem a palavra o Sérgio Branco.
Obrigada. Fique à vontade.
O SR. SÉRGIO BRANCO - Bom dia a todos.
Cumprimento a Deputada Luisa Canziani e o Deputado Aguinaldo Ribeiro. Agradeço a oportunidade de vir falar em nome do ITS, que é uma instituição independente, sem fins lucrativos. Trata-se de uma associação do Rio de Janeiro que, há 12 anos, vem trabalhando, entre outros assuntos, com propriedade intelectual.
Hoje a gente veio falar sobre direito autoral, a regulação da inteligência artificial a partir da perspectiva do direito autoral.
(Segue-se exibição de imagens.)
Quando a gente opta por falar de direito autoral, a gente tem que seguir a coerência do direito autoral, que é um sistema forjado no século XIX na Convenção de Berna, que já foi mencionada aqui outras vezes, em outros dias, e de que vou voltar a falar. E o direito autoral foi consolidado ao longo do século XX, a partir de uma ideia de restrição de acesso, criando o direito de exclusividade.
Ao passarmos do século passado para este, há 25 anos, a forma como o direito autoral foi estruturado gerou já uma série de dificuldades. Alguns vão se lembrar que, a 25 anos atrás, nós discutíamos pirataria, cópia privada, download de música, caso Napster. Naquela época, quando a gente discutia como é que o direito autoral dava conta de um mundo digital e de novas tecnologias, muito se pensou em mudar a lei. Inclusive, houve propostas de criminalizar quem utilizasse a Internet para baixar conteúdo ilícito. Mas o que se mostrou mais factível — e não estou dizendo que seja a única resposta ou a resposta definitiva — foi uma mudança no modelo de negócio com a criação de plataformas, como Netflix, Spotify e plataformas de streaming, porque se alterou o modelo de acesso a bens físicos — livros impressos, CDs, DVDs — para um acesso a obras que são desmaterializadas.
E, agora, estamos falando novamente de direito autoral em outra camada de dificuldade, que é a inteligência artificial, que me parece não dá para resolvermos isso apenas e exclusivamente a partir de um olhar do direito autoral. Temos que olhar o mercado e ver quais são os efeitos das escolhas legislativas que nós estamos propondo ao mercado.
Uma das premissas do direito autoral é essa exclusividade para o titular do direito, que, no art. 29 da Lei de Direito Autoral, manifesta-se logo no primeiro item, que diz: "Art. 29. Depende de autorização prévia e expressa do autor a utilização da obra, por quaisquer modalidades, tais como: I - a reprodução (...)" Várias vezes foi dito nesta Comissão, em outros dias, que havia a reprodução da obra no treinamento de ferramentas de inteligência artificial. Outras vezes, foi dito que não havia a reprodução, que o que havia era a extração de dados da obra, sem que isso caracterizasse uma reprodução. Esse é um elemento técnico que, na minha percepção, precisa ser mais debatido, mais compreendido, porque ele é fundamental, quando nós tomamos a decisão de regular o direito autoral nessa área ou não. Estamos falando de direito autoral aqui ou, quando falamos da extração de dados, não estamos falando de direito autoral?
11:01
RF
Nesse eslaide, vemos o art. 65 do PL. Esse artigo faz menção à remuneração aos titulares. Diz o texto:
Art. 65. O agente de IA que utilizar conteúdos protegidos por direitos de autor e conexos em processos de mineração, treinamento ou desenvolvimento de sistemas de IA deve remunerar os titulares (...).
Está correto, do ponto de vista do direito autoral, falar em remunerar os titulares, mas "titular" não é necessariamente sinônimo de "autor". E nós sabemos que, dentro do processo de produção de conteúdos, via inteligência artificial, existe uma demanda razoável dos autores, com a alegação de que o trabalho deles pode vir a ser substituído ou está sendo substituído por criações feitas por inteligência artificial.
Quando determinamos a remuneração dos titulares, do ponto de vista do direito autoral, está correto, mas não resolve o problema social, não resolve o problema do mercado. Temos que olhar também ou principalmente para os autores.
Talvez, a coisa mais importante que eu tenha a compartilhar com vocês seja o seguinte: a Convenção de Berna, o principal diploma internacional no Sistema Internacional de Direitos Autorais, está internalizada no nosso ordenamento jurídico por meio de um decreto de 1975 que, no seu Artigo 5, item 2, diz:
Artigo 5
...............................................................................................
2) (...) Por conseguinte, afora as estipulações da presente Convenção, a extensão da proteção e os meios processuais garantidos ao autor para salvaguardar os seus direitos regulam-se exclusivamente pela legislação do país onde a proteção é reclamada.
O que isso significa? Imagine que você é um autor brasileiro. Você escreveu livros ou compôs músicas e acha que as suas obras estão sendo usadas em outro país e quer contestar esse uso. Você acha que esse uso é ilegal. Você precisa litigar nesse país, pelas regras desse país, porque as regras são diferentes, como, por exemplo, no que diz respeito ao prazo de proteção. Essa regra é muito conhecida por conta de países que adotam prazos de proteção distintos. Eventualmente, uma obra brasileira, de um autor brasileiro, escrita em português, protegida no Brasil, entra em domínio público mais cedo em outro país, porque as regras são distintas. Então, se você acha que a sua obra está sendo usada indevidamente em outro país, você tem que litigar nesse país de acordo com as regras desse país. Isso é o que está escrito nesse dispositivo da convenção.
Se nós tivermos um sistema de treinamento de inteligência artificial que seja economicamente desfavorável, o que provavelmente vai acontecer é treinamento em outro território. Se a gente exigir uma remuneração excessiva para o treinamento, a gente vai ver o treinamento acontecendo em outro território, sem pagamento de direitos autorais, porque outros territórios estão adotando sistemas de treinamento sem remuneração. E você vai poder fazer treinamento em outros territórios sem remuneração e sem o desenvolvimento no Brasil de sistemas que sejam competitivos. A gente tem que ter isso em mente, porque isso decorre da aplicação de um artigo da Convenção de Berna. O que podem ser eixos que nós precisamos tomar como decisão? Vejam só, tenho certeza de que todo mundo aqui quer que a indústria nacional seja desenvolvida, que a gente desenvolva ferramentas de inteligência artificial que sejam eficientes, competitivas e socialmente relevantes. Mas nós também queremos proteger os autores, nós também queremos proteger os criadores. Só que isso não é simples, e é por isso que nós estamos aqui debatendo essa questão.
11:05
RF
Quais são os eixos importantes que a gente tem que pensar para ver qual é a melhor solução legislativa? Liberdade de text and data mining. Talvez isso seja a melhor solução, porque, se a gente não tiver uma liberdade maior de text and data mining, pode acontecer o que a Convenção de Berna permite, ou seja, que haja o treinamento fora do Brasil.
É claro que isso não pode levar a uma permissão excessiva também, de modo que deve haver pagamento pelo treinamento nos demais casos, quando há opt-out, quando há obras que precisam ser licenciadas. Isso já está sendo decidido nos Estados Unidos. Recentemente, isso já foi mencionado aqui também. Segundo decisão recente dos Estados Unidos, no caso da Anthropic, não temos fair use, mas, em uma equivalência, entendeu-se que poderia fazer o treinamento, mas você não pode usar livro pirata, você não pode baixar bibliotecas piratas. É preciso remunerar. Quanto a essa remuneração pelo uso das obras, nos casos de opt-out, nos casos em que existe um paywall, por exemplo, ou base de dados estruturados, é necessário que haja o licenciamento, senão a gente vai estar permitindo pirataria. Tem que haver um desincentivo aos usos expressivos de substitutivos.
Na minha opinião, sobretudo — não sei se sobretudo —, a gente tem que levar o jornalismo em consideração, porque a matéria bruta do jornalismo são fatos, e fatos não são protegidos por direito autoral. É muito fácil você reescrever uma notícia dizendo que não violou direito autoral, mas desconsiderar todo um trabalho de pesquisa. Nós temos um problema também aqui de mercado de trabalho. Não se trata só de um problema de mercado de direito autoral, mas também de um problema de mercado de trabalho. Então, é necessário que haja um desincentivo aos usos expressivos de substitutivos.
Temos que ter em mente a proteção dos autores. Não me parece suficiente proteger os titulares, embora, do ponto de vista do sistema do direito autoral, isso esteja correto.
Estou encerrando a minha fala. Este é o meu último eslaide. Não dá tempo de detalhar tudo isso, mas eu vou enviar as considerações para a Comissão.
No art. 62, nós temos que pensar se estamos falando de inteligência artificial ou inteligência artificial generativa. Nós temos que separar o uso meramente técnico do uso expressivo. Lembrando que as bases de dados, mesmo que os dados não sejam protegidos por direito autoral, ou seja, se forem de bases de dados médicos, educacionais, climáticos, demográficos, também podem ser protegidas por direitos autorais. Só que o uso dessas bases de dados dificilmente gera resultados expressivos que substituam os dados originais. Por isso, é importante fazer essa distinção.
O sumário, previsto no art. 62, tem que ter um padrão técnico mínimo, com metadados legíveis por máquina, formato interoperável. Quando o art. 63 fala em "não ter fins comerciais", talvez seja mais importante incluir "não concorrer com a exploração normal da obra", porque eu estou olhando mais para o mercado.
11:09
RF
Deve-se ter text and data mining livre e garantir a remuneração dos autores quando houver opt-out ou quando for caso de licenciamento.
Sobre a revisão do § 4º não dá para falar neste momento.
É recomendável incluir uma regra dizendo que outputs que reproduzam substancialmente obras protegidas configuram infração, mesmo se o treinamento foi lícito.
Agradeço mais uma vez a oportunidade e me coloco à disposição para eventuais esclarecimentos.
Obrigado. (Palmas.)
A SRA. PRESIDENTE (Luisa Canziani. Bloco/PSD - PR) - Obrigada, Sérgio, pela participação e por estar sempre presente aqui nas nossas discussões.
Eu gostaria de registrar e agradecer também a presença do nosso eterno Ministro Mendonça, que está conosco, um grande conhecedor da área da inteligência artificial e de temas relacionados à transformação digital aqui na Câmara dos Deputados, que recebeu inclusive a incumbência de relatar a PEC da Segurança Pública.
Então, quero desejar a V.Exa. os melhores votos, Ministro Mendonça. Eu tenho a convicção de que a sua relatoria será muito bem-sucedida.
Passo a palavra para a Sra. Carla Egydio, que representa a Associação de Jornalismo Digital — Ajor.
Obrigada.
A SRA. CARLA EGYDIO - Bom dia a todas as pessoas presentes aqui.
Quero agradecer, especificamente, ao Relator e à Presidente da Comissão pelo convite para integrar esta audiência pública e também aos subscritores do requerimento que resultou nesta audiência pública.
Hoje, eu estou aqui representando a Ajor — Associação de Jornalismo Digital. É importante reforçar que ela é composta por 155 veículos jornalísticos do País, com muita diversidade entre si. E também quero reforçar a participação da Ajor na Frente IA Responsável.
Quero saudar os companheiros que vieram acompanhar esta Comissão.
A Frente IA Responsável é composta por diversos setores do campo criativo. Nós temos dubladores, aqui representados pela Ângela; nós temos roteiristas, representados pelo Paulo; nós temos o pessoal das produtoras de som, representado pela Bia; além de colegas do jornalismo, como a Repórteres sem Fronteiras e a própria Fenaj, que participaram da primeira parte.
Eu queria reforçar que esse é um tema muito caro aos produtores de conteúdo. Nós estamos trabalhando nessa frente de forma conjunta, muito preocupados com o impacto em um campo que representa não só um direito humano, que é o direito à cultura, não só o direito à comunicação, mas também uma parte significativa do nosso PIB. Portanto, a gente precisa de um olhar para a perspectiva econômica, para o impacto econômico no nosso setor.
Eu queria pedir licença para entregar a nossa carta, Deputada, que é uma carta assinada por quarenta organizações que integram a Frente IA Responsável.
Eu queria estruturar a minha fala em três partes. Acho que foi ótimo estar na segunda rodada porque algumas das coisas já foram ditas anteriormente pelo Secretário João Brant e pela Bia Barbosa.
Mas eu queria reforçar a primeira parte, que diz respeito à necessidade de um capítulo que trata de direitos autorais dentro desse projeto. Se nós regularmos a inteligência artificial — e acho que existe um compromisso com essa regulação — sem endereçar um dos principais tópicos da inteligência artificial, que é justamente o insumo para a produção de sistemas de inteligência artificial generativa, não todo sistema de inteligência artificial, que também é importante ressaltar, e se nós fizermos uma opção que exclua a parte de direitos autorais, nós teremos uma legislação fraca ou, ainda, uma legislação incompleta. E por que isso é tão importante? Porque, sem os conteúdos protegidos por direitos autorais, nós não teremos sistemas de inteligência artificial generativa. Também, sem garantir transparência e sem garantir uma concepção protetiva de direitos nessa regulação, nós teremos uma regulação, o que impactará negativamente a integridade da informação.
11:13
RF
Quero tentar fazer uma fala que consiga estabelecer a conexão entre direitos autorais e integridade da informação, que é o objeto desta audiência, porque às vezes parecem temas separados, mas não são.
O primeiro ponto é: nós precisamos de uma regulação que seja compatível com outras normas sobre o tema. A propriedade intelectual e, especificamente, os direitos autorais estão protegidos em legislações internacionais, na Declaração de Direitos Humanos, em convenções internacionais, como já foram mencionadas aqui, como a Convenção de Berna, a Convenção de Roma e o Acordo Trips, mas também na nossa Constituição, que os prevê como direito fundamental, e na Lei de Direitos Autorais. Então, esse é o arcabouço jurídico que nós temos hoje e que precisamos compatibilizar com uma lei sobre inteligência artificial.
Qual é o perigo de não fazermos essa compatibilização aqui? É que essa decisão do País significa que esse tema vai ser enfrentado pelo Judiciário, o que está acontecendo em outros países. Todos os dias, nós recebemos notícias de mais e mais processos de titulares de direitos questionando o uso de seus conteúdos. Então, eu acredito que a solução normativa é uma solução melhor do que a solução do litígio. Por isso, defendo que mantenhamos um capítulo de direitos autorais neste texto.
Acho também que é muito importante que a gente vença essa falsa contradição entre inovação e direitos. É possível inovar, é possível permitir a inovação, garantindo direitos fundamentais. Isso é necessário. Eu acredito que o texto de direitos autorais não impede a inovação. Muito pelo contrário, ele compatibiliza a inovação e o respeito a direitos.
Nesse capítulo de direitos autorais, nós temos vários trechos. Alguns dos trechos já foram apresentados aqui. Eu queria destacar dois pontos: a transparência e a remuneração.
Especificamente em relação à transparência, a opção do Senado Federal foi endereçar o problema da accountability desses sistemas de IA generativa. Existe um problema grave em relação às possibilidades de impacto no ecossistema informacional dos sistemas de IA generativa. Não estou falando só de fraudes e golpes, mas também de desinformação. Estou falando sobre como os conteúdos jornalísticos estão sendo distribuídos. Os sistemas de IA generativa não são apenas um novo modo de distribuição, são também um novo modo de produção de conteúdo. Eu acho que esse é um ponto para o qual precisamos atentar com cuidado.
Como o meu colega disse, no caso do jornalismo, o caráter de substituição é evidente. Os buscadores atualmente respondem às buscam com resumos, ou seja, no resultado da busca você vê um resumo. E nós já temos pesquisas internacionais que dizem que em torno de 40% das pessoas não clicam em nenhum dos links que estão sendo apresentados. Elas consomem a informação somente com o resultado da busca. Então, não tem como dizer que isso não tem um caráter de substituição. Ao mesmo tempo que esse é um caráter de substituição, não existe nenhum tipo de compensação para que esse conteúdo continue sendo produzido.
Quando falamos de conteúdo jornalístico, estamos tratando de um conteúdo caro para ser produzido. É difícil produzir conteúdo jornalístico. É preciso se responsabilizar, existe uma forma de produção e há um investimento financeiro muito grande.
Além disso, o conteúdo jornalístico cumpre uma função pública. A gente está falando do debate público, do direito das pessoas de terem acesso à informação. E, muitas vezes, esse acesso à informação também garante outros direitos.
O caso da desinformação, das fraudes que houve no que aconteceu no Rio Grande do Sul, trazido aqui pela Bia, é muito grave! E se a gente não tivesse produção de conteúdo jornalístico? E se a gente não tivesse nenhum enfrentamento daquela desinformação sendo feita na ponta? Então, esse caráter substitutivo não pode ser desconsiderado ou colocado em segundo plano. Precisamos apresentar uma solução que olhe, sim, para a inovação, mas que também garanta algum tipo de mecanismo de compensação financeira e de transparência sobre com que os conteúdos as IAs estão sendo alimentadas, porque, se ela produz um conteúdo a partir do modo como foi alimentada, e essa alimentação se deu apenas com uma perspectiva, ela produzirá um conteúdo que apresentará apenas aquela perspectiva. Não me parece que essa seja uma boa escolha para o debate público e para o nosso ecossistema informacional.
11:17
RF
Essa ponte entre integridade da informação e direitos autorais é fundamental, porque, quando falamos em transparência, nós não estamos falando apenas no direito dos titulares de conteúdos, mas também no direito dos usuários de saberem de onde veio aquele conteúdo, qual é a origem daquela informação, para poderem, inclusive, contestá-la.
Do ponto de vista da remuneração, dois pontos são fundamentais. Primeiro, a remuneração é justa, e é importante que enfrentemos este debate. Nós não estamos falando de milhares de pequenas e microempresas nacionais que estão usando conteúdos. Nós estamos falando, sobretudo, de empresas internacionais que têm um capital enorme e que têm toda a capacidade de financiar e de remunerar, em alguma perspectiva compensatória, o conteúdo que eles estão utilizando. Não podemos tirar isso do radar.
Segundo, é fundamental que esse texto preveja uma perspectiva de negociação coletiva, porque, se não for garantida negociação coletiva, apenas grandes produtores e grandes titulares de conteúdos vão ter capacidade de negociar. Houve um esforço muito importante do Senador Eduardo Gomes, Relator do projeto no Senado Federal, para garantir uma perspectiva coletiva nessa remuneração.
Antes de concluir, trato de mais dois pontos. Quando falamos de grandes empresas que estão não só distribuindo o conteúdo jornalístico, mas também fazendo uma curadoria dele e produzindo novos conteúdos, a partir dos nossos conteúdos, portanto, ficando com o nosso tráfico, com a relação com a audiência e substituindo o papel do jornalismo, precisamos, sim, defender transparência e remuneração.
O outro ponto é uma provocação: nós precisamos, sim, olhar para sistemas de IA generativa nacionais, criar condições, enquanto País, para que essa inovação seja possível. Para isso, nós precisamos entender qual é o papel do Estado. Podemos criar soluções para que o Estado brasileiro incentive isso. E, para incentivar o surgimento de pequenas e microempresas que fazem seus próprios sistemas de IA generativa, pode-se passar para uma política de licenciamento de conteúdos, em que sejam garantidos diversidade, pluralidade, conteúdos locais, regionais, com recorte de gênero, de raça, e que a gente tenha, de fato, uma biblioteca plural e diversa, como é o Brasil e como são os produtores do nosso País, para que isso seja, de alguma forma, cedido a pequenas e microempresas, para que elas consigam desenvolver seus próprios sistemas.
Nós não somos contra o desenvolvimento de soluções nacionais, mas não podemos tirar de vista que a realidade hoje não é a de pequenas e microempresas usando nossos conteúdos, mas, sim, de grandes empresas internacionais que têm capacidade de remuneração.
11:21
RF
Encerro com o pedido de que esse capítulo continue no texto. Podemos aprimorar o texto. Estamos superdispostos a dialogar, a fim de que consigamos combinar soluções que olhem para o desenvolvimento nacional, mas que respeitem os nossos direitos e atentem para o caráter substitutivo que mencionei aqui.
Obrigada. (Palmas.)
A SRA. PRESIDENTE (Luisa Canziani. Bloco/PSD - PR) - Obrigada, Carla, pela participação e por representar a Associação de Jornalismo Digital em nossa Comissão.
Tem a palavra o Sr. Victor Drummond, Presidente Executivo da Interartis.
O SR. VICTOR DRUMMOND - Quero agradecer o convite à Presidente Luisa Canziani, ao Relator, esse Deputado arretado de Campina Grande, cidade onde é realizado O Maior São João do Mundo. Eu tenho dois filhos 50% paraibanos.
O SR. AGUINALDO RIBEIRO (Bloco/PP - PB) - Isso não é fake news.
O SR. VICTOR DRUMMOND - Pois é, não é fake news!
O SR. MENDONÇA FILHO (Bloco/UNIÃO - PE) - Protesto! É o de Caruaru.
O SR. VICTOR DRUMMOND - Era o que eu ia dizer. Eu já sabia que ia chegar essa pedrada. (Risos.)
Eu queria agradecer à Presidente Bel Kutner e à Vice-Presidente Glória Pires, que me deram a missão de falar aqui em nome da associação, que também faz parte da frente pela IA responsável — não é pela não IA, não é pela IA que não deve existir, não é pelas ferramentas inimigas do Brasil. Não é nada disso! Fazemos parte da frente pela inteligência artificial responsável. É disso que temos que tratar, porque, quando pensamos em cenários de ficção científica, Relator Aguinaldo Ribeiro, pensamos nos robôs dominando o mundo, naquelas coisas que o Karel Capek, um autor tcheco, conta desde a década de 20, transformando robôs em inimigos.
Aliás, a palavra "robô" vem do tcheco "robota", uma palavra que significa trabalho escravo. Olhem que interessante, como a etimologia das palavras nos conduz a algumas questões.
Eu queria refletir sobre o fato de que não é o robô autônomo que pode criar problemas para nós, mas o que fazemos, inserindo nesses objetos determinadas circunstâncias. Não é o objeto, somos nós que, como sujeitos, podemos implementar um sistema neles que depois não conseguimos controlar.
O que eu quero dizer e por que tudo isso nos interessa? Eu mudei a minha palestra umas dezoito vezes, obviamente, porque os meus colegas foram falando, e eu fui me adaptando.
O direito autoral é fruto de um pacto civilizatório. Apesar de as leis serem, como disse o meu querido amigo Sérgio Branco, do século XVIII, coisas anteriores aconteceram. Os privilégios reais vêm desde o século XV.
Obviamente, esse sistema se baseia numa dupla concepção. A primeira é a da possibilidade de o criador intelectual receber pelo trabalho dele, ou seja, a consideração de que há um trabalho. E a segunda concepção é a vinculação do autor, do criador, com a criação. Então, a criação está intimamente ligada ao criador. Nós escolhemos isso. Se nós escolhemos isso como pacto civilizatório, como pode uma condição tecnológica romper esse pacto civilizatório de 500 anos, de forma unilateral? Isso não pode ser assim.
A nossa legislação é um aceno para que o pacto civilizatório seja refeito, curiosamente, no Brasil, com seus 500 anos de história, pós-descoberta pelos europeus — não vamos entrar nessa discussão. Estamos falando da possibilidade de entendermos que já se abre mão, no cenário do direito autoral, de um aspecto muito interessante: o resultado — alguns vão dizer que é um resultado criativo ou não por conta das ferramentas — de uma produção que leva em conta todas as obras anteriores. Qualquer ferramenta de inteligência artificial leva em conta um repertório anterior. A soma de pequenos pedaços dessas obras anteriores vai permitir o surgimento de uma nova criação — se alguém for defender que se trata de criação — ou de um novo resultado.
11:25
RF
Se a gente for discutir o plágio, é diante disso que estamos. A gente está diante de uma potencialidade de plágio, porque tudo é anterior. Só quem escapa disso é o autor genial, o criador que rompe fronteiras. Mas com isso se está matando o criador médio.
Quem trabalha com direito autoral aceita que, mesmo estando diante de um plágio, é possível compreender que essa evolução é necessária, desde que haja a possibilidade de indicação da autoria de alguma forma, com a opção do criador de não estar presente ali, e a remuneração, que, sim, Sérgio, resolve parte do problema social, e eu vou dizer por quê.
Por que esse pacto civilizacional está sendo refeito? Porque, se nós temos uma proposta de lei que admite essa modificação, neste momento, compreendemos que essa lei pode ser boa para os proprietários das ferramentas, porque ela é mais adequada do que a lei hoje em vigor.
Se a lei em vigor fosse utilizada pelos nossos colegas advogados como deveria, em detrimento das ferramentas, nós não teríamos milhares, mas milhões de ações judiciais; teríamos um impacto no Judiciário do mesmo tamanho do que há, quando se discute dano moral ou aquilo em que se abre uma porteira para uma discussão pela qual o Judiciário fica absolutamente absorvido.
Nós não queremos essa discussão. Aqui ninguém quer esse tipo de briga ou movimento. O que se pretende é ter uma lei que seja uma média. E este projeto, como veio do Senado, propõe uma lei média, que atende às grandes empresas, às pequenas empresas e aos criadores brasileiros.
Sobre a resolução do problema social, eu vou falar agora como dirigente de uma associação que tem 3 mil artistas, que passam por dificuldades, por não haver na lei brasileira o reconhecimento dos chamados direitos de remuneração.
Não sei se o senhor sabe, mas os atores e atrizes, quando têm a sua imagem utilizada, vinculada à sua interpretação, no caso do Brasil, não recebem direito de remuneração. Eles não recebem qualquer que seja o uso se dê. Quando a gente conta isto na Câmara dos Deputados e no Senado Federal, as pessoas ficam incrédulas: "Como assim não recebem?" O sistema brasileiro ainda não contemplou isso.
Isso gera uma absoluta vulnerabilidade. Novamente, cito a etimologia da palavra. "Vulnerabilidade" vem de vulnus, que significa aquele que pode ser ferido. Vulnerabilidade é a condição daquele que pode ser ferido. Quem pode ser ferido, se a gente errar essa legislação? Todos nós.
Vamos voltar para a questão social. Por que uma associação de gestão coletiva pode resolver os problemas no âmbito social? Porque, se há ferramentas que utilizam o trabalho interpretativo, a imagem dos artistas, e isso pode alimentar um novo banco de dados, esse próprio sistema pode pagar às associações que vão destinar esses valores a esses artistas, que possivelmente já não terão a possibilidade de fazer o mesmo trabalho, porque a sua própria imagem, o seu próprio atuar, a sua própria interpretação — eu estou falando somente de atores e atrizes — já está comprometida pelo exercício prévio do seu trabalho. O trabalho do sujeito mata a possibilidade de ele continuar ganhando dinheiro com a sua existência como artista.
Então, por que esse projeto resolve esse problema? Porque cria uma coisa que não é novidade. Aliás, é novidade no Brasil, mas não é uma invenção brasileira: os direitos de remuneração compensatória — compensatória! Haverá uma compensação, Sérgio. Não é para pagar exatamente o que o artista fez naquela determinada formação que gerou uma criação nova do intérprete ou do músico, etc. É uma compensação. É como se a gente dissesse assim: perdemos essa, mas pelo menos vão pagar algum direito e algum dinheiro para o sujeito poder se alimentar. Isso não é ficção, Deputado. Durante a pandemia, este meu telefone tocava incessantemente, com artistas pedindo dinheiro ou alguma coisa da associação — que não recebe direitos no Brasil, e isso é uma afronta —, para que eles pudessem comprar comida. Demorou um pouco aquele processo da bolsa ou do auxílio, para ser mais técnico. Tínhamos uma reserva e conseguimos pagar a cento e poucos artistas, só que 1.200 pediram, de 3 mil. Esses são os nossos números na pandemia. Pediam 600 reais para comprar comida.
11:29
RF
Esse é o cenário que as pessoas não compreendem em relação a atores, atrizes e artistas que aparecem na TV, ou pessoas que estão ali na grande tela. Entende-se, por uma conexão que eu não sei qual é, que se alguém é famoso ou está na tela é porque é bem-sucedido do ponto de vista econômico, e isso é uma absoluta falácia.
Então, é óbvio que essa medida resolve o problema social. Se eu conseguir, pelo menos, que o sujeito, se não tiver o trabalho dele, possa comprar comida, Sérgio, eu resolvo o problema social, eu garanto dignidade. Esse é o ponto.
E aí, meus queridos, podem fiscalizar as associações de cabo a rabo, pedir todos os documentos, fazer o que vocês quiserem, que não tem conversa, sobretudo com relação aos atores e atrizes, porque o apontamento dos trabalhos e das atividades é muito claro.
Esse era um ponto que eu precisava salientar, porque a vulnerabilidade sai dos direitos de remuneração e entra no cenário da inteligência artificial.
Para terminar, realmente, penso em como os artistas — e eu estou falando no jargão que a gente utiliza na nossa associação, artistas como intérpretes do audiovisual — têm a sua interpretação vinculada à sua imagem. Muita gente confunde direito de imagem com direito de intérprete. Na verdade, quando a Glória Pires, quando o Ary Fontoura, exemplos de pessoas que já sofreram com violação por inteligência artificial mal utilizada, têm a sua imagem utilizada, nós temos um problema da ordem dos direitos de personalidade, e é importante que eles estejam e sigam nesse projeto, mas nós temos também uma questão muito interessante, que é o falseamento da informação pela via da credibilidade daquela pessoa.
Todos nós temos uma credibilidade, ou, às vezes, uma ausência de credibilidade, mas ninguém vai pegar a imagem de alguém que não tem credibilidade para usar. Então, todos os que temos e pensamos em credibilidade como imagem-atributo, que é como nos veem na sociedade, precisamos preservar isso. E o que acontece quando um artista reconhecido de um grande público tem a sua imagem utilizada para algo que é mentiroso? Eu não estou falando do terreno das ideias, eu estou falando de outras coisas. Eu estou falando de a nossa querida Vice-Presidente, Glória Pires, ter a sua imagem utilizada para vender fármacos, ou de o meu queridíssimo amigo Ary Fontoura ter a sua imagem utilizada para vender produtos que melhoram a jovialidade. As pessoas vão acreditar, porque ele tem 93 anos. Elas vão olhar e dizer que, com certeza, ele toma alguma coisa. E ele não toma nada, só toma água e champanhe com os amigos.
O fato é que a credibilidade pode gerar, inclusive, danos à saúde pública, porque esse processo, e nós sabemos disso, de escalonamento da distribuição da mentira, da distribuição da fofoca e do falso, é muito rápido.
11:33
RF
Como diz o Yuval Harari, e com isso eu termino, é custoso produzir a verdade, é custoso estudar e fazer um texto com fontes fidedignas, mas é muito fácil construir uma mentira. A mentira você inventa e põe no mundo, e ela anda com muito mais velocidade.
Então, é importante que a gente tenha um projeto de lei que vire uma lei aqui. E eu estou muito esperançoso com os senhores, Presidente Luisa e Relator Aguinaldo, e com todos os Deputados que estão aqui, porque nós temos um caminho com este projeto de lei, que já é, digamos assim, um caminho do meio, equilibrado, com o qual poderemos garantir os direitos dos criadores e, mais do que isso, que todo esse sistema e esse pacto civilizacional seja respeitado, também com atenção a todos nós que somos cidadãos.
Muito obrigado. (Palmas.)
A SRA. PRESIDENTE (Luisa Canziani. Bloco/PSD - PR) - Muito obrigada, Victor, pela participação em nossa Comissão. Depois quero uma aula de etimologia das palavras. Parabéns pela fala e pelo entusiasmo!
Agora passaremos ao nosso último expositor do dia, o Diogo Cortiz, professor da PUC-SP e também pesquisador em inteligência artificial e sociedade.
Tem V.Sa. a palavra. Muito obrigada.
O SR. DIOGO CORTIZ DA SILVA - Bom dia.
Quero começar agradecendo pelo convite e também cumprimentando a Deputada Luisa Canziani, o Deputado Aguinaldo e os outros colegas da Mesa.
É um prazer estar aqui. Eu vou trazer uma visão um pouco diferente, porque eu venho da área técnica. E, muitas vezes, na área técnica, quando recebemos um projeto de lei, temos o costume de olhar e dizer: o que quiseram dizer aqui? Começamos observando as definições, que podem estar boas ou não, e, às vezes, temos dificuldade de entendimento em função da linguagem.
Muitas vezes, existem questões técnicas que estão sendo desenvolvidas, e eu acho importante trazê-las aqui, para mostrar que o panorama às vezes é um pouco mais complexo, e sempre há coisas novas.
Eu me lembro de que, quando começamos a discutir a primeira versão deste projeto de lei, não existia o Chat GPT. Criou-se o Chat GPT, e foi incorporada, então, a definição de IA generativa.
Eu vou começar com uma apresentação breve, pontuando algumas questões bem específicas nas quais a gente — e eu falo a gente porque conversei com muitos outros acadêmicos da área técnica — tem dificuldades de entendimento.
(Segue-se exibição de imagens.)
Eu teria muito para falar, mas eu vou me concentrar nos temas desta audiência: conceito de IA generativa, direitos autorais e integridade de informação.
Quando a gente olha, por exemplo, para a definição de inteligência artificial generativa, a gente entende, do ponto de vista técnico, científico e acadêmico, que ela é incompleta e também imprecisa, porque o PL fala em: "(...) modelo de IA especificamente destinado a gerar — até aí está o.k. — ou modificar significativamente (...)". Este atributo "significativamente", do ponto de vista técnico, traz dificuldade de entendimento. O que quer dizer isso? Hoje, o modelo de IA generativa — e existem diferentes técnicas — pode modificar muitos ou poucos pixels, e, para nós, isso não faz muita diferença. Então, esse qualificador "significativamente", para nós, tecnicamente, não quer dizer muita coisa e pode complicar.
Porém, existe um complicador ainda maior. O texto continua: "(...) com diferentes graus de autonomia (...)". O termo importante aqui é "autonomia". O que estamos falando sobre autonomia? Quando falamos de autonomia, hoje, na comunidade acadêmica e científica, no mercado internacional, usamos outro termo, que eu vou trazer já, já, que são os agentes de inteligência artificial.
11:37
RF
E o texto ainda diz: "modificar (...) texto, imagens, áudio, vídeo ou código de software". Tudo isso que está aqui é verdade — texto, imagens, áudio, vídeo ou código de software —, mas é incompleto, porque, quando falamos de IA generativa, falamos de um modelo que é capaz de gerar novos dados a partir de dados existentes. Essa é uma definição básica e técnica do que é IA. Aqui, está especificado, e textos e imagens não contemplam uma série de outros tipos de dados que a IA generativa já começa a criar. Por exemplo, se um arquiteto trabalha com um sistema de modelagem 3D ou um animador vai fazer uma animação 3D, esse 3D, em si, não é uma imagem, é a renderização de uma imagem. E a inteligência artificial já começa a gerar novos tipos de dados, como dados biológicos e outros. Essa exemplificação do texto limita a definição, porque parece que os novos dados não estão contemplados aqui.
Eu falei da autonomia. Há um termo fundamental neste debate, quando se diz que os anos de 2025 e 2026 serão os anos do agente de inteligência artificial, no Brasil, no mundo, na comunidade científica, no mercado, nas empresas de tecnologia, em qualquer outra empresa. Quando eu olho "agentes de inteligência artificial" no texto, vejo outra coisa. Vejo uma definição de atores envolvidos no processo: desenvolvedores, distribuidores, aplicadores. Isso está correto, porque, quando esse texto foi escrito, o conceito de "agente de inteligência artificial" ainda não estava tão difundido. Eu acho que existe aqui um tensionamento que só vai causar confusão. De que agente estamos falando? Do que está especificado na lei ou daquele que a comunidade técnica, o mercado inteiro, a sociedade discute hoje?
Se você jogar a expressão "agente de inteligência artificial", em qualquer buscador, vai aparecer um monte de matéria, de mídia, de imprensa, tratando de outra coisa. Talvez seja preciso que se encontre outro nome para o texto da lei. Eu até procurei se no AI Act eles usavam o termo AI Agent, mas não há essa definição. Isso pode ser um complicador.
Eu estou colocando essas contribuições a partir do que temos discutido na parte técnica quanto a esses tensionamentos que identificamos.
Vou avançar, porque o prazo é supercurto.
Entrando na parte dos direitos dos autores e conexos, eu quero trazer uma distinção muito importante. Quando falamos de IA, estamos falando de duas fases específicas: a fase de treinamento do modelo e a fase de inferência. Pode-se entender a fase de inferência como o momento de uso do modelo, quando fazemos uma pergunta para a inteligência artificial, e ela gera a resposta.
Na fase de treinamento usam-se dados. Tudo isso que estamos discutindo está muito focado na fase de treinamento, e o texto do projeto também: a coleta e a organização dos dados que são entregues para a inteligência artificial apreender a partir deles.
No entanto, existe também a fase de inferência, a fase de uso da IA. Repito, esse setor vem avançando muito rápido. Quando começamos a discutir este texto, havia uma IA autocontida, ou seja, eu fazia uma pergunta, e ela gerava uma resposta com base no que ela havia apreendido no treinamento. A tecnologia avançou muito rápido, e, hoje, quase todos os grandes modelos de inteligência artificial comerciais têm mecanismo de busca. O que quer dizer isso? Eles fazem uma busca em tempo real e coletam os dados. E aqui já há outro tensionamento, porque ela não necessariamente usa na resposta aquele conteúdo do treinamento, um conteúdo que tem algum tipo de proteção, mas ela pode usá-los para gerar a resposta. Eu posso ter treinado uma inteligência artificial com dados licenciados, dados sobre os quais eu tenho os direitos, e, na hora que o usuário faz uma pergunta, a IA pode procurar na Internet, encontrar dados referentes à pergunta e gerar uma resposta a partir deles.
11:41
RF
Hoje, está havendo uma migração dos modelos de IA como buscadores, e isso tem um impacto significativo nas indústrias de jornalismo e de criação de conteúdo. Hoje, o principal buscador já incorpora inteligência artificial. Quando isso aparece na busca, mata-se o tráfego. O mecanismo de SEO — Search Engine Optimization, que cuida de como o conteúdo é indexado, mostra que isso mata de 60% a 70% do tráfego para portais. Então, o conteúdo entra, é mastigado e devolvido. Esse é um exemplo.
Na minha interpretação, sendo uma pessoa que vem da área técnica e científica, parece que o texto está muito focado nesse primeiro momento. Por exemplo, o art. 62 estabelece que os desenvolvedores que utilizam conteúdos protegidos por direito do autor e conexos deverá informar sobre conteúdos protegidos utilizados no processo de desenvolvimento. É possível fazer isso no treinamento. Se eu coletei os dados, eu sei o que vou usar para treinar meu modelo. Mas isso é inviável tecnicamente na fase de inferência. O que vai ser acessado pela IA vai depender da pergunta que o usuário fizer, e isso ocorre em tempo real. Então, há dois ambientes: dados que vão ser catalogados num ambiente fechado para treinamento e o mundo aberto que vai ser usado em tempo real. Parece que o texto traz algumas tensões, e ele não contempla, principalmente, essa fase da inferência.
O art. 64 fala da proibição. A gente tem discutido como isso pode ser feito de maneira técnica. Hoje, é possível colocar alguns marcadores em portais — é um arquivo robot.txt —, e novos padrões estão sendo desenvolvidos para dar mais controle a quem está criando e disponibilizando conteúdo. O consórcio W3C — World Wide Web Consortium discute padrões de tecnologias web e desenvolve isso. Aliás, eu sou pesquisador do Ceweb — Centro de Estudos sobre Tecnologias Web, que é um departamento do NIC.br, e a gente hospeda o escritório W3C em São Paulo. Isso está sendo desenvolvido e pode trazer mais controle.
Por fim, existe a questão da remuneração, que vai trazer uma complexidade adicional. Esse campo tem um ambiente de treinamento muito mais controlado em relação à coleta dos dados, mas tem esse momento da inferência. Como eu faço no momento em que meu dado não foi utilizado no processo de treinamento, ou seja, não consta numa lista de treinamentos de dados, então, eu nem posso pedir opt-out, porque isso não consta ali, mas nada garante que uma inteligência artificial, em tempo real, não esteja coletando aqueles dados para gerar respostas?
Do ponto de vista de remuneração, também trago algumas contribuições e ideias. Estão sendo desenvolvidos e pensados modelos e protocolos para trabalhar, por exemplo, com microtransações e micropagamentos. Há um modelo que está sendo pensado sobre isso.
Para finalizar, existe um modelo que acho interessante olharmos, para tratar dessa parte de inferência. O nome desse modelo é ProRata. Se vocês buscarem por ProRata, vão ver que lá existe um chatbot. E, conforme você faz as perguntas, ele também faz a coleta de dados em tempo real, mas, quando apresenta as respostas, traz as fontes e diz algo assim: "Para gerar essa resposta, tirei 60% dos dados da fonte X, 30% da fonte Y, 10% da fonte Z".
11:45
RF
Como técnico, eu posso dizer que é muito difícil fazer isso na fase de treinamento e quando o modelo responde sem consultar outras fontes. Quando eu faço uma pergunta, é muito difícil para um modelo treinado gerar uma resposta e dizer: essa resposta vem 20% de um PDF que eu li, de autoria do Diogo. Isso é muito difícil. Mas, na hora em que ele está trabalhando nessa fase de inferência, consultando outras fontes em tempo real, isso é possível, e a ProRata é um exemplo disso. Essa nova perspectiva técnica contribui para o debate.
Eu não vou me alongar. Eu só queria agradecer pela oportunidade e me colocar à disposição.
Obrigado. (Palmas.)
A SRA. PRESIDENTE (Luisa Canziani. Bloco/PSD - PR) - Obrigada, Diogo, pela participação.
As nossas universidades e a sociedade civil organizada estão sempre presentes em nossa Comissão, em nossos debates.
Passaremos agora ao momento de fala dos Parlamentares. O nosso Relator, sempre gentil, deseja que os Deputados utilizem a palavra antes dele.
Tem a palavra o Deputado Pedro Uczai.
O SR. PEDRO UCZAI (Bloco/PT - SC) - Cumprimento a Deputada Luisa e o Deputado Aguinaldo pela disciplina em tantas audiências. A presença de vocês aqui colabora muito com os diferentes debates.
Eu tenho acompanhado uma parte dos debates pelas gravações, porque não consigo estar sempre aqui presencialmente. A tecnologia nos ajuda a acompanhar as audiências.
Eu considero esta Mesa de hoje uma das mais significativas, porque o tema tratado aqui hoje vai definir, dentro do pacto civilizatório comentado aqui, o que nós vamos fazer com o conhecimento humano, com a produção humana, com a criatividade, com a ciência, com o que se produziu até hoje pela humanidade e com o que nós vamos produzir daqui para frente. O tema da remuneração e dos direitos autorais vai definir o empobrecimento da nossa civilização ou a possibilidade de continuarmos criando arte, cultura e ciência.
Eu venho da academia. Alguns professores demoram 10 anos para produzir uma pesquisa. Se não houver investimento, inclusive público, para a produção de pesquisa, ela não vai ser feita pelo setor privado.
Precisamos definir como a inteligência artificial vai colher os dados da humanidade e remunerar pelo que produzir, de uma ou de outra forma. Eu acho que a última fala aqui nos ajuda a compreender como é complexo e dinâmico o tema da inteligência artificial.
Precisamos discutir uma legislação que dê garantias à sociedade neste momento da história. Eu não tenho muitas respostas, mas eu queria que essa legislação promovesse a continuidade da arte e da cultura.
Miguel Ângelo levou dezenas de anos para produzir suas obras de arte. Havia quem pagasse para ele produzir arte, para ele criar, para ele inventar. Não acredito na cultura sem criatividade, não acredito na ciência sem tempo de elaboração. Aliás, Domenico De Masi escreveu um livro belíssimo intitulado O Ócio Criativo.
11:49
RF
Quando eu não tenho uma agenda intensa no fim de semana, venho com cinco ou seis novos projetos na segunda-feira. O meu coordenador de agenda diz: "Vamos botar um monte de compromissos na agenda do Deputado, para ele não trazer novos projetos de lei".
Eu estou coordenando três livros este ano. Enquanto eu estou aqui, estou coordenando outros projetos, porque eu sou inquieto. E eu acho que é a inquietude produz arte, cultura, ciência, inovação, tecnologia. E a gente corre o risco de não induzir as pessoas nessa direção de tirar tempo para produzir um bom texto jornalístico, um bom texto de ciência, um bom texto de cultura.
A inteligência artificial colhe os dados de tudo o que se socializou no mundo e os privatiza. E, a partir dessa privatização do conhecimento que a humanidade produziu na arte, na cultura, na ciência, em qualquer área do conhecimento, a IA transforma tudo em mercadoria e capitaliza isso de forma concentrada.
Para mim, uma nova legislação nessa área precisa acolher o que foi produzido pela humanidade e democratizar ao máximo essa inovação em pequenas e microempresas e em tantas outras oportunidades no Brasil. E aí entra o tema da soberania.
Como uma empresa, em tão pouco tempo, vira bilionária e logo, logo trilionária? É porque ela se apropria de todo o conhecimento produzido pela humanidade, centraliza esse conhecimento e distribui os dados.
Deputado Aguinaldo, quantas décadas a Votorantim levou para ser o que é hoje no mundo industrial? Quantas décadas as empresas na nossa região levaram para ser o que são hoje? Começaram como empresas familiares, foram crescendo e se desenvolvendo, ampliando o nicho do mercado. Isso demorou 30 anos. Agora, com a inteligência artificial, vira-se bilionário e trilionário em 1 ano, porque concentram todo o conhecimento, na arte, na cultura, e distribuem esses dados.
Deputado Aguinaldo, esta é a maior oportunidade da nossa experiência política, porque podemos garantir que isso se torne público, incentivando a criatividade, a cultura, a arte e a ciência, além de garantir os direitos autorais pelo uso de dados. É complexo tratar dessa centralização dos dados para a produção, porque já está tudo centralizado, e nós não temos nenhum controle sobre isso.
Eu queria terminar minha fala nessa direção. Eu acho que muita coisa boa veio do Senado. E os expositores das outras audiências, de outras áreas, também trouxeram muita coisa boa. Como nós podemos melhorar isso? Qual é a nossa contribuição na Câmara dos Deputados?
Precisamos tratar de temas como democracia, desinformação, uso da inteligência artificial para destruir a reputação de pessoas.
Eu sempre olho para o Deputado Aguinaldo, porque ele é o Relator. Eu estou aqui como participante de uma Comissão.
Quando se destrói a reputação de nossos colegas, construída em 30, 40 anos de participação no processo político, fazendo da política quase uma missão... Nós sabemos o sacrifício que fizemos para estar neste espaço. Nós sabemos o que isso significa para a nossa vida, para a vida da nossa família, para os nossos filhos. E, de uma hora para outra, a inteligência artificial pode nos destruir, pode nos colocar nus, destruindo reputações, valores, cultura, em erotismo, em tudo, não só no mundo da política, mas no mundo pessoal, na intimidade.
11:53
RF
Eu pedi a amigos que entendem de inteligência artificial que usassem meu rosto para produzir algo com o fim de destruir a minha reputação, colocando-me nu, fazendo sexo com animal, para a sociedade ver como isso se dá. Eu fiz isso para mostrar o que pode ser feito, para mostrar como é fácil destruir a reputação de alguém, como é fácil usar a inteligência artificial para destruir a democracia, para destruir a reputação das pessoas, para destruir o que a civilização produziu, o marco civilizatório nas relações.
Hoje, estamos discutindo mais a cultura, a arte, o direito, o direito à cultura, o direito à criatividade. Mais do que pagar os profissionais, precisamos garantir à sociedade o direito de continuar tendo cultura, arte, música decente, e não pegar só o que se produziu de música, sem termos uma música nova, sem termos uma música com nova criatividade e com novas culturas, sem termos ciência nova. Isso empobrece o que nós temos hoje. Eu estou olhando para essa direção, para que a gente consiga criar essa lei com muita responsabilidade.
Eu acho difícil discutir inteligência artificial sem entrar numa seara difícil no Parlamento brasileiro, a da regulação das redes. Eu acho que é um fio difícil de conservar. O Deputado Aguinaldo sabe a dificuldade que vai ter nessa seara. Vamos cuidar da inteligência artificial por enquanto, para que a gente consiga dar alguns passos.
Eu estou me convencendo, Deputado Aguinaldo, de que o excesso de informação não significa boa informação. O excesso de dados está nos imbecilizando, está nos idiotizando. A Suécia agora levanta caneta, papel, lápis e livros como símbolos de criatividade, porque a informação rápida, generalizada e em excesso está imbecilizando os estudantes. Nos Estados Unidos, os jovens do ensino médio já perderam um terço do vocabulário. Assim, a gente vai empobrecendo a cultura, vai empobrecendo o conhecimento, com excesso de informações curtas e rápidas.
Para mim, garantir direito autoral não significa só remunerar os que produzem, significa garantir o futuro da humanidade.
É isso. (Palmas.)
A SRA. PRESIDENTE (Luisa Canziani. Bloco/PSD - PR) - Muito obrigada, Deputado Pedro Uczai, pela fala emotiva, que nos trouxe muita reflexão.
A inteligência artificial, como toda nova tecnologia, combina muitas oportunidades e muitos riscos. Espero que possamos, a partir da sua fala inspiradora, sempre nos nortear por aquilo que nos torna essencialmente humanos, que é a nossa capacidade de criar, de nos emocionar, de acolher, de sentir, de ser felizes, de amar. Espero que tenhamos sempre essa nossa capacidade em mente.
11:57
RF
Agora, nós concederemos a palavra à Deputada Denise Pessôa, a quem agradeço pela participação.
A SRA. DENISE PESSÔA (Bloco/PT - RS) - Bom dia, Presidente, Deputada Luísa, Deputado Aguinaldo e todos os que participam da Mesa.
Neste momento em que se debate tanto a soberania nacional, relembramos momentos na história em que fomos explorados, e, muitas vezes, seguimos sendo explorados.
Acho que esse debate cabe hoje, porque um dos maiores ativos do País é a diversidade cultural. Nós, pessoas, somos o produto de tudo isso. E a diversidade cultural no Brasil está sendo, sim, um produto para IA. É um produto riquíssimo que hoje está sendo explorado sem regramento.
Como Presidente da Comissão de Cultura da Câmara dos Deputados, a minha preocupação é garantir a diversidade e a pluralidade da cultura do nosso País, o que, por si só, já é.
Eu sou arquiteta, e a gente trabalha com a questão dos direitos autorais. O Diogo falava da arquitetura.
Eu acompanhei na semana passada uma mesa de debates. Quando a gente não regra a IA, as produções acabam sendo reproduções, e a gente acaba desestimulando a produção de novos conteúdos. A gente acaba pasteurizando o conteúdo que chega até as pessoas, porque tudo fica com a mesma cara, tudo fica com a mesma linguagem.
A gente conversava ontem com o pessoal da dublagem sobre a diversidade da forma de se expressar no Brasil. Como se fala no Rio Grande do Sul é diferente de como se fala no Nordeste. Em todo o Brasil, temos as nossas diferenças. Se a gente não respeitar tudo isso, se não houver transparência em relação aos dados que chegam à IA e não houver regramento dessa diversidade, vai haver a formatação do pensamento e do comportamento das pessoas.
Eu entendo que o respeito aos direitos autorais garante transparência à entrada de informações na IA, à fase de treinamento, que é o constrói o comportamento da IA. O tipo de informações que estão vindo precisa ter transparência, assim como o tipo de comportamento que está sendo regrado.
Eu entendo que a gente não pode só olhar o resultado do lucro no final. Nós somos políticos e sabemos que também existe uma construção de comportamento e de pensamento que pode não gerar lucro lá no final, mas pode gerar votos, pode gerar posicionamento político, construção de um pensamento político. Por isso, a transparência é importante para a gente entender o que está chegando até a IA e como isso vai sair depois.
O Deputado Pedro falava de todos esses ataques aos direitos humanos que acabam acontecendo pela IA e pela falta de regramentos. Eu acho que a gente tem uma oportunidade gigantesca de uma nova independência do nosso País, tratando desse potencial das informações e da cultura brasileira, que é tão rica. A gente precisa regrar isso de uma forma responsável. E, é claro, trabalhar a questão da integridade da informação é essencial, como foi trazido aqui. Acho que esse tem que ser um princípio norteador.
12:01
RF
Eu sou do Rio Grande do Sul. Sabemos o que ele sofreu com as enchentes. Estávamos a poucos quilômetros de uma cidade onde diziam: "Ah, tem corpos de crianças boiando". Havia muita desinformação e golpes. As pessoas davam golpes em outras que já estavam sensibilizadas, que não sabiam e foram vítimas de golpes. Além de serem vítimas da enchente, de terem tido um monte de traumas, de perderem familiares, ainda sofreram com os golpes que aconteciam, porque a desinformação causa isso.
Então, precisamos avançar, sim, nesse regramento. Acho que, escutando todos os setores — tanto o pessoal ligado ao jornalismo, ao jornalismo sério, quanto o pessoal ligado à cultura —, conseguimos proteger a maior riqueza brasileira, que é, sim, a diversidade cultural, que são as pessoas que constroem essa diversidade cultural. Temos a oportunidade de dizer: "Olha, essa diversidade cultural é patrimônio brasileiro e, portanto, tem que ser respeitada". Na Comissão de Cultura também já estamos organizando um novo momento para debater, especificamente, o recorte da cultura e queremos contribuir cada vez mais aqui, para este projeto.
Muito obrigada. (Palmas.)
O SR. PRESIDENTE (Pedro Uczai. Bloco/PT - SC) - Muito obrigado, Deputada Denise.
Passo a palavra agora, por deferência da Deputada Luisa Canziani, ao nosso nobre Relator, o Deputado Aguinaldo Ribeiro, para suas considerações, suas perguntas, suas indagações, suas interrogações, para sua manifestação.
Deputado Aguinaldo Ribeiro, Relator da matéria, a palavra está com V.Exa.
O SR. AGUINALDO RIBEIRO (Bloco/PP - PB) - Obrigado, Presidente, Deputado Pedro Uczai, um grande companheiro que temos na Casa e que tem participado desta Comissão.
A Deputada Denise Pessôa e outros Deputados que já estiveram aqui tiveram que se ausentar. A nossa Presidente, a Deputada Luisa Canziani, também teve que se ausentar agora, por força de outra agenda.
Nós estamos de fato diante de um grande desafio, de um desafio que não é fácil, porque são escolhas que nós temos que fazer. Estamos diante de uma realidade, a de uma tecnologia que de fato ninguém controla, porque ela se dá hoje num ambiente que não tem fronteira, que interliga o mundo. Um cidadão da China se conecta com um cidadão do Brasil e dos Estados Unidos, de qualquer país que detenha uma infraestrutura de tecnologia mínima. A cada dia nós vemos as tecnologias avançarem. Foi registrado aqui por um dos nossos expositores que, quando pensávamos na votação e na concepção do Projeto de Lei nº 2.338, ainda não existia a IA generativa. Ela surgiu num espaço de tempo muito curto e cresceu, vamos dizer assim, exponencialmente, muito rapidamente.
Foi muito boa a participação da Mesa. Eu queria mais uma vez parabenizar todos os expositores, porque trouxeram reflexões e pontos de vista que vão enriquecer muito o juízo de valor que nós estamos formando, o que não é fácil. Vamos ter que dividir essa responsabilidade. Não há um Relator aqui. Nesta Casa — não é, Deputado Pedro? —, nós construímos um relatório, mas ele, na verdade, passa a ser de todos. Não existe texto bom ou texto ruim, existe o texto que é aprovado, e aquilo ali é o que é consensuado dentro da Casa.
12:05
RF
Agora, acho que, de fato, do ponto de vista da nossa sociedade, há questões pelas quais nós estamos passando que exigem reflexão mais profunda, que não têm a ver com a inteligência artificial. Talvez isso tenha a ver com a inteligência natural, com a nossa inteligência, com as relações sociais. Os valores são temas que são caros. Eu acho que a maior corrupção — e falamos muito de corrupção e, quando falamos disso, sempre associamos a corrupção a dinheiro —, na verdade, a que estamos sofrendo ao longo deste novo século, a corrupção mais danosa a uma sociedade, é a corrupção dos valores que ela tem. Nesses valores está intrinsecamente a cultura. Quando, por exemplo, dizemos que se utiliza de uma inteligência artificial para se dar golpe, é porque nós somos uma sociedade suscetível a isso.
Eu vou contar rapidamente a história de um amigo meu. Alguém falou aqui que a Suécia — acho que foi V.Exa., Deputado Pedro — virou o símbolo da caneta e do papel. Eu tenho um amigo, que é brasileiro, que é casado com uma cidadã sueca, que está grávida. Ele queria que a esposa tivesse o filho no Brasil, para que seu filho fosse brasileiro. Meu amigo foi se informar sobre os trâmites da solicitação ao Governo para que cobrisse essa despesa, porque lá existe essa cobertura, como se fosse um seguro de saúde. Ele explicou a situação, e a pessoa disse: "Olha, vá lá, tenha o filho, traga a comprovação da despesa e o recibo, e aqui a gente paga". O meu amigo não se conteve e perguntou: "Mas e se o cara aumentar o valor da despesa que ele teve lá, se botar um valor a mais?" A pessoa respondeu: "Mas por que alguém faria isso?" (Risos.)
Essa é, então, uma questão do ponto de vista civilizatório, como aqui o Victor falou. Acho que essa é uma discussão que mostra que precisamos rever o contrato social e civilizatório de pátria que temos. Vemos os nomes "pátria" e "nação" serem tão usados, mas eu acho que isso é muito mais profundo e implica direitos e também deveres. Lamentavelmente, isso remete àquilo que vivemos lá nos anos 70, à Lei de Gérson, quando se estimulava como qualidade o seguinte: "Brasileiro bom tem que levar vantagem em tudo". Essa era a propaganda que o Gérson fazia de um cigarro, cuja marca acho que era Advance.
Era Advance ou Vila Rica? Não me lembro mais.
12:09
RF
(Intervenção ininteligível fora do microfone.)
Eu também não fumo. (Risos.)
Mas, enfim, esse é um desafio.
Por que estou fazendo este preâmbulo? Eu acho que as decisões que nós vamos tomar aqui... Por exemplo, falávamos há pouco em música, em obras. O que vemos é que a nossa sociedade está indo por um caminho em que cada vez mais, por conta desse... Não é por conta da tecnologia, porque a tecnologia é uma ferramenta que temos. A rede social e a Internet são ferramentas que você tem. Ela pode ser usada de uma forma boa, mas é nossa opção também usá-la de uma forma danosa para a nossa sociedade. Antes de existir o ChatGPT, tínhamos música.
Eu falei ontem e falarei de novo: sou músico. Na minha crença musical... Por exemplo, há muita coisa que eu não escuto mais hoje porque eu acho um lixo, e não é inteligência artificial, é inteligência natural que produz, é lixo cultural, e a nossa sociedade consome. (Risos.)
Não há mais aquela influência dos selos, que detinham o domínio do mercado. Havia cinco ou seis selos, que botavam o cara no programa de uma emissora de TV para cantar, para influenciar, ou a novela colocava um padrão de moda no nosso País. Isso sempre houve.
Acho que essa é uma questão. A outra questão é esta: como nós vamos fazer a regulação da inteligência artificial, que é uma ferramenta? Nós temos esse desafio. Há coisas que não são feitas pela IA. É uma linha tênue. Acho que tem que haver também simetria de regulação. Tudo o que tiver conexão com aquilo que formos regular tem que ter o mesmo parâmetro, na minha avaliação. Eu acho que tem que regular, eu sou defensor de se regular tudo, não do ponto de vista de proibir ou restringir, mas de criar regra. Até mesmo no convívio social, com o meu vizinho, tem que haver regra. Na minha família há regras. Eu defino a regra, como pai de família que sou. Então, em tudo há regras. Aqui virou sinônimo de... Quando se quer fazer um marco regulatório, as pessoas já dizem que se quer cercear algum direito do cidadão, e não é isso. Agora, acho que, para aquilo que tem conexão, nós vamos ter que adotar parâmetros simétricos, para não criarmos confusão no cumprimento da lei. Senão, já, já haverá um entendimento para a regulação da inteligência artificial e outro entendimento para outra regulação que é necessária fazer, como aqui foi dito, e terminamos criando esse ambiente.
O Relator não tem que falar. Pelo contrário. Tem que ouvir. Não sei nem porque estou falando. Eu deveria estar calado. (Risos.)
Mas foi tamanha a riqueza do debate que começamos a pensar, a pensar. Eu acho que este é o ambiente em que precisamos pensar juntos para construir esse texto.
Acho que temos alguns desafios, Deputado Pedro, para essa construção a ser feita. Aqui várias provocações foram feitas. Eu anotei. A provocação do João Brant, que foi o primeiro a falar, que falou sobre os artigos para a inclusão de proteção contra deepfakes e direito de imagem.
12:13
RF
De certa forma, você colocou aqui também a proteção ao direito de imagem.
Depois, o Antônio Paulo dos Santos trouxe uma nova definição, que eu já vou adotar, que é a da IA regenerativa, não generativa. (Risos.)
Ele quebrou aquilo que se usa e, a partir dali, recriou, criou outra coisa, baseada naquela informação que chegou, e é verdade. Aqui ele traz a preocupação com o art. 2º, traz a questão da permanência de alguns comandos legais que já vieram no texto do Senado e que precisamos respeitar. Veio a questão do respeito integral aos direitos autorais, da transparência total do conteúdo e da proteção ao emprego.
E você terminou frisando o seguinte: "Sem jornalismo não há democracia".
A Bia Barbosa também trouxe vários pontos. Eu anotei alguns, que são relevantes.
Eu anotei uma frase que você trouxe na apresentação, para fazer uma provocação entre nós. Você falou: "Além de inventar fontes e criar desinformação (...)". Eu acho que, no fundo, a IA não inventa. Alguém inventa, alguém dá o comando para que ela faça o trabalho. Então, por mais que tenhamos a inteligência artificial, por enquanto eu acredito — e a ficção talvez avance, e vejamos aquilo virar realidade — que sempre vai haver um humano dando comando, um prompt. Então, se existe isso, não é a IA que está criando. Quem está criando é o cidadão que está por trás dela. Há sempre um CPF, no caso do nosso País, ali por trás, inventando e criando. Você trouxe aqui a frase: "Manter a integridade da informação".
A questão do risco excessivo eu vou já lincar com o que o Diogo disse lá atrás, sobre a dúvida nas terminologias. Estamos estudando isso, ou seja, que definições e terminologias usar. Vamos buscar o que é mais adequado para ter segurança jurídica na aplicação do texto. Por exemplo, "risco excessivo" é uma terminologia que talvez tenhamos que aprimorar, porque o risco excessivo, no nosso texto, é aquilo que, para mim, seria inaceitável, não seria nem excessivo. São terminologias em que vamos avançar. Recebemos de muito bom grado essa contribuição que vocês já trouxeram e já as coloco aqui.
Coloquei aqui a demanda de incluir a expressão "alto risco" no art. 14 e a demanda de retirar o art. 77, da Emenda Big Techs.
O Sérgio trouxe — e eu deixei de anotar, porque era tanta informação, e ele falou tão rapidamente — um debate sobre a questão da liberdade de usar o treinamento e a mining, vamos falar assim. Esse talvez seja um desafio para todos nós aqui.
Primeiro, eu achei interessante o debate que você trouxe, sobre o que é possível pela metade. É possível identificar a receita do bolo, como foi falado na audiência pública de ontem. Você pode identificar o que é manteiga, margarina, fermento e ovo no pedaço de bolo, mas só no comando do buscador. Foi isso o que eu entendi, se não entendi equivocadamente.
12:17
RF
Aí há um desafio, que discutimos ontem: saber como você faz isso, essa remuneração, por exemplo, a partir do que foi proposto ontem e um pouco hoje também, sobre o licenciamento a partir do treinamento, e depois ter uma medida, que foi muito citada aqui também, uma medida compensatória ou remuneratória compensatória, no segundo momento. A pergunta que eu já faço a todos os que falaram sobre este tema é se essa é a segunda medida. Você teria a primeira, o licenciamento, e depois, a avaliação de uma medida compensatória. Como se daria isso? Porque nós precisamos também de efetividade. Esse é um ponto que precisamos ter com clareza, ou seja, como se dará isso.
Sobre o livre treinamento, o Sérgio trouxe um ponto que é muito relevante, a possibilidade, para quem está fora do País, de treinar lá fora. Como não temos fronteira, quem está aqui vai consumir um produto de inteligência artificial em que foi treinado lá fora, com o material a que teve acesso. Acho que hoje muita gente já tem esse material. Não se vai buscar, já está capturado, vamos dizer assim, esse material e vai ser usado.
Cabe também a seguinte pergunta, que eu fiz ontem e vou fazer também agora. No caso do jornalismo, é muito mais difícil, na minha avaliação, ver como endereçaríamos isso. Aqui eu estou perguntando para aprender mesmo. Como faríamos isso? No caso de licenciamento, quem vai licenciar é quem tem interesse no licenciamento. Se você vai para as obras, sejam elas de jornalistas, sejam elas de cantores, sejam elas de compositores, você vai para as obras que, no seu entendimento, são mais relevantes e você talvez crie um desvio de exclusão social e deixe o pequeno produtor, aquele pequenininho, sem ser licenciado. Esse vai estar fora do processo. Então, talvez tivéssemos que levar em consideração também uma fórmula para fazer isso sem que esse marco legal exclua. Senão as pessoas vão levar em consideração as grandes obras, os grandes autores, aquilo que vende: "Vamos aprender isso aqui, e esse outro vai ficar de fora". O cara de fato vai ficar de fora.
Essa não é uma linha fácil. Se fosse fácil, não estaríamos aqui sentados discutindo, mas acho que vamos ter que traçar isso em conjunto, buscar o que é mais justo, do nosso ponto de vista mesmo. Eu não imagino nenhum cidadão brasileiro, nem eu, nem ninguém que está aqui, que queira uma legislação que vai promover a exclusão.
12:21
RF
Tirar o emprego eu acho que independe da regulação, porque é uma relação social, não é regulatória. Uber e iFood: as pessoas começaram a usar, e agora é que se está tentando regular, mas a relação social começou antes. Talvez você tenha mudança de trabalho.
Aliás, eu li o livro O ócio criativo, de Domenico de Masi, que inventou o home office 30 anos atrás, trinta e poucos anos atrás. Ele dizia: "Por que eu tenho que trabalhar naquele lugar? Eu trabalho em casa e sou até mais criativo e produzo mais em casa do que lá". Ele dizia que havia ganho de produtividade.
Então, como é que vamos endereçar isso, para haver uma nuance como essa?
Focando agora a integralidade da informação e a questão do jornalismo, eu digo que queria ter mais informação, para que pudéssemos construir. As linhas são tão tênues, e temos que versar sobre elas no texto. Eu sei que são desafios porque elas estão ligadas também aos buscadores, estão ligadas a outro ambiente que não é especificamente o que competiria ao Projeto de Lei nº 2.338. Mas, por haver essa nuance, temos que ver como nós trabalharíamos para endereçar isso.
Eu já falei de direito de remuneração compensatória...
Só para confirmar: o Maior São João é o de Campina Grande, não é o de Caruaru. Corroboro sua fala. É verdade, é verdade. (Risos.)
O SR. VICTOR DRUMMOND - Que lute o Deputado Mendonça! Que lute!
O SR. AGUINALDO RIBEIRO (Bloco/PP - PB) - Mendonça ainda tem um caminho pela frente para nos alcançar, mas Mendonça é muito querido.
O Diogo trouxe a questão dos conceitos, e a Carla trouxe a questão da transparência e da identificação das fontes. Talvez isso, tanto para uma coisa quanto para outra... Eu acho que a identificação — e estou aqui pensando alto — talvez seja o caminho para muita coisa, para você identificar não só a obra, para você identificar quando é feita por IA, mas que também para a pessoa que acessa para fazer upload e ter conteúdo haja a obrigatoriedade da identificação. Porque gente não se identifica. Nós temos a Lei Geral de Proteção de Dados Pessoais — LGPD, mas eu duvido que haja alguém nesta sala que, ao acessar algum app, leia os termos e as condições antes de apertar o quadradinho "li e aceito". Você está consentindo. (Pausa.)
Todo mundo ficou caladinho aqui. (Risos.)
É a realidade como ela é. Você já aperta sem ver o que está consentindo.
Mas, se eu souber identificar quem está ali, que não seja uma criança, por exemplo, que esteja acessando — porque, se for, ela ficará impedida de acessar —, que não seja alguém querendo colocar um conteúdo ilegal, eu organizo isso, para não delegar sempre para as empresas o que é responsabilidade nossa, como cidadãos.
12:25
RF
Esses são pontos que talvez tenhamos que construir. Hoje todo mundo abre conta em banco. Aliás, um tema ainda das outras audiências públicas é a chamada leitura facial, que é uma confusão, todo mundo discute. Mas quando alguém hoje vai a um prédio, vai entrar em um apartamento, faz o cadastro e coloca o rosto para se identificar. Por que, talvez, não se adotar uma identificação como essa? Esses são pontos para debate.
Não estou dizendo que vou optar por isso no meu texto. O que eu estou dizendo não tem nada a ver com o texto. Nós estamos fazendo um debate para construirmos a ideia e depois escolhermos o caminho do texto. Mas foi isso o que você falou: transparência, identificação das fontes e remuneração.
O Victor Drummond fez um tratado histórico e civilizatório sobre a nossa humanidade. Acho que precisamos refletir muito sobre isso. O Diogo finalizou com a questão dos conceitos de transferência e inferência, mas, no fundo, eu acho que o nosso desafio talvez seja esse. Como vamos ter o respeito, e não só a remuneração? Eu também acho que o autor será para sempre o autor da obra. O autor pode não ser o titular. Há também o autor que vende a titularidade da obra. Mas esse atributo de ser o autor, ele não perde. Isso também tem que estar contemplado e garantido na nossa legislação. Não deixa de ser autor porque não é mais titular. Nós temos essas questões para endereçar no projeto.
Aproveito a presença do João, que está representando o Governo neste momento. Não só a Secom, mas também o Governo precisa cumprir o papel dele. Vários falaram no papel do Estado. Pedro mencionou todos os antecedentes. Acho que isso é fundamental.
João, neste momento, nós não estamos falando de Governo, mas do Estado brasileiro, que amanhã pode ter um Governo de centro, de direita, de esquerda. O que nós estamos construindo é uma política do Estado brasileiro que deve proteger o cidadão, quem é brasileiro. Ver alguém ainda discutindo se outro país está certo, se outro país está errado, causa tristeza na gente como cidadão. Você ter, no dia da independência do País, a bandeira de outro país estendida, para mim, não é questão de cidadão. Eu sou brasileiro, vou defender o meu País e estou aqui para isso. (Palmas.)
Não vou entrar em politização, mas quem estiver fazendo isso está errado. Eu não posso acreditar que um cidadão brasileiro esteja defendendo outro país em detrimento do próprio País. Então, ele não é brasileiro. Agora há tanta invenção, e ele teria nascido americano no corpo de um brasileiro. Nasceu errado! Re-reconhecimento de pátria, não sei como é o nome. Tem de tudo. Eu acho que é isso. Agora, nós temos esse desafio. No jornalismo, realmente, há obra todo dia, inclusive já há processo em andamento.
12:29
RF
Como tratar a questão do buscador? Eu vou ter a humildade de dizer que não sei. Nós vamos ter que trabalhar juntos para construir o melhor texto, que não nos inviabilize do ponto vista de nos isolarmos. Nós somos uma Nação que fala português, só há 260 milhões de speakers, como eu aprendi nas audiências públicas. Aliás, imaginem Ariano Suassuna em uma audiência pública com esta, em que a pessoa fala de mining? Eu acho que Deus faz tudo no tempo certo. Ariano Suassuna já não está aqui para discutir isso. Acho que precisamos trabalhar nisso.
Eu fico à disposição dos senhores para aprofundarmos esse debate naquilo que for possível. É preciso criar o termo que seja da responsabilidade com sensatez. É preciso ser sensato, responsável. Devemos ter a decisão do Estado brasileiro. Nós e o Governo seremos muito importantes nesse processo, para construirmos juntos. Essa é uma questão de soberania. Não tenho dúvida quanto a isso.
No Orçamento, na LDO, deve-se contemplar devidamente a questão de infraestrutura e tecnologia do País. Não adianta fazer discurso sobre soberania, se não tivermos, na prática, essa intenção. A prática é prever financiamento para isso no Orçamento da União e nos fundos. Se eu não tiver infraestrutura de tecnologia no meu País, eu vou ter fora. É com isso que sofremos hoje no sistema financeiro, em todos os sistemas.
O processamento de dados no Brasil foi de 30%, segundo o Igor já apresentou. Eu acho que é menos. Eu tive informação de que é menos que isso que se processa no Brasil. Mas 20% ou 30% é muito pouco para um país do nosso tamanho, da nossa importância, da economia que nós somos. A gente está dependendo disso.
Para finalizar, eu deixei alguns questionamentos para os senhores responderem.
Como se vai cobrar no treinamento? Nós corremos o risco, inclusive, de jogar esse treinamento todo fora. O Sérgio fez essa provocação. No buscador, você consegue fazer a receita de bolo talvez mais fácil do que no treinamento. Eu não sei quanto isso é factível ou não. Como a gente faria isso para as obras? Na questão do jornalismo, eu acho que isso é mais desafiador ainda. A pergunta é: como nós construiríamos isso?
Agradeço ao meu companheiro Pedro Uczai, que, assim como eu, é um brasileiro que ama o próprio País. Temos a convicção de que nós precisamos ter a regulação já. Não dá para ficar como está. Talvez o grande problema que encontramos hoje, em rede social, seja que nós como humanidade não fomos capazes de fazer essa regulação no início. Avançou-se muito, mas nós vimos ontem uma cena lamentável em outro país. O parlamento foi incendiado porque houve uma medida, e eu não sei exatamente qual foi, que impedia o funcionamento de algumas plataformas, e a população se revoltou. Parece que até morreram alguns cidadãos.
12:33
RF
Aproveito para me solidarizar com o povo do Nepal, porque realmente isso demonstra quanto, em um mundo tão avançado, alguém pode ser tão incivilizado.
O SR. PRESIDENTE (Pedro Uczai. Bloco/PT - SC) - Muito obrigado, Deputado Aguinaldo Ribeiro, nosso Relator.
Agora, como lembra nossa assessoria e diante do adiantado da hora, vamos passar para as considerações finais dos palestrantes da Mesa. Quem não quiser falar agora, poderá fazê-lo por escrito também, para que possamos divulgar as considerações dos senhores. Às 13 horas teremos várias outras atividades.
Vou passar a palavra, primeiro, para a Carla.
A SRA. CARLA EGYDIO - Eu queria agradecer a oportunidade de trazer o jornalismo para o centro do debate, porque, de fato, há desafios próprios. Como o Diogo disse, a gente precisa conseguir separar um pouco a discussão do que é o treinamento, para que ele possa produzir conteúdo em português.
O conteúdo que ele está pegando é a informação contextualizada, é conteúdo jornalístico apurado, produzido, e ele está sendo utilizado. A gente não pode tirar o debate de sustentabilidade do jornalismo dentro disso, porque o jornalismo cumpre uma função pública, e é necessário que a gente fomente um jornalismo diverso, plural.
Então, entendo que esse é um ponto muito sensível. A gente tem muita vontade de continuar este diálogo. De fato, soluções que têm surgido em outros países dizem respeito a pensar mecanismos de financiamento distintos: um tipo de mecanismo de financiamento para o treinamento e um tipo de mecanismo de financiamento para o resultado, sobretudo o resultado que vem no buscador, porque ele tem, sim, um caráter substitutivo.
Queria nos colocar à disposição para continuar esta conversa. Quero agradecer muito pela oportunidade.
O SR. PRESIDENTE (Pedro Uczai. Bloco/PT - SC) - Muito obrigado, Carla.
A próxima oradora é a Bia Barbosa; depois, João Brant, Victor Drummond e Sérgio Branco.
A SRA. BIA BARBOSA - Obrigada, Deputado.
Primeiro, quero agradecer a sua fala, Deputado Pedro Uczai, porque, mais do que inspiradora, ela traz um ponto muito relevante para a nossa reflexão de hoje, que é entender os riscos da centralização da produção e da privatização do conhecimento nesse universo.
O senhor desenhou muito bem a velocidade do enriquecimento das grandes empresas de tecnologia em função da apropriação desse conhecimento que foi produzido. Isso é central para o debate do modelo de regulação de inteligência artificial que a gente quer desenvolver, porque, de fato, como todos já reforçamos aqui, não se trata de coibir, mas de garantir uma regulação para que o futuro não seja definido por poucos. E hoje, infelizmente, ele está sendo definido por muito poucos e principalmente por empresas que não estão em nosso território.
Somos uma organização internacional, mas sem fronteiras. A gente também faz esse esforço, no sentido de reafirmar a soberania do País e a importância de debates vinculados a esses temas.
Queria dialogar rapidamente com alguns dados que o senhor trouxe, Deputado Aguinaldo Ribeiro. Sem dúvida nenhuma, a responsabilização pelo uso da inteligência artificial para causar golpes, para violar direitos humanos, para destruir reputações precisa estar no usuário, mas ela também pode estar nos desenvolvedores desses sistemas. É possível, por exemplo, tecnologicamente, você impedir que um sistema produza uma deepfake sobre exploração sexual de crianças e adolescentes. É possível isso ser feito no âmbito do sistema. E a geração da responsabilidade que a gente precisa prever no texto vai estar nos usuários, mas ela precisa estar também nos desenvolvedores dessa tecnologia.
12:37
RF
Eu queria reforçar a questão do que a gente entende por alto risco da moderação e da recomendação de conteúdo. O alto risco não impede que esses sistemas continuem funcionando, mas ele entende que isso traz riscos para a sociedade em geral, quando passa a exigir uma série de medidas de mitigação mais intensas. Não quer dizer que esses sistemas não podem acontecer, mas, se a gente excluir os sistemas de moderação e recomendação de conteúdo da discussão dos riscos do sistema de inteligência artificial, vai ficar de fora uma parte muito relevante de como essa tecnologia está sendo usada e dos danos que ela tem causado para a nossa sociedade.
Para nós da Repórteres sem Fronteiras é fundamental que a gente, de fato, entenda a relevância do debate público baseado em fatos, em dados, e não em conteúdo sintético, manipulado e produzido para distorcer essa informação, reforçando não o ócio produtivo, mas os conteúdos que exigem tempo de dedicação para a produção.
Eu queria recomendar uma série de reportagens que a Repórteres sem Fronteiras apoiou sobre a mão invisível das big techs para tentar frear iniciativas legislativas de regulação democrática em países democráticos como o Brasil. Esse material foi lançado ontem pela Agência Pública e pelo Centro Latino-Americano de Jornalismo Investigativo. São reportagens que exigem 30 minutos, 40 minutos de leitura. Isso mostra a dedicação dos jornalistas nessa investigação feita ao longo de 9 meses, e tem tudo a ver com o debate que a gente está fazendo aqui.
Por fim, convido a todos para seguirem as redes sociais da Frente IA Responsável. Temos colegas aqui e estamos divulgando todos esses materiais, além de acompanhar a produção do debate legislativo. Ficamos à disposição para contribuir no que for necessário.
Obrigada.
O SR. PRESIDENTE (Pedro Uczai. Bloco/PT - SC) - Muito obrigado.
O próximo a falar é o João Brant; depois, o Victor, o Sérgio e o Antônio.
O SR. JOÃO BRANT - Obrigado, Deputado Pedro Uczai. Obrigado, Deputado Aguinaldo.
Eu queria fazer três observações. A primeira, respondendo ao chamado que o Deputado Aguinaldo faz ao Governo, eu poderia apresentar ao senhor os resultados e investimentos do Plano Brasileiro de Inteligência Artificial, que tem uma dimensão de fomento, e eu acho que é bastante relevante.
Fizemos um balanço, na semana passada, liderado pelo MCTI, em que se mostram impactos significativos, mas, principalmente, processos andando, em curso, com investimentos sendo feitos e com algumas colheitas relevantes acontecendo. Então, acho que há uma dimensão de fomento. Eu sei que também há uma preocupação nossa e dos senhores de que isso possa estar mais presente no texto.
Em segundo lugar, quanto à questão de infraestrutura, parece-me que há um diálogo posto, neste momento, entre o senhor e o Governo, nessa agenda. Nós temos todo o interesse que esse debate esteja refletido no esforço que está sendo feito nesta Comissão, na adição desta Casa, e que a gente possa enfrentar os desafios próprios da adição de data centers, por exemplo, neste momento. A questão da jurisdição não é um tema trivial. Mesmo que os data centers estejam instalados aqui, não significa que vamos conseguir superar parte dos problemas que o senhor aponta. O Sérgio sabe bem que nós estamos vivendo um pouco esse desafio sobre jurisdição no debate do digital.
Precisamos, ao mesmo tempo, garantir o Redata, para que se possa superar parte desses problemas, mas enfrentar a dupla jurisdição.
12:41
RF
Aqui faço uma observação. Eu estava antecipando com o Sérgio um pouco deste debate. A questão de o treinamento ser feito fora do Brasil vale para qualquer modelo que a gente escolher. Então, na discussão sobre a troca do modelo de remuneração no treinamento para o modelo de opt-out, esse risco continua a existir. Nisso, a Organização Mundial da Propriedade Intelectual — OMPI desempenha um papel, e há o papel do Brasil como vanguarda, talvez, de um modelo mais avançado na proteção, porque o que a gente viu no modelo da União Europeia, de todos os relatos dos detentores de direito autoral, é que não tem funcionado pela assimetria de poder.
Eu falei bem da OpenAI na primeira parte, mas vou me permitir falar mal dela agora, pelo processo que estão recebendo da Folha de S.Paulo, justamente porque o jornal estava buscando um acordo. Daí eles pararam de responder aos e-mails sobre a discussão de um acordo, e continuam fazendo 45 mil crawlings mensais para varrer esse conteúdo e oferecê-lo, mesmo com paywall. Então, nós estamos falando de uma desigualdade, uma assimetria muito grande. E esse elemento traz o desafio de como é que a gente faz para que esses sistemas não concorram com a exploração normal da obra. Eles têm que estar colocados em instrumentos muito concretos e com a arbitragem da parte mais fraca, sendo possível ter poder nessa dimensão de arbitragem. Caso contrário, haverá um desequilíbrio.
Eu conversei com o Sérgio, e eu acho que nós precisamos, de fato, nos debruçar sobre isso, explorar o assunto, evitar modelos que gerem problemas, digamos assim, de externalidades negativas. Mas nós precisamos entender que o ponto que o Senado legou para a Câmara, de fato, é um modelo bastante protetivo, e, para nós, as modificações que forem feitas ali não seja como jogar fora o bebê junto com a água do banho. Então, vamos pensar. Tenho certeza de que é isso que aparece em sua fala, e a gente precisa buscar respostas conjuntas para esse tema.
Muito obrigado.
O SR. PRESIDENTE (Pedro Uczai. Bloco/PT - SC) - Muito obrigado, João.
O próximo é o Victor Drummond.
O SR. VICTOR DRUMMOND - Obrigado, Deputado.
Eu queria acrescentar uma informação, porque me chamaram a atenção aqui corretamente. O pedido para que eu viesse representar a Interartis Brasil também se estende a Diretores Brasileiros de Cinema e Audiovisual — DBCA e à Gestão de Direitos de Autores Roteiristas — GEDAR, que são associações de diretores e roteiristas. Talvez eu tenha ficado tímido na representação total, e eu tenha esquecido isso.
Eu queria aproveitar para tratar de dois tópicos que o Deputado Aguinaldo Ribeiro trouxe, porque eu acho que a gente tem uma saída sistêmica, da lógica do direito autoral. Eu vou tirar a roupa — não se assustem, é metáfora — de dirigente de associação e vou pensar como professor. Aliás, o Sérgio foi meu aluno e, posso dizer aqui, talvez o mais brilhante deles. Já na ocasião eu poderia ser aluno dele. Espero que vocês tenham achado que eu trabalhei bem, porque ele é absolutamente maravilhoso.
Mas eu queria aproveitar para dizer o seguinte: o sistema de direito autoral prevê, universalmente, a possibilidade de que haja uma remuneração, independentemente do uso que se faça ali, com exceção das limitações que estão previstas dentro do sistema. Mas a ideia é — e todos conhecem isso — "todos os direitos reservados". Aquele "cezinho" de copyright, de todos os direitos reservados, quer dizer, há direitos que vão surgir consoante a obra. Uma obra de artes plásticas pode ser exposta; uma música não pode ser exposta, mas é transmitida ao público, por exemplo. Para cada tipo de obra, teremos possibilidades de uso, o que significa que também o uso dessas obras no universo das ferramentas de inteligência artificial se dá de diversas formas.
Essas modalidades de uso estão previstas, mas é um elenco exemplificativo na lei. Então, quando o Sérgio traz o art. 29 e diz que precisamos ver se é reprodução, a gente não pode esquecer o último inciso do art. 29. Eu vou ler...
12:45
RF
O SR. SÉRGIO BRANCO - Temos ali: "Quaisquer outras modalidades de utilização existentes ou que venham a ser inventadas".
O SR. VICTOR DRUMMOND - Estão vendo? Ele que tinha que ser meu professor: "Quaisquer outras modalidades de utilização existentes ou que venham a ser inventadas".
Isso é muito interessante, porque o sistema de direitos autorais diz: "Olha, não dá para dar o balão hermenêutico; não dá para a gente fingir depois que isso não existia e, portanto, não se pode proteger o criador". Então, claro, se a modalidade é nova, em que não se pensava em 1998, que é alimentação de banco de dados, invente-se o que se quiser. Podemos chegar nisso. A proteção também está prevista na sistemática, mesmo numa lei, digamos, de alguma forma anacrônica.
Então, a notícia é boa. Dá para resolver com a interpretação do que nós temos com um pequeno ajuste. O importante é remunerar do ponto de vista compensatório para gerar dignidade aos criadores. Esse é o ponto.
Acho que era isso que eu precisava falar.
Obrigado.
O SR. PRESIDENTE (Pedro Uczai. Bloco/PT - SC) - Muito obrigado.
Os últimos dois oradores são o Sérgio Branco e o Antônio Paulo.
O SR. SÉRGIO BRANCO - Muito obrigado por esta oportunidade de fala.
Serei breve. São três pontos. Primeiro, João, você tem toda a razão. Não é simples, mas precisamos pensar em um modelo que estimule a inovação, e me parece que para isso é necessário haver flexibilidade no treinamento. Isso é difícil. Tem que ver como não gerar um problema ainda maior. Então, temos que conversar sobre isso.
Victor, eu acho que você achou que eu discordei de você na primeira fala, mas eu não o fiz. Que bom! Quando eu digo que a gente precisa pensar nos autores, o que eu quero dizer é exatamente isto: pensar nos autores, nos atores, nas pessoas que estão criando, sob pena de privilegiar as editoras, as gravadoras, as produtoras, que são muitas vezes as titulares dos direitos autorais, mas não são os entes criativos, não são os entes que criam as obras. Então, é preciso pensar em um sistema em que sejam justamente os autores e atores, porque são eles os criativos, que estejam no centro da remuneração.
Com relação à interpretação do último inciso do art. 29, eu acho que a gente ainda mantém a dúvida sobre se estamos tratando de direito autoral ou não, se estamos usando a obra ou não. Estou usando a obra ou estou usando dados que eu extraio da obra? É isso que, tecnicamente, eu não sei como responder.
Estou encerrando. Eu realmente acho que a gente não tem como resolver tudo isso sem falar em concorrência, sem falar em concorrência desleal, sem falar em uso parasitário, que é do que trata sobretudo o jornalismo. Então, a matriz pode envolver direito autoral, mas eu não acho que o direito autoral vá ser capaz de responder a todas as nossas indagações.
Obrigado.
O SR. PRESIDENTE (Pedro Uczai. Bloco/PT - SC) - Muito bom. Obrigado.
Antônio Paulo, suas considerações finais.
O SR. ANTÔNIO PAULO DA SILVA SANTOS - Pego o principal ponto que o Deputado Aguinaldo Ribeiro coloca, sobre uma das formas, por exemplo, de preocupação com a remuneração. Existem algumas saídas para isso. Por exemplo, a questão dos dados que entram para o sistema de treinamento: a taxação das big techs por meio das grandes plataformas numa Cide é uma das saídas. Essa é uma das propostas em que a FENAJ vem trabalhando, vem discutindo.
Mas, de modo geral, a gente quer agradecer por esta participação hoje.
12:49
RF
Quero, por fim, colocar à disposição não somente a federação, mas as entidades, por exemplo, como o Repórter sem Fronteiras e as outras que estão neste debate discutindo e que, com certeza, vão contribuir com o seu relatório, preparar propostas mais adensadas diante desse dilema.
O SR. PRESIDENTE (Pedro Uczai. Bloco/PT - SC) - Muito bom.
Deputado Aguinaldo, eu vejo tantas contribuições. Eu acredito que as entidades estão fazendo isso — só para dizer o óbvio —, e as contribuições podem ser unificadas ao máximo, inclusive com um texto que indique onde se quer alterar ou aperfeiçoar o projeto de lei.
O ponto de partida é o projeto do Senado, não é, Relator?
Vamos dar uma forcinha para o Relator. Vamos dar uma ajuda para o Relator. Vamos elaborar, sistematizar as propostas mesmo. Eu acho que toda audiência pública tem muitas contribuições, mas, em vez de ficar na narrativa das grandes teses, ela tem que se transformar em texto; ela tem que se transformar em técnica legislativa; ela tem que se transformar em legislação.
O apelo, aqui, sentindo o quanto o Deputado Aguinaldo está ouvindo e conversando, é transformar o ponto de base, que é o projeto do Senado, de modo que se mantenha nele o que é importante e que se aperfeiçoe o que será mantido nele. Vocês precisam transformar isso em sugestões, para nós ajudarmos o Relator, o Deputado Aguinaldo Ribeiro. Pode ser assim?
Isso é para não sair daqui todo mundo para os seus lugares, suas entidades, sem transformar isso em texto que vira legislação, regulação.
Pode ser assim, Deputado Aguinaldo?
O SR. AGUINALDO RIBEIRO (Bloco/PP - PB) - Perfeito. Estou à disposição de todos.
O SR. PRESIDENTE (Pedro Uczai. Bloco/PT - SC) - Isso facilita para o nosso nobre Relator transformar os conceitos, as concepções em texto.
O SR. AGUINALDO RIBEIRO (Bloco/PP - PB) - Se vier o texto pronto, eu vou adorar. (Risos.)
O SR. PRESIDENTE (Pedro Uczai. Bloco/PT - SC) - Claro, é isso aí.
Muito obrigado, Deputado Aguinaldo Ribeiro.
Obrigado, palestrantes.
Obrigado pela presença de todos vocês. (Palmas.)
Deputado Aguinaldo, hoje, quarta-feira, na conjuntura da Casa, esta deve ser uma das audiências mais prestigiadas.
Então, a todos que vieram aqui presencialmente, em grande público, que lotou a plateia, e também a todos que acompanharam nas redes sociais, nosso muito obrigado.
Agradeço a presença de todos.
Nada mais havendo a tratar, convoco reunião para o dia 16 de setembro de 2025.
Declaro encerrada a presente reunião.
Voltar ao topo