1ª SESSÃO LEGISLATIVA ORDINÁRIA DA 56 ª LEGISLATURA
Ouvidoria Parlamentar
(Audiência Pública Ordinária)
Em 12 de Dezembro de 2019 (Quinta-Feira)
às 9 horas
Horário (Texto com redação final.)
09:26
RF
O SR. PRESIDENTE (Eduardo Barbosa. PSDB - MG) - Bom dia a todos.
Desde já eu agradeço a presença de todos vocês.
Hoje a Ouvidoria da Câmara dos Deputados e a Ouvidoria do Senado iniciam um trabalho em conjunto. Nós estamos aqui com o Ouvidor do Senado, o Senador Marcio Bittar, que já foi membro da Câmara dos Deputados. Nós tivemos a oportunidade de ser colegas e agora, na condição de ouvidores, estamos trabalhando em diversos projetos, de forma conjunta e articulada. Isso tem sido muito positivo, porque o compartilhamento de tecnologias e de conhecimento da Ouvidoria das duas Casas faz com que haja uma sinergia de ações voltadas para o interesse maior, que é, a partir da Ouvidoria, termos no Congresso Nacional a presença da visão do cidadão, da avaliação que se pode fazer das nossas estruturas, da nossa forma de agir, daquilo que pode ser aprimorado e do que podemos avançar, em termos de participação e de transparência.
Para mim, é uma honra muito grande estar ocupando essa posição na Câmara dos Deputados.
Uma das inovações que estamos fazendo é justamente buscar o cidadão através de pesquisas de opinião pública. Nós escolheremos sempre um tema. Estamos abrindo com o tema de hoje, mas a ideia é caminharmos para uma pesquisa mensal, que terá condição de subsidiar o Congresso Nacional e os Parlamentares em debates de temas relevantes para a sociedade brasileira. Estamos lançando, através desta audiência pública, o resultado da primeira pesquisa. Nós já divulgamos essa pesquisa pelas redes sociais e estamos fazendo, de forma solene, a apresentação da pesquisa, convidando também segmentos da sociedade civil afetas ao tema, para termos a impressão deles sobre aquilo que estamos desenvolvendo.
Eu quero colocar para vocês um pouco da metodologia da pesquisa — não da metodologia especificamente, mas do processo, de como estamos trabalhando. Vocês sabem que nós temos na Casa uma Consultoria Legislativa constituída de servidores especialistas em diversas temáticas. Então, nós identificamos um tema, e esses servidores, a partir desse tema escolhido, o conceituam, identificando aquilo que de fato observam que deve ser buscado com a opinião pública. Esses conceitos, então, são enviados ao DataSenado para que sejam transformados em perguntas que alcancem o público a partir da pesquisa.
Essa pesquisa ouviu 2.400 brasileiros de faixas etárias distintas em todos os Estados. Dessa forma, entendemos que ela teve um resultado muito positivo e ficou bastante interessante.
09:30
RF
Nessa fala inicial, eu quero colocar para vocês uma grande preocupação que todos nós precisamos ter quanto à influência das mídias digitais sobre a sociedade. Essa não é uma discussão no Brasil especificamente, é uma discussão no mundo inteiro. No caso específico do Congresso Nacional, a grande preocupação é que as mídias sociais podem se tornar uma ameaça à democracia se não tivermos uma corresponsabilidade em lidar, de fato, com essa nova forma de difusão de informações pelo mundo afora.
Não podemos negar que todos nós mudamos os nossos comportamentos através da mídia social. Nós já andamos na rua com o celular na mão, vendo mídia social. Nós trabalhamos através das redes sociais hoje. Então, esse é um comportamento real, que atingiu a todos, uns mais intensamente, outros menos, mas ninguém está alheio e distante desta questão. Aqui há questões fundamentais, e nos cabe aprofundá-las. Por isso, os nossos convidados também estão aqui. Esse debate tem que ser conjunto e articulado, feito com corresponsabilidade.
O aprofundamento de alguns aspectos nos interessa muito. Como nós vamos lidar com o imediatismo da informação da mídia social? Como agente público, quando sou entrevistado hoje, quando um eleitor ou um cidadão me pergunta alguma coisa, ele não quer ouvir argumento, ele quer ouvir "sim" ou "não". Inclusive, hoje já mudou a nossa linguagem, quando somos entrevistados. Antes, às vezes, perguntavam-me alguma coisa e eu tentava argumentar para depois chegar ao porquê de eu ter escolhido aquilo ou de ter votado daquele jeito. Hoje isso não interessa, ou seja, é preciso falar se sou a favor ou sou contra. Depois, se sobrar algum espaço, tento falar o porquê. Tentar falar o porquê já não é mais interessante para as pessoas.
Isso é um fato preocupante, principalmente para quem formula lei, para quem formula política pública, para quem gera opinião, principalmente no nosso caso, como Parlamentares, de representatividade da população. O Parlamentar tem que ter muita responsabilidade ao julgar essa nova linguagem, sem comprometer a sua função de pensar numa nação e nos interesses da grande maioria dos cidadãos, com embasamento teórico e análise crítica de milhares de temas que circulam no Congresso a cada momento, a cada instante. Vejam que esse tema nos afeta muito. No meu entendimento, o Parlamentar tem que ter muito cuidado ao aderir plenamente a forma como está posta essa comunicação que temos hoje. Isso não tem volta. Por isso mesmo, temos que aprofundar o debate.
O segundo aspecto é entendermos como todos aqueles que são responsáveis pela formação e pelo desenvolvimento da criança e do jovem vão lidar com essa situação dentro do seu contexto de planejamento educacional.
09:34
RF
Nós precisamos, inclusive, subsidiar os educadores, para que tenham condição plena de não negar o fenômeno, mas utilizá-lo, tendo, dentro dos ambientes de formação, uma condição de aprofundamento de temáticas a partir da provocação das mídias sociais. Isso me preocupa muito, como pediatra que sou. Eu trabalhei com pessoas a vida inteira, com o desenvolvimento das pessoas. Eu tenho, de fato, uma preocupação muito grande com essa questão.
Eu estava até comentando com os nossos convidados que tive a oportunidade de fazer um curso de desenvolvimento da primeira infância em Harvard, num trabalho que a Câmara desenvolve hoje com profundidade. Lá há estudos de imagens da neurociência que revelam que as sinapses neurológicas da criança já estão sendo formadas em um outro patamar. Quando estivemos lá, eles mostraram os estudos, embora ainda incipientes, porque precisam de um follow-up, de um acompanhamento por mais anos. Eles estão observando, por exemplo, que as crianças de hoje já não têm uma área do cérebro bem construída dentro da lógica da nostalgia, como todos nós tivemos. Isso significa que os cidadãos, daqui para a frente, não terão nostalgia como nós. É lógico que, se há uma linguagem imediatista, que se deleta, que não se aprofunda, que não precisa se debater, que não precisa se discutir, haverá um impacto na organização neurológica das pessoas, haverá um impacto muito grande nas relações interpessoais. Ao mesmo tempo em que nos deparamos com uma situação como essa, nós não podemos ser também nostálgicos e dizer "Ah, era bom quando era assim", porque isso não tem volta. Nós vamos ter que aprender a lidar, daqui para a frente, com essas situações. Eu acho que isso traz para nós uma responsabilidade muito grande de aprender a lidar com a situação.
Outra questão da qual já falei, mas eu reafirmo é justamente como trabalhar, de forma articulada e com uma sinergia entre todos os órgãos de informação, de comunicação, que produzem notícia, para podermos romper, às vezes, essa visão de individualismo, presente hoje, tentando pautar regulamentações — as que já existem e as futuras — no processo de reavaliação. No meu entendimento, temos que pautar qualquer tipo de regulamentação dentro dos princípios de direitos humanos, não só garantindo o direito à expressão, mas também não violando os direitos individuais. Acho que isso também é um grande desafio que temos pela frente, porque hoje a mídia social traz para nós, de uma forma muito presente, informações ou expressões de violência, de discriminação, de marginalização de alguns segmentos da sociedade, com uma proporção não administrável, inclusive pelos agentes públicos.
09:38
RF
Então, ao mesmo tempo em que avançamos em concepções de direitos humanos, nós temos aí um fenômeno novo que pode colocar abaixo tudo aquilo que foi construído em termos de conceitos e que nós queremos que sejam absorvidos pelo comportamento da sociedade contemporânea e também pelas políticas públicas. Esses desafios são nossos, estão nas nossas mãos, nesta geração de hoje, que está à frente de empresas e instituições do mundo político e do Parlamento. Sem rompermos com o processo de evolução e de conhecimento, temos uma responsabilidade muito grande de lidar com essa situação.
Dessa forma, eu introduzo aqui a nossa audiência pública, já agradecendo mais uma vez a vocês e agradecendo ao Senador Marcio Bittar pela abertura que o Senado tem nos dado para dar vazão a essas propostas.
Passo a palavra ao Senador Marcio Bittar.
O SR. MARCIO BITTAR (MDB - AC) - Bom dia.
Quero cumprimentar todos os presentes e me desculpar, mais uma vez, com o meu querido amigo Eduardo Barbosa por não ter podido ir à Bahia. Eu me preparei para a viagem, mas outras agendas acabaram me impossibilitando de fazê-la. Desculpe-me. É sempre um prazer estar perto desse querido amigo.
Quero saudar a equipe da Ouvidoria do Senado através das duas Anas: Ana Mafra e Ana Carolina. Quero saudar também a equipe do DataSenado que está aqui.
A Ana está pedindo ao pessoal do DataSenado que se levante para que possam conhecê-los, por favor. (Palmas.)
Parabéns! A pesquisa que vocês fizeram mostra, em linhas gerais, tudo aquilo que o Deputado Eduardo mencionou.
Cada vez mais, as mídias sociais estão tomando o espaço que antigamente era da televisão. Alguns dados vocês já sabem, mas é sempre bom revisarmos e revermos. Cada vez mais jovens estão se pautando muito mais pelas mídias sociais do que pela televisão. Antes havia um monopólio. Eu vejo isso muito no meu Estado, Deputado Eduardo. Embora eu seja paulista de nascimento, sou acreano por opção. O meu Estado é pequenininho e, por muito tempo, há 20 anos, estava dominado por um grupo político, com a imprensa quase toda na mão. As mídias sociais quebraram esse monopólio. Houve esse benefício imenso. Hoje não há mais como um órgão de comunicação monopolizar uma cidade, um estado, muito menos um país. As mídias sociais quebraram esse monopólio que existiu em todo lugar. A pesquisa que vocês fizeram mostra isso com muita clareza.
Eu não tenho a pretensão de achar que as mídias ou essas campanhas mudam o caráter de ninguém. Não é à toa que se estuda até hoje, nas melhores universidades de filosofia do planeta, o que pessoas escreveram ou o que viveram há 2 mil, 3 mil, 4 mil anos. A natureza humana não muda, por incrível que pareça. Inventam-se mil tecnologias, mas a natureza humana, com amor, ódio, sentimento, força, é a mesma. Por isso, Platão e Aristóteles continuam atualizados, sendo lidos e estudados até hoje.
09:42
RF
Parece-me que a palavra adequada é "aperfeiçoamento". Como vamos aperfeiçoar a democracia? Eu queria citar como exemplo a fundação de Brasília, quando foi necessário construir um monte de apartamentos funcionais, foi necessário construir clubes. Eu já propus, desde quando fui Deputado Federal pela primeira vez, vender tudo isso, porque não tem mais sentido. O Brasil era longe demais. Por exemplo, havia Parlamentar de Minas Gerais que, para chegar a Brasília, dependendo da região em que morava, gastava 2 dias. Então, isso era necessário. Só que a tecnologia encurtou essa distância. Criou-se uma nova realidade. Essas questões físicas e materiais, como as que eu acabei de falar, não fazem mais sentido, assim como não faz sentido o Congresso ter um departamento para cuidar de apartamentos, de televisão, de geladeira, ainda mais com a tecnologia, que aproximou todo o mundo. A tecnologia aperfeiçoa.
Nesse aspecto, a Ouvidoria do Senado e a Ouvidoria da Câmara estão se aperfeiçoando, estão se encontrando mais, estão buscando mais formas de otimizar os recursos do Congresso Nacional, das duas Casas, a fim de ampliar o acesso das pessoas. A ideia é que cada brasileiro, de onde estiver, se aparecer uma dúvida, tenha, no seu celular, a facilidade e a rapidez de entrar em contato com as Ouvidorias do Senado e da Câmara para se esclarecer, tirar uma dúvida ou deixar uma crítica ou uma sugestão.
Houve um encontro na Bahia, do qual as duas Ouvidorias participaram, promovido pela União Nacional dos Legisladores e Legislativos Estaduais — UNALE, representando as ouvidorias das assembleias legislativas. Nos dias 13 e 14 de abril, vai haver outro encontro nacional das Ouvidorias do Senado, da Câmara e do Tribunal de Contas da União. Então, em relação ao aperfeiçoamento, a fim de melhorar a comunicação, de ampliar a comunicação, passos importantes têm sido dados.
Por um lado, há o desafio de se aprimorar a comunicação, facilitar a comunicação, ampliar a comunicação; por outro lado, há um problema mundial: como evitar a mentira e não ser enganado? Esse é um desafio mundial. A Lei de Acesso à Informação permite que alguém, acessando o Congresso Nacional, tire uma dúvida, mas, por mais que nos aperfeiçoemos — e ainda há muito chão pela frente —, não vamos conseguir segurar tudo. A pessoa cria uma versão, por qualquer que seja o motivo, que pode ganhar a rede social. Muitas vezes há o atrativo de uma denúncia, de um escândalo, e isso ganha a mídia. Até que se corrija isso, reputações podem ter sido jogadas no chão.
Toda inovação não traz só um lado da história. Sempre há facetas. É uma coisa importantíssima e fundamental. É como a globalização. Não sei se vocês lembram — aqui há muitos jovens, mas há alguns mais maduros — que, na época da globalização, havia um grupo de pensamentos, quase uma ideologia, que era contra a globalização. E havia um grupo de pessoas, que eu considero mais sensatas, que dizia: "Não se trata de ser contra ou a favor; ela aconteceu." O começo dela foi há milhares de anos, quando o homem foi buscar o que havia lá atrás. Nem o medo de a Terra não ser redonda impediu que ele se lançasse ao mar e fosse redescobrindo e reencontrando territórios — nós somos um território só. Então, a globalização não tinha como se evitar. E é assim com a revolução tecnológica.
09:46
RF
Entretanto, o que podemos fazer para aperfeiçoá-la? Esse desafio, parece-me, tem duas facetas, que eu mencionei: melhorar a comunicação e ampliar o acesso e, ao mesmo tempo, definir o que nós podemos fazer para que essa ampliação do acesso e essa maior facilidade na comunicação dos brasileiros com o Congresso Nacional tenha maior grau de garantia de que estaremos inibindo a mentira através das redes sociais. Esse é um desafio eterno. Nós vamos sempre melhorar e sempre vão aparecer novos desafios. Essa é a nossa tarefa. Perfeitos não somos e não seremos nunca, mas a busca eterna é sempre por melhorar. É, sem sombra de dúvidas, um melhoramento que o homem fez, mas traz algumas coisas que precisamos aperfeiçoar.
Eu quero terminar da forma como comecei: parabenizando as pessoas que vestem a camisa. Eu tive a oportunidade de ser 1º Secretário da Câmara dos Deputados e confesso que vocês servidores efetivos da Casa ajudaram-me a quebrar um pouco o meu preconceito. Eu tinha uma ideia de que a maior parte das pessoas de carreira não vestia a camisa. Como 1º Secretário da Câmara, eu pude verificar que existem funcionários que amam o que fazem, que inclusive não têm horário, não têm nem fim de semana. Agora, no Senado, estou vendo outro grupo de pessoas que trabalham da mesma maneira. Então, eu os parabenizo, agradeço e me coloco à disposição.
Alguém já disse o seguinte: "Estou Senador" ou "Estou Deputado". Na verdade, todos nós estamos de passagem.
Num dia desses, eu levei o Dr. Molion para o Acre, para fazer uma palestra sobre mudanças climáticas — é só um parêntese que faço. Eu, que estudo um pouco essa matéria, disse algo para o Zequinha Marinho, Senador da República, que assumiu a Presidência da Comissão Permanente sobre Mudanças Climáticas. Anteontem, numa reunião do Congresso, ele me pediu para repetir isso numa mesa com vários Senadores e Deputados Federais. Esta é uma frase minha que saiu, se não me engano, no site O Antagonista. Eu disse: "Zequinha, a primeira audiência que você vai ter que fazer é com Deus". Ele disse: "Por quê?" Eu disse: "Numa Comissão Permanente do Congresso Nacional para estudar as mudanças climáticas do planeta, para quem acredita em Deus, como é o meu caso, a primeira pessoa com quem se vai tentar falar é Ele". Por que o Deserto do Saara, há 20 mil anos, era água, era mar?
Por mais que tenha acesso à informação — isso não é novidade —, a humanidade embarca em aventuras completamente descoladas da realidade. Nesse caso, não se trata de acreditar ou não nas mudanças climáticas. Elas existem: noite, dia, chuva, esfria, esquenta. A história nos diz que o clima já foi mais quente, já foi mais frio. Trata-se de questionar se o homem é capaz de mudar o clima do planeta, dos vulcões.
09:50
RF
Eu estou me lembrando de tudo isso, Deputado Eduardo Barbosa, para citar que o Dr. Molion disse que os computadores do IPCC calculam que, daqui a 100 anos, nós teremos tal temperatura. Mas essa mesma tecnologia, que a NASA também possui, não conseguiu evitar o que aconteceu nos Estados Unidos há 5 meses. Neste ano, o verão começou mais tarde e isso atrasou em 3 semanas o plantio. Agora estão tendo que colher já no frio de novo. O verão foi menor. Os mesmos computadores não previram o que ia acontecer 5 meses à frente, e alguém quer que eu acredite que esses mesmos modelos de computadores estão acertando quando dizem que, daqui a 100 anos, se o homem não mudar, partindo do pressuposto de que é o homem que muda o clima do planeta... É fácil fazer previsão para daqui a 100 anos, porque todos nós não estaremos mais aqui. Vamos cobrar de quem? De ninguém.
Portanto, a informação pode ser muito manipulada. E isso é infinito. O desafio é como aperfeiçoá-la.
Eu quero parabenizar o Deputado Eduardo e todos vocês que aqui estão. Eu estou aqui de passagem, como todos nós estamos. No que pudermos fazer para melhorar a nossa vida, contem comigo.
Um abraço. Fiquem com Deus!
Muito obrigado.
O SR. PRESIDENTE (Eduardo Barbosa. PSDB - MG) - Rede social é realmente incrível!
Quem é a Giovana? (Pausa.)
A Laura Carneiro me mandou uma mensagem dizendo que a Giovana, filha dela, está aqui. A Laura é uma grande amiga.
(Intervenção fora do microfone.)
O SR. PRESIDENTE (Eduardo Barbosa. PSDB - MG) - A Laura Carneiro foi Deputada. A Giovana é filha dela. É um prazer muito grande.
Laura, o seu Estatuto da Pessoa com Obesidade, do qual eu sou coautor, está pautado na CCJ. Não sei se foi aprovado ontem, mas a Deputada Maria do Rosário tem parecer a favor.
Ela está nos ouvindo. Por isso, mando essa mensagem. Fale com ela. Foi um prazer muito grande. A Laura foi uma colega aqui e é sempre uma amiga.
Vamos iniciar os nossos trabalhos.
Os nossos convidados aceitaram de pronto a participação. Para nós, é uma alegria muito grande ter aqui a visão deles no debate, na discussão. Eu agradeço mesmo. Vou contar com vocês daqui para a frente também em outros temas e outros debates.
Convido para se sentarem à mesa comigo o Artur Coimbra, Diretor do Departamento de Banda Larga do Ministério da Ciência, Tecnologia, Inovações e Comunicações, e a Laura Schertel Ferreira Mendes, Professora Doutora da UnB e do Instituto de Direito Público — IDP. A Laura já está ali de pé e vai dar um equilíbrio feminino a esta mesa.
Depois nós chamaremos os demais convidados. Vocês terão 20 minutos para fazer suas exposições.
Com a palavra o Sr. Artur Coimbra.
09:54
RF
O SR. ARTUR COIMBRA - Obrigado, Deputado Eduardo Barbosa e Senador Marcio Bittar, pelas palavras e pelo convite para participar desta audiência.
Em nome do Ministro Marcos Pontes, parabenizo a Ouvidoria do Senado pelo trabalho desenvolvido, um trabalho muito rico, consistente e, digamos, inovador. Essa é uma área ainda pouco pesquisada. Então, é algo muito relevante para o debate público.
Digo que a pessoa mais qualificada do Ministério para estar aqui hoje talvez fosse a Diretora Miriam Wimmer, que infelizmente não pôde estar presente, mas eu espero representar com o mínimo de competência o Ministério aqui nesta audiência.
Essa discussão toda ocorre porque temos verificado um papel muito mais gritante das plataformas on-line na formação de opinião. Existem estudos empíricos que apontam a influência dessas plataformas na polarização política — aí eu aponto as bolhas algorítmicas e tudo o mais que se queira apontar — e também na divulgação de fake news.
Em relação às fake news, há estudos ainda em desenvolvimento que apontam que o dano das fake news talvez não seja tão grande quanto o imaginado — ou seja, você radicaliza posições de quem já está naquele polo —, mas também há estudos que dizem que fake news atraem para o radical pessoas que estão, digamos assim, tendentes à moderação. Ainda há estudos a serem desenvolvidos sobre fake news. A despeito disso, isso tem chamado cada vez mais a atenção, especialmente em casos recentes. Cito como exemplo o escândalo da Cambridge Analytica, que teve um papel fundamental tanto nas eleições americanas quanto no Brexit, em que o impulsionamento de conteúdo político foi feito a partir do uso de dados pessoais não anonimizados, dados individualizados de usuários, em desacordo não só com a legislação europeia, mas sobretudo com os próprios termos de uso dessas plataformas.
Isso tudo levanta uma questão que talvez seja a mais quente que se tem debatido no setor: qual é a extensão da responsabilidade civil dessas plataformas nesse contexto?
O Marco Civil da Internet é muito claro no seu art. 19, que estabelece que essas plataformas são responsáveis na medida em que não cumprirem as decisões judiciais que determinarem, por exemplo, a remoção de conteúdo. Então, o art. 19 do Marco Civil da Internet é muito mais uma forma de limitar a responsabilidade do que de impor, de atribuir alguma responsabilidade, sobretudo em nome da liberdade de expressão. Esse debate foi feito durante a construção do Marco Civil. É muito mais orientação para o Judiciário a respeito dos limites judiciais quanto à responsabilização das plataformas do que atribuição de responsabilidade mais profunda e autônoma a essas plataformas relacionada à supervisão de qualquer tipo de conteúdo.
09:58
RF
Só estamos discutindo responsabilidade civil das plataformas hoje porque a Internet mudou nos últimos 15, 20 anos. A Internet não é mais aquele mar aberto, aquele ambiente totalmente livre, neutro e irrestrito que era. Na prática, o que se tem hoje é que, em sua maioria, a informação é mediada por grandes provedores de aplicações. Nós estamos falando de mecanismos de buscas, redes sociais, plataformas de compartilhamento de mídias, etc.
A maior parte das pessoas hoje se informa por meio dessas plataformas, dessas grandes plataformas. Nós estamos falando talvez de cinco, seis, no máximo. Essa informação vem naturalmente mediada por algoritmos, que são cada vez mais complexos e cada vez menos estáticos. Esses algoritmos selecionam o que se vê e também o que não se vê.
Agora, antes de demonizar os algoritmos, é importante dizer que eles são peça fundamental para o valor dessas plataformas, para esses provedores de aplicações, valor não só para elas como também para o usuário. Esses algoritmos são, em essência, uma coisa boa. Eles filtram muito lixo e muita coisa irrelevante, o que, de outra forma, chegaria ao usuário e atrapalharia radicalmente a experiência.
A despeito disso, há dois pontos que precisam ser debatidos relativamente a esse uso dos algoritmos e a essa seleção, digamos assim, do conteúdo que chega até o usuário. Em primeiro lugar, os algoritmos fazem uso de dados pessoais. Para construir e modelar um perfil de consumo de informação e selecionar novas informações para o usuário, novos conteúdos, faz-se uso dos dados de consumo do próprio usuário. Isso atrai o conceito da LGPD de autodeterminação informativa. Muitas dessas grandes plataformas já têm um papel muito interessante de desenhar sistemas. É o que chamamos de privacy by design. O usuário consegue, em alguma medida, definir os aspectos da sua experiência que quer tornar disponíveis ou não para a plataforma construir os seus algoritmos ou pré-selecionar os conteúdos.
Nesse contexto da LGPD, é claro que não dá para simplesmente se apoiar na Lei Geral de Proteção de Dados Pessoais. "Agora todas as plataformas têm que abrir os seus algoritmos integralmente." Primeiro, vai ser muito pouco útil para o usuário simplesmente ler os códigos, os algoritmos. Segundo, o core de inovação comercial dessas plataformas está nos seus algoritmos. Então, não dá para simplesmente determinar a abertura irrestrita desses algoritmos. Mas, talvez, essas plataformas consigam, de alguma forma, dar a conhecer alguns dos critérios usados para selecionar o conteúdo que chega ao usuário. Maior clareza sobre os critérios usados por esses algoritmos é algo relevante, é algo importante para o usuário nesse contexto.
10:02
RF
Não podemos esquecer que esse uso de algoritmos, por menos humano e por mais automatizado que seja, de alguma forma representa uma espécie de editoria no conteúdo. Está sendo formado, digamos assim, um conjunto de conteúdos editorados ou pré-selecionados para que o usuário tenha acesso a ele. Isso levanta uma série de questões.
Faço um paralelo com um debate sobre radiodifusão nos Estados Unidos, com quatro ou cinco grandes canais de televisão. A FCC, que é a ANATEL americana, estabeleceu, ao longo de décadas no século XX, uma doutrina que eles chamavam de fairness doctrine. O que era a fairness doctrine? Isso é muito voltado para o jornalismo. Se um canal de televisão vai abordar um tema sob determinado viés, é importante que ele dê espaço para outros pontos de vista sobre o mesmo assunto. Esse entendimento a FCC aplicou até 1987, o que funcionava relativamente bem nos Estados Unidos em relação às radiodifusoras. Em 1987, a FCC abriu mão dessa regra. Alguns canais continuaram com essa filosofia, e outros começaram a dispensar a filosofia da fairness doctrine, começaram simplesmente a mostrar um lado só nas matérias jornalísticas.
Em que medida isso pode ou não ser aplicável, pode ou não ser debatido em relação às plataformas? São poucas as plataformas que dominam a intermediação da informação. Em que medida a responsabilidade dessas plataformas pode pelo menos chegar a dar acesso a pontos de vista diferentes para diminuir a polarização radical que temos verificado? Essa é uma segunda questão que se levanta.
Há um outro lado do debate, que é a legislação potencialmente conflitiva que rege isso no Brasil. É o que os juristas gostam de chamar de antinomias aparentes. Na verdade, existe um conflito. Há um caso no Supremo que já explicita um desses conflitos. Faço uma analogia com o caso que se encontra lá. Se alguém cria um perfil falso e, a partir desse perfil, começa a cometer uma série de atos odiosos, o que se aplica nesse caso? É o marco civil? A remoção desse perfil depende de uma decisão judicial ou a própria plataforma tem o dever de removê-lo, independentemente de decisão judicial? Aplica-se o Código de Defesa do Consumidor? Trata-se do assunto como uma relação consumerista — esse é, por exemplo, um dos pontos do debate judicial — ou se aplica simplesmente o Marco Civil da Internet nesse caso? Temos agora a Lei Geral de Proteção de Dados Pessoais, que trouxe um novo elemento de complexidade a isso tudo, embora o marco civil já apontasse uma legislação específica nesse sentido. E como fica na história a legislação específica setorial de telecomunicações? Ela se aplica ou não ao caso? Ela abre espaço? Em que momento ela se aplica?
Nos Estados Unidos, em 2013, houve um caso em que a empresa americana AT&T, de banda larga, lançou um serviço de banda larga por fibra ótica chamado U-verse, pelo qual cobrava 99 dólares, 1 giga por 99 dólares. Ela dava um desconto de quase 30 dólares — o preço caía então para 70 dólares —, se o usuário permitisse que ela tivesse acesso ao conteúdo, ao perfil de consumo dele, se ela pudesse ver tudo o que ele, o usuário, estava fazendo na Internet. Para quê? Para o envio de publicidade direcionada. Isso não é muito diferente do que fazem as grandes plataformas, mídias sociais, redes sociais.
10:06
RF
Isso foi permitido, mas gerou um debate imenso nos Estados Unidos. É uma coisa que hoje no Brasil, por exemplo, a legislação setorial de telecomunicações não permite. De acordo com a legislação de telecomunicações, com a LGT, com resoluções da ANATEL, uma empresa de telecomunicações teria muita dificuldade de fazer isso no Brasil. A despeito disso, a Lei Geral de Proteção de Dados Pessoais pode dar espaço a esse tipo de coisa, se houvesse o consentimento inequívoco e aquela coisa toda. Começa-se a gerar uma legislação conflitiva. Com o tempo, vamos precisar assentar isso e conhecer o que se aplica e o que não se aplica a cada caso.
O fato é que, a despeito do marco civil, que é algo que foi construído coletivamente e que precisa ser, de alguma forma, preservado, muitas plataformas adotam políticas próprias de remoção de conteúdo. No caso de direitos autorais, por exemplo, muitas delas não esperam uma decisão judicial para remover conteúdo afetado ou que infringe direitos autorais.
Então, precisamos encontrar um meio-termo entre a responsabilidade total dessas plataformas, o que seria exigir delas uma supervigilância sobre todo o conteúdo que é veiculado ali, e responsabilidade nenhuma, o que seria o completo descaso em relação ao que é trafegado nessas plataformas.
Embora o Marco Civil da Internet não imponha a essas plataformas a responsabilidade de remover conteúdo, fake news, esse tipo de coisa, de alguma forma elas têm a responsabilidade social de reagir e tentar melhorar o ambiente que elas mesmas criam. Isso tem sido feito. Muitas delas têm feito esse papel, têm se preocupado com isso.
Do ponto de vista competitivo, além de essas grandes plataformas apresentarem algumas falhas, como, por exemplo, a externalidade de rede, quando se acaba criando uma comunidade e fica difícil simplesmente sair, abandonar aquela plataforma e ir para outra, há uma dificuldade de portabilidade de dados, o que está longe de ser uma realidade. Em que medida alguém consegue levar os seus dados de uma plataforma para outra e não perder com esse abandono de plataforma?
O fato é que a concorrência pode mitigar muitos desses problemas. A concorrência é a própria sociedade civil. Há o caso recente de Hong Kong — muitos o estão acompanhando —, que está enfrentando um problema político e tem sofrido bastante com fake news, de dentro e de fora de Hong Kong, sobre o movimento social que acontece, digamos assim, nesse país, nessa província. Isso tem levantado uma questão: "Ora, sobre fake news, o que podemos fazer em relação a isso?" O Brasil já tem agências de fact-checking, de verificação de conteúdo, agências da sociedade civil. Hong Kong não tem. Hong Kong, a sociedade civil, inspirada inclusive nos modelos brasileiros, está começando a fazer as suas próprias agências de fact-checking, para tentar contornar esse problema. Acho que muito dessa solução, Deputado, está na própria sociedade civil e na própria competição.
Este debate é importante, sobre legislação, Judiciário, marco civil, só que eu acho que podemos nos apoiar bastante na sociedade civil e na competição para resolver esses problemas.
Obrigado. (Palmas.)
10:10
RF
O SR. PRESIDENTE (Eduardo Barbosa. PSDB - MG) - Obrigado, Artur, pela sua participação.
Quero ressaltar que a Câmara dos Deputados aprovou nesta semana, na Comissão Especial, a PEC sobre o tema. Houve uma iniciativa do Senador Eduardo Gomes, a matéria chegou à Câmara e foi relatada pelo Deputado Orlando Silva. Trata-se de emenda constitucional que introduz, agora como responsabilidade bem definida na própria Constituição, a proteção de dados pessoais entre os direitos e garantias fundamentais e fixa a competência privativa da União para legislar sobre proteção e tratamento de dados pessoais.
Muitos de vocês já sabem dessa aprovação, mas, como é importante que o cidadão conheça essa PEC, e esta audiência está sendo transmitida, vou ler os artigos dessa proposta de emenda à Constituição, muito rapidamente, para agregar isso às informações emitidas pela nossa TV Câmara.
Art. 1º O art. 5º da Constituição Federal passa a vigorar acrescido com o seguinte inciso:
"Art. 5º ............................................................................................................................
........................................................................................................................................
LXXIX - é assegurado, nos termos da lei, o direito à proteção dos dados pessoais, inclusive nos meios digitais."
Art. 2º O art. 21 da Constituição passa a vigorar acrescido do seguinte inciso XXVI:
"Art. 21. ..........................................................................................................................
.......................................................................................................................................
XXVI - organizar e fiscalizar a proteção e o tratamento de dados pessoais, nos termos da lei, que disporá sobre a criação de um órgão regulador independente."
Art. 3º O art. 22 da Constituição Federal passa a vigorar acrescido do seguinte inciso XXX:
"Art. 22. ...........................................................................................................................
........................................................................................................................................
XXX - proteção e tratamento de dados pessoais."
Art. 4º Para os efeitos do inciso XXVI do art. 21, na redação dada pelo art. 2º desta Emenda, o órgão regulador será entidade independente, integrante da administração pública federal indireta, submetida a regime autárquico especial.
Isso vem muito ao encontro também do que Artur apresentou aqui sobre a importância de agregarmos inclusive a sociedade civil para o acompanhamento e controle do que temos à mão.
Passo a palavra agora à Dra. Laura.
É um prazer recebê-la aqui mais uma vez.
A SRA. LAURA SCHERTEL FERREIRA MENDES - Sou eu que agradeço o convite feito pela Ouvidoria da Câmara dos Deputados.
Primeiramente, muito bom dia a todas e a todos. É um grande prazer e uma honra estar aqui hoje, para debater um tema tão relevante para a nossa democracia.
Cumprimento o colega e amigo desde a Universidade de Brasília, onde estudamos juntos, Artur Coimbra.
Mais uma vez o cumprimento, Deputado.
Eu queria parabenizar a Câmara dos Deputados e o Senado Federal, a Ouvidoria, pela pesquisa. Foi uma pesquisa muito importante e muito feliz, por juntar temas que aparentemente eram distintos, mas que hoje em dia, como tem ficado claro, são temas cada vez mais inter-relacionados. A pesquisa une análise sobre o acesso a informação, para se saber qual é a principal fonte de acesso dos brasileiros a informação; a importância desse acesso para que as pessoas se relacionem; a forma como se dá esse acesso para a formação da vontade política. Isso também é muito interessante. Mostra o papel da proteção de dados e a discussão sobre personalização e privacidade. A pesquisa fala igualmente sobre isso. E, ao fim e ao cabo, relaciona todos esses temas com a democracia e com os pressupostos da nossa democracia. Isso é muito importante.
10:14
RF
Aproveito a oportunidade para parabenizar também o Congresso, pelo protagonismo que tem tido, tanto a Câmara dos Deputados quanto o Senado, nessas recentes discussões sobre proteção de dados pessoais. Sabemos que a Lei Geral de Proteção de Dados Pessoais não teria sido aprovada sem que houvesse todo o protagonismo da Câmara, especialmente do Deputado Orlando Silva e também de tantos outros Deputados, na busca de um consenso, na busca da inclusão dos diversos atores para a formação de um consenso e de parâmetros mínimos para regular a proteção de dados pessoais. É só por isso, Deputado, que temos hoje aprovada a Lei Geral de Proteção de Dados Pessoais. A PEC que o senhor mencionou mostra também esse protagonismo, foi proposta pelo Senador Eduardo Gomes e acaba de ser aprovada na Câmara. Mais uma vez, como o Artur muito bem colocou — também vou falar sobre isso —, vamos ver como a proteção de dados pessoais está muito interconectada com o tema da democracia. Então, esse protagonismo do Congresso tem sido muito relevante nessas discussões.
Eu vou tratar, do ponto de vista da teoria e também dos direitos fundamentais, dessa conexão que a pesquisa, em grande parte, demonstrou. Acho que vale uma reflexão inicial sobre esse tema da conexão entre democracia e as novas mídias e os novos meios digitais. Essa relação é muito mais complexa do que se mostrava um tempo atrás. Temos visto um certo movimento pendular, talvez há alguns anos. Basta lembrar a Primavera Árabe ou mesmo os protestos de 2013 no Brasil, quando as mídias digitais foram vistas quase como o principal meio de uma revolução democrática, uma forma muito grande de exercício da democracia. Lembro uma fala do Prof. Marcos Nobre. Ele, quando relata um pouco os protestos de 2013, fala das mídias digitais como se elas permitissem um verdadeiro diálogo entre as pessoas. O próprio Artur citou aqui o escândalo relacionado à Cambridge Analytica, de 2018. Foram poucos anos para que deixássemos de aclamar esses espaços para praticamente demonizá-los. Podemos mencionar, além desses casos, o Brexit, a eleição de Trump, as eleições brasileiras.
Isso mostra certo movimento pendular e a complexidade dessa relação. Antes de aclamar esses espaços ou de demonizá-los, precisamos entender qual é a função que eles exercem hoje na nossa democracia e nos pressupostos da nossa democracia. Acima de tudo, se formos pensar nos direitos fundamentais, especialmente no direito fundamental à liberdade de expressão, ao acesso à informação, à liberdade de associação, de reunião, precisamos considerar que essas redes são espaços em que exercemos direitos fundamentais.
Há uma oportunidade muito grande, porque exercemos direitos fundamentais por meio delas e somos dependentes delas. É curioso, pois somos dependentes sob o ponto de vista dos nossos direitos individuais. Ou seja, para desenvolvermos livremente a nossa personalidade, para exercermos — uso esta expressão de Habermas — a autonomia privada, dependemos muitas vezes disso. Nós nos expressamos, divulgamos fotos, só que também expressamos a nossa opinião política por meio dessas mídias. Então, elas têm um papel importante, no sentido de que exercemos esses direitos fundamentais por meio delas. Ao mesmo tempo, e esses fatos recentes demonstram muito bem isso, há muitos riscos que decorrem, em grande parte, da personalização, como já colocado aqui pelo Dr. Artur. De 2013 para cá, mudamos um pouco essa perspectiva, porque, em alguma medida, percebemos que essa personalização por meio dos algoritmos acaba acarretando uma fragmentação da esfera pública. Esse é o termo, um termo teórico, que tem sido utilizado para mostrar que aquela esfera pública, que muitas vezes considerávamos como uma esfera pública integrada, está hoje fragmentada.
10:18
RF
Há vários riscos, portanto, que decorrem do uso das mídias digitais, e esses riscos também temos que combater. Parece-me que é preciso reconhecer, em primeiro lugar, que, precisamos garantir esses espaços, para que possamos exercer direitos fundamentais, e, ao mesmo tempo, precisamos mitigar os riscos que decorrem desses usos. Seria essa uma constatação inicial.
Quais seriam os riscos? Percebemos o que aconteceu com a Internet ao longo dos últimos anos. Impressiona pensar a respeito de como a evolução tecnológica muda a nossa perspectiva de tempo. Falamos de 2013. Então, são 6 anos. Em menos de 1 década a nossa percepção foi alterada. Isso é muito interessante e mostra por que os desafios são tão grandes. Mostra por que o direito, mostra por que a sociedade tem que se alterar de fato, e está, o tempo inteiro, sendo desafiada, em razão dessa evolução tecnológica.
Quais são esses desafios? Vou falar especialmente de dois grandes desafios que marcam esse fenômeno. Fala-se muito em fake news, em desinformação. Eu diria que a marca desse nosso tempo são dois grandes conceitos. O primeiro é o da fragmentação da esfera pública, o que já comentei, e, em vez de termos uma esfera pública integrada, única, nos termos usados por Jürgen Habermas ou mesmo por Koselleck, antes de Habermas, hoje falamos da fragmentação de uma esfera pública personalizada. Há quase um contrassenso. Se a esfera pública, por definição, era um espaço de integração em que podíamos discutir e contrapor visões distintas de mundo — acho que esse é um ponto muito relevante da teoria habermasiana —, hoje qual é o espaço que temos para contrapor opiniões divergentes? Será que conseguimos ainda ter essa contraposição? Então, é um aspecto importante essa fragmentação.
Essa fragmentação é expressa por muitos teóricos. Há muitas teorias, como a de bolhas, a de filter bubbles, de que se fala muito. Segundo ela, as pessoas recebem apenas aquelas informações que elas gostariam de ter, porque o próprio algoritmo vai moldar, vai personalizar essa informação. É o que Cass Sunstein chama de daily me, ou seja, todos os dias recebo praticamente um jornal, e não com o que está acontecendo no mundo, para que eu possa, a partir de uma diversidade, de uma pluralidade de informações, formar uma opinião. Eu recebo algo parecido com o que eu já penso, com aquilo com que eu já concordo. Isso pode ter um efeito relevante? Certamente, porque, além de não ser contrastado com pontos de vista diferentes, acaba reforçando a minha opinião e me levando, muitas vezes, para um espectro político mais radicalizado. Essa é uma grande percepção de Cass Sunstein. É muito interessante o livro dele, #Republic, que, embora recente, é baseado em estudo que ele fez em 1999. Ele diz que, quando temos discussões em grupos semelhantes, há uma tendência à polarização. Essa é uma percepção muito interessante. Percebemos isso hoje na nossa sociedade. É muito interessante esta percepção: quanto mais sou submetida às mesmas informações ou a informações muito semelhantes ao que eu já pensava, mais isso confirma a minha opinião e mais me leva para um espectro ainda mais radical. Digamos que, em vez de me levar para o meio, isso me leva mais para as pontas. A fragmentação da esfera pública é algo muito relevante. O segundo fenômeno que também é sempre muito falado é o da manipulação da informação. Fala-se em fake news, fala-se em desinformação, como os europeus gostam de falar. Eu gosto muito de um relatório francês chamado Manipulação da informação. Ele define a manipulação da informação como uma campanha coordenada para divulgar informações falsas ou distorcidas para causar dano. Percebemos que isso também é uma marca, um outro conceito relevante desse fenômeno atual.
10:22
RF
Tanto no caso de manipulação da informação quanto no de fragmentação da esfera pública, vale uma reflexão: por que isso é tão desafiador? Talvez o principal ponto, como eu disse, seja o de que não temos mais esses espaços de confronto de ideias, mas sim um espaço em que reforçamos aquelas ideias que já tínhamos. Isso é muito importante, porque a esfera pública é um pressuposto para a democracia, nos termos da teoria de Habermas e também de Koselleck. Quando Koselleck disse que a esfera pública acabou propiciando a Revolução Francesa, tinha a ideia de que a esfera pública era um espaço em que as pessoas podiam contestar, em que as pessoas podiam discutir e, mais, podiam integrar pontos de vista distintos, e o que temos hoje, ao invés de integração, é desintegração.
Isso é muito relevante, porque mostra que esse não é um desafio qualquer. É por isso que essa reflexão que está sendo realizada aqui na Câmara e no Senado, no Congresso, é tão relevante. De fato, ela diz respeito aos pressupostos da nossa democracia hoje. Então, como fazemos? É claro, não existe resposta simples para perguntas tão complexas. Mas como podemos pensar hoje na nossa democracia, na formação da opinião pública, do debate público, se há essa fragmentação e essa excessiva personalização? Acho que essa é uma pergunta de todos os países, de grande parte dos países, de grande parte dos teóricos. É uma discussão que está sendo colocada em grande parte do mundo por diferentes setores.
Eu acho que esta é a pergunta que hoje se coloca: como preservar esses pressupostos da democracia frente a esses desafios da fragmentação e da manipulação?
10:26
RF
À luz desses pressupostos delineados, vou dizer quais são os três principais aspectos que, a meu ver, caracterizam esse fenômeno. Ao mesmo tempo, vou buscar endereçar o que seriam as diretrizes em relação a cada uma dessas características.
A primeira delas, e isso também é muito falado inclusive nesse relatório francês sobre manipulação da informação, é um problema epistemológico que vivemos hoje. Em grande parte, esse problema epistemológico está relacionado com a perda de relevância do jornalismo profissional. Um pressuposto relevante da democracia que tínhamos desde o século XIX era o de que a formação da vontade política era delegada, muitas vezes, aos grandes meios de comunicação. Em grande parte, delegávamos isso à mídia pela credibilidade que tinha, e hoje o que vemos é que essa credibilidade foi erodida. De alguma forma, como não tenho mais a quem delegar essa formação da minha opinião política, eu acabo a delegando, muitas vezes, a amigos, a grupos de WhatsApp, à minha mãe, ao meu pai, aos meus vizinhos, ao grupo da família ou ao grupo da minha rua.
Essa questão tem sido discutida no mundo inteiro. Como então trabalhar com esse problema de erosão da credibilidade? Grande parte das notícias que eram muitas vezes discutidas, trabalhadas, bem fundamentadas — buscava-se que isso acontecesse assim — hoje é substituída por meras opiniões. Esse é um ponto muito relevante, para o qual, é claro, não há uma solução muito simples. O que me parece importante é que é preciso continuar preservando os espaços de discussão e os espaços em que visões distintas podem ser colocadas em contraste.
Um espaço muito relevante são as escolas. Cito um trabalho da Profa. Indra Spiecker, uma professora alemã, da Universidade de Frankfurt, que trabalha especificamente sobre fragmentação da esfera pública e fragmentação da democracia. Ela diz que um espaço importante são as escolas. As escolas sempre foram, por excelência, um espaço em que há contraste de ideias. Isso também está muito relacionado com as discussões que temos tido hoje. É fundamental que essa pluralidade de ideias exista em vários espaços, inclusive no espaço da escola.
Um segundo ponto que marca esse fenômeno é que existem os intermediários, que são as grandes plataformas. Na verdade, são os grandes intermediários, por meio deles recebemos essas informações. São essas plataformas, em grande parte, os responsáveis pela divulgação, pela difusão das informações, e pela personalização dessas informações. Por que isso é tão importante? Eu me refiro a Marshall McLuhan, que disse que o meio é a mensagem — "the medium is the message". Por que isso é tão importante? Porque o meio, o intermediário já não é mais, na nossa sociedade, um mero intermediário.
Então, é fundamental, sim, discutir se há um papel e uma função tão relevante dos intermediários da informação, das grandes plataformas, e discutir a respeito da responsabilidade. Considere-se a responsabilidade também quanto ao desenho desses produtos e serviços, da arquitetura, no sentido de Lessig, no sentido de Hidemberg. Qual é a arquitetura desses serviços? Como esses serviços são prestados? Quantas informações podemos encaminhar? Como essa informação chega ao cidadão?
10:30
RF
Essa frase do Marshall McLuhan é muito interessante, porque mostra que o meio acaba conformando não só a mensagem, mas a recepção dela. E isso mostra que, quando pensamos nas grandes plataformas, também temos que discutir transparência e autonomia. Qual é a autonomia que eu tenho nessa personalização? E se eu não quiser um daily me? Se eu quiser, de fato, receber uma pluralidade de informações, é possível? Então, é fundamental respeitar essa autonomia e essa autodeterminação.
Chego ao terceiro e último ponto, sobre o qual eu mais costumo trabalhar: a grande relevância do tratamento de dados pessoais e da coleta de dados pessoais, esse novo fenômeno. Nós só temos personalização, só temos microtargeting — e falamos de microtargeting eleitoral —, quando falamos de tratamento de dados pessoais. Eu só personalizo porque tenho uma coleta anterior de dados pessoais, algo que era inimaginável um tempo atrás.
Em relação a isso, parece-me importante dizer que, certamente, a Lei Geral de Proteção de Dados foi um grande passo para combater abusos. Mas é importante lembrar que a lei vai entrar em vigor em agosto do ano que vem, ou seja, antes das eleições municipais. Então, é fundamental que ela não seja adiada, que ela não seja protelada — sabemos que há projeto nesse sentido. Por quê? Aqui eu acho que o caso da Cambridge Analytica — permitam-me citá-lo, apesar de o Dr. Artur já ter comentado sobre isso — é muito emblemático. Por quê? Na situação, 200 mil pessoas baixaram um aplicativo para realizar uma pesquisa sobre comportamento, mas obtiveram dados coletados de mais de 80 milhões de pessoas. Esse dado é muito relevante porque mostra que, se eu não tiver um sistema ex ante de proteção de dados, que é exatamente o sistema que a Lei Geral de Proteção de Dados permite, será muito difícil combater todo esse fenômeno de manipulação da informação e desinformação. A proteção de dados é um dos pressupostos essenciais para que possamos lidar com esses novos desafios.
Acho que já posso me encaminhar para a minha conclusão.
Eu queria concluir dizendo que o desafio certamente é grande, mas que temos, na nossa Constituição Federal, os valores e os princípios fundamentais para que possamos lidar com esses desafios. E quais são esses valores? Eu diria que estamos falando especialmente de dignidade da pessoa humana, pluralismo de ideias, transparência, autodeterminação e autonomia. A nossa Constituição nos dá esse insumo.
Lembro que a responsabilidade é tão grande que é uma responsabilidade que não pode ser atribuída a um ator só. O Estado certamente é aquele a quem os direitos fundamentais se aplicam de forma direta — e é o Estado composto pelo Executivo, pelo Legislativo e, certamente, pelo Judiciário —, mas isso cabe à sociedade como um todo. E o Dr. Artur pontuou muito bem quando falou do fact-checking aqui.
Então, na verdade, a sociedade como um todo tem uma responsabilidade muito relevante: a sociedade civil, o setor privado e a academia.
Com isso, eu encerro e agradeço mais uma vez a oportunidade.
Muito obrigada. (Palmas.)
O SR. PRESIDENTE (Eduardo Barbosa. PSDB - MG) - Obrigado, Laura.
Foi excelente a sua colocação. Acho que, na segunda parte, os outros convidados vão poder inclusive se pautar muito nesses indicativos que você trouxe para nós.
Obrigado de coração. Foi muito bom.
10:34
RF
Eu vou compor a Mesa, para depois termos o debate.
Convido para compor a Mesa o Marcelo Bechara, do Conselho da Associação Brasileira de Emissoras de Rádio e Televisão — ABERT, e o Marcelo Lacerda, é Diretor de Relações Políticas e Governamentais da Google Brasil. (Pausa.)
Tem a palavra o Marcelo Bechara, meu conterrâneo de Minas Gerais. Seu tempo é de 20 minutos.
O SR. MARCELO BECHARA - Bom dia a todos e a todas.
Quero agradecer, na pessoa do Deputado e conterrâneo Eduardo Barbosa, a oportunidade da presença e o convite feito à Associação Brasileira de Emissoras de Rádio e Televisão — ABERT, uma associação que já tem alguma história de vida e que congrega, além das principais emissoras de televisão do País, mais de 3.500 rádios comerciais, que também estão em absolutamente todo o território nacional.
Eu vou pedir licença, porque não tenho o brilhantismo nem do Artur nem da Laura para falar de cabeça. Se eu não tiver uma cola, não consigo falar. Aliás, que desafio vai ser isso, depois de explanações tão ricas. Mas eu vou tentar mesmo assim.
(Segue-se exibição de imagens.)
Foi apresentada uma pesquisa — aliás, precisamos agradecer imensamente à Ouvidoria da Câmara, à Ouvidoria do Senado e ao DataSenado — que realmente trouxe algum nível de informação. Nós temos algumas pesquisas muito esparsas sobre isso, mas essa foi uma das melhores que eu pude observar.
Eu trouxe alguns dados da própria pesquisa.
"Com que frequência você utiliza os meios de fonte de informação?" WhatsApp, 79%. Depois vieram televisão, Youtube, Facebook, sites e rádio. Os últimos aqui foram jornal impresso e Twitter.
"Em geral, quanto você acha que os conteúdos nas redes sociais influenciam a opinião das pessoas?" Redes sociais influenciam muito a opinião das pessoas: 83%. A maioria acredita que as redes sociais deixam pessoas à vontade para expressar preconceito: 90%. Nas redes sociais, notícias falsas ganham mais visibilidade do que verdadeiras: 77%.
E também: 82% dos entrevistados já identificaram notícia falsa em rede social, dos quais somente 5% não compartilharam. E 81% concordam que conteúdos que estão de acordo com a própria opinião nem sempre são verdadeiros. Para os entrevistados, a rede social, 68%, bem como quem cria, 69%, e quem compartilha notícia falsa, 96%, devem ser punidos.
Esses são alguns resultados da pesquisa que eu pude coletar. Há muito mais informação.
10:38
RF
O Tim Berners-Lee, criador da World Wide Web, está numa verdadeira cruzada internacional para resgatar alguns valores da Internet que eram muito comuns e eram muito ditos lá pelos meados dos anos 90 — eu sou dessa época, quando comecei a advogar nessa área — até mais ou menos o ano de 2005 ou 2006. Ele falou que está preocupado com algumas tendências. Que tendências são essas? A facilidade com que se difunde informação falsa na rede; o domínio das redes sociais sobre as nossas informações pessoais; e a ausência de qualquer regulamentação da propaganda feita por políticos na Internet. Isso ele falou em 2017.
Eu queria trazer uma visão sobre o contexto do Marco Civil da Internet no Brasil. Eu gosto muito de falar de história, e toda lei está vinculada a alguma história. O Marco Civil da Internet nasceu como uma reação à lei de crimes informáticos. Por isso que ele foi parar no Ministério da Justiça. Na época, o então Deputado Eduardo Azeredo, que viria a ser Senador Eduardo Azeredo, queria que todo mundo que navegasse na Internet tivesse uma identificação. Essa era uma tese defendida por ele, e a sociedade se mobilizou. Então, o Presidente da República à época delegou ao Ministério da Justiça — não foi nem ao Ministério das Comunicação, nem ao da Ciência e Tecnologia, que na época eram divididos e hoje são um só — a defesa dos direitos humanos, valor consagrado na Constituição, na Internet. Assim nasceu o Marco Civil da Internet, que ficou patinando no Congresso Nacional.
Quando ele para de patinar? Quando, em junho de 2013, dois fatos acontecem: as revelações de Edward Snowden em relação à vigilância da NSA e as marchas de 2013. Eles aconteceram no mesmo mês. A então Presidente da República percebeu o impacto que a Internet tinha e resolveu endereçar uma resposta à sociedade. O projeto já estava no Congresso. Aí ele ganha mobilidade e vem a ser aprovado em abril de 2014.
Naquela época, já se podiam observar, pelas movimentações feitas e principalmente pela falta de unidade, pela própria fragmentação da pauta de junho de 2013, a covardia do anonimato, a criação dos efeitos em bolhas, a falta de diálogo, o discurso de ódio. A partir daquele momento, isso começa a ganhar força, mas não era tão perceptível.
Voltarei a falar sobre o Marco Civil da Internet no final da minha apresentação.
Estou trazendo alguns casos que são emblemáticos. Todo mundo só fala de Brexit e Trump, mas cito uma situação grave que aconteceu em Mianmar, apesar de a Prêmio Nobel, ontem, ter dito que não houve um genocídio — essa é uma opinião dela. Nesse país há uma situação humanitária, uma crise humanitária muito grande, em que budistas perseguem muçulmanos. É o único lugar que eu conheço onde budista persegue muçulmano através de uso paramilitar. Já existem milhares de refugiados em Bangladesh. O próprio Facebook reconheceu que não foram diligentes o suficiente para prevenir ou para pelo menos minimizar o que aconteceu ali.
Na Catalunha, ocorre a mesma coisa. O processo separatista da Catalunha em relação ao governo espanhol até hoje não foi resolvido. Volta e meia ocorrem problemas, e problemas que têm gerado bastante conflito e bastante violência.
Esta cidade aqui, Veles, na Macedônia, é uma cidade... Eu acho que a primeira coisa que temos que examinar é a tal da fake new. As fake news se tornaram uma bandeira dos próprios políticos, que, muitas vezes, usam do processo de desinformação para taxar uma emissora de televisão de ter feito fake news, vulgarizando o debate. Eu não estou falando aqui de uma notícia falsa ou de uma bobagem que alguém publica. Existe um processo industrial de desinformação. Veles, uma cidade pobre na Macedônia, passou a ter jovens ricos. Por que eles passaram a ser ricos? Porque eles eram contratados para fazer disseminação de informação falsa. De Veles, na Macedônia, saíram muitas informações que atacaram a democracia americana.
10:42
RF
Nós temos problemas, atualmente, em vários países do mundo. Eu trouxe aqui várias notícias, muitas ligadas à questão da desinformação.
Aqui, cito o caso dos muçulmanos, que estão muito preocupados com a situação do massacre transmitido ao vivo, na Nova Zelândia, através de uma rede social. Eu poderia trazer aqui notícias e mais notícias.
No Brasil não é diferente. Aqui, vemos a notícia de que "o Governo determinou a paralisação do WhatsApp hoje, às 23 horas". Quer dizer, há uma disseminação de informações que circulam e que eu não preciso... Eu acho que o Artur e a Laura foram bastante felizes na contextualização de como essas coisas acontecem.
O que o mundo vem fazendo? Bom, os Estados Unidos começaram realmente a ter uma preocupação não só com relação ao processo de desinformação desde 2016, mas também a ter uma lei de privacidade mais efetiva; começaram a ter vários projetos de lei. Existem algumas investigações que estão acontecendo em relação a algumas grandes empresas também do ponto de vista concorrencial, que é outra questão que merece ser muito bem observada, e o próprio Departamento de Justiça e o FTC resolveram abrir investigações contra as maiores empresas de tecnologia do mundo, que estão lá nos Estados Unidos.
Agora, voltando ao Marco Civil da Internet, quero dizer que o Brasil tem essa legislação de 2014, uma Lei de Direitos Autorais, a lei do CADE e um avanço importante que foi a Lei Geral de Proteção de Dados Pessoais, que está no momento de vacatio legis, para que ela efetivamente possa entrar em vigor ainda no ano que vem.
E aqui eu trago alguns países. Hoje, a União Europeia assumiu o protagonismo que o Brasil perdeu. O Brasil tinha um protagonismo na questão da discussão da Internet em 2014, até por conta da elaboração do Marco Civil. Esse protagonismo foi perdido. Por que ele foi perdido? Por causa de uma crise política, crise econômica, crise ética, na qual estamos inseridos desde 2015, e nós não conseguimos sair dela. Então, a Europa assume um protagonismo importante nas discussões em relação à proteção de dados pessoais, desinformação, direitos autorais, entre outras questões.
Aqui, eu trouxe alguns exemplos.
Sobre a questão de algoritmocracia. Vou falar de uma forma emblemática sobre a diferença entre o que era no passado e o que se tornou hoje. Eu não sei se todo mundo aqui se lembra disto, mas, antes, para fazer uma publicidade na Internet... Houve uma época, no Brasil, nos anos 90, em que 80% das páginas em português eram do UOL. Todo mundo tinha UOL, que foi a grande pioneira da Internet no Brasil. Se eu tivesse uma empresa de carros e quisesse fazer uma publicidade no UOL, eu ligava para o UOL e eles colocavam um banner em cima do site. Nada muito diferente do que se faz no jornal, quando se liga para o jornal e se pede para colocar uma publicidade impressa. De lá para cá, o que mudou? O que mudou é que os algoritmos e as tecnologias de mídia programática e personalizada, a partir da coleta de dados, conseguiram fazer com que houvesse um direcionamento específico não só daquilo que a pessoa busca, daquilo que a pessoa procura, daquilo que a pessoa lê, mas principalmente daquilo que a pessoa consome. Qual é a lógica em que isso acontece? Se há uma informação, seja um discurso de ódio, seja uma informação falsa circulando, e se isso gerar engajamento, gerar compartilhamento, naturalmente haverá uma atração de publicidade sobre isso. Por quê? Porque onde há gente acumulando no espaço-tempo publicidade há audiência. E aí está a diferença da Internet dos anos 90 para a de hoje: hoje o que se busca é audiência. E de audiência nós entendemos, nós sabemos o que é ter a divulgação de determinado conteúdo que seja atraente o suficiente para um público, para que aquele público possa consumir o seu conteúdo. Então, hoje nós fizemos uma Internet que o próprio Tim Wu chama de mercado da atenção, ou seja, disputa-se atenção a partir de uma tela, seja televisiva, seja um videogame, seja um celular, seja um tablet.
10:46
RF
Tensões reais. Eu lembro que eu escrevi, em 2016, um artigo sobre as redes sociais. Aqui no Brasil chamam-se redes sociais, mas no resto do mundo chamam-se mídias sociais, porque elas não são apenas redes, são mídias. Eu gosto de falar que são mídias sociais. Nesse artigo eu dizia que nós estamos indo para um lado de polarização, que da polarização vai vir a intolerância e da intolerância vai vir a violência. Nós já chegamos ao nível 3. O nível 3 chegou. Temos vários e vários casos dentro do Congresso Nacional de exaltação de uma forma tal que as pessoas estão partindo para as vias de fato. Isso é observado e passou a ser normal. Nós começamos a normalizar absurdos que pessoas dizem. Alguns discursos propagados são muito bizarros, mas acontecem com tanta frequência que passaram a ser o nosso normal.
A questão é: quando o Marco Civil da Internet foi feito, ele buscava o quê? Resolver problemas de conflitos pessoais. O grande problema que se tinha naquela época era alguém fazer um comentário sobre alguma pessoa, alguém divulgar uma informação sobre alguma pessoa. Então, o Marco Civil foi criado para tentar organizar essa informação e dizer o seguinte: "Olha, quando for divulgada uma informação sobre fulano e você quiser removê-la, você vai até o Poder Judiciário, o juiz lhe dá uma liminar e, a partir desse momento, as empresas se tornam responsáveis civilmente caso não obedeçam", ou seja, a responsabilidade civil surge do descumprimento de uma ordem judicial. Só que isso do art. 19 não se aplica ao art. 21. O art. 21 é diferente, ele fala que essa responsabilidade nasce...
E aí lembro um caso específico, porque na época estava muito em voga o revenge porn, que ocorre quando uma pessoa pega uma foto de um parceiro e expõe uma intimidade de ato sexual para constrangê-lo em público. Na mesma época em que foi aprovado o Marco Civil da Internet, foi aprovada a Lei Carolina Dieckmann, que faz referência a uma atriz da empresa em que eu trabalho, que teve as suas fotos expostas. Entendeu-se que, quando o caso envolvesse a intimidade de uma pessoa, aí, sim, seria preciso criar um fast track de responsabilidade, que não dependesse de ordem judicial.
A pergunta que eu faço é a seguinte. A intimidade uma garantia fundamental, mas ela está acima do respeito ao gênero, à crença e à religião. Por que um discurso de ódio pode ficar sendo propagado numa rede até que alguém vá à Justiça e peça que ele saia, e isso é remunerado como publicidade, enquanto a intimidade não? Há uma discussão de inconstitucionalidade no Supremo Tribunal Federal. Ora, então estamos tendo aqui no caso dois pesos e uma medida. Se fossem dois pesos e duas medidas até que estaria equilibrado, mas o que está sendo adotado em relação a esse caso são dois pesos e uma medida, e isso precisa ser atualizado, porque estamos lidando não mais com a violação privada das pessoas, mas com danos à própria democracia. Quando se fala em dano à democracia, isso é dano coletivo, porque é a coletividade que está sendo ameaçada e colocada em questões como o discurso de ódio, o desrespeito, o isolamento. E isso acontece em todas as camadas sociais, não há diferença de idade, de gênero, de classe social. Isso afeta a todos.
10:50
RF
Aí vem a pergunta: o que a gente faz? Algumas iniciativas já foram tomadas, como, por exemplo, a proteção de dados. A ABERT defende uma responsabilidade maior por empresas de mídia. Nós entendemos que as empresas de mídia social, as empresas que divulgam conteúdo, que fazem a distribuição de conteúdo dela ou de terceiros, não importa, e auferem receitas publicitárias têm que ter um nível de responsabilidade. É evidente que elas não vão ter o mesmo nível de responsabilidade de uma empresa de jornal e televisão. Uma televisão tem cara, tem editorial, sabe-se quem é o jornalista, aplica-se efetivamente o direito de resposta. Antigamente, havia a Lei de Imprensa, que não foi recepcionada, mas existe a responsabilidade editorial. Hoje essa editoria acontece através dos próprios algoritmos. Por exemplo, algumas das plataformas mais importantes não permitem que eu coloque conteúdo pornográfico. Eu tento subir, mas eu não consigo. Isso é ou não é uma forma de editoria? Porque, se eu pudesse subir qualquer conteúdo, eu poderia subir qualquer conteúdo pornográfico, mas isso não acontece. Há plataformas especializadas para isso. Então, existe, sim, um controle sobre o conteúdo que é dado.
Nós entendemos que as empresas que têm a publicidade como a principal fonte de receita, suportam conteúdo, são empresas de mídia. É preciso que entendamos isso. Na semana passada, houve a entrega do Prêmio Caboré. Eu não sei se os senhores conhecem esse prêmio, mas é o prêmio de mídia e marketing, inclusive a empresa que eu trabalho, a Globo, recebeu o Prêmio Caboré como a principal empresa de comunicação. Engraçado que algumas empresas que se apresentam como de tecnologia e não de mídia foram lá receber o prêmio. Na hora de serem reconhecidas pelo trabalho que fazem, merecidamente, são empresas de mídia, mas, na hora de assumirem responsabilidades, são empresas de tecnologia. É isso que precisa mudar.
Nós entendemos, então, que o art. 19 tem que ir para um modelo parecido com o art. 21, que a responsabilidade nasce a partir do momento em que há uma notificação, para que a pessoa, seja ela quem for, não tenha que ir ao Judiciário. O Judiciário não é assim tão acessível quanto se imagina para algumas pessoas. Então, defendemos uma mudança nesse sentido. Aliás, defendemos inclusive que o próprio Supremo Tribunal Federal defenda a inconstitucionalidade do art. 19 como ele se apresenta hoje. Entendemos, então, que esse modelo do notice and takedown... E aí há uma desonestidade intelectual do debate que diz o seguinte: "Não! Isso é censura". A liberdade de expressão é o nosso principal negócio, é aquilo que defendemos. Nós vivemos da liberdade de expressão. Jamais vamos abrir mão dela. Mas será que hoje nós estamos vivendo uma liberdade de expressão plena? Antigamente, nos anos 60, no Governo que se estabeleceu, a liberdade de expressão ou a censura eram sacrificadas pelo silêncio, quando vozes eram caladas. Hoje uma ameaça à democracia não é pelo silêncio, mas pelo barulho, o barulho desordenado, em que pessoas falam o que querem, dizem o que querem, ofendem quem querem e não assumem responsabilidade. A palavra não é liberdade, a palavra é responsabilidade. Esse é o ponto que precisa ser abordado. O que justifica que outros casos de violação de direitos, para além do revenge porn ou para a violação da intimidade de uma relação sexual, também não mereçam o mesmo tratamento? No nosso entendimento, as emissoras de rádio e televisão acham que não há absolutamente nada que possa justificar isso.
10:54
RF
O Comitê Gestor da Internet tem um decálogo. Por 9 anos, eu fui do Comitê Gestor da Internet e tive a honra de participar desse decálogo quando eu estava lá. Eles soltaram uma manifestação a partir dos princípios da Internet, e o princípio sete dispõe sobre a inimputabilidade da rede. Ele diz: "O combate a ilícitos nas redes deve atingir os responsáveis finais e não os meios de acesso de transporte, sempre preservando os princípios maiores da defesa da liberdade, da privacidade e do respeito aos direitos humanos".
Olhem só que contrassenso. Esse princípio foi feito para evitar não uma responsabilidade civil da plataforma, mas que a plataforma fosse atacada, para que um juiz não dissesse que um aplicativo de mensagens tivesse que parar no Brasil, para que um juiz não dissesse que um determinado conteúdo, uma plataforma de distribuição de conteúdo audiovisual, como aconteceu no começo dos anos 2000, fosse travada no Brasil. Para isso esse princípio foi feito, para não atacar a rede. Jamais foi utilizado como salvo-conduto para preservar empresas. É essa interpretação equivocada que o Comitê Gestor da Internet está usando hoje, porque, se é verdade que tem que se fazer a defesa da liberdade, da privacidade e dos direitos humanos, o que não está acontecendo é isso. E esse princípio não pode ser usado como escudo para esse tipo de situação.
Algumas propostas: educação midiática, um código de conduta de desinformação, sistemas de identificação de robôs e comportamentos anômalos na rede, aplicações de medidas inspiradas no modelo antitruste para que possamos também combater uma espécie de gigantismo que tem sido efetivamente prejudicial — mas isso é outro tema — e a responsabilidade das plataformas do ponto de vista civil.
Precisamos salvar a Internet dela mesmo. Ela hoje não está no seu melhor estado de saúde, mas é uma ferramenta extraordinária maravilhosa. Entendemos que esse é um processo normal e natural de transformação que a sociedade está vivendo. Nós precisamos que essas empresas das quais gostamos muito e sem as quais não vivemos mais também façam mais do que têm feito. Se compararmos o que foi feito hoje com o que foi feito há 10 anos, veremos que muita coisa mudou, mas me parece que não tem sido suficiente. Por isso, voltando a Tim Berners-Lee, entre outras coisas, ele vem colocando um contrato para que as pessoas possam tentar resgatar alguns valores que ficaram perdidos. Eu sei que algumas plataformas inclusive assinaram esses contratos, mas precisamos efetivamente começar isso. A liberdade de expressão continua sendo um valor inegociável. Nós não vamos abrir mão dela, mas queremos que ela seja exercida na sua plenitude com responsabilidade, senão não há democracia. Muito obrigado. (Palmas.)
10:58
RF
O SR. PRESIDENTE (Eduardo Barbosa. PSDB - MG) - Muito obrigado, Sr. Marcelo. Sua exposição foi esplêndida e deu espaço para ampliar ainda mais o debate.
Agora, passo a palavra ao seu xará, o Sr. Marcelo Lacerda, Diretor de Relações Políticas e Governamentais da Google Brasil.
O SR. MARCELO LACERDA - Obrigado, Deputado. Bom dia a todos. Quero agradecer o convite e agradecer ao Senador Marcio Bittar também pela iniciativa das Ouvidorias.
Gostaria de começar compartilhando a missão do Google: organizar a informação mundial e torná-la útil e disponível para todos universalmente. Isso só é e só tem sido possível nos últimos 21 anos de existência da empresa através do desenvolvimento de plataformas de conteúdos abertas, gratuitas e em constante evolução. Assim como citou o Senador, em constante aperfeiçoamento.
O que essas plataformas possibilitaram? Possibilitaram o acesso, a criação e o compartilhamento de uma gama inimaginável de informação e conteúdo. O Senador também comentou que, no Estado dele, antigamente, o grupo político que dominava os meios de comunicação dominava também a esfera pública. Com o advento da Internet e de plataformas com a nossa, esses monopólios puderam ser quebrados, e as pessoas passaram a ter acesso a mais informação, puderam produzir mais informação, compartilhar mais informação e tomar decisões mais informadas e mais bem informadas.
Mas não é só isso. Além de acesso, produção e compartilhamento de informação, essas plataformas também possibilitaram a criação e o desenvolvimento de novos negócios. Trago um exemplo primeiro do Google. Nós estamos há 15 anos no Brasil. Um relatório interno nosso sobre 2018 traz que o impacto econômico do nosso negócio no Brasil foi de 41 bilhões de reais. Nós ajudamos a movimentar 41 bilhões de reais em atividades econômicas no Brasil, ajudando milhares de empresas, produtores de conteúdo e organizações sem fins lucrativos a se beneficiarem de uma maior presença no mundo on-line.
Trago o exemplo da rede Spa das Sobrancelhas, que emprega hoje no Brasil mais de 7 mil pessoas. Há uma fala da fundadora da rede que diz que hoje mais de 80% das pessoas que entram no site através dos nossos anúncios clicam no botão "encontre sua loja", gerando negócios. Mas somos cientes de que, além de todas essas oportunidades, também enfrentamos muitos desafios. As ferramentas trouxeram vários desafios, que enfrentamos com muita seriedade e muita responsabilidade.
11:02
RF
Aproveitando o mote da pesquisa, Deputado, eu queria falar de dois desafios que são muito importantes para nós. O primeiro é a desinformação. Como enfrentamos esse desafio da desinformação? Trazendo mais contexto para os nossos usuários, aumentando o acesso à informação, uma informação cada vez mais diversa, para que, de novo, esse usuário tenha acesso à melhor informação e esteja mais bem informado para que a sua decisão seja a melhor possível.
(Segue-se exibição de imagens.)
Vou apresentar alguns exemplos a respeito de como trabalhamos essa questão da desinformação. Primeiramente — talvez seja o mais importante —, investir na melhoria dos nossos produtos. Para que os senhores e as senhoras tenham uma ideia, diariamente 15% das buscas feitas são inéditas, nunca foram feitas. Temos o desafio de dar a melhor resposta para o usuário, é o desafio da evolução, do aperfeiçoamento constante e diário. Como enfrentamos esse desafio? Ouvi muito aqui a palavra "transparência", sobre os algoritmos e tudo o mais. Esses algoritmos precisam se adaptar muito rapidamente a essa mudança. Então, são avaliados com base num manual, que é público. É um manual de avaliação e atualização dos algoritmos, para que essa busca, que está em constante transformação, devolva ao usuário o melhor resultado possível.
Quanto à desinformação, notamos que, no caso dessas buscas diárias, 0,25% dos resultados traziam algum tipo de conteúdo enganoso. O que foi feito? Atualizamos esse manual de avaliação e de atualização dos algoritmos, para que, na atualização e na avaliação dos algoritmos, esse conteúdo tivesse cada vez menos relevância.
Essa inovação foi anunciada em 2017, e só em 2018 foram feitas mais de 700 atualizações, levando-se em conta esse tipo de avaliação e atualização. O mesmo foi feito no Youtube. Falamos muito aqui em sugestão de vídeos. Vimos internamente que 1% dos vídeos que eram sugeridos continham algum tipo de conteúdo enganoso. Foi feito o mesmo tipo de avaliação, o mesmo tipo de atualização, para que esse tipo de conteúdo tivesse cada vez menos relevância.
Mas não é só isso. Buscamos também dar evidência ao conteúdo de qualidade. Muitos dos senhores e das senhoras devem conhecer o Painel do Conhecimento. Geralmente quando se busca uma figura pública, o Deputado, por exemplo, ou instituições, como o Senado ou a Câmara, o primeiro resultado da busca aparece no Painel do Conhecimento, com algumas informações básicas. Então, no caso, no Painel do Conhecimento, aparecem informações oficiais, da Câmara, do Senado, da pessoa pública, ao que procuramos dar relevância ali.
11:06
RF
Mas fomos além. No caso de buscas relacionadas à saúde, por exemplo, trouxemos, em parceria com o Hospital Albert Einstein, os cards de saúde. Vemos nesta imagem o exemplo de busca sobre o sarampo, que é algo de que falamos bastante hoje em dia. Quando se busca "sarampo", tem-se ali o card "curado". Afinal de contas, Google é uma empresa de tecnologia, então fizemos uma parceria com uma instituição de nome para levar informações relevantes e oficiais ao usuário, para que ele tenha acesso a esse conteúdo de qualidade.
Outro aspecto importante no combate à desinformação nas nossas plataformas é o contexto. Procuramos dar o máximo de contexto possível para que o usuário, de novo, tome a solução mais acertada.
O exemplo que eu trago aqui é o do Youtube. Esta é uma inovação que trouxemos no ano passado, chamada Breaking News. Em momentos críticos, determinada notícia é muito buscada. Quando ocorrem eventos trágicos, como o massacre naquela escola em Suzano, é normal que as pessoas busquem se informar sobre o tema nas plataformas. Para que essas pessoas tenham o maior contexto possível sobre aquela notícia, nós criamos então esse carrossel, que aparece para todos os usuários, de informações de parceiros de conteúdo autoritativo. Vários desses parceiros são membros da ABERT. Nós temos também a TV Câmara, a TV Justiça, a TV Senado. Para quê? Para que o usuário receba de fonte autorizada o maior contexto possível, tenha acesso ao maior número de fontes possíveis sobre aquele evento específico.
Outra linha da nossa atuação — isto foi falado aqui pelos companheiros que me antecederam — é a do fortalecimento do ecossistema de jornalismo profissional. Acreditamos muito nisso também. Só para que os senhores e as senhoras tenham uma ideia, geramos 24 bilhões de cliques mensais para sites de produtores de conteúdos e editores. Esses sites ficam com 70% da renda gerada com o uso das nossas plataformas de publicidade. Essa é uma forma de gerar tráfego para esses produtores de conteúdo e gerar renda para esses produtores de conteúdo, o que não é o caso das nossas plataformas.
Mas não há só isso. Entendendo este desafio, o de que esses produtores de conteúdo e esses editores de conteúdo precisam também ter maior presença on-line, nós criamos em 2017 a Iniciativa do Google Notícias. A sigla em inglês é GNI. Até o momento investimos mais de 300 milhões de dólares em produtores de conteúdo, para que eles tenham maior presença on-line e produzam de forma mais inovadora conteúdos para essas plataformas digitais. Aqui no Brasil, já investimos mais de 10 milhões de reais.
11:10
RF
Outro exemplo é a educação midiática, que também foi mencionada aqui. O Deputado falou da importância do esforço em subsidiar educadores com ferramentas para que eles também possam enfrentar o fenômeno da desinformação. Nós acreditamos muito nisso. No ano passado, as nossas iniciativas de educação midiática atingiram mais de 300 mil pessoas. Em junho deste ano, anunciamos o investimento num projeto de 4 milhões de reais no Instituto Palavra Aberta, para o desenvolvimento de um currículo de alfabetização midiática, já em consonância com a Base Nacional Comum Curricular, para que os professores possam se utilizar desse currículo e lecionar a matéria em sala de aula.
De junho até o momento, mais de 3.500 pessoas já foram impactadas com treinamentos e palestras. O Instituto Palavra Aberta, que recebeu nosso aporte financeiro, já está levando adiante, com o Estado de São Paulo, o desenvolvimento de matéria eletiva sobre educação midiática, que vai alcançar no Estado de São Paulo, que é nosso maior Estado aqui, 2 milhões de alunos. Bom, isso no campo do combate à desinformação.
Além do combate à desinformação, outro tópico com que a pesquisa se preocupa é a proteção de dados pessoais, é a privacidade. Nós também somos muito preocupados com isso. É óbvio que temos compromisso com a privacidade dos dados dos nossos usuários, basicamente sob a ótica de dois fatores, Deputado: transparência e autonomia. Vou explicar um pouquinho mais a forma como lidamos com isso.
O Google desenvolveu, ao longo desses anos, controles de privacidade que funcionam para todos os usuários, sustentados em quatro pilares que são superimportantes. O primeiro é a escolha individual. Cada usuário tem um nível de entendimento e tem que ter um nível de escolha a respeito do que ele quer e do que ele não quer quanto à maneira como os seus dados e sua privacidade devem ser tratados. Outro pilar é a transparência. Precisamos explicar a esses usuários como os dados são coletados e como são usados. Entendido isso, partimos para o terceiro pilar, que é o controle. Nós damos o controle para que os usuários escolham se esses dados vão ser utilizados ou não, da forma que eles entendam ser a melhor. O último pilar é a segurança. Trata-se de assegurar ao usuário que os dados que ele decide compartilhar conosco estarão seguros, não vão passar para a mão de terceiros.
Vou citar alguns exemplos que materializam esses pilares. Esses quatro pilares se materializam num produto de controle de transparência dividido em vários fatores, que basicamente têm o objetivo de facilitar o acesso a esses dados, dar mais controle aos usuários e aumentar essa transparência. Sem essas premissas, seria impossível que o usuário tivesse todos esses fatores a mão.
11:14
RF
Estes são alguns exemplos: política de privacidade, conta Google, controle de atividade, possibilidade de download — baixar ou retirar os dados das nossas plataformas —, e check-up de privacidade e segurança.
Para que os senhores e as senhoras tenham ideia, desenvolvemos a conta Google em 2015, antes mesmo da entrada em vigor da Lei Geral de Proteção de Dados europeia e muito antes da nossa lei aqui no Brasil. Em um só lugar, o usuário pode ter o controle dos seus dados, encontrar uma seção onde ele pode deletar suas informações, encontrar todos os dados que são coletados e delimitar, dizer quais dados devem ser coletados ou não.
É importante salientar que isso não é um Gmail. "Ah, então eu preciso ter um Gmail para ter acesso a essa conta Google?" Não. Qualquer conta de qualquer produto Google possibilita o acesso a essa conta Google. "Ah, então eu preciso estar logado na minha conta Google?" Não, também não é preciso estar logado. É óbvio que alguns desses controles funcionam de modo mais granular para o usuário que está logado, mas, mesmo que o usuário entre nos nossos produtos sem estar logado, ele tem acesso a alguns desses controles que a conta Google oferece.
Outro exemplo é a possibilidade de baixar ou excluir todos os dados — acho que foi o Artur que falou sobre isso. Nós começamos a trabalhar nessa ferramenta de portabilidade em 2011. Hoje, todos os usuários podem fazer download de todos os seus dados armazenados nos nossos produtos Google. São mais de 50 produtos. É possível baixar esses dados, é possível migrar esses dados para outro site ou para outro provedor.
Como isso acontece? Eu preciso fazer aqui um disclaimer. Isso não acontece só na nossa conta. Isso faz parte também do esforço da indústria. Existe o Data Transfer Project. Nós, com outras empresas do setor — Microsoft, Twitter, Facebook, que está aqui presente também —, fizemos esse esforço para que o usuário possa fazer a escolha de compartilhar, baixar ou deletar todos os seus dados.
Por último, e não menos importante, é preciso trabalhar a conscientização. Não adianta nada termos todas essas ferramentas se o usuário não souber que elas existem. Então, trabalhamos com uma frente enorme e variada de atividades para conscientizar nossos usuários de que essas ferramentas existem, mostrar como elas funcionam e como elas podem ser utilizadas.
No Brasil temos o Dia da Internet Segura, que é comemorado em fevereiro há mais de 5 anos, com a Safernet. Participamos desse dia ativamente para levar essa conscientização aos usuários. Neste ano, Deputado, aqui na Câmara dos Deputados, trouxemos nosso estande de privacidade. Ele ficou 1 semana naquele espaço próximo ao corredor das Comissões. Era um estande onde se podia fazer check-up de segurança e privacidade. Atendemos mais de 600 pessoas. Entre elas, 50 Parlamentares fizeram todo o check-up de privacidade e todo o check-up de segurança, para aprenderem a lidar com essas ferramentas e entenderem melhor a maneira de proteger os seus dados. Quero aproveitar meus últimos 2 minutos para reforçar um pouco a importância do marco civil. O marco civil foi uma lei discutida por esta Casa por vários anos. Discordo um pouco do meu xará da ABERT. Eu não acho que a lei ficou patinando aqui, a lei foi discutida por vários atores da sociedade civil, por empresas e pelo Governo. Conseguimos, depois desses anos de debate, chegar a uma lei muito balanceada, que trouxe segurança jurídica também para o nosso País. Ela trouxe deveres e direitos para os usuários e direitos e deveres para as empresas.
11:18
RF
Um aspecto bastante importante do marco civil, de que vou me atrever a falar aqui, apesar de não ser advogado, é que ele reforça exatamente os valores constitucionais do Brasil, ao dar ao Judiciário o poder de decidir o que deve ou não ficar nas plataformas.
Lembro, Deputado e todos os demais presentes, que o conteúdo que fica nas plataformas não depende só da aplicação do marco civil. Como disse o Marcelo, existem, sim, políticas. São políticas variadas que cada plataforma decide aplicar. Por isso, nós precisamos manter esse aspecto aberto e livre da Internet.
Muito obrigado. (Palmas.)
O SR. PRESIDENTE (Eduardo Barbosa. PSDB - MG) - Marcelo, muito obrigado pela sua contribuição e pela contraposição a respeito de alguns pontos, mais uma vez elucidando ferramentas que já estão à disposição de todos nós.
Eu não tive a oportunidade de passar lá para poder me proteger. (Riso.)
O SR. MARCELO LACERDA - Mas fica o convite. Fazemos uma sessão para o senhor.
O SR. PRESIDENTE (Eduardo Barbosa. PSDB - MG) - Eu sou um analfabeto digital. Vou precisar de ajuda, de apoio. (Riso.)
Vamos chamar agora os nossos outros dois convidados: Mônica Guise Rosina, Gerente de Políticas Públicas do Facebook do Brasil, e Fabro Steibel, Diretor-Executivo do Instituto de Tecnologia e Sociedade — ITS do Rio de Janeiro.
Agradeço muito por terem aceitado o convite para participarem desta reunião conosco.
Tem a palavra Mônica Guise Rosina.
A SRA. MÔNICA GUISE ROSINA - Bom dia a todas, bom dia a todos.
Eu gostaria de começar agradecendo o convite para estar aqui hoje e cumprimentando o Congresso por intermédio do Deputado Eduardo e do Senador Marcio Bittar, Ouvidores das Casas. É uma honra para mim representar o Facebook hoje neste espaço tão frutífero de debate.
11:22
RF
Gostaria de parabenizar a Ouvidoria pela realização da pesquisa. Acho que, antes de se pensar em regular notícias falsas e desinformação, é extremamente importante que se conheça o contexto. Acho que existe, via de regra, um grande afã de regular sem conhecer, e isso pode ser muito perigoso. Eu a parabenizo então pela iniciativa de conhecer e estudar de fato o tema.
Esse tem sido muito o condão do meu trabalho hoje no Facebook, não só do meu time, mas também de diversos times dentro da empresa tanto aqui no Brasil quanto fora. Há esse exercício sobre se entender o que é a desinformação, entender qual é o papel que o Facebook hoje tem nesse contexto e pensar quais são as ações, quais são os projetos, quais são as iniciativas que podemos ter como empresa, com responsabilidade, para endereçar essas questões.
Dentro dos 20 minutos que eu tenho aqui hoje, vou me concentrar em apresentar às senhoras e aos senhores a forma como o Facebook vem buscando combater a desinformação, porque eu acho que esse é um grande tema.
Antes de iniciar a minha apresentação, eu queria manifestar uma reação a algumas falas que precederam a minha. Laura, de maneira extremamente clara e objetiva, como sempre, falou das redes como espaços de exercício de direitos fundamentais.
Também se falou sobre controle por parte do usuário, sobre oferecimento, pelas plataformas, de mais clareza, mais transparência aos usuários quanto aos seus próprios algoritmos. Isso não estava previsto na minha apresentação, mas eu gostaria de lembrar que, nos últimos anos, o Facebook vem investindo muito em dar mais transparência e mais controle para os usuários. Poucas pessoas ainda sabem, e nós temos trabalhado mais fortemente para dar visibilidade a isso, mas hoje o usuário sabe por que chegou até ele cada anúncio. Sempre que um anúncio chega a um usuário do Facebook ou do Instagram, é possível clicar num cantinho superior daquela publicação e entender o envio. A ferramenta se chama Por que você está vendo este anúncio? Trata-se de entender por que aquele anúncio chegou para mim, ir às Minhas Configurações, dentro do Facebook, e optar por deletar determinadas preferências, inclusive, que fizeram com que aquele anúncio chegasse até mim. Então, quanto ao que está chegando a mim como anúncio personalizado, esse nível de controle, de fato, não tem precedentes na história.
Falou-se aqui também sobre a responsabilidade social das plataformas, de reação ao contexto da desinformação. Vou concentrar minha fala nisso.
(Segue-se exibição de imagens.)
O Facebook, sempre que falava deste assunto, dividia-o em três grandes pilares. Recentemente, trouxemos mais um pilar, que é o de colaboração com as autoridades. O Facebook vai atuar nessas frentes, a partir destes pilares: o de remoção de conteúdo; o de redução de conteúdo de baixa qualidade; o de informação (acreditamos que informar o usuário é extremamente importante, trazer mais contexto, trazer educação, pois é o usuário que precisa tomar a decisão mais bem formada possível); e, finalmente, o de colaboração com as autoridades.
Falou-se em perigo do anonimato na Internet em algum momento. A grande verdade é que as pessoas acreditam que o anonimato existe, mas ele não existe. Por trás do que a gente vê de ruim circulando na Internet, junto com tudo o que ela tem de bom, existem as investigações, existe uma colaboração enorme da empresa com as autoridades no sentido de fornecer os dados que possibilitem a identificação de quem está por trás daquele ilícito, Deputado.
11:26
RF
(Segue-se exibição de imagens.)
Muito bem, eu vou começar com o primeiro pilar, que é o de remoção.
No Facebook, só para vocês terem uma ideia, hoje são mais de 1 bilhão de fotos exibidas diariamente na plataforma — só fotos, não estou falando de outras mídias, não estou falando de post, não estou falando de texto. São 2,7 bilhões de usuários hoje. Esse é um volume extremamente grande. E o Facebook precisa trabalhar para remover aquilo que fere as suas políticas de conteúdo.
E como é que o Facebook pensa suas políticas de conteúdo? Ele pensa as políticas de conteúdo buscando sempre priorizar a liberdade de expressão, por um lado — um valor aqui levantado pelo colega —, mas também a segurança dos seus usuários. Segurança é muito central hoje a tudo que o Facebook faz nessa frente.
Para isso, Deputado, no sentido de identificar e poder remover conteúdo violador, o Facebook faz uma combinação bastante poderosa de sistemas automatizados, inteligência artificial e equipes. Hoje, só para vocês terem uma ideia, são mais de 35 mil pessoas trabalhando na frente de segurança. Isso envolve equipes de pessoas altamente especializadas em cyber segurança, revisores localizados no globo todo e que falam mais de 44 línguas, exatamente para poderem avaliar esse material e tomarem medidas muito rápidas. Essa localização em diversas pontos do globo ocorre exatamente para que o Facebook possa fornecer esse atendimento 24 horas por dia, em 7 dias por semana, a todos os seus usuários.
Então, essa combinação de tecnologia com esse grupo de pessoas permite à empresa conseguir identificar e remover aquele conteúdo abusivo.
Só para vocês terem uma ideia também, a título comparativo, Deputado, em 2017, esse número era de 10 mil; em 2 anos, conseguimos subir isso para 35 mil. Isso mostra o comprometimento da empresa com a sua responsabilidade nessa frente.
Eu falo um pouquinho das políticas do Facebook, o que a gente chama de padrões da comunidade. Então, elas estão disponíveis on-line. Todos os usuários podem e devem conhecer quais são as regras, aquilo que o Facebook permite, aquilo que o Facebook não permite. Não é tudo que a plataforma permite, cada plataforma vai decidir de que forma ela decide atuar.
Eu trago aqui alguns exemplos daquilo que o Facebook não permite: conteúdo pornográfico não é permitido, como foi levantado pelo Marcelo; nenhum tipo de exploração sexual, a empresa tem tolerância zero para exploração sexual de menores; contas falsas; discurso de ódio; spam; bullying.
A gente escuta muito que a internet é uma terra sem lei — e não é. O Facebook tem uma responsabilidade e um compromisso enormes em evitar que esse tipo de conteúdo exista na plataforma. É claro que alguns conteúdos são mais fáceis de serem identificados e removidos do que outros. Ninguém vai questionar que determinada imagem é ou não é de exploração sexual, sendo que discurso de ódio a gente já tem uma zona um pouquinho, mas cinzenta; discurso de ódio depende de contexto, depende de uma avaliação maior e que nem sempre é tão célere.
11:30
RF
Não estou dizendo que acertamos todo o tempo, Deputado, o que, com esse volume de usuários, seria impossível, mas a empresa tem melhorado muito a forma como consegue identificar e remover esse tipo de conteúdo abusivo.
Eu vou passar para o segundo pilar, que é o de redução. Falei até aqui de remoção. Existem políticas, padrões da comunidade. Aquilo que é violador a empresa remove. Vou falar agora, então, do pilar de redução.
Acho importante marcar bem a diferença entre remover e reduzir, porque estamos falando de um contexto de desinformação. Escuto muito dizer que o Facebook, as empresas têm que ser obrigadas a remover notícia falsa. Deputada, essa é uma assertiva muito perigosa. Dizer que uma empresa privada deve ser obrigada a remover notícia falsa é dar poder a ela de dizer o que é verdadeiro e o que é falso. E eu não sei se como cidadã brasileira gostaria de viver nesse cenário. Não gostaria de ver nenhuma empresa privada, por mais bem-intencionada que seja, determinando o que é verdade e o que é mentira. Na frente de desinformação, o Facebook reconhece, sim, que esse problema precisa ser endereçado. Mas a medida do Facebook não é remover porque não quer se colocar nessa posição. Mas reconhece que é um conteúdo de baixa qualidade e trabalha para reduzir o alcance e trazer mais informação e contexto ao usuário.
Entendemos que a melhor forma de atacar o problema da desinformação é por meio de parceria com agências de checagens, entre tantas outras iniciativas que a empresa tem. Não tenho tempo aqui para falar de todas elas, por isso eu vou focar algumas.
O Facebook hoje trabalha com 56 parceiros. Falou-se bastante em verificação de fatos, agência de verificação de fatos. São 56 parceiros do Facebook no globo todo, que cobrem mais de 44 línguas diferentes. Só no Brasil o Facebook trabalha com 4 agências diferentes de verificação de fatos.
E como funciona o programa? A empresa usa os sistemas de inteligência artificial para identificar conteúdo que é potencialmente inverídico, e eu digo potencialmente porque nenhum sistema é perfeito. Não chegamos lá ainda, a inteligência artificial não é tudo aquilo ainda. Mas, a partir de determinadas frases ou comportamentos do usuário, é possível identificar um conteúdo que talvez seja falso. Esse conteúdo é enviado às agências parceiras, segue numa fila, e as agências, então, decidem, a partir do volume que estão recebendo, verificar aquelas notícias. E, se as agências marcam uma notícia como falsa, essa informação volta para o Facebook, que, então, reduz o alcance daquela notícia falsa no feed de notícias de quem está tentando compartilhar. Hoje a empresa consegue reduzir esse alcance em até 80%. Além disso, ela informa o usuário acerca daquela verificação de fatos.
Queria ressaltar que todas as agências com as quais o Facebook trabalha são certificadas internacionalmente pela Poynter. Elas são auditadas. Existe um rigor metodológico muito forte por trás da verificação de fatos. Não basta simplesmente dizer que é falso ou verdadeiro, é preciso fundamentar. Há coisa que é passível de verificação, há coisa que não é. Uma opinião não é passível de verificação. Mas sendo passível, trabalhamos, então, com essas agências.
Todo e qualquer usuário do Facebook tem hoje a oportunidade de denunciar um conteúdo como potencialmente falso. Vejam que a denúncia não significa que o alcance daquele conteúdo vai ser reduzido, mas é um sinal muito forte para a plataforma de que provavelmente aquele conteúdo vai seguir para a fila de verificação de fatos.
11:34
RF
Se o usuário tentar compartilhar essa notícia, por exemplo, a manchete possivelmente falsa sobre alienígenas vindo para a Terra, quando ele clicar no botão "compartilhar", o Facebook vai mostrar para ele esta informação: "As agências X e Y marcaram essa notícia como falsa." — e ali ele pode acessar a verificação de fatos — "Você tem certeza que ainda assim deseja compartilhar?" Temos visto que às vezes falta informação. Àquela tia que compartilha notícias falsas às vezes está faltando apenas informação para que pare um pouquinho e tome a decisão de não compartilhar ou alertar — "Aquela notícia que eu compartilhei era falsa" —, gerando, então, mais informação.
Aqui temos algumas notícias que foram verificadas. A notícia de que a vacina contra a gripe não causa surto mortal foi a primeira verificada por um dos nossos parceiros logo que lançamos o programa.
Agora vou falar do pilar "informar". Na verdade, quando falamos da parceria com os parceiros de verificação de fatos, também estamos informando. Junto com a redução do alcance, estamos informando. Trabalhamos uma camada de marketing muito forte. No feed de notícias de todos os usuários do Facebook apareceram dicas de como identificar notícias falsas. No ano de eleição, intensificamos muito esse esforço e não nos restringimos à nossa plataforma dentro do Facebook. Essa campanha correu os principais meios digitais e também os principais jornais e revistas em circulação no País. Investimos milhões de reais nessa campanha de conscientização das pessoas sobre a existência de notícias falsas e também em dicas sobre como identificá-las. Às vezes basta, repito, um pouquinho de informação para que a pessoa pare para pensar antes de compartilhar conteúdo.
Como professora que sou, por formação, a frente de informar é de fato a que eu mais gosto de trabalhar. Hoje temos diversos projetos, Deputado, nos quais financiamos programas educativos, cursos on-line, apoiamos o jornalismo colaborativo contra a desinformação. O Facebook é um dos grandes apoiadores do Comprova, do PROJOR. Enfim, não tenho tempo para falar de tudo. Poderíamos ficar o dia inteiro aqui, e eu teria o maior prazer. Esses exemplos são só para ilustrar essa frente de atuação.
Por fim, eu queria falar da colaboração do Facebook com as autoridades. O Facebook tem profundo respeito pela Justiça e pelas leis brasileiras e colabora diariamente com as autoridades em processos nos quais existe algum tipo de investigação em curso.
Queria ressaltar também a importância do art. 19 do Marco Civil da Internet, mencionado aqui pelos colegas Marcelo, que me antecederam. Queria reforçar a importância do art. 19 como um espaço de segurança jurídica. Eu falei, no início da minha apresentação, sobre o papel proativo que a empresa tem no sentido de remover conteúdo que é violador das suas regras de convivência. E vejam que estamos falando de plataformas que são globais. Todas essas políticas são globais, elas se aplicam tanto ao Brasil quanto ao Egito, à Turquia, à Dinamarca, aos Estados Unidos.
11:38
RF
Então, a empresa tem um conjunto de regras, que são globais, do que ela permite e do que ela não permite. Ela tenta fazer o seu melhor para garantir a segurança do usuário, para evitar conteúdo abusivo, mas existe um espaço que é de determinação do Judiciário local. Eventualmente sabemos que um conteúdo pode violar a lei local apesar de não violar as regras da plataforma.
O art. 19 garante que quem deve determinar se existe ou não uma violação, se aquele conteúdo deve ou não permanecer na rede é o Judiciário brasileiro. Nós já temos experiência em países onde esse papel, essa responsabilidade é colocada diretamente às empresas. E o que nós vemos é que, via de regra, para evitar um passivo jurídico, as empresas tendem a remover muito mais conteúdo do que deveriam, afetando, sim, a liberdade de expressão de forma muito direta.
Então, o Facebook defende bastante o art. 19 como um espaço de segurança jurídica, que garante a liberdade de expressão na Internet, garante a liberdade de expressão dentro da nossa plataforma e garante que um juiz, ao olhar o caso concreto, vai poder ponderar os valores constitucionais e infraconstitucionais e determinar, sim, se um conteúdo específico deve ficar ou deve sair das nossas plataformas.
Lembro que diariamente são removidos milhares de conteúdos porque eles já violam as nossas próprias políticas. Essa é uma esfera que pouca gente conhece, mas acho importante colocar aqui, porque escuto muito se dizer que o Facebook não faz nada. Existe um trabalho enorme, um investimento altíssimo em pessoas, em tecnologia, para que aquilo que é uma violação, de fato, seja removido. Agora, existe um espaço que a empresa acredita que, de fato, deve ser do Judiciário, que vai olhar para o caso concreto e fazer, então, essa determinação sobre ser uma violação ou não e que vai saber ponderar qual valor deve ser mais respeitado.
Eu fico à disposição para responder perguntas.
Obrigada pelo espaço, Deputado. (Palmas.)
O SR. PRESIDENTE (Eduardo Barbosa. PSDB - MG) - Muito obrigado, Mônica.
Não é por acaso que quem fecha a participação dos nossos convidados especiais é a representação da sociedade civil.
Tivemos aqui a oportunidade de discorrer sobre visões diferenciadas, mas dentro de uma lógica daqueles que têm um compromisso real com as redes ou mídias sociais e também dentro da visão acadêmica do fenômeno que nós vivemos nesse momento histórico.
O Fabro, então, tem aqui uma incumbência dupla. Além de emitir sua opinião, nós solicitamos a ele também que, na sua fala, tentasse fazer um balanço para nós das falas dos nossos convidados. Nada melhor do que isso ser feito pelo representante da sociedade civil.
Fabro tem a palavra.
O SR. FABRO STEIBEL - Muito obrigado, Deputado.
Eu agradeço muito e começo com um fato muito relevante, de como nos conhecemos. Foi em Ottawa, na Parceria para Governo Aberto, no encontro global, em que a Ouvidoria foi até lá, com a sociedade civil, para pensar uma agenda de governo aberto com outros países.
Celebro também o fato de estarmos numa ouvidoria, que é um mecanismo de governo aberto e de interação entre sociedade civil e governo.
(Segue-se exibição de imagens.)
11:42
RF
Dito isso, eu selecionei um ponto que considero muito relevante na pesquisa e que vai servir como linha geral do que estou falando, que é: verifique antes de compartilhar. É claro que uma metodologia utilizada pode ser muito boa, mas é sempre uma análise quantitativa. Ainda assim, eu acho que esse dado sobre a verificação se sustenta, inclusive com uma pesquisa presencial que o ITS fez com jovens.
Esse é o eslaide que eu acho mais relevante da pesquisa: "Em geral, antes de compartilhar uma notícia, você verifica se ela é verdadeira?" Ali temos que 82% das pessoas verificam. Se olharmos os dados de 2013, esse número é muito menor. Se olharmos esse número hoje, é muito maior. E isso é muito relevante, porque significa que as pessoas estão preocupadas com a informação que está vindo. Isso é um ganho significativo em media literacy, em letramento digital.
Rapidamente sobre mim, eu sou Diretor Executivo do ITS Rio — Instituto de Tecnologia e Sociedade, também sou afiliado ao Berkman Klein Center, na Universidade Harvard. No Fórum Econômico Mundial, eu estou no Global Council de Direitos Humanos e Tecnologias. Também trabalho com a União Europeia em veículos autônomos e adaptação de cidades para isso.
É certo: você vai compartilhar notícias falsas, todos vamos. Isso é importante, nesse debate, para separar o joio do trigo: o ator institucional bastante organizado, que trabalha com desinformação, para o indivíduo que eventualmente está nessa rede de desinformação.
Essa daí é uma interação que aconteceu nas redes do ITS. Nós temos o ITS News no WhatsApp, e alguém compartilhou uma notícia. Eu achei que a notícia era ruim. Alguém foi lá e colocou: "Monsanto pagou o Google para 'esconder' notícias negativas, diz jornal." Eu li aquilo, e o meu senso de identificação de notícias falsas viu várias coisas: as aspas, os termos "diz jornal", etc. E eu fui verificar.
Essa é uma matéria do The Guardian que analisa a Monsanto comprando anúncios no Linkedin e no Google para fazer uma propaganda positiva de si, mas a forma colocada está ruim. A forma como eu identifiquei isso para a pessoa é que eu acho que deveria ser a regra num momento de diálogo que se tem. Eu fui, de modo privado, e falei: "Olá, pessoa, eu vi o que você compartilhou, eu acho que é falso por isso estar distorcido." Aí se estabelece um diálogo. Se grupos de famílias fossem assim, o principal motor da desinformação teria outra forma de levar isso.
Isso não é escalável, isso daqui não é fácil de ser feito. Mas isso daqui, para mim, é uma das receitas principais para se lidar com a desinformação. Entretanto, você não é a indústria da desinformação e a indústria da desinformação não é você. Dito isso, existe um joio que deve ser separado entre o profissional e o amador.
Esse é um relatório da OTAN que saiu, na semana passada, sobre o que as plataformas estão fazendo para combater a desinformação. A conclusão principal dele é que existe um intermediário, alguém profissional, que se profissionaliza em fazer um modelo de negócio para compartilhar cliques, likes, etc. Se virmos a CPI da Fake News, esse mecanismo foi citado. Se virmos a escala de desinformação, esse mecanismo é citado. Esse mecanismo não é Google, Facebook ou outros. Essa é uma indústria que, por haver um modelo de negócio, estabeleceu-se há anos. E não é fácil retirá-la, da mesma forma que não é fácil retirar os crimes cibernéticos de ataques financeiros, por exemplo, porque eles são extremamente complexos. Mas é sobre eles que deveríamos estar falando.
Um ponto central no combate à desinformação e que tem a ver com a importância do media literacy é a importância multissetorial desse debate. Esse é um relatório lançado no IGF 2017, pela Stefania Milan, e ele verifica o que cada setor tem feito para combater a desinformação. O interessante não é o que cada um pode fazer, mas é a evidência de que apenas trabalhando em conjunto é que se conseguiria fazer esse tipo de ação. Então, fazendo uma conexão, por exemplo, com a fala da Mônica, do Facebook, vemos que, para trabalhar com fact-checking, pegam-se dois stakeholders e se trabalha em colaboração. O art. 19 permite uma colaboração, mesmo que indireta, entre Judiciário e as plataformas. Apenas desenvolvendo mecanismos que unam os stakeholders para trabalhar em convergência é que é possível ganhar alguma escala na luta desse debate. Então, apontar um sujeito não deveria ser a forma de agir. Apontar os sujeitos e como agir é que deveria ser a forma.
11:46
RF
Trago as palavras fake news, que eu não utilizo e que não deveriam ser utilizadas, porque existem vários erros nelas. Se você falar com um jornalista, ele vai falar que notícia falsa não é notícia. Portanto, as palavras fake news não deveriam ser utilizadas. Nós trabalhamos, por exemplo, com a palavra "desinformação", embora haja outras terminologias.
Eu trago algumas coisas que estão associadas a esse debate de fake news. Eu trouxe o Adnet, para não polarizar. Isso é ele fazendo esquetes dos presidenciáveis. Ele fez de todos. E há uma culpa que deveria ser colocada entre os Presidentes, entre os políticos que utilizam essa forma de narrativa para ganhar alguma vantagem política. Na fala do Deputado Eduardo, foi mencionado esse tipo de estratégia, que não deveria ser utilizado.
Alguns vão culpar, por exemplo, as redes sociais, as mídias sociais, que fazem distribuição em larga escala das notícias. Há uma preocupação de que existe uma enxurrada de notícias falsas e de que esse é o cerne do problema. Esse é o relatório que o ITS lançou sobre o WhatsApp, sobre propaganda computacional no segundo turno da eleição brasileira, onde documentamos a existência de propaganda computacional, o que não está relacionado a um candidato ou não está relacionado a quem financia, mas, sim, a uma presença de um comportamento automatizado na distribuição de notícias, o que contrasta com o perfil autônomo, individual do que acontece.
Esse daí é um outro texto do ITS, que vai dizer sobre perfil, sobre por que as pessoas preferem compartilhar algo falso a verdadeiro: Guia para não passar vergonha com fake news, tentando falar com o usuário final sobre o que está acontecendo. Alguns vão falar que a notícia falsa é mais sexy, é mais desenhada, é mais evolucionalmente desenhada para fazer isso. Eu fui à Fátima Bernardes falar sobre isso, e havia uma pessoa lá que compartilhava notícia falsa, mesmo sabendo que era falsa. Então, o problema da notícia falsa e da desinformação é o usuário que faz parte desse processo.
Eu trouxe todos esses elementos para reforçar a questão do multissetoralismo, porque todos esses elementos fazem parte do problema e parte da solução, mas fulanizarem um ou outro é ignorar que esse é um problema complexo e difícil de ser trabalhado.
Então, como não compartilhar notícias falsas? Aí é que eu volto para a pesquisa: "Em geral, identificar notícias falsas publicadas nas redes sociais é fácil ou difícil?" O que eu acho interessante é que 97% das pessoas verificam a notícia. Esse é o fato mais relevante. Alguns acham fácil; outros, difícil. E eu vou trazer alguns materiais que usamos no treinamento judiciário sobre desinformação, para entender por que pode haver essa percepção de que não é fácil.
Esse daí é um guia da BBC News: 7 passos para identificar notícias falsas. Esse é outro guia: 8 sites para checar se notícia é verdadeira. Esse é outro: 32 passos para identificar fake news e evitar ser enganado na internet. Então, identificar notícias falsas publicadas em redes sociais é fácil ou difícil? Não é fácil verificar notícias, mas as pessoas estão verificando — e isso é relevante.
Esse é um guia de uma agência verificadora de mensagens, de notícias, que eu gosto bastante. São oito passos para se fazer, mas só um dos passos é realmente relevante: se está em dúvida, não repasse. Se todos os outros você não souber e tudo o mais, na dúvida, não repasse. Isso é o que eu acho mais relevante na pesquisa. É esta a questão: as pessoas estão preocupadas em verificar aquela informação antes de compartilhá-la? Esses dois termos aparecem na pergunta. Há um agente oculto nisso: o perfil falso. Ele não está incluído entre os que fazem a desinformação, nem em como é compartilhado, mas é uma peça central. E aí eu volto para a questão do relatório da OTAN. Na Internet, bots são atores não humanos que, em geral, tentam não ser identificados como bots. Eu digo "tentam" porque existem bons usos dos bots. O TSE tem bots, o ITS tem bot. Um script ou uma forma automatizada de conversa é extremamente relevante hoje em dia, como a Siri, o Ok Google e tantos outros. Então, a questão não é o bot. A questão é utilizar uma automação para se parecer com uma pessoa humana, seja para o usuário final, seja para a plataforma, seja para o verificador de mensagem, etc. Este é um problema crônico associado a isso. Eu adoraria que fosse uma erva daninha que nós pudéssemos identificar e retirar, mas não é assim que funciona.
11:50
RF
Então, em 2017, quando eu fui ao Supremo, numa audiência que a Ministra Cármen Lúcia presidiu sobre o tema, a pergunta que ela me fez foi: "Como deveríamos trabalhar com conteúdo de notícias falsas?" A minha resposta foi: "Nós deveríamos identificar a indústria de notícias falsas". Existem modelos econômicos interessados em promover desinformação — se não desinformação, compartilhamentos, likes, publicidade, o que for. Existe uma indústria, e ela é que deveria ser o foco. Na época, em 2017, já havia vários jornalistas fazendo investigações sobre o uso de robôs nas campanhas.
Este é o Smarter Every Day, um ótimo canal no Youtube, de um cientista americano muito interessante. À direita, vocês veem o cientista que fez o relatório da OTAN sobre desinformação. Esse relatório é de 6 meses atrás, é de uma sequência de três filmes muito interessantes sobre manipulação no Twitter, no Youtube e no Facebook. A preocupação que eles tinham é que se tornaria cada vez mais difícil identificar bots nas redes, porque você faz uma metrificação para ver onde estão os bots e os bots estão diminuindo, estão sumindo. Eles estavam analisando o Leste Europeu, que é uma região bastante diferente do Brasil. Quanto mais você utilizar a inteligência artificial e outras técnicas combinadas, mais difícil fica a identificação desse comportamento automatizado nas redes.
O golpe do roubo das mensagens que foi utilizado no Telegram para vazar mensagens da Lava-Jato é simples, é ridiculamente simples. Eu poderia ter aplicado esse golpe. Ele basicamente envolve ligar para sua caixa de mensagem, que não tem senha, e pegar um código que está lá. Ele é ridiculamente simples. Esse tipo de ataque talvez seja o bot que o Pegabot, do ITS, pegaria. É um ataque muito simples. O ataque da NSA que o Snowden revelou em 2013 é um ataque completamente diferente disso. Para fazer esse tipo de espionagem em massa, que foi o que Snowden revelou, você precisaria estar dentro da infraestrutura da Internet, entender como dois protocolos se falam, para achar uma brecha, para começar a escutar. O que causou o vazamento do Telegram é um bot, um comportamento, um tipo de crime muito simples. Este tipo de comportamento não é simples. Este tipo de comportamento, não o de vazamento de mensagens, mas o da forma avançada de manipulação é que está se tornando mais corrente. Esse é o verdadeiro desafio da desinformação, porque o bot simples tende, por evolução nacional, a desaparecer.
"Você não é indústria da desinformação." Isso significa que existe uma indústria da desinformação. É uma pessoa jurídica, são pessoas jurídicas, trabalhos em redes, eles não estão nesta sala, mas eles deveriam ser o foco da nossa atenção. No relatório da OTAN, que saiu na semana passada, por exemplo, eles trazem três recomendações do que as plataformas poderiam fazer. São coisas que as plataformas já estão fazendo e deveriam fazer mais. Uma delas é criar sistemas mais abertos de compartilhamento de dados e coisas assim. Ontem ou anteontem, o Twitter anunciou que está criando um perfil de plataforma, um sistema de plataforma mais aberto.
11:54
RF
Então, vejam que existem formas de as plataformas colaborarem que não significam necessariamente a remoção de conteúdo, mas — conectando com a fala do Marcelo, do Google — a criação de sistemas de controle de dados, portabilidade de dados, transparência na remoção de algoritmos e outras coisas que podem estar acontecendo. Também fazendo uma conexão com a fala do Artur, que falou que seria importante termos mais transparência de dados e mais acesso à informação, eu acho que estamos começando a entender 50 tons de abertura de dados e de como podemos compartilhar informação sem comprometer a privacidade do usuário.
O Facebook colocou uma plataforma de hashes, pelas quais aquele conteúdo que foi removido por agências verificadoras ou por outros... Outras plataformas podem verificar se aquele conteúdo foi tirado e decidir se querem removê-lo também. Ao fazer uma hash ou fazer um tipo de criptografia, não se revela o conteúdo, mas se dá uma forma aberta por API para que outros possam fazer aquilo. É algo em que estamos caminhando, mas me parece que a colaboração de atores é necessária para que essa forma mais avançada de bots possa ser combatida.
Rapidamente, o que nós estamos fazendo no ITS e como isso se conecta à pesquisa que estamos vendo aqui? Uma das coisas que lançamos no ano passado foi o Pegabot, um algoritmo que identifica a probabilidade de uma conta de Twitter ter um comportamento de bot. Um comportamento de bot não é ser um bot. Para isso, chame a polícia, chame o jornalista, chame você mesmo, porque comportamento de bot é algo que você pode estatisticamente identificar. O Botometer e outros são muito semelhantes a isso.
O Pegabot funciona de forma muito pior do que o Facebook, o Google, o Twitter, o Twitch e todos os outros, porque temos poucos dados, mas ele funciona como uma ferramenta de letramento digital, para que as pessoas possam analisar os bots ao redor delas. É por isso que no meio da página você tem não informação sobre o que é um bot, mas uma caixa de pesquisa para que você possa procurar o que é um bot. Esse projeto foi financiado pela União Europeia agora. Durante 30 meses, nós vamos fazer um uso massivo dele com jornalistas, terceiro setor e usuários, para promover a resiliência dos usuários e entender o que é um comportamento de bot, para aumentar ainda mais, como vimos lá na primeira questão, esse ponto de que você verifica uma informação antes de compartilhá-la.
Outro projeto que nós temos se chama Redes Cordiais. Redes Cordiais é um evento semifechado com influenciadores que são bastante relevantes na Rede, para falar sobre polarização e desinformação. O último aconteceu em Brasília e foi mencionado na CPI das Fake News como um dos elementos sobre a polarização. Ele é um instrumento para que você influenciador possa entender o seu papel na desinformação e o seu papel na polarização. Também temos o amicus curiae sobre a ação sobre o art. 19. Já publicamos extensamente sobre isso e falamos também muito sobre a defesa do art. 19, que consideramos essencial para o combate à desinformação.
Há também uma pesquisa que não lançamos ainda, com a qual eu finalizo, sobre jovens e desinformação, que traz um dado interessante, que está na coluna de lá, sobre quantos jovens verificam a informação antes de compartilhá-la: de uma forma muito semelhante, 79% dos jovens que nós entrevistamos presencialmente consideram importante verificar uma informação antes de tê-la como verdade, antes de compartilhá-la, o que vai linha a linha com a pesquisa apresentada aqui. Por isso, eu acho que é um dado muito relevante.
Por fim, eu faço um paralelo — eu sou da comunicação — que parece bizarro, mas não é. Vocês já devem ter escutado uma história da década de 30 sobre um radialista que decidiu, de propósito, ler A Guerra dos Mundos. As pessoas foram às ruas gritando, achando que os marcianos estavam invadindo a Terra. As pessoas invadiram supermercados para estocar água e alimentos. Se eu fizesse isso no Pânico na TV, hoje, ninguém acreditaria. Mas na década de 30 fazia sentido.
11:58
RF
Então, Radio Fake Scares Nation foi uma grande comoção, mas havia uma questão de letramento digital. O rádio tinha uma novidade. Ele era tão poderoso quanto uma autoridade. Só de escutá-lo já se acreditava que era verdade. Eu vejo essa pesquisa do aumento do perfil das pessoas que verificam a informação como um efeito semelhante.
No início das redes sociais, pode ser que vocês tenham recebido esta mensagem por WhatsApp: "A vacina contra sarampo causa câncer. Não se vacine". Com o tempo, você começa a ficar mais resiliente ao receber dados da família, ao receber dados por bots, e começa a desconfiar deles. Assim, você começa a aumentar a sua própria permeabilidade em acreditar nesse tipo de informação. Acho que esse é o movimento que estamos vendo aqui.
Finalizando, há um debate sobre deepfakes, que está vindo aí, que seria a possibilidade de qualquer um fazer qualquer tipo de verificação. É algo que assusta. Talvez ele esteja próximo à fronteira em que vamos estar quando vocês me escutarem falando de algo que eu nunca falaria. A coisa mais estranha que eu já vi é uma "Netflix da China", uma empresa de lá, que conta história de ninar com a voz do pai e da mãe caso não estejam em casa. Por exemplo, conta a história da Chapeuzinho com a voz dos pais. Esse sentimento é muito estranho. Eu digo que haverá esse período de susto, mas também um período para aprender que aquilo, na verdade, é uma tecnologia, e é preciso saber como vai ser o seu relacionamento com ela.
Muito obrigado pelo convite. Espero ter feito um resumo geral de todos os pontos que estavam aqui. (Palmas.)
O SR. PRESIDENTE (Eduardo Barbosa. PSDB - MG) - Valeu, Fabro. Obrigado.
Vamos para o debate e para a resposta a algumas perguntas. Parece-me que chegaram algumas perguntas. Temos a participação dos internautas. Já foram distribuídas algumas perguntas.
Antes disso, eu gostaria de contar com a participação da Avaaz, que não foi uma convidada formal para a Mesa, mas nós temos a satisfação de tê-la também conosco.
Concedo a palavra à Sra. Carolina Venuto, representante da Avaaz, para breve relato das conclusões de uma pesquisa de opinião sobre notícias falsas envolvendo a área de saúde e vacinação.
Obrigado pela sua contribuição.
A SRA. CAROLINA VENUTO - Bom dia a todos.
Agradeço ao Deputado e também aos membros da Ouvidoria que estão encabeçando esta audiência pública. Parabenizo todos os colegas expositores. Vejo alguns rostos conhecidos aqui.
Eu vim correndo porque queria participar deste debate. Então, agradeço também por participar.
Além do que já foi trazido pelos colegas, quero dizer que a Avaaz é uma comunidade global que garante a representação dos interesses dos nossos membros em pautas relevantes. Começamos a atuação com a Lei da Ficha Limpa. Temos vários outros ramos de atuação, como a defesa da Amazônia. Também o combate à desinformação tem sido uma prioridade da Avaaz, que tem membros no mundo inteiro e tem estudado esse boom de notícias falsas e de lucratividade com as desinformações em todo o mundo.
De pronto, eu queria trazer para o Deputado e também deixar à disposição da Câmara ou de quem mais tiver interesse um relatório que a Avaaz produziu sobre desinformação a respeito de vacinas falsas. Temos esse relatório impresso, bem como em meio eletrônico.
12:02
RF
Eu queria destacar que a Avaaz começou a entender que a desinformação não diz respeito apenas à esfera eleitoral, mas também pode afetar a saúde pública. A desinformação causou até mesmo linchamentos em alguns lugares do País.
Essa pesquisa sobre vacina nos chamou muito a atenção, porque vimos que 7 em cada 10 pessoas acreditaram em uma desinformação sobre vacina. Por causa disso, 13% da população deixou de se vacinar. Parece uma porcentagem pequena, mas, quando vamos para números absolutos, ela é muito significativa: 21 milhões de pessoas deixaram de se vacinar! Esse é um número muito expressivo, que acabou provocando a volta de doenças erradicadas no País.
A maioria dessas pessoas que deixaram de se vacinar disse nessa pesquisa que deixaram de fazê-lo porque viram uma notícia falsa na Internet. Então, acho que fica bem claro que a desinformação precisa ser enfrentada pelas autoridades, pelo Legislativo, pelas plataformas, pela sociedade civil. Com certeza, só vamos conseguir resolver esse problema se houver um esforço conjunto de todos esses atores.
Finalizando a minha fala, trago as sugestões da Avaaz para lidar com a desinformação. É claro que a desinformação é uma questão cultural, que exige educação, mas entendemos que também há mecanismos que podem ser buscados para se chegar a uma solução possível. Aproveito para deixar esse panfleto para a Comissão e para os colegas. Este panfleto contém, na página final, as sugestões da Avaaz. Uma delas é a correção do erro, feita através de verificadores de fatos, com a utilização das plataformas. Achamos que a plataforma tem condições de saber quem foi impactado pela desinformação. Então, para nós, é fundamental que as pessoas impactadas com a desinformação sejam também impactadas com a correção dessa desinformação.
Além disso, ressaltamos a necessidade de desintoxicação dos algoritmos. Temos pesquisas que demonstram que mais da metade do conteúdo direcionado a nós é feito por algoritmos. São conteúdos direcionados. Não fomos livremente atrás deles. Então, precisamos desintoxicar esses algoritmos também. Há rotulação do conteúdo pago e critérios de anúncio. Aqui abrimos um destaque para a transparência. Acho que o colega também falou que precisamos ter mais consciência de como as plataformas estão tratando esse assunto. Quanto às contas falsas e aos robôs não rotulados, acreditamos que é importante também que essas contas e esses robôs sejam banidos.
Finalizo com a transparência. Acredito que esta seja a chave do diálogo que nós, como sociedade civil, pretendemos ter nesse assunto, junto com o Governo e com os legisladores. Achamos que é importante existir um marco legal sobre isso. O Marco Civil da Internet foi um grande avanço para a sociedade, mas estamos nos deparando agora com um problema que não imaginávamos quando o Marco Civil da Internet foi aprovado.
A Avaaz gostaria de deixar essa contribuição, no sentido de que precisamos pensar em formas legais, para que haja um comprometimento efetivo da sociedade, das autoridades e também da plataforma, a fim de lidar com esse problema.
Muito obrigada.
Um bom dia a todos. Eu fico à disposição. (Palmas.)
O SR. PRESIDENTE (Eduardo Barbosa. PSDB - MG) - Obrigado, Carolina.
Agora vamos trazer os nossos convidados para a mesa, para responderem as perguntas colocadas.
12:06
RF
Alguém do nosso público deseja se pronunciar, fazer alguma pergunta ou algum comentário?
Nós faríamos as perguntas antes, eles responderiam depois e, então, caminharíamos para o encerramento. (Pausa.)
Todo o mundo foi atendido nas expectativas? Que bom! Vocês são didáticos.
A SRA. GIOVANA CARNEIRO - Bom dia.
Eu queria fazer uma pergunta para o Marcelo, da ABERT.
Eu queria entender melhor — até para o público também conseguir entender melhor o posicionamento da ABERT — o seu posicionamento. Considerando que existe uma zona cinzenta do que seria discurso de ódio, como seria seguro para o usuário confiar nas plataformas e na responsabilidade social que essas plataformas, como se viu, estão colocando em prática para retirar um conteúdo que possa ou não ser considerado discurso de ódio?
Se o senhor acha que o art. 19, por exemplo, tem problemas e tem que haver uma responsabilidade direta da plataforma, qual é a sua posição em relação a possíveis mecanismos automatizados que as plataformas podem usar e que, no final, podem acabar violando a liberdade de expressão do usuário, justamente por um conteúdo postado estar na zona cinzenta do que seria discurso de ódio ou não?
O SR. PRESIDENTE (Eduardo Barbosa. PSDB - MG) - O.k.
Então, nós vamos começar com você?
O SR. MARCELO BECHARA - Ótima pergunta. Muito obrigado pela oportunidade de responder.
O SR. PRESIDENTE (Eduardo Barbosa. PSDB - MG) - Eu vou ter de identificá-lo só por uma questão de registro nosso e pela TV.
O Marcelo Bechara é o primeiro a responder a pergunta formulada.
O SR. MARCELO BECHARA - Nós defendemos que existe uma falta de compreensão sobre o debate do art. 19, porque o próprio art. 19 já se inicia fazendo a defesa da liberdade de expressão. "Em nome da liberdade de expressão, da livre manifestação do pensamento" — nem precisava, porque este é um valor constitucional, que já está no art. 5º e no art. 220 da Constituição da República.
Apesar de tratar de remoção de conteúdo, a ideia ali não é que se estabeleça uma vigilância da plataforma sobre o conteúdo trafegado, até porque exigir isso das plataformas seria praticamente impossível, pelo nível de informação. O que se quer, como já acontece em outros países, a exemplo do Reino Unido e de outros países na Europa, é trazer um nível maior de celeridade do conhecimento da plataforma em relação a determinado conteúdo, a fim de que a responsabilidade civil comece a partir dali, assim como acontece no art. 21.
Nós não entendemos por que o valor é superlativizado em relação ao art. 21, que é um direito fundamental à intimidade e tem de sobressair em relação a outros valores. Esta é a nossa posição. Isso não significa necessariamente que a plataforma vá remover o conteúdo. Ninguém está dizendo que, uma vez notificado, ele tenha de remover esse conteúdo ou exercer aquilo que todo o mundo chamaria de censura. Não é toda plataforma, são plataformas que exercem isso de forma empresarial e que fazem das receitas publicitárias um meio de vida, ou seja, mídia. Nós queremos um tratamento um pouco mais igualitário em relação à mídia. Se, na televisão, no Jornal Nacional, eu falar uma bobagem, eu tenho de corrigir o que falei.
12:10
RF
Eu concordo plenamente com a Avaaz. Não basta dizer que a informação é falsa. Tem de dar a correção dessa informação, tem que haver uma responsabilidade. Essa responsabilidade editorial pode não acontecer, talvez, da mesma forma que acontece no jornalismo profissional, mas a tecnologia permite isso.
No discurso de ódio, é evidente que vai haver zona cinzenta. A zona cinzenta sempre existiu. Vai haver zona cinzenta no jornalismo também. Há linha editorial para isso.
Mas o que nós estamos querendo é o foco na responsabilidade. Do jeito que as coisas estão hoje — no resto do mundo, em outros países, não é assim —, nós temos uma situação em que as pessoas ficam expostas a verdadeiras atrocidades, até o momento em que vão buscar uma decisão judicial. Para haver uma decisão judicial, a sua violação fica à mercê de uma interpretação de outra pessoa, mesmo que essa outra pessoa seja um juiz. Não achamos que isso seja justo neste momento.
O SR. MARCELO LACERDA - Posso só discordar um pouquinho e tentar responder sua pergunta também?
Eu discordo do meu colega de mesa, porque o que está no art. 21 não é uma questão de valor, é uma questão de conteúdo, é um conteúdo objetivo. Uma foto íntima minha não é uma questão de valor, é um conteúdo facilmente identificável.
Quando começamos a falar de valores é que precisamos do art. 19, porque quem vai determinar e vai fazer o balanceamento desse valor é a Justiça, é um juiz. Ele vai determinar o valor daquele conteúdo e vai dizer se o valor é correto ou não, para permanecer ou ser retirado.
O SR. PRESIDENTE (Eduardo Barbosa. PSDB - MG) - Laura, você tem alguma pergunta aí com você?
Então, vamos dar prosseguimento.
A SRA. LAURA SCHERTEL FERREIRA MENDES - A seguinte pergunta foi feita pelo Willian Rochadel: "Considerando as características de bolha social, viés de confirmação, desinformação e perfil dos usuários, quais os riscos da democracia eletrônica em considerar apenas a popularidade das interações virtuais? Quais outras medidas poderiam valorizar as interações e mitigar essas características?"
Agradeço a pergunta.
Eu reiteraria alguns pontos da minha fala. De fato, por se tratar de um problema multifatorial, como também já comentei, eu acho que as soluções têm de seguir múltiplos fatores e múltiplas direções. Pensando também na nossa própria na Constituição, eu acredito muito na autonomia do usuário, na autonomia do cidadão para determinar quando ele quer esse conteúdo personalizado e quando ele não quer. Vemos que já existe, no caso de alguns controles de algumas dessas plataformas, a possibilidade de se querer ou não tal conteúdo, digamos, de publicidade personalizada.
12:14
RF
Então, eu acredito na ideia de se dar mais controle ao usuário para que possa, de fato, optar, definir se quer ou não a personalização daquele conteúdo, se quer tornar diferente, talvez, a maneira como recebe aquelas informações, aquele conteúdo. Acredito muito nessa autonomia, nessa autodeterminação, mas, para isso, a arquitetura desses sistemas tem que ser alterada, em grande parte. A ideia da autonomia é muito importante. A ideia da transparência — acho que isso já foi mencionado em todas as falas — também é muito relevante.
Isso, quando pensamos na proteção de dados pessoais, talvez previna parte desses problemas. A partir do momento em que limito ou torno mais adequada essa coleta de dados, principalmente naquele contexto de privacidade contextual, como, por exemplo, o tratado pela Helen Nissenbaum, a partir do momento em que eu digo que tais informações devem ser tratadas nesse contexto e não em outros, ou seja, regulo de forma adequada e razoável o fluxo de informações, a partir desse momento também consigo prevenir eventuais problemas relacionados a uma excessiva personalização ou até mesmo a resultados de algoritmos que não eram esperados. Então, acredito muito também na proteção de dados como forma de prevenção de parte desses problemas, não de todos, é claro.
O SR. FABRO STEIBEL - Eu só quero fazer rapidamente um adendo ao que a Laura falou.
Eu vi um gráfico que não fazia o menor sentido. Era de uma pesquisa a respeito de quanto, no mundo, em cada país, as pessoas se preocupavam com a sua privacidade. E os lugares onde as pessoas se sentiam mais desprotegidas eram justamente aqueles que tinham o melhor marco regulatório de proteção de dados. O que eu li daquele gráfico foi que, quanto melhor o debate sobre proteção de dados, mais se considera aquilo como uma preocupação.
Uma das perguntas do relatório que foi respondido dizia respeito a quanto as pessoas se preocupam com isso. Elas se preocupam muito justamente porque, acho, avançamos no debate da LGPD. Nós fizemos uma pesquisa, no Google Trends, desde agosto de 2016, sobre proteção de dados. Depois que houve a aprovação, foi lá para cima o debate. Então, as pessoas se preocupam mais hoje com isso justamente porque existe um marco regulatório, que permite uma proteção melhor. Parece não fazer sentido, mas é justamente o que estamos dizendo. Nós estamos dizendo que os dados pessoais importam e que o usuário quer que sua privacidade seja respeitada.
O SR. PRESIDENTE (Eduardo Barbosa. PSDB - MG) - Artur tem a palavra.
O SR. ARTUR COIMBRA - Obrigado, Deputado.
Recebi duas perguntas que vão mais ou menos no mesmo sentido. Uma foi formulada por Raphael Rodrigues, e outra, por Hiago Dias, que levanta uma questão sobre educação, a respeito de como educar as pessoas para que, de um lado, saibam filtrar as informações corretas e evitar as informações falsas e, de outro, possam usar de maneira consciente os veículos digitais.
Infelizmente, eu tenho muito pouca coisa relevante para dizer sobre isso. Na verdade, o processo educacional, como a própria pergunta já indica, é um processo que tem uma curva e leva tempo. O que eu posso afirmar com convicção é que existe muito pouco do que se pode fazer na esfera regulatória. Existe muito pouco do que se pode fazer por lei ou por regulamentos para efetivamente educar as pessoas. Esse é um processo longo, é um processo de tentativa e erro, e os provedores de aplicação têm um papel e podem facilitar isso. Parece que já estão facilitando. Parece que já existem iniciativas apresentadas, pelo Facebook, pelo Google, que mostram atributos das suas plataformas que facilitam o reconhecimento de informações falsas, conseguem permitir ao usuário decidir o que ele quer compartilhar e o que ele não quer compartilhar do seu próprio perfil, da sua própria intimidade. Isso leva tempo, como qualquer processo de aprendizagem. Infelizmente, temos muito pouco com o que contribuir do ponto de vista legislativo ou regulatório.
12:18
RF
O SR. PRESIDENTE (Eduardo Barbosa. PSDB - MG) - Mônica tem a palavra.
A SRA. MÔNICA GUISE ROSINA - Eu recebi três perguntas. Vou tentar resumi-las. Foram feitas por William Rochadel, Rogério Costa e Danilo.
William pergunta se, além da verificação de notícias, há outras ações para não manter os usuários em bolhas de informação.
Eu queria, primeiro, deixar claro que o algoritmo tem, sim, uma tendência a mostrar para o usuário aquilo com que ele interage mais. O que eu pessoalmente fiz no ano passado — tenho visto muitos colegas fazerem isto — foi, conhecendo o funcionamento do algoritmo, tomar a iniciativa de interagir com aquelas páginas e aquelas pessoas que têm opiniões divergentes. Existe um espaço de autonomia do usuário, que é importante. Isso, de fato, muda bastante a lógica do que vai sendo mostrado para ele no feed de notícias dele.
Sabemos que haverá usuário que não vai querer proativamente fazer isso, mas é uma decisão, e é importante que ele tenha noção dessa autonomia. A empresa, contudo, começou a mostrar anúncios relacionados. Então, são opiniões, anúncios divergentes em relação a determinadas notícias que estão aparecendo ali no feed.
Talvez isso seja muito parecido, Marcelo, com o carrossel que você mencionou, mas se trata de mostrar para o usuário, de forma proativa, opiniões e outros artigos que tenham relação com aquele artigo ou aquela notícia com que o usuário está interagindo.
Rogério pergunta se existe a possibilidade de haver um ícone "Fake news?", para que a pessoa tenha mais condições de saber se a notícia é falsa. Eu posso adiantar que a empresa já está fazendo testes fora do Brasil, e isso deve vir para o Brasil logo. Nem sei como é a tradução em português, mas se trata daquele blur que aparece na imagem. Isso já existe no Facebook para imagens um pouco mais gráficas. Então, ele mostra aquilo como se fosse um filtro, identificando que aquela notícia foi marcada como falsa por uma agência verificadora. Em breve, deveremos ter isso no Brasil também, deixando mais visível a notícia que é marcada como falsa.
Por fim, Danilo faz uma pergunta relacionada a eleições. Pergunta como conciliar a inclusão digital com a interpretação equivocada que as pessoas dão para fake news.
Há também aqui um questionamento sobre impulsionamento de anúncios em eleições.
Como todos devem saber, a última reforma eleitoral trouxe esta novidade: pela primeira vez no Brasil, passa a ser permitido o impulsionamento de propaganda política na Internet.
12:22
RF
Vou unir as duas perguntas e dizer que educação, para mim, é a ferramenta principal. Como educadora que sou, eu não tenho como fugir desse discurso. É claro que não vemos um resultado rápido, é algo em que devemos seguir investindo. Esse tem sido o compromisso da empresa, mas, de fato, essa questão envolve diversos atores. É importantíssimo que todos se deem as mãos para encontrar soluções de longo prazo para a educação, parcerias, investimento, jornalismo de qualidade. Educação, portanto, é um pilar, bem como informação. Quanto mais informação, quanto mais contexto o usuário de Internet tiver, melhor. Sabemos que, no final do dia, ele estará mais informado e capacitado para tomar uma decisão bem fundamentada.
A empresa tem investido fortemente em ferramentas de transparência. Eu falei sobre algumas delas em termos de controle e visibilidade de anúncios, mas, por causa do tempo, não tive chance de falar mais sobre isso na minha apresentação. Para o espaço eleitoral, o Facebook trouxe diversas ferramentas de transparência. Vou mencionar duas delas. A primeira é o rótulo eleitoral, que aparece para o usuário. Então, além do patrocinado, propaganda política que foi declarada como tal por partidos, candidatos ou coligações nas eleições passadas — obviamente, isso se estende para as próximas — vem marcada como propaganda política e traz inclusive a informação do CNPJ ou CPF que pagou por aquela propaganda. Isso fica mais transparente para o usuário. Todas essas propagandas políticas marcadas com rótulo vão para uma biblioteca de anúncios, que é pesquisável e fica disponível dentro da plataforma do Facebook por 7 anos, o que traz não só transparência mas também accountability quanto àquele candidato que rodou determinada propaganda.
Também existe a transparência das páginas, não só para páginas relacionadas a conteúdo eleitoral. É possível entrar em toda e qualquer página do Facebook e verificar todos os anúncios que aquela página está rodando naquele momento. No caso daquele candidato que tem um discurso que vai para um lado, porque ele quer chegar a determinado público, e um discurso que o contradiz, porque ele quer chegar a outro público, isso está muito transparente hoje, muito visível. Esse é um nível de transparência que não vimos ainda na história das eleições.
Então, há ferramentas de transparência relacionadas a educação, a informação. Acredito que esse é o caminho para que tenhamos eleições mais democráticas e para que os brasileiros fiquem mais conscientes a respeito de quem eles desejam escolher no pleito eleitoral.
O SR. PRESIDENTE (Eduardo Barbosa. PSDB - MG) - Fabro tem a palavra.
O SR. FABRO STEIBEL - Rafael José me faz uma pergunta sobre redes sociais, mídias sociais. Menciona o efeito manada e outras coisas. Pergunta: "Quem está no controle desses acontecimentos, as pessoas ou os algoritmos? Por quê?"
Eu acho que ninguém os controla e ninguém os controlará. O sistema é muito mais complexo do que algo que possa ser controlável. Dou como exemplo o clima. Nas décadas de 70 e 80, tinha-se a ideia de que clima e desenvolvimento se opunham, e isto, o clima, mal era um tema. Veio então a chuva ácida e este problema: um país produzia poluição, que acabava com a floresta do outro. Entendeu-se que um país não controla o clima. Ele é uma questão global. Daí veio a Eco 92, o Soft Power, e se começou a pensar numa mudança.
Estamos em fases muito iniciais da tentativa de entender as mídias sociais, a tecnologia, a inteligência artificial, para pensarmos em controle. Dito isso, eu acho que podemos identificar problemas e pensar em solução para esses problemas. Voltamos então à questão multissetorial. É preciso que se tenha um olhar diferente, com os stakeholders, com os públicos de interesse trabalhando juntos. Acho que, de outra forma, isso não funciona. É preciso testar rápido e aprender rápido. Então, temos que ter o que alguns chamam de smart government ou smart regulation, precisamos pensar em formas de endereçar e aprender rapidamente. Mas o sistema hoje tende muito mais ao caos do que ao controle.
12:26
RF
O SR. PRESIDENTE (Eduardo Barbosa. PSDB - MG) - Marcelo tem a palavra.
O SR. MARCELO LACERDA - Eu recebi quatro perguntas, duas do internauta Rogério Costa Rodrigues. As perguntas são bem interessantes para nós, são do ponto de vista analógico. Ele pergunta se temos um 0800 e qual é o endereço fixo do Google no Brasil.
O número, Rogério, é o 0800-724-8149.
Vejo que ele pergunta também se existe algum protocolo quando se faz uma reclamação no Google. Com certeza existe, já que há o 0800. O Artur, o Bechara, que também trabalhou na ANATEL, sabem que, se há serviço de 0800, é preciso haver número de protocolo.
Sobre o endereço fixo do Google, vou fazer publicidade da empresa, vou pedir a ele que vá ao Google e busque "Google Brasil". Assim, ele vai achar o endereço do nosso escritório, em São Paulo. Se ele procurar "Google Rio de Janeiro", vai ver que temos também um escritório, ou melhor, não é um escritório, é o Youtube Space. Temos um escritório de engenharia, em Belo Horizonte.
Vamos para as outras duas perguntas. Ah, são do Rogério também! Nossa, todas as perguntas são do Rogério! Ele pergunta: "Os valores das empresas que patrocinam as notícias falsas nas plataformas são revertidos para as vítimas das notícias falsas, para pagar os danos morais, os prejuízos nas receitas das vítimas e as custas judiciais?"
Primeiro, eu vou dizer que o Google não patrocina notícia falsa. A pergunta veio endereçada para nós, mas o Google não patrocina nenhum tipo de notícia falsa.
Já que ele perguntou sobre publicidade, eu queria trazer aqui um pouco dos dados sobre a forma como tratamos a publicidade nas nossas plataformas, sobre o rigor na utilização de algumas das nossas plataformas de publicidade. Para que vocês tenham uma ideia, digo que, em 2018, foram retirados mais de 2,3 bilhões de anúncios que violaram algumas das nossas políticas, em relação a assédio moral, discriminação etc. Todos os anúncios que, de alguma forma, violaram essas políticas foram retirados. Alcançaram a monta de 2,3 bilhões. Isso dá alguma coisa em torno de 6 milhões por dia. Para dar outra noção de tamanho, informo que só 12% dos produtores de conteúdo que aplicam para utilizar nossa rede AdSense, que é uma das redes de publicidade, são aceitos. Todo o resto fica de fora. Existe uma procura, e mesmo assim ainda fazemos uma avaliação de que tipo de conteúdo pode realmente ser divulgado nessas plataformas de publicidade.
A última pergunta do Rogério — acho que é a mesma que foi feita à Mônica — é esta: "Existe a possibilidade de se ter um ícone 'Fake News?' em cada notícia postada nas plataformas, para que possamos sinalizar que aquela notícia é suspeita de ser falsa?"
12:30
RF
Hoje, nós trabalhamos de maneira exatamente contrária. Se o conteúdo é controverso, diminuímos a visibilidade desse conteúdo. Lembro que a busca não é uma rede social, a busca é o indexador do que está na Internet. Então, não tenho como carimbar o que é falso e o que não é. Se o conteúdo é controverso, diminuímos a exposição desse conteúdo, e a indexação dele cai. Usamos outros mecanismos para dar mais relevância a fontes profissionais e a fontes ou conteúdos que foram checados.
Também trabalhamos com agência de checagem de fatos. Inclusive, estamos trazendo uma nova feature para o Youtube. Conteúdos do Youtube que passaram pelo processo de agência de checagem vão ter também o selo de que passaram por essa checagem. Isso deve entrar no ar no começo do ano que vem ou até mesmo no final deste ano. E há a questão de darmos relevância ao formato carrossel, como eu disse aqui, a conteúdo profissional em momentos críticos, em todas as buscas.
Deputado, antes de finalizar, agradeço de novo a oportunidade. Eu acho que este espaço é muito importante. Esta discussão é muito importante. É isto mesmo, devem discutir o tema o setor privado, as plataformas, a sociedade civil, o Governo, o Legislativo.
Nós acreditamos que infelizmente não existe uma bala de prata para a questão da desinformação. Se existisse, tenho certeza de que todos nesta mesa seriam os primeiros a dizer: "Vamos utilizá-la". Acho que a nossa bala de prata é continuar discutindo, manter as parcerias, para que esse tipo de conteúdo tenha cada vez menos relevância e o conteúdo oficial e aquele de que todo mundo está atrás tenham mais importância para todo mundo.
Obrigado.
O SR. PRESIDENTE (Eduardo Barbosa. PSDB - MG) - Duas perguntas chegaram para o Fabro. Vamos pedir que ele as responda.
O SR. FABRO STEIBEL - Eu acabei de receber duas perguntas sobre dois temas que amo. Então, vou misturá-los: um é sobre a Terra plana e o outro é sobre o art. 19. (Riso.)
Diego Casaes pergunta: "Como o art. 19 é importante para combater a desinformação se é justamente o argumento utilizado pelas plataformas para não agirem com mais agilidade e eficiência contra a desinformação?"
A pergunta sobre a Terra plana é do H & V Andrade: "Afirmações como 'Terra plana' podem ser consideradas fake news? Há milhares de textos, vídeos (monetizados ou não) sobre o tema!"
O terraplanismo é algo interessante porque envolve pessoas que gostam de ciências, pessoas extremamente empolgadas, que produzem informação. Isso seria extremamente irrelevante para alguém engajado em ciências. Discordo tangencialmente deles porque usam metade da ciência. Não vou concordar com eles. Deem-me uma fórmula de Física que justifique a gravidade disso. Agora, se alguém checar os dados sobre Terra plana, vai ver que existe ali um exercício de liberdade de expressão, debate acadêmico, debate de posições. Existem notícias falsas? Eu diria que sim. Mas talvez esteja dentro do limite da liberdade de expressão poder disputar isso. Eu acho que existem outras coisas que fazem o terraplanismo ser pop e que talvez não seja a informação da verdade, são outro problemas.
No que isso se associa ao art. 19? Vejam, as plataformas podem retirar conteúdo da Internet. É importante se dizer isso. Elas têm as políticas próprias. No momento em que algo as viola, é retirado. Alguém me diga se viu, em algum momento na plataforma, uma vaca sendo morta e desossada ou se viu pedofilia infantil. Esses são dois temas muito claros que não passam nos filtros, nem de perto. Eu nunca vi. Esses são conteúdos que são retirados pelas próprias políticas das plataformas.
12:34
RF
O que se exige no art. 19 é que se inclua o Judiciário para fazer um julgamento de valores sobre o que pesa mais para cá ou mais para lá. Eu fiz uma análise sobre o debate da Amazônia. Se eu fosse retirar todo mundo que falou fake news naquele momento, retiraria o Presidente Bolsonaro, que falou da Noruega com uma foto da Dinamarca; retiraria Macron, que disse que a Amazônia tem 20% de oxigênio, e são 20% de carbono; eu removeria muitas pessoas.
O art. 19, da forma como está, garante que algumas pessoas não podem voltar conteúdo. Essa é outra coisa de que é importante falar. Se alguém simplesmente coloca o sistema notice and take down da forma como está, todo mundo vai denunciar o outro, porque o debate está bastante polarizado, e a tendência é todo o conteúdo sair. Mas, no caso daquele que tem mais recursos para judicializar alguma coisa ou que tem, por exemplo, o argumento de que adotou um critério editorial ou algum outro argumento, a tendência é que diga: "Não, volta. Eu me responsabilizo por isso se algo der errado". Coloca-se então um personagem superforte e se retira um personagem fraco. Com isso, o terraplanista possivelmente estaria fora da Internet. Não digo que gosto de se ter o terraplanista, mas não acho que se deveria retirar o terraplanista por esse sistema.
O SR. PRESIDENTE (Eduardo Barbosa. PSDB - MG) - Obrigado.
Marcelo também vai responder a uma pergunta.
O SR. MARCELO BECHARA - Recebi pergunta de Rogério Costa Rodrigues, que fez todas aquelas perguntas ao meu xará. Na verdade, esta pergunta é igual àquela. Vou repeti-la para que todos lembrem dela: "Os valores das empresas que patrocinam as notícias falsas nas plataformas são revertidos para as vítimas das notícias falsas, para pagar os danos morais, os prejuízos nas receitas das vítimas e as custas judiciais?" Não, não existe nenhuma obrigação nesse sentido. Empresas que patrocinam notícias falsas não são as empresas que estão compondo esta mesa. Elas não patrocinam notícias falsas, mas recebem receita publicitária por elas. Então, não acho que seria má ideia ter um fundo voltado para isso.
Quem gosta de fazer pesquisa um caso muito interessante. Todos desta mesa conhecem o emblemático caso de uma pessoa chamada Justine Sacco. Pesquisem e escutem a história dela. Vão ver como uma situação em que se dá uma opinião errada pode fazer alguém passar por um processo de destruição de reputação. Isso pode acabar efetivamente com a vida de uma pessoa.
Quanto à questão de valores apresentada na pergunta, digo que as empresas já fazem isso. Mostraram aqui discurso de ódio. Esse controle já é feito. A diferença que defendemos na ABERT é que passe a haver responsabilidade, assim como em relação a outros valores.
A ABERT, Deputado, agradece mais uma vez o convite. Temos bastante entusiasmo em falar sobre esse tema. Muito obrigado pela oportunidade.
Um forte abraço a todos!
O SR. PRESIDENTE (Eduardo Barbosa. PSDB - MG) - Tenho duas perguntas aqui para responder. Vou respondê-las e, em seguida, finalizar a nossa audiência.
Taís, do Distrito Federal, pergunta como a tecnologia em excesso, na geração dos nativos digitais, pode influenciar na vida deles quando forem adultos.
Taís, nós todos ainda vamos ver isso. Hoje, temos apenas uma percepção. Alguns cientistas já estão estudando, acompanhando essa influência, como eu disse no início, e a repercussão em comportamentos futuros, no adulto.
12:38
RF
Eu só quero dizer que a base do desenvolvimento da criança na primeira infância depende de três aspectos fundamentais, além daquilo que ela já traz no seu contexto genético. O primeiro é o processo nutricional, que é essencial para que as células possam se multiplicar e se desenvolver. O segundo é o processo de estímulo, em que entra um novo estímulo, que não tivemos na nossa geração, que é esse estímulo digital.
Quem tem criança pequena em casa, como eu — tenho dois netinhos —, observa que eles já pegam o celular e entram em coisas que eu nunca imaginei existirem aqui dentro. (Mostra o celular.) Um tem 6 anos, e o outro tem 4 anos. Eles têm uma habilidade que supera a do avô, e o avô se torna inclusive dependente deles, dessas habilidades que são conquistadas por eles, que tiveram um estímulo que eu não tive. Há coisas que apreendemos e nas quais realmente temos a expertise em alguma fase da vida, principalmente na fase mais tenra, quando se coloca isso à disposição.
Então, é lógico que terá uma influência em habilidades. Isso é indiscutível. E todo jovem hoje compete conosco. Eu e os da minha geração que exercemos alguma função e temos assessores ficamos mais emburrecidos ainda, porque eles fazem tudo isso por nós. Não temos nem tempo para mergulhar nisso e forçar a nossa natureza biológica para aprender alguma coisa.
O homem continua aprendendo sempre, mas, na primeira infância — cientificamente, isso já foi mostrado —, há um impacto naquilo que ele vai desenvolver como potencial em sua vida futura. Nós vamos ver isso daqui para a frente.
Karolina nos faz uma provocação por meio de sua pergunta, que é maravilhosa para o final de uma audiência como esta: "Por que vocês tanto temem o uso das redes sociais?" É bacana a pergunta. Acredito que tudo o que é novo é desafiante. Então, não digo que seja medo de redes sociais. Nós estamos aprendendo a lidar com essa nova forma de interação. Temos medos — foram colocados aqui por todos nós — é da desinformação. Com ela, temos que aprender a lidar. Isso realmente é preocupante para quem tem compromisso social. Estamos trabalhando com informações que realmente têm efeito na vida das pessoas e na organização das nossas relações. Acho que isso é motivo de preocupação, sim.
Do meu ponto de vista — falo agora como Congressista —, lobbies sempre atuaram no Congresso, os lobbies positivos, da organização de segmentos da sociedade que entendem que precisam estar próximos aos representantes da população e influenciá-los naquilo em que acreditam. Isso é democracia. As pessoas vêm o lobby como uma coisa negativa. Pelo contrário, faz parte da natureza humana querer influenciar naquilo que a interessa, no que deseja. Que ele possa inclusive ser regulamentado no País. Está faltando isso, para que possamos ter uma transparência muito clara de quem representa o que dentro do Congresso Nacional. No entanto, historicamente, as grandes corporações, principalmente as que têm recursos financeiros, as grandes empresas, por exemplo, sempre se organizaram dessa forma e exerceram uma influência direta nos Parlamentares, nos Congressistas, tentando nos convencer na formulação de textos e de legislações, na mudança de legislações.
12:42
RF
A rede social hoje, pelo contrário, democratiza esse processo de participação. Nós estamos tendo a oportunidade de o cidadão comum, que não tem essa capacidade de organização, chegar com seu ponto de vista. Então, isso é um lobby também, um lobby positivo e democrático daquele que não tem recurso financeiro para poder se organizar e se fazer presente aqui dentro, com assessorias e com pessoas que representem um segmento.
Por esse lado, é extremamente positivo. E nós todos estamos sendo expostos, a cada dia, a partir do eleitor, do cidadão, àquilo que ele pensa sobre todos os assuntos. Cabe a nós, em qualquer situação — seja no lobby mais organizado que temos ou nesse outro, que nos chega individualmente —, ter discernimento para compreender o que é bom para a sociedade. Isso é fundamental.
Quero lhes dizer que estou muito realizado com a audiência. Primeiro, eu me comprometi a transformar a Ouvidoria. Acredito que esse processo da pesquisa de opinião pública nos dá uma oportunidade de ter desdobramentos como este, não só respondendo, a partir da audiência, àquilo que a Ouvidoria provocou na sociedade, mas trazendo pessoas que poderão refletir conosco sobre isto, sobre o fato que foi colocado para a população opinar.
No meu entendimento, este é um grande momento. Vocês viram que houve a participação dos internautas, uma participação extremamente qualificada, de pessoas antenadas, identificando questões fundamentais. Eu acho que a Ouvidoria também mostra aqui o cumprimento do seu papel. Inclusive foram eles que questionaram, e não os Parlamentares. E o papel da Ouvidoria é colocá-los diante da situação e tentar provocá-los.
Eu também estou muito feliz com mais duas coisas sobre as quais queria falar. Primeiro é que, através desta audiência pública, nós vemos como os novos comportamentos, o conhecimento e a tecnologia absorvida têm influenciado no desenvolvimento da nossa língua. Há muita coisa que nós estamos incorporando na língua portuguesa, e eu fico boiando. Vou ter que procurar os tradutores depois, para compreender, de fato, essa nova linguagem que a nossa língua incorpora a partir de novos conhecimentos e da tecnologia. É muito bacana saber que estamos participando de um processo de evolução linguística. É legal demais! E isso tem um significado, tem o significado de mudanças mesmo, de transformações. É muito bacana!
12:46
RF
Outra coisa com a qual fico muito feliz, como a Laura comentou, é pelo fato de que a Câmara está aqui cumprindo seu papel de espaço público. Mesmo com a pulverização, como é colocada hoje, nosso papel é justamente trazer as mais distintas concepções, dentro do debate e do diálogo, para que possamos ter racionalidade e equilíbrio naquilo que decidimos aqui e que tem influência na vida de cada um de nós. Então, esta audiência pública é o resgate e a garantia de que o espaço público no Brasil está vivo. De alguma forma, ele se compromete a poder construir a partir das diferenças de concepções e de pensamentos. Esse é o nosso papel.
Por último, quero encerrar dizendo o seguinte: todos aqui que foram convidados estão lidando quotidianamente com aspectos tecnológicos. Eu, agora, como humanista, pediatra de formação e participante de movimentos sociais em defesa dos direitos, vi em todos eles um aspecto que tenho que ressaltar, que, para mim, é muito significativo: a tecnologia está presente na vida deles, mas eles trouxeram humanização nas suas falas e uma simpatia muito grande de interação.
Isso significa para mim que a tecnologia não robotiza, que o homem, diante dos desafios, continua pensante. E não são os novos desafios que vão dizer o contrário: que nós perdemos a razão, o pensamento e a emoção.
Eu queria até fazer com que, a partir desta audiência, nós tenhamos aqui um documento formal desta reunião, porque, historicamente, nós poderemos, a partir do que vocês nos trouxeram, fazer uma avaliação do que mudará daqui a 2 ou 4 anos.
Então, eu considero esta uma audiência de grande qualidade. Nós vamos ter o registro formal e oficial da Câmara dos Deputados para ser uma referência para o processo evolutivo de tudo que para nós ainda é dúvida e está em discussão.
Obrigado a todos, mais uma vez. Acolho todas as ideias aqui. Vamos aprofundar sobre elas. Agradeço a presença dos presentes aqui e dos que estão nos assistindo também.
Um abração a todos.
Está encerrada a reunião. (Palmas.)
Voltar ao topo