| Horário | (Transcrição preliminar para consulta, anterior às Notas Taquigráficas.) |
|---|---|
|
17:19
|
O SR. PRESIDENTE (Jadyel Alencar. Bloco/REPUBLICANOS - PI) - Boa tarde a todas e a todos.
Declaro aberta esta reunião de audiência pública da Comissão de Comunicação que tem como objetivo discutir responsabilidade das plataformas digitais e proteção de dados pessoais de crianças e adolescentes.
Informo que a audiência está sendo transmitida pela página da Câmara dos Deputados e pelo Youtube, no canal oficial da Câmara.
Informo também que o público externo poderá interagir com a audiência enviando perguntas aos expositores, por meio da página da Comissão de Comunicação no portal da Câmara dos Deputados. As perguntas selecionadas serão apresentadas aos expositores no momento dos debates, após as exposições.
Antes de darmos início às exposições, conforme solicitado pelo Presidente na reunião deliberativa, por solicitação do meu nobre Deputado Gustavo Gayer, gostaria de aproveitar a ilustre presença do senhor Tim Ballard, Presidente da Fundação Timbalada, que combate o tráfico sexual em todo o mundo. O senhor Tim é ativista, palestrante e autor norte-americano.
O SR. TIM BALLARD (Manifestação em língua estrangeira. Tradução simultânea.) - Boa tarde. É uma honra estar aqui. Boa tarde, Sr. Presidente. Muito obrigado. Às vezes eu me pergunto por que estou aqui. Tem sido maravilhoso, mas não gosto de política. Vocês às vezes brigam muito, me dá dor de cabeça. (Riso.)
Eu só quero representar crianças ao redor do mundo. O tráfico de crianças é o negócio que mais cresce no mundo inteiro. E eu passei mais de 20 anos como operador trabalhando em mais de 20 países, descobrindo jeitos de identificar crianças que estavam sendo traficadas sexualmente, traficadas com órgãos ou com trabalho escravo.
É uma honra estar no Brasil. Tem 200 milhões de pessoas aqui. Isso significa que são milhares de crianças que caem nessas três categorias. Nós estamos fazendo bastante pesquisa na região da Amazônia, como na Ilha de Marajó. E essas crianças são extremamente vulneráveis com tráfico de órgãos e tráfico sexual.
|
|
17:23
|
Tivemos reuniões maravilhosas com policiais e com políticos, com o objetivo de abrir esse diálogo e descobrir novos meios de encontrar essas crianças e parar o tráfico internacional delas.
O tráfico de órgãos de crianças movimenta um mercado de 1,7 bilhão de dólares, e o Brasil está top seis de países que mais traficam órgãos. Não há atenção suficiente dada a esse tipo de tráfico porque, quando o crime é cometido, a criança desaparece e não há testemunha.
Se você entrevistar doutores nos Estados Unidos, na Europa ou em qualquer outro lugar do mundo, eles dirão que a cadeia de custódia do órgão traficado nunca é precisa. Em outras palavras, há diversos pontos nessa cadeia de tráfico de passagem que podem ser alterados. E, dada a urgência do transplante do órgão, ninguém tira o tempo necessário para verificar essa cadeia de custódia do órgão. É por isso que a gente não escuta muito sobre essa indústria de 1,7 bilhão de dólares por ano.
Estamos esperando trabalhar com as autoridades do Brasil — da esquerda, da direita, do topo, do sul, de baixo — queremos trabalhar com todos que estejam dispostos a enfrentar aqueles que cometem essas atrocidades contra as crianças. Acreditamos que tudo isso está acontecendo na região da Amazônia, onde muitas crianças são capturadas.
O SR. PRESIDENTE (Jadyel Alencar. Bloco/REPUBLICANOS - PI) - Tim, primeiro quero agradecer-lhe e parabenizá-lo pelo trabalho desenvolvido em todo o mundo, ao redor do mundo, e dizer que é muito gratificante saber que podemos ter no mundo pessoas como você, que realmente dedicam a vida, parte do tempo, para proteger as nossas crianças.
|
|
17:27
|
Nós sabemos que a Internet é uma ferramenta muito poderosa, mas ela não pode se tornar uma armadilha para as nossas crianças que estão em fase de desenvolvimento.
Vamos construir um relatório eficiente e seguro, para que possamos realmente proteger as nossas crianças e os nossos adolescentes.
Como vocês viram agora, trata-se de um mercado que envolve bilhões. E, como o Tim disse, muitas vezes não se dá a devida importância naquele momento, porque quem está esperando por um órgão também está com a vida por um fio. É um assunto extremamente sensível e que precisa ser tratado com a maior prioridade possível.
Passamos agora à composição da audiência. Para esta audiência pública, foram convidados: o Sr. Carlos Afonso de Souza, representante do ITS; a Sra. Daniele Kleiner, representante da Alandar; o Sr. Gustavo Borges, representante do LABSU – Laboratório de Direitos Humanos e Novas Tecnologias; o Sr. Lucas Borges, representante da Autoridade Nacional de Proteção de Dados – ANPD; a Sra. Mariana Rielli, codiretora da Data Privacy Brasil; a Sra. Pilar Ramírez, representante do ICMEC; a Sra. Roberta Jacarandá, representante do Conselho Digital; o Sr. Ricardo Campos, representante do Legal Grows; a Sra. Marina Fernandes, representante do IDEC; e o Sr. Felipe Lacerda, representante da ESA.
Antes de passar às exposições, desejo informar as regras de condução dos trabalhos desta audiência pública.
Os convidados deverão limitar-se ao tema em debate e disporão de 10 minutos para suas preleções, não podendo ser aparteados.
Após as exposições, serão abertos os debates. Os Deputados interessados em interpelar os palestrantes deverão inscrever-se previamente e poderão fazê-lo estritamente sobre o assunto da exposição, pelo prazo de 3 minutos, tendo o interpelado igual tempo para responder.
|
|
17:31
|
Eu, como pai de seis filhos, diga-se de passagem, sei na pele o quanto é desafiador educar nossos filhos em um ambiente onde a tecnologia está presente em tudo, o tempo todo. A Internet ensina, adverte, conecta, diverte — perdão — mas ela também pode machucar, manipular e aprisionar.
Nossas crianças estão lá, muitas vezes sozinhas, diante de um mundo que nem sempre compreendem. Como temos repetido, a Internet sabe tudo sobre nós, e nós sabemos muito pouco sobre ela.
O Projeto de Lei n.º 2.628, de 2022, nasce justamente desta urgência: proteger a infância nesse território novo e invisível que é o digital. Ele propõe limites claros para empresas que lucram com o tempo, os dados e a atenção das nossas crianças. Não se trata de frear a tecnologia, mas de colocá-la a serviço da vida, da saúde mental e da integridade de quem ainda está se formando.
Este projeto não é um projeto de censura. Não é um projeto para restringir empresas. É, sim — diga-se claramente — um projeto para proteger as nossas crianças, os nossos adolescentes, os filhos da sociedade brasileira.
Hoje, tratamos de um ponto central: a responsabilidade das plataformas digitais e a proteção dos dados pessoais. Dados viraram moeda, e os dados das nossas crianças — os mais valiosos e os mais vulneráveis — estão sendo coletados e explorados sem critérios. Isso é inaceitável.
Na audiência anterior, debatemos com especialistas os impactos dos ambientes digitais na saúde mental de crianças e adolescentes. Os relatos foram duros. Falaram de vícios em telas, ansiedade, isolamento; e deixaram um recado muito claro: não podemos mais adiar essa conversa. A infância brasileira precisa de proteção — nas ruas, nas escolas e, sim, também nas redes.
Estamos aqui para ouvir, construir e avançar com um princípio inegociável: a proteção integral da criança e do adolescente é uma prioridade absoluta.
Gostaria de convidar os presentes que estão nas filas mais ao fundo que, se possível, venham se aproximar e ocupem as duas ou três primeiras fileiras, para que possamos interagir de forma mais eficaz com vocês.
Convido a sentar-se à primeira fileira e compor a Mesa de exposição: o Sr. Lucas Borges, representante da Autoridade Nacional de Proteção de Dados – ANPD; a Sra. Mariana Rielli, codiretora da Data Privacy Brasil; a Sra. Daniele Kleiner, representante da Alandar; o Sr. Gustavo Borges, representante do LabSul;
a Sra. Roberta Jacarandá, representante do Conselho Digital; a Sra. Marina Fernandes, representante do IDEC.
|
|
17:35
|
O SR. PRESIDENTE (Jadyel Alencar. Bloco/REPUBLICANOS - PI) - Sim.
O SR. RICARDO CAMPOS - Gostaria de cumprimentar todas as autoridades aqui presentes, os demais participantes e os servidores, em nome do Relator, Deputado Jadyel Alencar.
Para iniciar, gostaria de falar rapidamente sobre o meu vínculo com a temática. Tenho quase um vínculo umbilical com o Projeto de Lei n.º 2.628. Antes mesmo de sua apresentação, o então Senador Alessandro Vieira me enviou uma carta formal. E eu, no âmbito do meu instituto, falei — Deputado Jadyel — daqui de Frankfurt, na Alemanha, onde leciono Regulação de Serviços Digitais. À época, o Senador Alessandro Vieira me pediu formalmente que elaborasse — ou ajudasse a elaborar — uma arquitetura de proteção da criança na internet. Então, formei um pequeno grupo, dialoguei com instituições internacionais e europeias, e também montei um curso na universidade sobre o tema.
O resultado foi um documento grande, que encaminhei ao Senador Alessandro Vieira. E, para minha surpresa, o projeto de lei protocolado por ele é, em grande parte, baseado nesse documento oficial, produzido em diálogo com o estado da arte da regulação e da proteção da criança na Internet, em 2022.
Hoje, dentro do instituto, temos um novo grupo trabalhando em uma nova nota técnica, com o objetivo de propor aspectos atualizados do novo estado da arte do direito global sobre o tema.
Também, Deputado, quero chamar a atenção para que esse é um debate global, não apenas nacional. Na semana passada, o Senado dos Estados Unidos voltou a discutir dois projetos fundamentais sobre a proteção de crianças on-line: o Kids Online Safety Act e o Children and Teens Online Privacy Protection Act, que é uma atualização do famoso COPPA.
É essencial que o Brasil, e este debate na Câmara, observem essas iniciativas americanas. Tivemos ainda a iniciativa do Parlamento Australiano, que aprovou o Online Safety Amendment Act de 2024, estabelecendo a idade mínima de 16 anos para o uso de redes sociais.
O fundamento ali foi muito interessante: não se baseou na limitação da liberdade de expressão das crianças, mas, sim, na saúde mental. Vários estudos fundamentaram a relação entre crianças, redes sociais e impactos negativos à saúde mental.
Na Europa, tivemos um desenvolvimento recente com o Digital Services Act – DSA. Deputado, talvez o mais importante seja perceber que o Brasil enfrenta uma situação diferente desses países. A situação da criança no Brasil é, de fato, muito mais grave do que nos países que mencionei — basta tomarmos como exemplo a Alemanha, onde resido há 16 anos.
|
|
17:39
|
Aqui meus filhos frequentam escola em período integral, aqui praticamente toda a sociedade envia a criança para uma escola em período integral, quer dizer, o tempo que ela passa em redes sociais é muito menor do que o de uma criança brasileira.
Agora, imagine uma criança em uma família desestruturada, ou mesmo em uma família estruturada, em que o pai e a mãe trabalham. O papel de uma criança que não frequenta uma escola de período integral, o papel, o impacto na formação da capacidade da criança... Porque, no final, a rede social e a Internet passam a ser um meio de interação para que essa criança não vá para a rua e permaneça, de alguma forma, no ambiente doméstico. Portanto, temos no Brasil uma situação muito diferente e muito mais grave.
Além da nova nota técnica que encaminharemos à Câmara dos Deputados, ao gabinete do Deputado, quero focar rapidamente em cinco pontos concretos que acredito serem muito relevantes à luz da experiência global. Falo a partir de uma perspectiva jurídica. Este é um debate interdisciplinar e transversal. A minha perspectiva é uma das várias perspectivas, que é a perspectiva jurídica. Vale sempre ressaltar, eu dou aula sobre regulação de serviços digitais na Universidade de Frankfurt há bastante tempo e participo ativamente do debate brasileiro. Fui membro da Comissão de Juristas responsável pelo novo Código Civil, tendo atuado especificamente na área do direito digital. Por isso, tenho familiaridade com o tema da regulação do espaço digital.
Gostaria, Deputado, de propor cinco pontos para aprimorar de forma propositiva e positiva a tramitação e os temas do PL, apoiando também nessa experiência global, que, por um lado, traz uma legitimidade consigo; trazer um instituto que já é de alguma forma aplicado nos Estados Unidos, na Ásia e na Europa, que deu certo. E dificilmente também poderiam as empresas que serão reguladas se refutarem de aplicar tais institutos, sendo que eles aplicam, por exemplo, na Europa. Seria muito estranho uma empresa falar: "Não, na Europa eu aplico, mas no Brasil, eu não vou aplicar".
Por isso, a análise de melhores práticas globais e trazer isso para dentro do contexto brasileiro, lógico, tropicalizando, para usar uma expressão recorrente no debate nosso, é muito importante, porque facilita, de fato, a proteção dos direitos em questão e aqui do direito da criança.
Então, o primeiro instituto que eu acho importante a gente introduzir no debate é a introdução da avaliação de risco sistêmico, com foco específico em crianças e adolescentes. Esse instituto já foi incorporado pela Ofcom, agência reguladora do Reino Unido, na atualização do Online Safety Act, por meio de códigos de conduta que entrarão em vigor a partir de 25 de julho deste ano. Esse instituto da avaliação do risco sistêmico foi incorporado pelo DSA — Digital Services Act da União Europeia, onde há também a previsão de análise de risco sistêmico voltada para crianças e adolescentes no novo (ininteligível) para aplicação. Esse seria o primeiro ponto.
O segundo ponto seria a verificação etária. Esse é um ponto de difícil aplicação, mas há também, por exemplo, a partir da legislação australiana, já em vigor, um grande debate regulatório sobre o tema, que seria importante a gente observar quais são os padrões
e como eles têm sido, de fato, aplicados e feito o enforcement tanto pelo poder público quanto pelas próprias plataformas de redes sociais, para, de fato, estabelecer uma verificação etária dos usuários.
|
|
17:43
|
Um outro instituto muito importante que causa uma polêmica por ser aberto, mas que também poderíamos nos orientar à luz do direito comparado, seria o instituto incorporar o que não está na versão que veio do Senado que é o dever de cuidado, que é praticamente as empresas atuarem de forma mais proativa no conteúdo relacionado a crianças e adolescentes.
Esse dever já está presente no Digital Services Act europeu, no Online Safety Act, do Reino Unido e no Kids Online Safety Act, dos Estados Unidos. Seria importante introduzir essa ferramenta que já de alguma forma circula no debate regulatório global dentro especificamente para o contexto brasileiro.
E aqui, passando para a minha quarta proposta, que a gente deveria, de alguma forma, introduzir nesse importante debate regulatório brasileiro, é se ter, se incluir, como a gente tem o DPO dentro do paradigma da proteção de dados, ter um responsável exclusivo pela segurança das crianças e adolescentes dentro de uma determinada plataforma. E aqui a gente poderia fazer uma regra de tamanho de plataforma para não ter impacto na inovação de pequenas plataformas, pequenos serviços que estejam surgindo.
Então é superimportante a gente ter uma pessoa exclusivamente encarregada e especializada na segurança de crianças, e responder pela empresa a órgãos administrativos e judiciais sobre o tema da proteção e segurança das crianças e adolescentes dentro da plataforma. Esse foi um instituto, por exemplo, já colocado na reforma do Online Safety Act.
E aqui, caminhando já para o final da minha exposição, a última e quinta instituto que a gente deveria implementar é o canal de denúncia eficaz. Esse é um ponto extremamente importante que tem tanto no debate da lei alemã quanto no DSA que as plataformas elas próprias têm que internalizar um canal de denúncia; e também para o contexto brasileiro seria importante órgãos públicos de defesa da criança e do adolescente ter um canal público para que a gente tenha denúncias eficazes.
E aqui a gente também daria um passo, Deputado, no tema do art. 19, que é evitar jogar para o Judiciário. Porque jogar para o Judiciário, a gente sabe que ninguém vai buscar uma decisão judiciária. Nenhum pai de criança, simples, de uma comunidade ou um indivíduo comum irá procurar o Judiciário, mas seria muito mais fácil abrir canais privados, como há na tradição europeia, e abrir também decisões administrativas dentro com canais de denúncia em órgãos públicos.
O SR. PRESIDENTE (Jadyel Alencar. Bloco/REPUBLICANOS - PI) - Muito bom, Dr. Ricardo, ouvir um especialista como o senhor representando a academia, trazendo para o nosso debate as melhores práticas internacionais.
|
|
17:47
|
Eu queria começar agradecendo a toda esta Casa, parabenizar por discutir esse PL, ele é um bom projeto, acho que todos nós queremos mais proteção de crianças e adolescentes. Então fica meu agradecimento a toda a Casa na presença do Relator, Deputado Jadyel. Também queria agradecer ao time do Relator, supertime, à Stephanie e à Liane, que têm sido sempre muito atenciosas.
(Segue-se exibição de imagens.)
A Landar Consultoria é uma consultoria especializada em tecnologia; a gente trabalha também na área de Trust and Safety; eu trabalhei 7 anos na área de Trust and Safety da Meta, trabalhei também no Twitter; e é um prazer muito grande a gente poder estar aqui hoje para contribuir para esse debate. A gente tem clientes do setor de tecnologia, como o Youtube, a OpenAI, entre outros.
E como o tempo é curto, eu escolhi focar minha fala em três pontos, falar um pouco sobre verificação de idade, melhor interesse da criança, dever de cuidado e repórter de violação de abuso infantil, especialmente abuso sexual.
E por que nós estamos aqui? Acho que é a primeira pergunta que a gente tem. É um pouco óbvia essa resposta, mas é importante a gente ressaltar os dados do TIC Kids Online, uma pesquisa que a gente tem orgulho, uma pesquisa brasileira sobre o uso de crianças e adolescentes; então a gente vê um aumento significativo do acesso dessas crianças e adolescentes a serviços digitais. Isso naturalmente vai criar uma pressão social por respostas e mais proteção dessas crianças; a gente tem mais de 15 projetos na Casa e, de novo, parabenizo e fico feliz que o PL 2.628 está avançando porque é um bom projeto. E o desafio é a gente proteger essas crianças e adolescentes, mas, claro, preservando princípios constitucionais, liberdade de expressão, privacidade, inclusão digital.
E entrando no primeiro tema, eu queria dar um pouco de visibilidade e dizer para vocês que hoje existem várias formas em que as plataformas podem trabalhar para tentar chegar o mais próximo possível à verificação de idade ou uma estimativa de idade dos usuários da plataforma.
Por que são vários métodos disponíveis? Porque eu acho que é importante que o pessoal tenha um conhecimento aqui de que não existe uma solução hoje bala de prata, mágica; todas as soluções têm pontos positivos e pontos negativos.
Então vou falar um pouco desses pontos positivos e negativos, não porque eu não acho que elas deveriam existir, eu acho que elas deveriam, acho que o meu ponto mais é mostrar a importância de ter um texto de lei que traga uma flexibilidade para que as plataformas consigam usar mais de um método, e não que a gente faça uma opção por um método específico fechando a porta para outros, porque é o que já acontece hoje, tem plataforma que usa até três métodos misturados, desses que eu vou mencionar, para que elas consigam garantir que seus serviços sejam usados por a faixa etária correta.
|
|
17:51
|
Temos os métodos de verificação documental, como a apresentação de um documento com foto emitido pelo Governo, ou biometria facial, para comprovar a identidade do usuário. Esses métodos trazem um grau maior de certeza, porém apresentam um ônus maior em termos de privacidade. Estamos falando de coleta massiva de dados pessoais e documentos pelas plataformas, o que pode implicar em riscos de vazamento. Além disso, há uma questão de exclusão digital: pessoas que não têm acesso a um documento válido ou, por exemplo, pessoas trans que não possuem um documento com o nome correspondente ao seu nome social podem ser excluídas do uso das plataformas.
Existe também o método de estimativa algorítmica, que apresenta um grau de certeza moderado. Ele baseia-se na análise, por parte das plataformas, da idade presumida do usuário por meio de inteligência artificial — analisando comportamento, ou mesmo utilizando reconhecimento facial para estimar uma faixa etária, como entre 13 e 17 anos. No entanto, esse método não é preciso. Há risco de BIAS ou viés algorítmico. Sabemos, por exemplo, que há menor precisão na identificação de crianças negras e de meninos entre 10 e 14 anos. Portanto, essa ainda não é uma solução bala de prata.
Por fim, também se aventou a possibilidade de realizar a verificação etária nas próprias lojas de aplicativos ou sistemas operacionais. Esse método, porém, tem eficácia limitada, pois não leva em consideração o design adaptado à faixa etária. Hoje, as plataformas já operam com diferentes experiências de uso para diferentes idades, oferecendo maior granularidade e adaptação — como acontece, por exemplo, com os controles parentais.
Um caso concreto é o do Youtube, que possui o Youtube Kids, voltado para crianças, com uma série de proteções, e também a experiência assistida para adolescentes. Esta última permite controles parentais mais rígidos, em que os pais podem, gradualmente, conceder mais independência ao adolescente conforme sua maturidade e confiança que esse adolescente vai ganhando.
O método de verificação via loja de aplicativo ou sistema operacional funciona de maneira binária: permite ou não o uso do aplicativo, sem considerar nuances de design conforme a faixa etária.
Já mencionei alguns dos riscos que todos esses métodos trazem no que diz respeito à privacidade: no caso da verificação documental, há coleta excessiva de dados pessoais; no algorítmico, riscos de viés e exclusão digital. Um ponto que ainda não mencionei, mas que também merece destaque, é o custo elevado de implementação de alguns desses métodos, especialmente os que envolvem inteligência artificial e desenvolvimento tecnológico. Dependendo da escolha, caso adotemos um único método obrigatório, poderemos acabar criando uma barreira de entrada para startups e, consequentemente, concentrando ainda mais poder nas grandes plataformas.
Assim, uma grande conclusão desse primeiro item é que, como ainda não existe um modelo de verificação etária 100% eficaz, a ideia é que a legislação seja tecnologicamente neutra e traga essa flexibilidade para que as plataformas possam utilizar um, dois, três ou quantos métodos forem necessários, conforme o contexto e a maturidade tecnológica.
Fica, então, a sugestão de utilizarmos o termo "estimativa de idade", em vez de "verificação de idade", pois "verificação de idade" pressupõe o uso de verificação como documentos.
O segundo ponto que trago aqui é a distinção entre o princípio do "melhor interesse" e o "dever de cuidado". Ambos os conceitos têm origem no common law, que são conceitos que acabamos importando do direito inglês que foram incorporados ao direito brasileiro. O princípio do melhor interesse tem mais tempo de aplicação no nosso ordenamento jurídico, tendo sido incorporado à Convenção sobre os Direitos da Criança da ONU, a qual o Brasil ratificou em 1999. Ele também já aparece explicitamente em legislações relacionadas ao ambiente digital, como a Lei Geral de Proteção de Dados (LGPD).
Esse princípio possui uma natureza mais abrangente e não hierarquiza direitos.
Ou seja, não se trata de escolher entre privacidade ou segurança, tem de ser privacidade e segurança, porque é dentro da ideia do melhor interesse da criança. Não temos a hierarquização. Temos de olhar o que realmente é o melhor interesse naquela situação. Esse é um princípio que nasce da proteção de crianças e adolescentes.
|
|
17:55
|
Já o "dever de cuidado" ainda não possui previsão normativa no Brasil, no ordenamento jurídico brasileiro, ou seja, trata-se de uma inovação. O que temos de mais próximo, embora não diretamente equivalente, é o "dever de segurança" previsto no Código de Defesa do Consumidor. Esse dever tem natureza obrigacional e deriva do próprio direito civil, mais especificamente da responsabilidade civil. É o que chamamos no Direito de um dever ex ante, que traz uma obrigação de prevenção de danos — de agir antes que o dano ocorra.
Por isso, na minha avaliação, o dever de cuidado necessita de definições claras e de parâmetros bem delimitados, para que se possa garantir segurança jurídica em sua aplicação. Do contrário, corremos o risco de as plataformas interpretarem esse dever de forma excessiva ou mesmo aquém disso.
Neste momento do nosso direito brasileiro, ainda que o tempo não me permita aprofundar nas três dimensões do princípio do melhor interesse da criança — como direito subjetivo, como princípio de interpretação legal e como regra de procedimento —, destaco que se trata de uma doutrina bastante consolidada. Hoje, o ordenamento jurídico brasileiro conta com o Marco Civil da Internet, que está em discussão, inclusive com um julgamento em curso no Supremo Tribunal Federal (STF), relacionado ao tema.
Com base nisso, entendo que, atualmente, o "dever de cuidado" vem sendo interpretado e determinado pelo Poder Judiciário com base no Marco Civil. Quando essa lei foi elaborada, a intenção era justamente atribuir ao Judiciário brasileiro a responsabilidade de definir qual seria o dever de cuidado das plataformas, até mesmo como forma de evitar a remoção excessiva de conteúdos. Assim, percebo certa falta de harmonia entre o Marco Civil e a introdução normativa do dever de cuidado. Isso não significa que essa tensão não possa ser superada, mas é um ponto de atenção relevante neste momento. Portanto, entendo que o princípio do melhor interesse da criança tem hoje mais respaldo e balizamento jurídico no Brasil.
E, por fim, para encerrar minha fala, gostaria de destacar a questão do art. 20 do projeto, que trata dos relatórios de exploração e abuso sexual infantil. Trata-se de um artigo absolutamente necessário — atualmente, não há uma obrigação geral para as plataformas nesse sentido, e entendo que deveria haver. No entanto, é importante chamar a atenção para um sistema que já funciona, que poderia ser incorporado à legislação e mantido em seus moldes atuais. Afinal, como diz o ditado, “em time que está ganhando, não se mexe”.
Não sei se a Pilar, do ICMEC, vai falar sobre isso, mas, se o fizer, poderá explicar isso com mais propriedade. Existe uma lei norte-americana que obriga as empresas dos Estados Unidos a reportarem todo e qualquer material relacionado à exploração e ao abuso sexual infantil encontrados em suas plataformas para uma organização central chamada National Center for Missing and Exploited Children — o NCMEC.
O NCMEC é um sistema centralizado de denúncias, e a sua função é garantir que essas denúncias cheguem às autoridades policiais ao redor do mundo. No caso do Brasil, essas informações chegam à Polícia Federal, especialmente à unidade coordenada pelo Dr. Otávio, aqui em Brasília. A Dra. Rafaela e outros profissionais que atuam na área conhecem bem esse fluxo.
A lei norte-americana proíbe que as plataformas submetam os relatórios simultaneamente a outras entidades que não sejam o NCMEC. Por isso, é o NCMEC que faz esses relatórios chegarem até a Polícia Federal.
Em 2024 — último relatório disponível —, o NCMEC enviou quase 600 mil relatórios sobre material relacionado a abuso sexual infantil às autoridades brasileiras. Isso mostra a relevância e a eficiência do sistema.
Dessa forma, nossa recomendação é que esse sistema seja mantido como uma possibilidade legítima dentro do texto da lei, evitando a prática do duplo reporte. Já ouvi do próprio Dr. Otávio a preocupação de que, em alguns casos, as plataformas reportam, por exemplo, para uma unidade policial e depois também para a Polícia Federal, o que pode gerar investigações paralelas sobre o mesmo fato.
Essa é uma reclamação que eu já escutei até do Dr. Otávio diretamente, que, às vezes, as plataformas reportam, por exemplo, para uma unidade da polícia e depois para eles, e eles começam investigações simultâneas sobre o mesmo caso, e isso acaba causando confusão nas investigações deles — eu já ouvi esse tipo de reclamação.
Por isso eu trago atenção de a gente pensar numa centralização na própria Polícia Federal. E eles, por terem recursos para coordenar e para distribuir isso para as outras polícias, para as empresas que já reportam para o NCMEC continuem assim, porque esses relatórios já chegam para a Polícia Federal e obviamente empresas que não reportam para o NCMEC passam a reportar na nossa recomendação, preferencialmente para a Polícia Federal.
|
|
17:59
|
Encerro a minha fala só trazendo aqui algumas das sugestões que a gente tem, que é um incentivo a que a gente mantenha uma regulação que permita a diversidade de soluções de design, inclusive que tenha flexibilidade não só para a questão de verificação etária, mas também para as soluções de controles parentais.
O SR. PRESIDENTE (Jadyel Alencar. Bloco/REPUBLICANOS - PI) - Obrigado pelas contribuições, Sra. Daniele.
O método de verificação de idade ascendente, ascendem muitos alertas e preocupações, especialmente no que diz respeito ao tema da nossa audiência: proteção de dados pessoais.
O SR. LUCAS BORGES DE CARVALHO - Eu tinha enviado a apresentação, não sei se chegou. Mas, tudo bem, posso falar por aqui também.
Inicialmente, gostaria de agradecer o convite e a oportunidade ao Sr. Deputado Jadyel, bem como a toda a equipe presente — em especial à Stephanie, que está aqui sentada — e aos colegas de Mesa que estão participando desta discussão.
Acompanhamos esse debate na Autoridade Nacional de Proteção de Dados (ANPD), entidade que represento. A ANPD é uma autarquia de natureza especial, responsável por zelar pela proteção de dados pessoais no País, bem como por regulamentar e fiscalizar a Lei Geral de Dados Pessoais.
Temos acompanhado este tema desde a tramitação no Senado, sempre com bons olhos em relação ao projeto de lei, pois ele se alinha com as prioridades da ANPD. A discussão sobre a proteção de dados de crianças e adolescentes já está, há algum tempo, entre as prioridades da nossa atuação.
Destaco que, ainda em 2023, editamos um enunciado específico sobre o tema, no qual discutimos a aplicação das hipóteses legais e tratamos do princípio do melhor interesse.
A proteção de dados de crianças e adolescentes também está prevista na agenda regulatória da ANPD — que é o planejamento dos temas que serão objetos de regulamentação ou de publicação de orientações técnicas.
Publicamos, também, um guia sobre a hipótese legal do legítimo interesse — uma das bases legais para o tratamento de dados — que trata especificamente de como abordar essa hipótese à luz do melhor interesse da criança, considerando, por exemplo, a proporcionalidade entre os interesses legítimos do controlador e os direitos das crianças e adolescentes.
Além disso, o planejamento das nossas atividades de fiscalização — representado pelo nosso chamado "mapa de temas prioritários" — inclui, como um dos pontos centrais, a proteção de dados de crianças e adolescentes. Isso tem feito com que diversos processos de fiscalização em curso abordem, de maneira específica e direta, esse tema.
|
|
18:03
|
Destaco aqui o caso mais conhecido — pelo menos entre aqueles que acompanham a área —, que é o processo de fiscalização envolvendo a rede social TikTok, amplamente utilizada por crianças e adolescentes. Esse processo ainda está em curso, mas, como parte das medidas adotadas ao longo da fiscalização, a ANPD determinou a suspensão do "feed sem cadastro" — ou seja, aquele acesso que permitia a qualquer criança, ou pessoa em geral, utilizar a plataforma sem a realização de um cadastro prévio.
Essa ordem foi cumprida pela rede social, após o devido trâmite de recursos e garantia do direito de defesa. Atualmente, no Brasil, o acesso à rede social TikTok exige, necessariamente, um cadastro prévio. Embora essa seja uma medida relativamente simples, possibilita um controle mais efetivo sobre quem pode acessar a plataforma.
(Segue-se exibição de imagens.)
Estou exatamente aqui: no processo envolvendo o TikTok, foi instaurado um processo sancionador. Como mencionei anteriormente, a questão do feed sem cadastro, essa parte da foi atendida pela rede social e também segue em discussão esse plano de conformidade que vai discutir, entre outras questões, justamente mecanismos de verificação de idade.
Todos esses aspectos que a Daniele apresentou — essas alternativas e discussões técnicas sobre os mecanismos de verificação de idade, seus custos e benefícios — estão sendo enfrentados diretamente pela ANPD nas diversas redes sociais.
Trago esse exemplo para destacar que a ANPD já possui competência regulatória, vinculada, evidentemente, à Lei Geral de Proteção de Dados Pessoais (LGPD), que, como já mencionado aqui, trata do princípio do melhor interesse da criança e do adolescente.
Temos o dever legal de regulamentar e fiscalizar a proteção de dados pessoais de crianças e adolescentes e temos atuado nesse sentido, considerando esse tema como prioritário — tanto do ponto de vista da regulamentação quanto da fiscalização de casos concretos.
Entendemos que o projeto de lei reforça e complementa regras já previstas na LGPD. Por isso, considero essencial destacar esse ponto. É natural que o projeto passe por aprimoramentos ao longo das discussões no Congresso Nacional, especialmente na Câmara dos Deputados, mas há um aspecto central que gostaríamos de enfatizar: o projeto não deve ser desidratado. As regras que já estão previstas na LGPD e que, de certa forma, são reforçadas e detalhadas pelo projeto de lei, devem ser mantidas.
Destaco algumas dessas regras: a privacidade por padrão, prevista no projeto; a discussão sobre perfilamento e publicidade — ou seja, a formação de perfis e a exibição de publicidade dirigida; as regras sobre verificação de idade; a questão do consentimento; o empoderamento dos pais, com mecanismos de controle sobre a privacidade e a proteção de dados dos filhos; e, ainda, as obrigações impostas aos controladores, como transparência, avaliação de riscos e salvaguardas específicas para o tratamento de dados pessoais de crianças e adolescentes.
Essa estrutura — essa espinha dorsal do projeto de lei — precisa ser preservada. Ela pode, sim, ser aprimorada, mas não pode sofrer qualquer tipo de desidratação ou perda de garantias mínimas, que são absolutamente essenciais para assegurar a proteção de dados de crianças e adolescentes no ambiente digital.
|
|
18:07
|
Gostaria de destacar um ponto que para a gente também é muito sensível: a relação entre o LGPD, a ANPD e o PL 2.628. De fato, como eu falei, o PL reafirma e complementa direitos existentes no LGPD, além de detalhar regras aplicáveis a crianças e adolescentes.
De certa forma, a gente pode dizer que esse é um PL sobre proteção de dados pessoais. A expressão "proteção de dados" aparece ali 14 vezes no PL, a palavra "privacidade" aparece nove vezes. Não quer dizer que ele seja somente disso, a gente tem outras questões ali relacionadas, como, por exemplo, a classificação indicativa e outras discussões. Mas a espinha dorsal, como eu falei, o cerne do projeto de lei, é a proteção de dados pessoais, é a privacidade.
No entanto, o PL é silente quanto à entidade administrativa responsável pela fiscalização de suas normas. Esse é um ponto, o projeto não fala disso, quando trata de sanções ele remete ao Poder Judiciário, o que obviamente é uma opção legislativa.
E também, quando trata as questões de regulamentar matérias relacionadas à proteção de dados pessoais, veja que eu não estou falando aqui de outros assuntos, mas proteção de dados pessoais, que é boa parte do PL, especificamente relatório de impacto, verificação de idade, consentimento, essa é atribuída com pertença ao Poder Executivo.
É claro que eu sei que tem a discussão de vista de iniciativa, mas entendemos que — em uma versão inicial, inclusive do PL, já havia referência à Autoridade Nacional de Proteção de Dados —, inclusive com base em determinadas decisões do STF, para casos similares, que não há vício de iniciativa quando você atribui a uma entidade competências que já são dela. O problema de não se atribuir a essas competências é que isso pode gerar algum tipo de insegurança jurídica, pode gerar algum tipo de fragmentação e de dúvida "Olha, o PL não fala da ANPD, não fala quem fiscaliza", mas tem a LGPD, e isso vai gerar ali dificuldade de interpretação a posteriori, parecer jurídico para cá, parecer jurídico para lá, decisão judicial. E, como eu falei, a ANPD já tem competência, já vem atuando nisso, e a gente tem o temor e o receio de que essa indefinição possa gerar, inclusive, impacto sobre o processo de fiscalização já em curso, como os que eu mencionei aqui.
Então, ressalto essa importância de que a ANPD já possui competência para regulamentar e fiscalizar as matérias relacionadas à proteção de dados pessoais, conforme previsto na LGPD.
Embora algumas pessoas possam ler a lei e falar: "Não, isso não vai ser atingido, porque a NPD continua com suas competências, a gente sabe que as interpretações são sempre criativas. E vão surgir, certamente, interpretações que vão dizer: "Olha, o legislador não quis se referir à ANPD aqui, então pode ser que, nesse caso, a competência não seja da ANPD, e também remete a um decreto, e o decreto pode acontecer várias coisas. O Poder Executivo, obviamente, pode atribuir aquelas competências para uma outra entidade, gerando, também, ali, inclusive, uma insegurança jurídica, porque a ANPD vai ficar supondo ser essa hipótese".
A ANPD deverá continuar regulamentando com base na LGPD, e uma outra entidade, até um risco de bis in idem, poderia estar ali regulamentando também com base no PL 2628, na lei que surgiu.
Então, isso são questões que a gente vem defendendo desde o início, que sejam restabelecidas as referências à ANPD nos artigos que dispõem sobre a regulamentação de matérias relacionadas à proteção de dados pessoais, art. 10, 17, 23 e art. 27.
Inclusive, temos propostas de redação quanto a isso, que podemos, depois, encaminhá-las para o gabinete o Deputado Jadyel, sempre com o cuidado de dizer que, conforme as suas competências previstas na Lei nº 3.719, que é a LGPD, para ficar claro que não se está criando novas competências, mas apenas deixando claro que a ANPD continua competente para tratar de matérias relacionadas a dados pessoais, no que se refere a esta nova lei, para evitar qualquer tipo de interpretação dúbia em relação a isso.
E, por fim, também, incluir um novo artigo, com menção expressa à competência da ANPD para fiscalizar e regulamentar a lei em relação à proteção de dados pessoais.
Eu não vou lê-lo aqui, mas é basicamente esta a ideia: deixar claro que esta lei está sendo promulgada, está sendo elaborada em conformidade, em harmonia e de forma complementar com a LGPD. Afasta-se, assim, qualquer tipo de dúvida ou insegurança jurídica, o que me parece essencial. A gente não pode aprovar uma lei sem ter uma entidade que possa efetivamente fiscalizar ou implementar as suas obrigações.
|
|
18:11
|
O SR. PRESIDENTE (Jadyel Alencar. Bloco/REPUBLICANOS - PI) - Obrigado pelas contribuições, Sr. Lucas Borges, representante da Autoridade Nacional de Proteção de Dados, pela colaboração e ativa participação em nossa relatoria.
O PL n° 2.628 possui muitos pontos sensíveis, dentre eles a coleta de dados nesse processo de verificação e nos casos de conteúdo detectado envolvendo abuso ou exploração sexual. A verificação é essencial para a proteção adequada das nossas crianças e adolescentes, mas a coleta de dados pessoais oferece muito mais riscos.
Aproveito para cumprimentar também toda a Mesa, em nome do Sr. Deputado Jadyel Alencar, a quem parabenizo pela iniciativa de realizar esta audiência pública sobre um tema tão relevante, que é a garantia da absoluta prioridade de crianças e adolescentes no ambiente digital.
Tenho uma apresentação de eslaides também — se puderem colocá-la, agradeço —, mas, enquanto isso, darei sequência à minha fala.
O IDEC é uma associação de consumidores independente, que trabalha há mais de 37 anos na defesa dos consumidores em suas mais diversas instâncias.
Ao longo dos últimos anos, temos atuado para fomentar um ecossistema regulatório de tecnologias digitais que seja coeso, ou seja, que equilibre tanto os direitos à livre concorrência e à inovação quanto os direitos dos usuários vulneráveis nessa relação dos consumidores, das crianças e dos adolescentes, neste caso, e a proteção de dados no caso, por exemplo, que o Lucas trouxe em sua apresentação.
A minha apresentação vai ser dividida em dois principais tópicos: necessidade de limitação ou vedação total à exploração econômica de dados de crianças e adolescentes; e, quais os aspectos do PL 2.628 garantem que o ambiente digital seja mais adequado às crianças e aos adolescentes, ou seja, que esse público possa, de fato, se desenvolver utilizando essas ferramentas e não esteja em risco.
|
|
18:15
|
Eu trouxe alguns dados sobre o uso de Internet por crianças e adolescentes. Qualquer um que convive com uma criança sabe o quanto elas estão permanentemente na Internet — inclusive crianças com menos de 7 anos, ainda na primeira infância. Quarenta e quatro por cento das crianças de 0 a 2 anos já são usuárias da Internet. Esse número sobe para 82% quando falamos de crianças entre 6 e 8 anos, sendo que 36% delas já têm seu próprio celular. São crianças que, inclusive, já têm muito mais liberdade na internet e acabam sendo submetidas a muitos riscos também.
(Segue-se exibição de imagens.)
Outros dados, agora sobre crianças um pouco mais velhas: hoje, cerca de 83% das crianças já têm um perfil em plataformas digitais. As mais utilizadas por crianças até 12 anos são o TikTok e o Youtube. A partir da adolescência, ou seja, dos 13 anos, a plataforma mais utilizada passa a ser o Instagram.
É claro que muitos dos dilemas e riscos que temos trazido ao longo dessas audiências e das nossas contribuições já existiam no ambiente offline. O que ocorre é que o modelo de negócio dessas plataformas intensifica esses riscos, pois visa, acima de tudo, ao lucro. A coleta excessiva de dados, a utilização para perfilização e a exposição a conteúdos nocivos e publicitários fazem com que seja necessário regular esses ambientes e torná-los mais propícios ao desenvolvimento saudável de crianças e adolescentes.
O nível de sofisticação dessas plataformas na oferta de novos produtos, serviços digitais e publicidade também é preocupante. Hoje, a publicidade on-line é muito mais orgânica, natural, e muito mais difícil de ser identificada tanto pelas crianças quanto por seus responsáveis. Isso aumenta o apelo ao consumo, e não apenas ao consumo, mas também à influência sobre a tomada de decisão dessas crianças, com base nos conteúdos que consomem na Internet.
Portanto, considerando a exploração comercial dos dados, o design dessas plataformas — absurdamente persuasivo —, que molda hábitos, percepções e decisões dessas crianças, e o monopólio exercido nesse setor, não estamos falando de um mercado com muitos atores. É um mercado com pouquíssimos agentes, que atuam em ecossistemas fechados, e ao qual crianças, famílias e a sociedade inteira estão completamente submetidas, sem ter voz para se opor. Imagine ficar fora do WhatsApp: é um custo social enorme estar fora da rede social que todos utilizam diariamente para se comunicar.
Somando-se a isso a publicidade massiva, concluímos que o modelo de negócio dessas plataformas está no centro dos desafios que envolvem a proteção da infância e da adolescência.
Esses desafios não são desconhecidos pelas plataformas. Elas sabem dos riscos aos quais estão submetendo crianças e adolescentes. Existem diversos exemplos — eu poderia trazer muitos eslaides para discutirmos hoje, mas, neste caso, trouxe três.
No primeiro exemplo, estados norte-americanos estão processando a Meta por explorar e manipular consumidores infantis, tendo plena ciência disso. No segundo, o Youtube é uma plataforma cuja política de moderação faz com que as crianças e os usuários, de modo geral, fiquem cada vez mais engajados, recebendo conteúdos cada vez mais extremistas. Isso amplia o tempo de permanência na plataforma e, consequentemente, o engajamento. No terceiro exemplo, o Facebook se utilizou de um momento de vulnerabilidade psicológica de adolescentes para exibir anúncios sobre padrões de beleza, tornando-os ainda mais vulneráveis.
|
|
18:19
|
Nesse sentido, não há razões para crer que a obtenção de vantagem econômica por parte de plataformas digitais deva estar, em primeiro lugar, em relação à proteção de crianças e adolescentes. E essa não é uma conclusão exclusivamente do IDEC — é uma conclusão de toda a sociedade civil brasileira e da população brasileira em geral.
Trouxe dados de uma pesquisa realizada pelo Instituto Alana, em parceria com o Datafolha, que demonstram que nove em cada dez pessoas acreditam que as redes sociais fazem menos do que deveriam para proteger crianças e adolescentes. Hoje, a nossa população entende que as crianças estão ficando cada vez mais viciadas, consumindo em excesso e sendo submetidas a diversos riscos.
Enquanto ativista de direitos digitais, outra questão que me preocupa é a percepção de que as redes sociais trazem mais malefícios do que benefícios para crianças e adolescentes. Nesse sentido, o PL 2.668 representa uma importante discussão para que tornemos esses ambientes mais seguros para o desenvolvimento infantil e juvenil.
Primeiro, o escopo da legislação não se limita apenas às plataformas direcionadas a crianças, mas abrange também as chamadas plataformas de provável acesso. Isso porque, a partir de critérios objetivos — como a presença de conteúdos infantis, a ausência ou ineficiência de mecanismos de verificação de idade, e dados que indiquem o uso por crianças e adolescentes — podemos regulamentar esses ambientes com mais segurança jurídica.
Segundo, o texto traz um dever de cuidado — ou dever de segurança, como podemos discutir —, bem como uma definição de conteúdos reconhecidamente nocivos. Não trarei aqui o rol completo desses conteúdos, mas já temos dados e informações suficientes para entender que esses materiais devem ser observados com mais rigor por parte das plataformas, que devem estar aptas a receber notificações dos usuários e atuar para a remoção desses conteúdos, quando necessário.
Dois pontos importantes relacionados a isso são: a remissão do art. 6º no art. 22, que garante maior segurança jurídica — ou seja, não se trata de derrubar todo tipo de conteúdo, mas apenas aqueles que sabidamente podem causar dano —, e a inclusão das bets como conteúdo nocivo para crianças e adolescentes. Ao longo dos últimos meses, temos observado como a propaganda de apostas pode prejudicar esse público, e é uma oportunidade para já incluirmos esse tipo de conteúdo entre os que devem ser regulados.
Terceiro, a vedação à perfilização também é extremamente relevante. O modelo de negócio das plataformas digitais, como já mencionei, não está voltado apenas à pressão consumerista, mas também a práticas que violam a proteção de dados, como destacou o Lucas, e comprometem o livre desenvolvimento de crianças e adolescentes, que devem ter o direito de formar sua opinião sem pressões externas para formação de opinião.
Por fim, uma última questão de destaque no projeto é a incorporação do princípio do melhor interesse by design, ou seja, por padrão. Isso garante que todos os fornecedores de serviços digitais considerem, desde a concepção dos seus produtos, a prioridade absoluta dos direitos de crianças e adolescentes.
Para encerrar, reitero a necessidade de que este projeto de lei avance no Congresso Nacional. Ele não representa uma forma de censurar ou afastar crianças e adolescentes do ambiente digital. Muito pelo contrário: trata-se de uma proposta que visa tornar esses ambientes mais seguros e adequados, em consonância com o princípio da absoluta prioridade da infância e da adolescência.
|
|
18:23
|
O SR. PRESIDENTE (Jadyel Alencar. Bloco/REPUBLICANOS - PI) - Sra. Marina Fernandes, muito obrigado por trazer dados e notícias tão relevantes à nossa audiência. Precisamos nos atentar, sim, para que todos os ambientes frequentados por nossas crianças e adolescentes sejam, de fato, seguros e saudáveis. Sabemos que o projeto já possui regras para combater essa exploração comercial de dados dos nossos jovens e também estamos dedicados a tornar os deveres e responsabilidades ainda mais claros e objetivos.
Quero cumprimentar o Deputado Jadyel, a Stephanie e a Liane, e parabenizar pela condução democrática dos debates. Acho que vi todos os atores. É muito importante para aprimorar o texto, e é nesse espírito que o LabSul e eu estamos aqui.
(Segue-se exibição de imagens.)
O LabSul é um centro de pesquisa independente que faz uma análise crítica da interface entre direitos humanos e novas tecnologias. Temos participado constantemente do debate sobre regulação de tecnologia no Brasil. Nosso aporte é sempre trazer racionalidade ao debate, basear nossas pesquisas em evidências— assim foi no Senado — e pretendemos contribuir agora para aprimorar o projeto de forma técnica e responsável.
De fato, o projeto apresenta enormes avanços. Nós participamos no Senado. Entendemos — e vou ser bem pontual nas contribuições — que há necessidade de alguns refinamentos normativos. A lei é destinada às pessoas e, muitas vezes, o Poder Judiciário a interpreta no caso concreto. Portanto, quanto mais claro e objetivo for o texto, maior será a segurança jurídica, a coerência interna e a aplicabilidade prática.
A gente trabalha muito com temas de tecnologia e verificamos um rápido desuso da legislação justamente pela velocidade das transformações no mundo.
A primeira contribuição refere-se ao art. 5º. O artigo traz o dever de cuidado e de segurança, mas não explicita de forma clara quais são esses deveres e que comportamento é esperado dos fornecedores de produtos e serviços. É muito importante esse esclarecimento. Entregarei tudo por escrito posteriormente no gabinete. Seria importante uma redação que explicite de forma clara e objetiva as condutas esperadas para o cumprimento do dever de cuidado, tanto para os fornecedores quanto para os intérpretes da norma.
|
|
18:27
|
A segunda contribuição diz respeito à regulação do art. 14, que trata das loot boxes ou caixas de recompensa. Na nossa visão, já há regulação no art. 17 do Marco Legal dos Jogos Eletrônicos. Portanto, criar nova regulação e explicá-la pode gerar antinomia. Acompanhamos de perto o processo legislativo e recomendamos a Emenda nº 23, que apresenta texto mais técnico, proporcional e seguro, considerando o sistema de classificação indicativa vinculado à Secretaria Nacional de Justiça, que avalia com critérios objetivos.
A terceira contribuição refere-se ao art. 20, § 2º, inciso I, que trata da obrigatoriedade de retenção de conteúdos de exploração sexual de crianças. Isso contraria frontalmente os estándares internacionais. Não há orientação para baixar, copiar ou armazenar esse tipo de imagem. Quanto menos circulação e exposição, melhor para evitar a revitimização de crianças e adolescentes. As normas internacionais recomendam a anonimização desses dados, salvo para investigação criminal. Esse artigo merece muito cuidado, sobretudo frente às invasões digitais, como o Deputado falou. Manter banco de dados com imagens representa alto risco. Defendemos a supressão desse dispositivo.
A quarta contribuição diz respeito ao art. 22, sobre notificação e remoção de conteúdo. Concordamos com as hipóteses previstas. Participamos do debate do Marco Civil da Internet no STF, mas defendemos critérios ou hipóteses taxativas, justamente para evitar dúvidas por parte dos juízes e das plataformas. Trabalhamos com direitos humanos. Para nós, evitar desencontros semânticos é fundamental.
Sugerimos que, no caso de conteúdo manifestamente ilegal, a remoção ocorra conforme as hipóteses. Nos demais casos, seguir as regras do art. 19 do Pacto Internacional de Direitos Civis e Políticos, que estabelece critérios para restrições à liberdade de expressão. É preciso garantir interpretação clara aos magistrados e aos destinatários, que somos todos nós.
|
|
18:31
|
Encaminhando-me para a conclusão, parabenizo a todos pelo projeto, que avançou. Acompanhamos há muito tempo, e é fundamental proteger crianças e adolescentes, responsabilizando quem os coloca em situação de risco, que pode comprometer a sua qualidade de vida, a sua formação biopsiquico social. Contudo, é preciso ter cuidado, clareza e pequenos refinamentos para que o projeto atinja plenamente seu objetivo: proteger, na prática, crianças e adolescentes.
Quero encerrar com uma frase do Anthony Lake, da Unicef: “No mundo digital, o duplo desafio é saber como mitigar danos maximizando os benefícios da Internet para cada criança e adolescente”.
O SR. PRESIDENTE (Jadyel Alencar. Bloco/REPUBLICANOS - PI) - Obrigado ao Sr. Gustavo Borges.
Gostaria de estender meus cumprimentos à Mesa, na figura do Deputado Relator Jadyel Alencar, e a toda sua equipe: Stephanie e Liane. Agradeço pela oportunidade de contribuir com este importante debate.
A Data Privacy Brasil é uma organização da sociedade civil dedicada à proteção de dados pessoais e de outros direitos fundamentais no ambiente digital. Atuamos por meio de pesquisa, incidência e, principalmente, educação. Já capacitamos mais de 5 mil profissionais em proteção de dados e temas correlatos.
Nos últimos 5 anos, temos nos dedicado à proteção de crianças e adolescentes no ambiente digital, especialmente com foco na proteção de seus dados pessoais — que, como disse muito bem o Lucas, é o vetor central deste projeto de lei em discussão.
Temos contribuído tecnicamente com processos na Autoridade Nacional de Proteção de Dados — ANPD e outras instâncias, sempre orientados pelo compromisso constitucional de proteção integral e prioridade absoluta dos direitos de crianças e adolescentes.
Divido minha fala em dois momentos: primeiro, uma breve retomada da atuação da Data Privacy Brasil na temática, para desenhar o quadro atual de medidas regulatórias e políticas públicas relevantes em vigor ou em discussão; segundo, algumas considerações sobre o projeto de lei, especialmente no que diz respeito ao perfilamento a partir de dados pessoais e à publicidade.
|
|
18:35
|
Desde 2020, conduzimos pesquisas sobre a exploração comercial de dados de crianças e adolescentes, interpretando o art. 14 da Lei Geral de Proteção de Dados — LGPD que condiciona o tratamento de dados ao melhor interesse do menor.
A ANPD, cuja atuação cumprimento na pessoa do Lucas, está desenvolvendo projeto regulatório específico sobre o tema, em diálogo aberto e franco com a sociedade, inclusive dialogando quais as balizas interpretativas para o conceito de "melhor interesse", que é ao mesmo tempo um direito, uma regra procedimental e um princípio interpretativo. E as balizas para responder essa pergunta "qual é o melhor interesse em situações específicas", é claro que ela segue em construção, mas não parte do zero, já que existem critérios normativos para compreensão e mobilização da prática desse conceito.
Como foi mencionado pela colega que nos deixou, a Daniela, da Alandar, o melhor interesse é, a um só tempo, um direito de toda criança de que o seu interesse será uma consideração primária em toda e qualquer situação. Ele é uma regra procedimental, então exige que haja procedimentos e documentação para demonstrar os melhores esforços para garantir esse melhor interesse, para garantir a prestação de contas, a responsabilização. E ele é um princípio interpretativo, ou seja, quando houver mais de um entendimento possível a respeito de uma norma, a mais benéfica para a criança e adolescente deverá ser escolhida.
Também não partimos do zero em relação a como regular especificamente determinadas práticas de tratamento de dados pessoais de crianças e adolescentes no contexto de plataformas e serviços digitais.
Quanto ao perfilamento e à publicidade especificamente, cito a Resolução nº 245, de 2014 do Conselho Nacional das Criança e do Adolescente — Conanda, que reforça a regra de que dados pessoais de crianças e adolescentes não devem ser utilizados para fins comerciais, como criação de perfis, segmentação de consumo e publicidade direcionada. A medida está alinhada a outras resoluções do mesmo órgão, como a Resolução nº 163, de 2014, sobre a temática da publicidade, e ao Código de Defesa do Consumidor, ao Estatuto da Criança e do Adolescente e com os próprios mandamentos constitucionais.
E a razão para essa regra, que na nossa opinião já materializa a ideia do melhor interesse é simples. Nós falamos aqui de um risco composto. O perfilamento, em si, já representa um risco ao que nós chamamos aqui de autodeterminação informativa, entendida como a faculdade de todos nós, aqui, de exercer algum nível de controle sobre como as nossas informações pessoais são utilizadas pelos agentes públicos e privados, e utilizadas, inclusive, para influenciar na formação da nossa identidade, interferir na autonomia individual.
Mas, no geral, esse risco é balanceado, negociado, mitigado por meio das regras de transparência, de prestação de contas, as possibilidades específicas de contestação e, em suma, por toda a disciplina jurídica da proteção de dados pessoais, que tem como objetivo garantir essa autodeterminação informativa. Mas, para crianças e adolescentes, nós entendemos que esse risco é potencializado pelo estágio peculiar de desenvolvimento físico, cognitivo, psíquico e social e, inclusive, para que esse desenvolvimento possa ser garantido de forma livre.
Além disso, a já estabelecida hiper vulnerabilidade das crianças e adolescentes, a lógica da publicidade, ou seja, a lógica da persuasão, seja ela direcionada ou não, torna o perfilamento com essa finalidade frontalmente incompatível com a sistemática protetiva já existente. Essa foi a conclusão, por exemplo, do Comentário Geral nº 25 do Comitê das Nações Unidas
|
|
18:39
|
Esse entendimento foi reforçado pelo Comentário Geral nº 25 do Comitê da ONU sobre os Direitos da Criança, que afirma que os Estados proíbam por lei o perfilamento com fins comerciais de crianças e adolescentes com base nos seus registros digitais de características reais ou inferidas para a finalidade comercial.
E nós entendemos que esse é o direcionamento que hoje consta no PL 2.628 e que deve ser mantido a fim de justamente garantir que não haja uma desidratação, uma desnaturação, como foi mencionado anteriormente, e que compreender o melhor interesse da criança como esse conceito normativo muito robusto, que é um direito, mas também um princípio de interpretação e uma regra procedimental, significa que, sim, ele deve ser observado desde a concepção dos produtos, dos serviços que aqui discutimos, mas que ele também deve ser observado desde a concepção das próprias normas legais.
E aqui aproveito a oportunidade para me contrapor à posição apresentada pela colega Daniela, da Alandar, de que não haveria necessariamente uma contraposição entre eventuais novos institutos jurídicos, como o dever de cuidado, e um princípio basilar, uma norma basilar, uma regra procedimental basilar, que é o melhor interesse da criança e do adolescente. Esse, sim, deve ser observado independente da constituição eventual de novos institutos jurídicos, diante dos desafios contemporâneos que se apresentam.
Mas, basicamente, o que se entende aqui é que, em certos casos, o acúmulo de riscos de evidências, mas também um apelo à coerência normativa de todos esses dispositivos que eu já mencionei, justifica restrições mais categóricas. E esse é o caso de um dos maiores trunfos, na nossa opinião, do PL, que é a vedação a perfilamento com fins comerciais e publicitários.
Vale destacar, então, para que fique muito claro, que buscar condicionar essa vedação a determinadas análises casuísticas, inevitavelmente, vai criar brechas incompatíveis com o próprio objetivo que se busca perseguir. Então, condicionar a análise dessa vedação a, por exemplo, se existe um fim explícito de apelo de consumo, ou ideias como essa, vai ser contrário a toda essa sistemática jurídica que eu acabei de mencionar, que já está estabelecida no nosso ordenamento jurídico brasileiro.
Para esclarecer as técnicas de perfilamento sem finalidade publicitária, como, por exemplo, para viabilizar medidas de proteção e de segurança, não são afetadas por essa vedação, pela redação atual. E, da mesma forma, conteúdos que são, de fato, educativos, informativos, ou de conscientização sobre programas, políticas públicas e iniciativas benéficas para crianças e adolescentes, não se confundem com publicidade comercial persuasiva, portanto, também não são abrangidos pela restrição.
Então, nós sabemos que, como foi apresentado já anteriormente, no ambiente digital, as fronteiras entre publicidade, entretenimento e até sobre o que se define como um conteúdo educativo, são cada vez mais borradas. Mas, justamente por isso, é fundamental que a regulação seja clara, coerente e que não enfraqueça proteções já consolidadas no Brasil, como aquelas referentes à publicidade infantil.
Por fim, para finalizar, eu gostaria de enfatizar que a criação, atualização de deveres, obrigações, mecanismos de governança e de diálogo para proteger crianças e adolescentes no ambiente digital, essa luta é nada mais do que uma expressão da responsabilidade compartilhada entre família, sociedade e Estado, na proteção com prioridade absoluta das nossas crianças e adolescentes. E cada nova medida, inclusive mudanças eventuais, mudanças de texto, devem sempre ser avaliadas a partir dessa pergunta essencial, que é se ela assegura ou não o melhor interesse de quem nós estamos buscando proteger.
|
|
18:43
|
O SR. PRESIDENTE (Jadyel Alencar. Bloco/REPUBLICANOS - PI) - Muito obrigada à Sra. Mariana, do Data Privacy.
O Data Privacy realiza um trabalho bastante impactante e relevante. Há 1 ano, eu tive a oportunidade de conhecer o Dr. Bruno Bione, um dos diretores, e desde então acompanho os estudos e publicações de vocês. Achei muito interessante o esclarecimento sobre o melhor interesse em sua tripla dimensão: direito, regra de procedimento e princípio interpretativo.
Eu gostaria de cumprimentar todos os presentes, na pessoa do Deputado Jadyel, da equipe, e parabenizá-los pela coragem de assumir um tema tão urgente e tão importante.
Eu sou Roberta Jacarandá, diretora de relações institucionais do Conselho Digital, que é uma entidade sem fins lucrativos, uma entidade associativa sem filiações políticas, que coordena, estuda e representa o ecossistema de aplicativos da Internet. Nós atuamos por meio de estudos, como o Cilim, na construção de políticas públicas que colaborem para uma Internet livre, segura e responsável. E nós acreditamos que uma tecnologia bem construída e bem utilizada não só nos mantém conectados, como também potencializa as nossas habilidades, abre novas oportunidades e pode mudar a vida das pessoas para melhor.
Dentro do escopo do PL 2.628, nós temos tentado contribuir para que essa lei, essa legislação, saia de forma clara e eficaz, para que nenhuma insegurança jurídica proporcione a inaplicabilidade da legislação.
Aqui eu vou tratar de cinco pontos bem diretos, começando ali com a diferenciação de tratamento baseado em maturidade. Nós sabemos que os dois grupos, crianças e adolescentes, merecem atenção e proteção no ambiente digital, mas tratá-los ou agrupá-los sob o mesmo guarda-chuva pode ser inadequado se considerarmos a diferença crucial de experiências, riscos e graus de discernimento no uso da Internet. Legislações como o próprio ECA ou a LGPD fazem essa diferenciação entre crianças e adolescentes. Então, nós achamos que tratá-los em capítulos diferentes dentro da legislação seria o ideal. E aqui não a gente não está falando só de variação de experiência conforme a faixa etária, mas também de uma abordagem diferenciada em termos de supervisão e orientação. Enquanto crianças vão precisar de uma supervisão parental mais intensa, os adolescentes têm um grau crescente de autonomia, e vão precisar mais de orientação sobre como navegar, como identificar e evitar os riscos da Internet, mas também como aproveitar as oportunidades que o ambiente on-line pode oferecer.
|
|
18:47
|
É importante oferecer aos pais ferramentas adequadas que eles possam usar nessa supervisão, mas também é importante respeitar a autonomia dos adolescentes, por exemplo, para que eles explorem o ambiente digital de maneira segura e conforme o seu estágio de desenvolvimento. Existe um risco de, quando a gente medidas excessivamente restritas, a gente gera efeitos colaterais, que são crianças e adolescentes tentando burlar ou contornar essas medidas, e pais com uma falsa sensação de segurança, que acham que com um clique já resolveu todos os problemas e não precisam ficar ali atentos ao que seus filhos absorvem da Internet.
Também a gente chama a atenção para a questão da neutralidade tecnológica. É muito difícil quando a legislação traz uma solução que seja aplicável para todos. Quando a gente fala de aplicativos e de Internet, existem diferentes tipos, e a solução não será a mesma, com a mesma eficácia, para todos os aplicativos. Temos ferramentas de busca, mensagerias, redes sociais, cada um com a sua particularidade. Então, a gente precisa que esses controles parentais sejam flexíveis e adaptáveis, e também a gente precisa considerar que cada família tem uma abordagem diferente em relação à tecnologia. Eu, por exemplo, para minha filha de 7 anos, escolho cada vídeo que ela pode assistir dentro das plataformas que assim o permitem. Se a plataforma não me permite fazer dessa forma, ela não tem acesso àquela plataforma de forma independente; ela pode assistir comigo. Mas eu tenho amigos que não se importam, desde que seja respeitada uma faixa etária dos conteúdos, a criança pode navegar livremente e pode escolher o que vai assistir. Então, acho que essa flexibilidade pode ser positiva para cada família.
Segundo ponto: a mudança nas regras de moderação de conteúdo. O art. 22 diz ali que as plataformas devem proceder à retirada do conteúdo que viola direitos de crianças e adolescentes assim que forem comunicadas. A preocupação aqui é que não existe nenhuma restrição a quem pode denunciar, se aquela pessoa é diretamente atingida por aquele conteúdo, ou nenhum procedimento de averiguação da veracidade daquela denúncia. Conteúdo ofensivo é bastante subjetivo. Mais uma vez usando o meu exemplo, há coisas que para mim são ofensivas em relação a crianças e adolescentes, que para o meu vizinho não são, que para vários amigos não são. Então, eu posso me sentir ofendida e posso fazer uma denúncia para que aquele conteúdo seja retirado, e tem que ser retirado assim que for comunicado. Às vezes, tenho dez pessoas ali na minha roda de amigos que vão achar aquilo completamente normal para os dias de hoje, ou porque é conversado ou dito nas famílias. Então, acho que esses conceitos muito subjetivos também podem ser afinados e refinados.
Um terceiro ponto que eu queria falar, e acho que me junto às vozes que aqui já foram ditas, é sobre a notificação de conteúdo sobre exploração sexual infantil. No mesmo sentido do que a Daniele falou, e o Prof. Gustavo também, a gente sugere apenas que se inclua a possibilidade de que o reporte seja direto para as autoridades brasileiras ou indireto, que é o caso do NIC.br/MEC. Existe já um sistema que é feito por diversos provedores, através do NIC.br/MEC, que chega até a Polícia Federal Brasileira, no caso do Brasil. Então, se pudermos continuar com esse sistema que está funcionando, seria excelente, e basta que o reporte seja considerado também indiretamente para aqueles que não estão no rol, que reportam para o NIC.br/MEC. Como a Daniele falou, o reporte pode ser direto, mas também é preciso estabelecer para quem será esse reporte, para não gerar essa dupla carga de informação e várias equipes trabalhando no mesmo problema.
|
|
18:51
|
Vários provedores têm convênios com autoridades e repassam informações, e um dos retornos que eles recebem é que o volume de informação é muito grande para a capacidade dessas equipes analisarem. Então, precisa de um filtro. Quando dizemos "todo o conteúdo", gente, é muito conteúdo na Internet a cada segundo. Isso, eu acho, contribuiria para uma perda de efetividade, na verdade, dessas autoridades em analisar esses conteúdos. Então, acho que também precisamos colocar um filtro para que tipo de conteúdo será repassado.
O quarto ponto que trago aqui é a questão do perfilamento. Perfilamento nada mais é do que desenhar o perfil do usuário. E eu entendo todas as preocupações, nós entendemos as preocupações que isso pode gerar, mas quando a gente está falando principalmente de crianças e adolescentes, desenhar o perfil desse usuário é uma coisa superimportante para que a experiência daquele usuário seja adequada ao seu estágio de desenvolvimento. No caso de publicidade, por exemplo, os únicos dados que são coletados de crianças — eu nem digo, porque rede social, criança não deveria estar ali — são dados de idade e localização. Então, ao redor disso, por exemplo, consegue-se entregar uma campanha de vacinação, consegue-se entregar informações úteis naquela localidade, consegue-se oferecer uma personalização melhor de conteúdos para aquela criança. Então, como a minha colega aqui disse, essa questão do que é publicidade, do que é informação, ela é bastante orgânica, digamos assim. É muito difícil dizer: "Ah, perfilamento para uma parte é autorizado, o perfilamento para outra parte não será autorizado". Então, a gente precisa ver como fazer essa abordagem equilibrada dentro do uso por crianças e adolescentes.
E, por último, queria falar um pouco de clareza dos termos. A gente vê ali, ao longo do texto do projeto de lei, alguns termos muito abertos, muito subjetivos. Acho que, para a aplicabilidade de uma legislação, esse não seria o ideal. Vou dar dois exemplos: "Produtos ou serviços de tecnologia da informação direcionados a ou que possam ser utilizados por crianças e adolescentes"; "Práticas publicitárias predatórias, injustas, enganosas ou que possam causar outros danos financeiros". Não digo que isso não deva ser uma preocupação, mas toda vez que usamos termos abertos como "possam", quem vai definir o que pode e o que não pode? Não pode, mas está sendo. E de quem é a responsabilidade? Como a gente amarra isso? E quando a gente diz "práticas injustas, predatórias", o que é injusto para mim? O que é injusto para o meu vizinho? O que é predatório para mim? É muito difícil aplicar e começa-se a questionar. Onde se vai questionar? No Judiciário? Quem vai dizer o que é e o que não é? Então, um refinamento, uma amarração dessas expressões que deixam várias interpretações também seria importante, principalmente quando estamos falando de interpretação judiciária, mas também de interpretação do usuário que está usando e que vai poder reportar, que vai poder denunciar, o que ele vai considerar aqui dentro
E, por fim, já encerrando a minha apresentação, só queria reforçar que a tecnologia é uma força dinâmica. Então, uma legislação para o ambiente digital deve considerar esse alto nível de inovação, as constantes mudanças, para que esse texto não fique rapidamente datado e seja preciso estar o tempo todo atualizando-o.
|
|
18:55
|
Acho que, por último, um ponto que eu queria reforçar é que a gente acredita muito na responsabilidade compartilhada, e é um ponto que é pouco falado nas discussões de políticas públicas para crianças e adolescentes no geral: o papel das famílias de ensinar os filhos sobre como evitar os perigos da Internet.
Eu sou bastante analógica, mas, quando a questão é a minha filha usando a Internet, eu entendo bastante de todas as ferramentas, eu busco bastante informação.
E a gente está muito acostumada... ensinar uma criança a atravessar a rua é tão importante quanto ensiná-la a navegar com segurança na Internet. A gente está acostumada a ensinar: a não falar com estranhos, como que você atravessa a rua, como é que você faz... Isso já faz parte da cultura, que passa de pai para filho. Enfim, a gente precisa criar essa cultura de passar para os nossos filhos também, agora: como que é o mundo digital — não só o mundo físico, mas o mundo digital.
Como é que a gente auxilia as famílias a fazer isso? Como é que isso entra no nosso modus operandi natural com os nossos filhos? Como é que você faz? Como é que você reage quando você encontrar isso na Internet? A quem você recorre?
As crianças às vezes escondem o que elas veem... E a gente precisa começar a trabalhar isso dentro das famílias também.
O SR. PRESIDENTE (Jadyel Alencar. Bloco/REPUBLICANOS - PI) - Obrigado, Sra. Roberta.
A fala da senhora realmente traz que o desenvolvimento progressivo é um elemento, sem dúvida, importante. É preciso estar atento às nuances, às diferentes etapas do desenvolvimento, e suas necessidades.
Sra. Roberta, eu tenho filhos de todas as idades: tenho filhos de 3, de 8, de 11... até os 17 anos. Então, eu conheço bem, realmente, essa questão que a senhora traz, das diferentes etapas de desenvolvimento e suas necessidades.
Nós estamos justamente ouvindo diversos setores, diversas autoridades, institutos, associações, a sociedade, o Governo, a academia, para que justamente nós possamos classificar todos esses pontos e avaliar a importância de cada ponto desses.
O SR. PRESIDENTE (Jadyel Alencar. Bloco/REPUBLICANOS - PI) - Boa noite, Sr. Felipe.
|
|
18:59
|
A ESA — para dar o contexto aos senhores — representa a maioria das principais editoras e fabricantes de consoles de videogames do mundo. A ESA apoia fortemente o objetivo do Brasil de proteger crianças e adolescentes no meio digital, algo que — vale destacar — está alinhado com as práticas voluntárias da indústria de games há mais de 30 anos.
Para informação dos senhores, por exemplo, desde 1994 nós temos a ESRB — Entertainment Software Rating Board —, um organismo de autorregulação do setor, que criou e mantém até hoje um dos mais respeitados sistemas de classificação indicativa de videogames, que ajuda famílias a tomar decisões informadas e a garantir uma experiência de jogo segura para as crianças.
O setor dos games investe constantemente — não é de hoje — no desenvolvimento de ferramentas que promovam segurança e bem-estar, colocando a proteção do jogador em primeiro lugar.
Os controles parentais estão disponíveis na maioria dos dispositivos. Eles permitem que pais e responsáveis filtrem jogos por faixa etária, limitem tempo de uso, controlem gastos e restrinjam a comunicação on-line dentro dos jogos. Essas configurações podem ser feitas pelos responsáveis diretamente nos consoles, ou também por meio de aplicativos — que são muito fáceis de utilizar em smartphones —, que geralmente são aplicativos específicos para cada plataforma.
Além disso, claro, dentro dos próprios jogos, os jogadores podem silenciar, bloquear e denunciar interações indesejadas, o que ajuda a reforçar um ambiente mais seguro para a comunidade dos jogadores.
A nossa sugestão — a sugestão da ESA aos legisladores — é que o projeto de lei considere os mecanismos já existentes na indústria, promovendo uma regulação que seja clara, prática e proporcional, e que ao mesmo tempo reconheça os esforços contínuos da indústria dos games em proteger os seus jogadores, bem como use da experiência que a indústria dos games acumulou no tema ao longo de mais de 3 décadas.
A segurança no ambiente digital é, para a ESA, uma prioridade que sempre exigiu um esforço conjunto, e a abordagem dos membros da ESA sempre foi uma abordagem que nós chamamos de multifacetada, e é voltada não apenas à proteção, mas à criação de ambientes positivos, em que todos os jogadores possam cumprir com a finalidade do jogo, que é se divertir e se sentir parte de uma comunidade.
A indústria dos games está em constante evolução, implementando sempre tecnologias e práticas que são cada vez mais sofisticadas, com o intuito de garantir a segurança on-line.
Alguns exemplos: usam-se muitas ferramentas tecnológicas avançadas, inclusive com o emprego de inteligência artificial e machine learning, para identificar comportamentos tóxicos em tempo real, como, por exemplo, linguagem ofensiva em chats de voz ou de texto.
Há, sim, a intervenção humana em redes e comunidades: jogos que contam com moderadores humanos e sistemas de denúncias que são realizados manualmente
para analisar infrações e aplicar sanções.
Trata-se de uma indústria culturalmente autorregulada, então há adoção de códigos de conduta para os jogos, com regras claras e penalidades para comportamentos inapropriados; punições que podem variar de suspensão temporária de um jogador até mesmo à exclusão da conta do jogador — dependendo da gravidade da violação.
|
|
19:03
|
Existem também ferramentas que restringem comunicações, que são utilizadas para relatar abusos e também para recompensar boas condutas daqueles jogadores que são bem avaliados. Há muitos sistemas que oferecem prêmios a esses jogadores que são identificados como jogadores que têm atitudes positivas.
Além disso, a indústria sempre se dispôs a cooperar com autoridades e parceiros de confiança. Muitas empresas colaboram com entidades como a Internet Watch Foundation (IWF) e autoridades policiais, para lidar com questões envolvendo conteúdo ilegal e perigoso, exploração infantil ou ameaças graves.
Nós acreditamos — em resumo — que essa experiência acumulada do setor dos games deve ser levada em consideração no debate legislativo, que nós estamos tendo no momento, sobre segurança digital.
No que diz respeito à proteção de dados, a ESA entende que legislações de proteção de dados que tenham padrões claros, flexíveis e específicos sempre oferecem benefícios concretos aos jogadores. E, como já mencionado, a indústria dos games já adota medidas proativas para garantir: transparência; opções de controle; informações acessíveis aos usuários — especialmente aos pais e responsáveis —; e informações acessíveis sobre o uso de dados pessoais.
Esses esforços visam permitir que as famílias façam escolhas conscientes, escolhas informadas sobre como as crianças interagem com os jogos.
Na visão da ESA, privacidade e proteção de dados são temas altamente técnicos, naturalmente, e que devem ser tratados em legislações específicas, como a nossa Lei Geral de Proteção de Dados — a LGPD —, no Brasil. Isso está em linha com o que nós vemos na experiência internacional, em que nós temos o General Data Protection Regulation — o GDPR —, na União Europeia; o Children’s Online Privacy Protection Act, nos Estados Unidos; o Personal Information Protection Law, na China; o Privacy Act, na Austrália; e muitos outros exemplos de legislações específicas sobre o tema.
E, nessa linha, a ESA informa que já contribuiu com comentários na consulta pública da Agência Nacional de Proteção de Dados — a ANPD — sobre o tema da privacidade dos menores. Nós consideramos que a ANPD é a autoridade mais adequada para conduzir esse debate — como foi inclusive mencionado em algumas das contribuições precedentes à minha.
|
|
19:07
|
O projeto de lei deve assegurar segurança jurídica aos serviços on-line, especificando com clareza que o seu escopo se aplica apenas a serviços direcionados a menores, ao invés de serviços que possam ser acessados por menores — o que incluiria um espectro muito mais amplo e até indefinido.
Na indústria de videogames — como já foi dito anteriormente — as classificações etárias e os controles parentais já capacitam, há décadas, os pais e responsáveis a determinar se um jogo é apropriado para crianças ou adolescentes.
Nesse sentido, o nosso entendimento é que a legislação não deve exigir a coleta automatizada de dados sobre idade, nem impor restrições padronizadas de acesso a serviços. Isso poderia criar riscos à privacidade — que já foram, inclusive, levantados em muitas das contribuições precedentes à minha — e poderia desencorajar o uso de ferramentas já existentes que — hoje e pelos últimos 30 anos — ajudam e têm ajudado famílias a tomar decisões responsáveis quanto à conduta dos seus filhos no universo dos games.
Por exemplo, muitas plataformas oferecem sistemas robustos de controle parental que permitem aos pais configurar o tempo de uso, bloquear jogos com base na classificação indicativa, limitar interações on-line, aprovar ou rejeitar compras dentro do jogo... Todos esses recursos colocam os responsáveis no centro da decisão, sem a necessidade de mecanismos invasivos de verificação de idade — que podem envolver, inclusive, a coleta e o processamento de dados sensíveis.
Além disso, nós pontuamos que, se o objetivo do legislador for regular plataformas que não oferecem esses mecanismos de controle que a indústria dos games já adota há décadas, por exemplo, redes sociais, que são voltadas a públicos mistos, que podem incluir crianças, adolescentes e adultos... se o objetivo do legislador for regular essas plataformas, nós entendemos que o texto legal precisa ser redigido com mais clareza. Isso é fundamental para permitir que os provedores compreendam quais são as suas obrigações e possam atuar em conformidade com elas.
Em primeiro lugar, como já mencionado, a indústria de videogames já oferece ferramentas eficazes que capacitam os responsáveis — que estão em melhor posição para decidir — a gerir o acesso de crianças e adolescentes aos jogos.
Uma redação que inclua qualquer serviço que possa ser acessado por menores acabaria por transferir, de forma indevida, essa responsabilidade dos responsáveis para as plataformas, o que poderia até, na prática, dificultar a operação delas no Brasil.
Além disso, a ESA pontua que é devido o reconhecimento de plataformas que já, há décadas, possuem sistemas confiáveis de classificação e sistemas que evitam a exigência de verificações de idades excessivas, que são tecnicamente complexas e também podem comprometer a privacidade e a segurança dos usuários.
Então, diante de todas essas preocupações, nós incentivamos o Congresso a considerar abordagens que são adotadas em outros países, que não impõem verificação de idade generalizada e, ao invés disso, apresentam formas proporcionais de garantia de idade com relação a conteúdos
realmente sensíveis — que não são o caso dos dados processados no âmbito da indústria dos games.
|
|
19:11
|
Por exemplo: Na Austrália, nós sabemos que, após uma consulta da agência independente de segurança on-line do Governo, foi concluído que os métodos de verificação de idade têm certos problemas de privacidade, de segurança, de eficácia, e mesmo de viabilidade técnica. E lá, o uso desses mecanismos é restrito apenas para conteúdos pornográficos.
A mesma coisa acontece no Reino Unido. Lá, o On-line Safety Act exige garantia de idade apenas para conteúdos de alto risco, como, por exemplo, pornografia ou incitação ao suicídio.
O SR. PRESIDENTE (Jadyel Alencar. Bloco/REPUBLICANOS - PI) - Sr. Felipe, peço que o senhor possa ter mais um minuto para finalizar. Com o adiantado da hora... e nós ainda estamos com algumas considerações a serem feitas.
O SR. FELIPE LACERDA - Claro, acho que o que eu disse até agora são questões de princípio, e eu gostaria de focar, nesse um minuto, em pontos específicos do projeto de lei com os quais eu deveria contribuir.
Em primeiro lugar, reforçar que a indústria de videogames apoia o princípio do dever de cuidado previsto no art. 5º, que reconhece o papel dos pais e dos responsáveis na proteção dos menores.
A ESA entende que os requisitos de avaliação de risco previstos no art. 8º criam uma carga desproporcional às plataformas, que está desalinhada com as práticas internacionais. Nesse sentido, a posição da ESA é pela eliminação do art. 8º.
No que diz respeito ao art. 10º, a posição da ESA é que há necessidade de focar os riscos aos quais esse artigo se refere — a riscos de privacidade — à privacidade de crianças e adolescentes. A redação é um pouco genérica, na visão da ESA.
O SR. PRESIDENTE (Jadyel Alencar. Bloco/REPUBLICANOS - PI) - Obrigado, Sr. Felipe, pela exposição.
Nesse sentido, registramos o recebimento de duas perguntas, por meio da página desta audiência interativa.
Vou escolher uma delas para dirigir às expositoras aqui presentes, para que incluam em suas considerações finais: "Como os pais podem proceder caso os dados pessoais da criança e do adolescente sejam violados e vazados?" A pergunta foi realizada por Caroline Van der Linden de Souza.
|
|
19:15
|
Dirigindo-me à pergunta que foi feita: É evidente que existem atualmente os mecanismos e os institutos vigentes, como a Lei Geral de Proteção de Dados, por exemplo, e que instituem diferentes formas pelas quais os titulares podem exercer os seus direitos, inclusive em nome de crianças e adolescentes. Então, sugiro fortemente que consultem as orientações que já existem, da Autoridade Nacional de Proteção de Dados — embora muitas ainda estejam em processo de criação, de cocriação, como mencionamos anteriormente.
Gostaria de agradecer pela oportunidade, me referindo justamente à questão da proteção de dados pessoais como um direito fundamental, mas também como um regime que busca estabelecer regras não só para quando as coisas dão errado — não só para quando nós temos um vazamento ou quando nós temos uma violação ali da privacidade —, mas inclusive quando os dados pessoais estão sendo utilizados exatamente para os propósitos pelos quais foram pensados. Eventualmente podem não corresponder ao melhor interesse da criança e do adolescente, o que, em determinados contextos, pode ser considerado adequado, mas que, uma vez que nós temos esse contexto de especial vulnerabilidade, e todo esse arcabouço já constituído de uma série de proteções, de uma série de critérios para interpretar como as regras se aplicam para crianças e adolescentes, o nosso resultado eventualmente pode ser diferente — pode ser, e deve ser, mais restritivo, no sentido de garantir a proteção do melhor interesse das crianças e dos adolescentes.
O SR. PRESIDENTE (Jadyel Alencar. Bloco/REPUBLICANOS - PI) - Obrigado, Sra. Mariana Rielli.
A SRA. ROBERTA JACARANDÁ - Com relação à pergunta sobre o que fazer no caso de um vazamento de dados, eu acho que a primeira coisa a saber é: que tipo de vazamento; de onde isso vazou; qual que é a fonte de onde isso aconteceu, para você procurar os responsáveis e entender qual o procedimento que você tem ali disponível para você.
Você tem vias administrativas, vias judiciais — como a Sra. Mariana falou —, mas eu acho que a primeira coisa que a pessoa quer fazer é saber de onde isso vazou e o que eles vão fazer a respeito disso. Então, acho que é entender de onde foi, que tipo de dado — é um dado de saúde, é um dado de alguma plataforma, enfim... Acho que é a primeira coisa.
E isso demonstra a necessidade que a gente tem de que essas informações estejam mais abrangentes, para que as pessoas não tenham essa dúvida: “O que eu faço, no caso?”. Isso é aquela questão da educação familiar também, que eu estava falando ali no final. Essas informações precisam estar disponíveis também, para as pessoas saberem reagir, saberem o que fazer: aonde eu vou buscar ajuda? Se existe um problema de saúde mental, quem eu procuro? O que está disponível?
Existe tanta coisa disponível, mas, às vezes, a gente não encontra... no emaranhado de informação.
|
|
19:19
|
Então, acho que isso é fundamental para que tudo isso que a gente está conversando seja eficiente, seja eficaz, esteja acontecendo de forma de a gente atingir o objetivo de proteger mesmo as nossas crianças e adolescentes.
Mais uma vez... só agradecer. Eu acho que é importantíssimo a gente estar conversando com todo mundo aqui, como vocês estão fazendo nessas audiências públicas. Quanto mais gente falar, mais a gente vai amarrando as informações, mais a gente vai construindo um texto maduro, que, de fato, chegue ao objetivo que a gente quer, que é proteger as nossas crianças e adolescentes.
O SR. PRESIDENTE (Jadyel Alencar. Bloco/REPUBLICANOS - PI) - Sr. Felipe, caso ainda esteja on-line, nós temos 2 minutos para as considerações finais.
Muito obrigado a todos. Eu gostaria de agradecer, em nome da ESA, pela oportunidade de participar desta audiência, e contribuir com um tema tão importante como a proteção de dados e adolescentes do ambiente digital.
Nós reiteramos aqui que a indústria de videogames leva esse compromisso muito a sério, há mais de 30 anos, e seguirá investindo em soluções eficazes, tecnológicas e proporcionais, para garantir ambientes seguros e positivos para todos os jogadores.
Nós destacamos, em linha com as outras contribuições, que é fundamental que a legislação brasileira reconheça as ferramentas já existentes, evite duplicações regulatórias e também adote uma abordagem equilibrada que preserve a inovação, respeitando a privacidade e empoderando pais e responsáveis, como nós temos visto na experiência internacional com muito sucesso, ao longo de mais de três décadas.
O SR. PRESIDENTE (Jadyel Alencar. Bloco/REPUBLICANOS - PI) - Muito obrigado, Sr. Felipe.
|