Representantes da Meta (dona do Facebook, Instagram e WhatsApp) e do Google disseram que não esperam decisões judiciais para remover conteúdos ilícitos e defenderam a manutenção da proteção garantida às plataformas pelo Marco Civil da Internet.
A legislação estabelece que empresas de mídia social só podem ser responsabilizadas por publicações de usuários se não remover o conteúdo após ordem judicial. A garantia está no artigo 19 do Marco.
As gigantes de tecnologias também rejeitam aumentar a sua responsabilidade por publicações dos usuários das redes sociais.
As declarações foram feitas durante audiência pública realizada no Supremo Tribunal Federal (STF) para discutir pontos do Marco Civil da Internet. Representantes do governo Lula, como os ministros Flávio Dino (Justiça), Silvio Almeida (Direitos Humanos) e Jorge Messias (AGU), participaram.
Também acompanharam os trabalhos os ministros da Corte Dias Toffoli, Luiz Fux, Alexandre de Moraes, Gilmar Mendes e Roberto Barroso.
Para o advogado da Google Brasil Guilherme Cardoso Sanchez, aumentar a responsabilidade civil das plataformas “não é a chave para tornar a internet um lugar mais seguro”.
“Não se pode responsabilizar diretamente as plataformas pelo conteúdo criado pelas pessoas na internet”, disse.
Ele disse que responsabilizar plataformas digitais, como se elas próprias fossem as autoras do conteúdo que exibem, “levaria a um dever genérico de monitoramento de todo o conteúdo produzido pelas pessoas”. Segundo o advogado, a situação contribuiria para “criar uma pressão para remover qualquer discurso minimamente controverso”.
Segundo Sanchez, o Google não espera uma decisão judicial para remover conteúdos ilícitos das plataformas.
Ele afirmou que a empresa atualiza e aperfeiçoa sua política de conteúdos, incorporando nas restrições publicações que possam trazer riscos de danos reais. “Por exemplo, as políticas do YouTube contra o discurso de ódio proíbem a discriminação com base em fatores como idade e classe social, que vão além das categorias legais”.
Ele também disse ser “mais simples” identificar e remover, proativamente, conteúdos objetivos, como nudez.
“É muito mais simples identificar uma cena de nudez desautorizada do que interpretar a legalidade uma fala controversa sobre um tema político, por exemplo”.
Inércia
Rodrigo Ruf Martins, gerente Jurídico do Facebook Brasil, disse que a demanda por maior responsabilização das plataformas vem da impressão de uma suposta inércia das empresas no combate a discursos antidemocráticos desinformação.
Martins disse que a Meta investe “bilhões de dólares” e desenvolve ferramentas tecnológicas e de inteligência artificial para estabelecer políticas e termos de uso, e fortalecer a segurança e a integridade nos aplicativos.
Também afirmou que não houve omissão da empresa no combate dos conteúdos ilícitos durante as eleições de 2022 e nos atos de 8 de janeiro.
Conforme dados da Meta, citados pelo advogado, foram removidos 135 mil anúncios de caráter eleitoral no primeiro turno do pleito e 3 milhões de conteúdos no Facebook e no Intagram “por violação das políticas que vedam conteúdo violento, de incitação à violência e discurso de ódio”.
“Essas postagens incluíam temas bastante sensíveis, como os pedidos de intervenção militar e demais tentativas de subversão ao estado democrático de direito”, disse.
“Foram mais de 3 milhões de conteúdos removidos proativamente pela META, ou seja, numa seara de auto regulação sem necessidade de intervenção judiciária”, declarou.
“Evidentemente, nós reconhecemos que mais pode ser feito pelas plataformas”.
Para Martins, o artigo 19 do Marco Civil da Internet, é constitucional.
“A ideia de que o Artigo 19 incentiva a inércia não procede, assim como entendemos que modelo de negócios online jamais vai prosperar em um ambiente tóxico”, afirmou.
FONTE: Por CNN