NOTÍCIAS >

Papo reto

Publicado em

28/01/2025

“Dizer que regulação de plataformas significa limitação da liberdade de expressão é um equívoco absoluto”, destaca Nina Santos

Pesquisadora da Universidade Federal da Bahia (UFBA) e da Université Paris II, Nina Santos aborda regulamentação das plataformas digitais, impacto na democracia, combate à desinformação e promoção da informação de qualidade, inteligência artificial e algoritmos racistas.

Por Elvis Marques

Getting your Trinity Audio player ready...
Nina Santos. Arquivo pessoal

Já pensou em ter o seu rosto colocado em imagens ou vídeos pornográficos e isso ser espalhado pela internet? Esse tipo de montagem criminosa é chamada deepnudes, e foi utilizada, sobretudo, contra mulheres nas eleições de 2024. Em São Paulo, a então candidata à prefeitura Tabata Amaral (PSB) foi vítima de dois casos diferentes, sendo que em um deles o seu rosto foi adicionado a imagens de uma atriz de conteúdo adulto. A sua oponente, Marina Helena (Novo), também foi alvo do crime.

Candidatas no Rio de Janeiro (RJ), Taubaté (SP) e Bauru (SP) também registraram denúncias similares. Os casos foram monitorados e divulgados pelo Observatório IA nas Eleições, resultado de uma parceria entre a organização DataPrivacyBR e Aláfia Lab, um laboratório que desenvolve, na Bahia, projetos como o Observatório de Racismo nas Redes e Desigualdades Informativas e Polarização Política.

Apesar de não constar em uma legislação específica, o Tribunal Regional Eleitoral (TRE) de São Paulo esclarece que a produção de deepnudes se enquadra no artigo 216-B do Código Penal Brasileiro, o qual criminaliza o registro de intimidade sexual. O crime tem pena de prisão de dois meses a um ano, no caso da Justiça comum. Entretanto, o caso, como o que ocorreu com as candidatas, pode ser enquadrado no Código Eleitoral, com penalidade de dois meses até um ano de detenção, e se agravar com um terço dessa penalidade se referir à discriminação de mulheres, por exemplo.

Casos como esses, que ainda exigem regulação e legislação específicas no Brasil, têm sido estudados pela baiana Nina Santos, de currículo extenso na área comunicacional. Ela é doutora em comunicação, diretora do Aláfia Lab, criadora e coordenadora geral do projeto *desinformante, pesquisadora da Universidade Federal da Bahia (UFBA) e da Université Paris II, e associada ao Instituto Nacional de Ciência e Tecnologia em Democracia Digital (INCT.DD).

Em entrevista exclusiva à Revista Casa Comum, Nina explica que a sua aproximação com o ambiente digital começou na “era dos blogs”, por volta do ano 2010 e, depois das diversas pesquisas realizadas na graduação, mestrado e doutorado, percebeu o quanto era importante expandir essas discussões e os seus impactos para além do mundo acadêmico. Com isso, nasceu, por exemplo, em 2021, o *desinformante, que analisa o impacto da desinformação na sociedade. Confira a entrevista.

Nina Santos: De fato, a desinformação é um problema bastante complexo e desafiador. Inclusive muitas análises e tentativas de solução tentam simplificar o problema. Eu acredito que um dos principais erros e limitações que temos é pensar apenas na correção da informação ou na identificação de uma notícia falsa. Corrigir a informação é uma parte essencial do processo, mas apenas isso faz com que a gente esteja quase o tempo inteiro “enxugando o gelo”. O problema da desinformação se encaixa dentro de um cenário comunicacional e político social que é velho.

Vivemos hoje uma realidade de comunicação digital, temos mais fontes e produtores de informação do que tínhamos antes. No cenário da comunicação de massa, eram poucos emissores de informação que levavam a mensagem para um público amplo. Hoje, com a internet, temos uma multiplicação dessas fontes, que tem efeitos positivos, como a inclusão de vozes no debate público.

Por outro lado, há um efeito negativo, que é o fato de termos menos capacidade de identificar quem são esses produtores de informação e de qualificar os bons, aqueles que não são tão bons, e mesmo os que produzem desinformação. É um contexto que não vai mudar, vamos continuar vivendo na era digital. Não é que seja um fenômeno estável, ele está em constante mutação, mas é algo que veio para ficar.

Portanto, ao pensar em soluções para a desinformação, não se pode pensar só no “varejo”: “essa desinformação a gente desmente assim, aquela desmente de outro jeito”. Precisamos pensar no “atacado”, em como lidar com a desinformação de maneira ampla e estrutural. E aí é preciso pensar em outras frentes, como a regulação de plataformas, que não são neutras, incidem e interferem na maneira como a gente consome a informação, não do ponto de vista do tecnocentrismo.

Acho que essa visão tecnocêntrica não nos ajuda, mas o fato é que a apropriação social dessas tecnologias provoca efeitos na maneira como a informação circula em nossa sociedade. Isso dá para essas plataformas um poder grande e, por isso, precisamos ter regras específicas para o seu funcionamento.

Nina Santos: Esse caso é muito emblemático e o seu único lado positivo é que nos mostra a necessidade de olhar o fenômeno por um outro ângulo. Até recentemente, grande parte da discussão sobre combate à desinformação e regulação estava muito centrada no que se passa dentro das plataformas: conteúdo falso, moderação, funcionamento dos algoritmos, transparência, dado privado ou segredo de negócio, etc.

O que esse episódio nos mostra é o quanto ser dono de uma plataforma digital é algo poderoso, o que nos remete a uma discussão que tínhamos antes, sobre os proprietários dos meios tradicionais de comunicação. E essa é uma discussão que se torna mais invisível com as empresas digitais, já que são gigantescas e não estão fixadas no Brasil.

Esse caso deixa claro a capacidade – ou tentativa – de interferência que possui o dono de uma plataforma digital. Essas empresas, definitivamente, não são neutras, e respondem a interesses desde pessoais a comerciais, como o caso de Elon Musk. Grande parte do nosso debate público, hoje, se passa em espaços digitais privados, sobre os quais a gente tem pouco ou nenhum controle, o que é muito problemático para as democracias contemporâneas.

Outro ponto importante desse episódio é que houve algumas interpretações ou coberturas [midiáticas] como se fosse um embate entre Alexandre de Moraes [ministro do STF] e Elon Musk. Acho que essa abordagem é muito ruim, porque me parece que é um embate entre Musk e a democracia brasileira. A gente pode discutir as decisões do ministro e pode fazer críticas a ele, eu inclusive tenho várias, mas o que não podemos discutir é se uma empresa estrangeira deve ou não obedecer a uma ordem de uma instituição democrática ao atuar neste país. Isso é indiscutível. A discussão que está por trás desse caso é sobre a soberania e do poder que essas empresas têm.

Nina Santos: Eu acredito que mostra mais uma vez a necessidade urgente de termos uma regulação estruturada das plataformas digitais. O que a gente tem tido no Brasil são decisões episódicas sobre essas empresas. Tivemos a resolução do TSE [Tribunal Superior Eleitoral], em 2022, feita entre o primeiro e o segundo turno das eleições, o que mudou bastante a forma como essas empresas eram contratadas, inclusive sobre a retirada de conteúdos do ar. Depois houve uma ação do Ministério da Justiça durante ataques a escolas em 2023. Tivemos algumas ações sendo feitas via Senacon [Secretaria Nacional do Consumidor]. E temos as resoluções do TSE de novo, em 2024, tratando de outros assuntos, inclusive de inteligência artificial (IA).

Nina Santos. Foto: ASCOM / MINC

A regulação que temos hoje é feita para momentos excepcionais. Seja para eleição, ataque à escola ou para o 8 de janeiro [de 2023, quando houve a tentativa de golpe de Estado]. Momentos que não são do nosso cotidiano, mas o uso das plataformas é diário. Quando temos uma regulação desestruturada e feita para momentos excepcionais, ela acaba sendo, primeiro, muito discutível, pois é pouco legítima, já que tem pouca participação e discussão social; segundo, ela acaba sendo, muitas vezes, desproporcional, afinal, não se pode regular o uso de plataformas a partir dos ataques às escolas ou do 8 de janeiro. As pessoas usam as plataformas digitais para compartilhar fotos de gatinhos, do almoço e conversar com a família. As regras que valem para isso não podem ser as mesmas para pessoas extremistas que estão tentando atacar algo.

Nina Santos: É um cenário complexo. Há, de um lado, o desinteresse, às vezes oposição mesmo, de parte do Congresso Nacional, interessada nos efeitos de uma comunicação digital desregulada. Tem uma parte da cena política brasileira – mundial, na verdade – que se beneficia desse espaço digital caótico. Se usam do escudo da proteção da liberdade de expressão para tentar justificar esse ponto de vista, o que me parece uma deturpação completa do debate. Eu acho que a liberdade de expressão é uma preocupação essencial que precisamos ter em qualquer sociedade democrática, tanto quanto a liberdade de informação.

Agora, dizer que regulação é uma limitação da liberdade de expressão é um equívoco absoluto, até porque fica parecendo que hoje não há regulação nenhuma, e que vai ser criado, mas já existem regras. Hoje os ambientes digitais são regidos por diversas, a questão é que essas normas são feitas por empresas privadas transnacionais de maneira pouco transparente. A regulação precisa vir para tentar fazer com que as normas que valem no ambiente digital sejam socialmente pactuadas, discutidas e validadas, e que estejam de acordo com a Constituição Brasileira.

Nina Santos: Entendo que é quase unânime, no Congresso Nacional, o pouco conhecimento sobre o ambiente digital. Em geral, os parlamentares sabem pouco sobre o funcionamento desses espaços. O fato deste tema ser complexo e distante da vida de muitos parlamentares, dificulta qualificar o debate dentro do Legislativo.

Outra dificuldade que ficou clara em 2023, quando houve uma tentativa de votação do PL 2.630, é o lobby das plataformas digitais, algo inimaginável em termos de força. Vale lembrar que quando houve a aprovação da urgência da votação, o texto iria a plenário, mas acabou caindo, por vários motivos, e um desses foi certamente pelo lobby que fizeram presencialmente em cada gabinete do Congresso. Eu quero deixar claro que as plataformas são parte legítima dessa discussão, assim como o Executivo, Legislativo, Judiciário, sociedade civil, empresariado, anunciantes, etc. A questão é que existe uma força desproporcional da capacidade de interferência que essas empresas têm.

Para além do lobby, vale registrar dois episódios marcantes: o primeiro foi o Google ter colocado em sua página inicial um aviso de que o PL 2.630 acabaria com a internet da forma como se conhecia. A segunda ação veio do Telegram, ao disparar uma mensagem para todos os seus usuários no Brasil dizendo que o PL acabaria com a liberdade de expressão, algo também só sendo dono da empresa para fazer.

Há essas dificuldades, mas acredito que as negociações e conversas do Executivo com as empresas digitais avançaram, o que diminuiu um pouco a resistência sobre a regulação no Brasil, ainda que sempre haja resistência. Acho que o conhecimento geral sobre o ambiente digital tem melhorado, mas ainda é muito aquém do que a gente precisa. A questão é realmente a correlação de forças no Congresso. Acho que quem vai agir mais rápido é o Judiciário, ainda que eu acredite que, em termos de processo democrático, no Legislativo, poderia ser mais participativo e com mais legitimidade social.

Nina Santos: Pegando alguns exemplos, como o texto do PL 2.630 ou do PL 2.370 [que trata da sustentabilidade do jornalismo], podemos trazer alguns pontos. Uma primeira discussão é sobre transparência, sobre a nossa possibilidade, enquanto cidadãos, de ter acesso às informações sobre como essas plataformas funcionam, desde de quantas pessoas moderam conteúdos no Instagram no Brasil e que falam português. Essa é uma informação, por exemplo, que foi exigida na União Europeia, e que quando esses dados foram divulgados todos ficaram abismados como era absurdamente pequeno o número de pessoas que faziam moderação de conteúdo. Quem, por exemplo, está olhando para um conteúdo no qual há incitação à violência contra uma escola ou membros de uma comunidade escolar? A transparência nos permite saber quantas pessoas atuam nesse trabalho, se elas falam português, etc.

Outro ponto da regulação que pode afetar diretamente o dia a dia das pessoas é a responsabilização. Hoje não existe previsão legal ampla que responsabilize as empresas pelo conteúdo que circula dentro delas, a não ser em casos muito específicos previstos no Marco Civil da Internet, mas, em geral, não há previsão de responsabilização. É uma questão muito delicada, porque de fato a gente precisa garantir a liberdade de expressão, mas a forma como a legislação traz isso é bastante encapsulada dentro de temas específicos: conteúdos que digam respeito a crianças e adolescentes, conteúdos sobre terrorismo, questões antidemocráticas.

Por fim, é preciso entender que o digital é real, o que não significa que tenhamos que viver só nele. Mas significa que ele tem efeitos muito concretos em nossas vidas.

Nina Santos: Há uma onda de interesse por ser uma tecnologia nova, e acho que uma das coisas mais importantes nesse debate é pensar a IA como uma discussão absolutamente necessária em conjunto com aquela sobre plataformas digitais. Inteligência artificial não é só deepfake [técnica que utiliza conteúdos verdadeiros, como foto e vídeo, para criar adulterações realistas]. Ela está presente em sistemas algorítmicos de distribuição de informação, seja em mecanismo de busca ou para a produção de conteúdos.

O debate regulatório, que é bastante complexo, vem enfrentando muita resistência. Acredito que temos muito a aprender sobre qual vai ser de fato o impacto da inteligência artificial em nossa sociedade. Eu faço parte do Comitê de Assuntos Digitais do TSE, criado no final de 2023 para discutir temas digitais, e tivemos vários debates internos antes de sair a resolução do TSE para as eleições de 2024.

E uma das maiores dificuldades que tínhamos era justamente localizar onde está o dano. Qual é de fato o problema que a IA pode trazer, e quando é que ela pode não ser nociva? Separar o joio do trigo, para que de um lado a gente não limite demais o uso da IA e acabe impedindo a inovação, algo superimportante para o nosso país. Mas, por outro lado, não podemos nos tornar uma sociedade conivente com novas formas tecnológicas de produção de danos.

Algoritmos racistas

Em junho de 2024, a página da Revista Casa Comum publicou a matéria Desumanizar e desinformar são duas das principais estratégias por trás de discursos racistas nas redes, que apresenta várias descobertas acerca do estudo Racismo pra quê? As estratégias dos discursos racistas nas redes, uma iniciativa do Aláfia Lab.

A pesquisa acompanhou, entre os anos 2023 e 2024, os ataques e as ofensas racistas proferidos em 37 perfis de personalidades negras no Instagram e no YouTube. Pesquisadores analisaram as redes sociais do jogador Vini Jr, e identificaram que até 91% das postagens em sua conta no Instagram foram alvo de ataques racistas.

As pessoas envolvidas no estudo identificaram que os autores das ofensas usam quatro principais estratégias nos discursos racistas: desumanizar, desqualificar, invisibilizar e desinformar.

>> Confira a reportagem: bit.ly/RCC_11_28
>> Acesse a pesquisa: bit.ly/RCC_11_29

Nina Santos: De fato, o reconhecimento facial é uma grande preocupação, acho que está entre as maiores relacionadas ao uso de inteligência artificial, justamente porque, de novo, a gente precisa considerar que essas tecnologias não afetam de maneira igualitária todos os grupos sociais. O fato é que elas não são neutras e são construídas apenas por uma parte da população, com base num regime existente, que já é racista. Não é necessariamente os algoritmos que criam o racismo, eles são, sim, criados em contextos racistas, o que faz com que essas populações sejam mais vulneráveis diante do uso das tecnologias.

E esse fenômeno é mais uma etapa na relação entre o ambiente digital e as questões raciais que acompanhamos no Observatório há, pelo menos, três anos. Buscamos identificar esses discursos racistas, como eles acontecem, quais são as estratégias, sobre que dimensões da vida das pessoas negras eles tratam, além de tentarmos aprender sobre o funcionamento desses discursos no intuito de desenvolver estratégias para combater esse tipo de conteúdo e de comportamento na internet.

Nina Santos: Eu acho importante deixar claro que não existe combate à desinformação sem promoção da boa informação. Isso significa que a gente precisa, sim, reconhecer o papel que as mídias tradicionais têm, juntamente com as alternativas, populares, comunitárias e periféricas. Esse papel de produção da informação, a partir do que é notícia e informação, é muito importante no cenário de combate à desinformação, inclusive para ocupar o espaço comunicacional.

Pode-se observar: sempre que um espaço comunicacional está vazio, ele é mais facilmente ocupado pela desinformação. Isso é muito visto no período eleitoral, antes do primeiro turno, quando tem um vácuo de comunicação e não se pode mais fazer campanha, é justamente neste momento em que a desinformação circula com facilidade e rapidez. Portanto, a gente precisa pensar em maneiras de promoção da informação de qualidade, o que implica pensar em novos modelos de sustentabilidade do jornalismo, dado que alguns negócios mais tradicionais são bastante afetados pelo formato econômico das plataformas digitais.

Pensar em solução não implica em achar que nós estávamos num cenário melhor e que piorou, mas sim encarar o cenário atual, de comunicação digital e descentralizada, e pensar possibilidades que incorporem, sim, a importância das mídias tradicionais, mas que abram espaço para uma diversidade de atores.

Nina Santos: Certamente é preciso mais educação. Mas eu acho que a gente tem avançado, não na velocidade que gostaríamos. É um avanço o fato de temas como o combate à desinformação, ao discurso de ódio e ao extremismo ou a defesa da integridade da informação aparecerem mais no debate público. A defesa de um ambiente comunicacional saudável não é um tema somente de comunicação, é um tema da democracia, e isso tem aparecido nas falas do presidente da República, nos documentos do governo brasileiro e nas discussões que acontecem na sociedade civil. Já é um tema, há algum tempo, bastante presente nas universidades, portanto, eu acredito que estamos, sim, avançando.

Estamos numa janela de oportunidade. Assim, acho que é bastante urgente que a gente consiga avançar não apenas no diagnóstico, mas na construção de soluções efetivas ou, pelo menos, dar alguns passos na direção de um cenário melhor.

Outros conteúdos:

Desumanizar e desinformar são duas das principais estratégias por trás de discursos racistas nas redes, aponta pesquisa  

Levantamento realizado no âmbito do Observatório de Racismo nas Redes, projeto do Aláfia Lab, acompanhou 37 perfis de personalidades negras no Instagram e Youtube e os ataques e ofensas racistas que receberam entre 2023 e 2024.

Publicado em

06/06/2024

Bê-a-bá: desvendando o universo da comunicação

Em um mundo inundado de informações, entender como
a comunicação funciona é crucial para navegar nesses
oceanos com segurança e discernimento. Temas como
funcionamento de algoritmos, acesso a dados, limites da
liberdade de expressão, reconhecimento de informação
falsa, entre tantos outros estão cada vez mais presentes no
nosso dia a dia.

Publicado em

27/02/2025

A urgência de uma algorética

Artigo da editoria Cidadania Digital, da 11ª edição da Revista Casa Comum.

Publicado em

28/01/2025

Inscreva-se


Botão do whatsapp

Entre para nossa comunidade!