• Brenda Sales

Como os algoritmos refletem a sociedade

Atualizado: 30 de Out de 2020

Redes sociais privilegiam pessoas brancas e mostram que o racismo permanece latente


Pessoas brancas possuem mais visibilidade nas redes sociais | Foto: Kon Karampelas / Unsplash

A discussão sobre o que nos é revelado – e o que deixa de ser exposto – não é recente. Em 2016, o site The Intercept Brasil denunciou que o TikTok instruiu seus moderadores a esconderem vídeos que mostrassem pessoas consideradas “feias”, deficientes e até casas consideradas “pobres”. Segundo o jornal, os documentos referidos foram utilizados na empresa até, pelo menos, meados do segundo semestre de 2019.


Ou seja, no TikTok, as pessoas consideradas “pouco atraentes” teriam um alcance limitado, sendo excluídas da posição de destaque. Apesar de o porta-voz da empresa na época, Josh Gartner, garantir que as regras obtidas pelo Intercept não estarem mais em uso, a prática é diferente.


Em pleno 2020, usuários relatam que quase não encontram pessoas negras na seção “Para você”. Thaís Castro, 23, afirmou que rapidamente olhando cerca de 30 vídeos, apenas quatro foram com pessoas negras ou asiáticas como protagonistas. “Inclusive, quando aparecem negros, geralmente são os mesmos que já têm muitos seguidores”, concluiu.


A matemática e ativista Cathy O’Neil disse, para o El País, que os algoritmos são “opiniões fechadas em matemática” e que não são neutros. Dependendo de quem construa esses modelos, quais variáveis leve em conta e com que dados os alimente, o resultado será um ou outro. “Os vieses são estruturais e sistêmicos”, afirmou.


Em setembro, foi a vez do Twitter ser acusado de utilizar um algoritmo racista para definir os cortes de imagens na rede social. Os próprios usuários realizaram testes e perceberam que, independente de onde as pessoas negras e brancas eram dispostas na fotografia, a plataforma sempre privilegiava mostrar a branca, inclusive desenhos. Também é um algoritmo que define qual a parte mais importante da imagem.


Segundo o Jornal O Globo, o Twitter afirmou, em comunicado ao jornal britânico The Guardian, que “nosso time realizou testes para vieses antes de lançar o modelo e não encontrou evidências de vieses de raça ou gênero, mas está claro por esses exemplos que temos mais análises a fazer. Nós vamos continuar compartilhando o que aprendermos, quais ações tomaremos e vamos abrir nossas análises para que terceiros possam revisá-las e replicá-las”. Ou seja, efetivamente, foi dito que não foi encontrada evidências e, até o momento, nada foi feito.


Para a cientista da computação ganense-americana Joy Buolamwini, a inteligência artificial aprende com bancos de dados e os sistemas de reconhecimento facial acabam reproduzindo o conteúdo de bancos de imagens prontos, compostos por pessoas pouco diversas, em sua maioria. Isso acarreta não só em redes sociais privilegiando brancos, mas em numerosos sistemas de reconhecimento facial que não interagem com a pele negra.


Inclusive, a organização Desabafo Social denunciou o fato de que quando o termo genérico “pessoa” é pesquisado em bancos de imagens, quase todas as fotografias mostradas estão relacionadas a pessoas brancas. Esse padrão foi encontrado em pelo menos três bancos: iStock, Shutterstock e Getty Images,


O Instagram também recebeu sua parcela de denúncias. De acordo com a Revista Exame, a plataforma foi acusada de praticar “shadowban”. O termo se refere ao ato de bloquear ou limitar um usuário na comunidade, tornando suas publicações menos acessíveis.


Ainda segundo a Exame, o principal executivo da empresa, Adam Mosseri, disse que está “ouvindo a preocupação sobre se suprimimos as vozes negras e se nossos produtos e políticas tratam a todos igualmente” e que será conduzida uma investigação, mas não foram dados prazos para os estudos serem concluídos.


O influencer negro Levi Kaique Ferreira, através de um post no instagram, revelou que fez um experimento na rede social: publicou foto de uma pessoa branca e a publicação teve mais alcance que seus demais conteúdos. Alguns dos seguidores de Kaique alegaram, ainda, que os posts do influencer não aparecem em seus respectivos feeds, então eles precisam periodicamente acessar o perfil do creator para conferir as novidades.


O Facebook, por sua vez, foi criado a partir do website Facemash que, além de desenvolvido por Mark Zuckerberg, baixava fotos de estudantes sem permissão de servidores universitários. Então, os alunos poderiam votar nelas usando o critério de “atratividade”, com um algoritmo que ranqueava as seleções.


De acordo com o Intercept, em 2019, uma pesquisa realizada por especialistas na Universidade Northeastern demonstrou que os anúncios do Facebook discriminam o público por estereótipos de raça e gênero. Mesmo os anúncios sendo segmentados de maneira idêntica, um dos resultados demonstrou que o Facebook entregou os anúncios de casas à venda para públicos compostos por 75% de usuários brancos, enquanto anúncios de imóveis para alugar foram exibidos a um público mais equilibrado demograficamente.


O site americano ProPublica também revelou que uma ferramenta para anunciantes no Facebook permitiu que fosse escolhida quais “etnias” excluir na hora de mostrar um anúncio sobre aluguel e compra de casas. Isso é ilegal nos Estados Unidos desde 1968.


Demonstrando como a inteligência artificial pode refletir o comportamento da sociedade, em 2016, o robô da Microsoft “Tay”, criado para interagir com adolescentes nas redes sociais e em menos de 24h passou a reproduzir racismo e ignorância, de acordo com a revista Veja. Em um dos momentos, o projeto declarou suporte ao genocídio, demonstrou apoio à causa dos supremacistas brancos e disse que o holocausto “foi inventado”. A Microsoft tirou a “Tay” do ar.


É possível inferir que o problema é antigo e permanece latente. Segundo uma reportagem do El País, uma das soluções seria tornar as equipes que desenvolvem os algoritmos interdisciplinares, adicionando pessoas diversas que entendem de direito, sociologia e ética. Também é imprescindível que sejam fundadas organizações que monitorem os algoritmos, para evitar que reproduzam comportamentos racistas e sexistas.