Tecnologia

Racismo algorítmico: após teste, influenciadora denuncia rede social

Racismo algorítmico: após teste, influenciadora denuncia rede social

Influenciadora de vida saudável, poses de yoga, casa na praia, filhos e milhares de likes. Se diante desta descrição, você imaginou uma mulher branca, não é porque faltam blogueiras de outras etnias que se encaixem no perfil. A produtora de conteúdo Sá Ollebar, mulher negra, é um desses exemplos. Na semana anterior, ela denunciou o aumento de seu alcance em 6000% após publicar fotos de pessoas brancas em seu perfil no Instagram.

“Antes eu pensava que meus posts não apareciam porque eu não tinha a casa perfeita, a floresta perfeita e não morava na praia”, desabafou a criadora de conteúdo em sua rede social. “Hoje eu moro na praia, construí́ uma casa de quase 400m2, tenho mais de 600 plantas e adivinha? Não adianta!”

Para quem desconhece o termo “racismo algorítmico”, o desabafo da influenciadora pode parecer exagerado. No entanto, não é o que aponta Tarcizio Silva, autor da obra “Comunidades, Algoritmos e Ativismos Digitais: olhares afrodiaspóricos”. Para o pesquisador digital, o caso é um exemplo de como funciona a assimetria entre plataformas e usuários.


“Diariamente, centenas de milhões de pessoas produzem conteúdo e valor gratuitamente ou de modo precarizado para plataformas como Facebook, YouTube e Instagram – e não recebem informações minimamente aceitáveis sobre o funcionamento dos mecanismos de recomendação de conteúdo e ordenação de visibilidade’, aponta Tarcizio Silva, que também é doutorando em Ciências Humanas e Sociais pela Universidade Federal do ABC.

Em seu projeto, Silva levanta casos que demonstram os impactos da desigualdade racial nas plataformas digitais. Os exemplos vão de aplicativos de beleza que embranquecem as fotos dos usuários a buscas no Google pelo termo “mulher negra dando aula” que resultam em pornografia. No caso do Instagram, a plataforma utiliza do aprendizado de máquina para compreender as preferências do usuário e entregar conteúdo.

“Este desenho de relações reproduz e intensifica o pior dos meios de comunicação de massa, mas com um verniz de rede social e opacidade algorítmica”, explica Tarcizio Silva.

A cor da influência

Da mesma maneira que o comportamento do consumidor afetou, durante anos, a contratação de modelos negros para campanhas publicitárias, o mesmo ocorre no mercado de influência. Uma pesquisa promovida pela Black Inlfuence com 760 criadores de conteúdo mostrou influenciadores brancos recebiam em média 51,1% a mais do que negros. O alcance das publicações é um dos fatores levados em conta quando a marca procura um influenciador.

“É uma questão social”, explica Ricardo Silvestre, fundador da Black Influence e responsável pela pesquisa. “A gente sabe que pessoas pretas historicamente ganham menos do que branca,  e isso se reflete no mercado de influência. Muitas vezes, esses influenciadores pretos têm mais qualificação e aderência na comunidade.”

Para ilustrar como a barreira racial interfere no sucesso de influenciadores, Silvestre relembra o caso da chegada da Fenty Beauty ao Brasil. Na ocasião, a marca de cosméticos da cantora Rihanna – pensada para diversas tonalidades de pele negra - foi criticada por sua estratégia de divulgação ao usar modelos e influenciadores brancos.

“Muitas mulheres que já usavam a Fenty já acompanhavam a marca aguardavam por esse produto. E aí quando a marca vem para o Brasil, que é majoritariamente negro, ela deixa de fazer sentido por conta de uma estratégia de divulgação errada, sintoma de um mercado publicitário que é branco.

Do algoritmo à vida real


Embora um dos resultados do racismo algorítmico tenha impacto direto na remuneração de pessoas negras, os efeitos dessa prática podem ser consideravelmente mais devastadores. Tarcizio Silva, pesquisador do campo de mídia e tecnologia, dá como exemplo o uso de reconhecimento facial para fins policiais.

“Se a promoção do encarceramento com mais recursos tecnológicos violentos de controle é um problema por si só, torna-se mais grave ainda devido a sua imprecisão”, alerta Silva.

“Estudos nos EUA, Inglaterra, Brasil e outros locais mostram como reconhecimento facial promove erros, agressões e violência, mas ainda assim governantes brasileiros seguem realizando contratações questionáveis. Em breve, mais Estados chegarão a conclusões para o banimento ou longas moratórias dessa tecnologia, mas até lá muita violência estatal será normalizada.”