Clique e Assine a partir de R$ 8,90/mês

Como a internet reproduz machismo e racismo – e às vezes você nem percebe

A inteligência virtual oferece benefícios importantes, mas também retrocessos a usuários excluídos da sua produção, como mulheres, negros e indígenas

Por Ana Carolina Pinheiro Atualizado em 22 jun 2021, 12h05 - Publicado em 22 jun 2021, 12h00
A

ntes de você pegar o celular para pesquisar uma música em uma plataforma de áudio ou divulgar o seu trabalho nas redes sociais, dezenas de pessoas se reuniram para analisar esse ato. Não por coincidência, esses profissionais contratados pelas empresas de tecnologia possuem um perfil semelhante: homem cis, branco e hétero.

Em uma pesquisa aplicada em novembro de 2018 a março de 2019 pela PretaLab e Olabi, iniciativas que defendem a diversidade na área, os homens representavam 68,3% do quadro de funcionários da área de tecnologia, enquanto as pessoas brancas ocupavam 58,3% dessas vagas. O resultado dessa estrutura assimétrica aparece na sua navegação, como usuária mulher, pela internet.

A cientista da computação Gisele Craveiro, professora de sistemas de informação e do programa de pós-graduação em mudança social e participação política da Escola de Artes, Ciências e Humanidades da Universidade de São Paulo (EACH-USP) explica: “Em primeiro lugar, nós temos que reconhecer que os programas de computadores são produtos culturais, assim como música, filmes e obras de arte. A produção deles é feita a partir de outros conhecimentos, que, em grupos homogêneos, dificilmente preocupações e visões de mundo diferentes serão incluídas”. Dessa forma, opressões como machismo, LGBTfobia e racismo permanecem sendo disseminadas virtualmente.

“Um grupo homogêneo não terá visões de mundo diferentes para incluir na plataforma, o que prejudica desde o design à experiência final do usuário”

Gisele Craveiro, cientista da computação
ALGORITMOS -
Getty/Reprodução

Antes de entender os desdobramentos que esse manejo de informações exerce na internet e, consequentemente, nos hábitos e nas práticas virtuais, é necessário saber como esse conteúdo chega à tela de cada cidadão. A engenheira de software e mestranda em inteligência artificial pela Universidade de São Paulo (USP), Carla Vieira, explica que o termo algoritmo, que pode ser entendido também como inteligência artificial, funciona como uma máquina de decisões, em que nosso comportamento fornece insumos para seu funcionamento. Imagine que você tem um dado em mãos e a missão do algoritmo é saber que número você irá acertar no vigésimo arremesso.

Para isso, uma força-tarefa é criada para não só analisar as suas jogadas, como a de outros jogadores, além de interferências externas, entre outros pontos, em uma velocidade e escala gigantesca. Essa grande análise do perfil dos usuários e das relações que eles apresentam entre si para oferecer resultados mais assertivos é chamada de big data. Mas como a nossa particularidade e os interesses das empresas coexistem nesse jogo?

Para a doutoranda em comunicação na Universidade Federal da Bahia, Thiane Neves, é importante lembrar que a tecnologia não é neutra. “Há motivações financeiras e sociais por trás de cada produto. A narrativa está nas mãos desses grupos e isso se reflete nos algoritmos”, aponta sobre a dinâmica, que pode otimizar muitos processos, mas também exclui os usuários que não fazem parte da construção dessas inteligências virtuais.

68,3% dos cargos na área de tecnologia são preenchidos por homens

“Todo indivíduo possui seu viés, que consequentemente é transmitido na produção de um software. É necessário primeiro reconhecer a existência deles nas plataformas para conseguir justamente realizar um escrutínio das possíveis opressões”, explica Gisele.

Familiarizada com a dinâmica dos algoritmos e de quem as orquestra, é possível entender outra preocupação que as plataformas possuem com seus usuários: a permanência no app ou site. Com as análises de tendências captadas, a ideia é fazer de tudo para que seu dedo deslize sobre a tela o maior tempo possível.

Além de consumir todos os serviços oferecidos e estimular a chegada e permanência de patrocinadoras, Gisele lembra que, neste momento, principalmente quando se clica nas recomendações oferecidas, o usuário passa a reforçar certos padrões dos algoritmos. “Isso pode consolidar o dado”, revela.

ALGORITMOS -
Getty/Reprodução

Educação, a solução do problema

Em seu mestrado, Carla elabora ferramentas para detectar esses algoritmos discriminatórios e, assim, fornecer material embasado para as auditorias conseguirem denunciar as empresas. O tema quase passou despercebido durante a graduação da engenheira. “Não tive nenhuma matéria sobre ética.

Nos últimos dois anos, o grupo de computação social da universidade abriu dois cursos de extensão, um de direito e outro de impacto social da computação na sociedade e na democracia. Há uma luta para transformá-los em disciplinas obrigatórias, o que seria essencial”, considera Carla, que se formou em uma turma de 70 alunos com mais quatro companheiras apenas.

Mulher e negra, Gisele também teve uma experiência universitária e profissional longe de seus semelhantes, mas sempre com apoio dentro de casa. “Por isso temos que estimular as nossas meninas e meninos, brancos, pretos, pardos, indígenas, a serem o que eles querem ser e dar o fundamental acesso à educação e todos os meios para eles desenvolverem competências, habilidades, conhecimentos”, aponta.

Para a cientista, as cotas são pontes essenciais para esse projeto de educação e transformação social. “A diversidade nessa área tecnológica vai fazer com que todos nós ganhemos qualidade na construção desses sistemas, que hoje regem as nossas vidas. Os esforços devem ser ampliados e fortalecidos tanto nos meios acadêmicos como fora deles”, defende Gisele.

Com vontade, dá para mudar

Em um estudo divulgado em março deste ano, pesquisadores da Universidade Pompeu Fabra, na Espanha, e da Universidade de Utrecht, na Holanda, concluíram que o Spotify, maior plataforma de áudio do mundo, privilegia artistas homens por meio desta dinâmica de recomendação. Por nove anos, eles analisaram 330 mil usuários, que ouviram apenas 25% de artistas mulheres.

O resultado alarmante, segundo os pesquisadores, tem origem na recomendação feita pelo algoritmo. A análise mostrou que, em média, as seis primeiras músicas são de homens. Dentro da plataforma, também é possível acompanhar rankings com as canções mais escutadas, com recorte de localização ou gênero musical, por exemplo.

Estar fora ou dentro dessas seleções faz toda a diferença, tanto para os usuários como para os artistas. A cantora Camila Brandão, 25 anos, de São Paulo, viu o alcance da sua primeira música de trabalho lançada, objetos sensíveis, crescer exponencialmente quando entrou para duas playlists editoriais da plataforma, a Indie Brasil e Fresh Finds.

“A divulgação foi bem importante, porque sou artista independente. Pelas minhas redes sociais, não atingiria esses 300 mil ouvintes que acompanham a playlist”, explica a cantora, que também se questiona sobre as listas segmentadas por identidade de gênero. “É válido, mas o ideal é que buscassem de forma orgânica”, reflete.

A compositora demorou cerca de cinco anos para se sentir segura com o seu trabalho a ponto de divulgá-lo em uma plataforma de streaming. “Tinha dificuldade de me reconhecer como mulher artista, porque há uma demanda estética, de figurino e dança, que não acontece na mesma proporção com os homens”, afirma.

Assim como a criação de playlists editoriais, as plataformas podem e devem ajustar seus algoritmos para frear a desigualdade na internet. Os pesquisadores do estudo do Spotify provaram isso ao rearranjar os dados do programa em uma simulação. Com a iniciativa, que ainda é escassa nas empresas de tecnologia, o desempenho das artistas atingiu posições mais próximas às dos homens no ranking.

Carla aponta que, na prática, as empresas sabem dessa realidade, mas dificilmente mudam seus arranjos de programação. Ao ser questionado sobre o impacto do algoritmo na experiência de mulheres e pessoas não brancas, a plataforma se posicionou com a seguinte nota: “O Spotify leva a responsabilidade algorítmica muito a sério e estamos trabalhando para abordar este tópico com uma pesquisa focada em uma iniciativa de educação para prevenir o viés algorítmico não intencional. O Spotify financiou o estudo da Escola de Comunicação e Jornalismo Annenberg, na Universidade do Sul da Califórnia, nos últimos anos, e criou iniciativas e programas internos para apoiar mulheres criadoras, entre eles o EQUAL, o Sound Up e o Escuta as Minas. Reconhecemos que ainda há trabalho a ser feito e o Spotify está comprometido em fazer parte de uma solução mais ampla do setor, compartilhando ativamente nossas melhores práticas e aprendendo com os outros.”

Continua após a publicidade

Territórios ignorados

Nascida em Belém do Pará, Thiane, que analisa, no doutorado, o ciberativismo de mulheres negras em seu estado, deu início a um estudo neste ano sobre a representação da região amazônica nas redes sociais e nos sites de busca.

“O interesse surgiu porque sou uma pessoa da Amazônia e, como ativista, quis entender como a internet nos apresenta. A primeira hipótese, que foi confirmada, é que continuamos aparecendo da mesma forma que as primeiras expedições cientificas, no século 16, retratavam: vazio demográfico, território não urbanizado e povos indígenas em condições de subumanidade”, explica a cientista, que analisou mosaicos de resultados no Instagram, no Google e no site de busca AlsoAsked.

ALGORITMOS -
Getty/Reprodução

Como se trata de uma pesquisa imagética, Thiane não analisou legenda e interações. “As imagens à disposição reforçam o estereótipo do exótico ao destacar apenas indivíduos isolados em uma canoa, por exemplo. Esses algoritmos alimentam uma imagem racista do território e não entregam os conteúdos de ativistas da linha de frente de movimento indígena e negro, ainda que eu siga e interaja com todos eles”, denuncia a paraense.

O preconceito territorial na tecnologia também é combatido por Carla com a comunidade virtual PerifaCode, que apoia pessoas periféricas que atuam ou desejam trabalhar na área. “Nós damos suporte com bolsas para cursos, sorteio para participar de eventos, contato com recrutadores, plantões de dúvidas e mentoria para dar um caminho a esses profissionais. Além disso, também realizamos eventos em empresas, em que os integrantes podem trocar ideias e fortalecer o networking”, explica a engenheira, que mora em Ermelino Matarazzo, periferia de São Paulo.

Usuários atentos

Os usuários, ainda que não tenham os mesmos recursos que os pesquisadores, também testam o funcionamento das redes em que navegam. Em 2020, experiências com o Twitter revelaram que a plataforma seguia uma lógica racista. Ao publicar imagens de pessoas brancas e negras em diversas combinações, o sistema de inteligência artificial destacava a figura do indivíduo branco, sempre. A repercussão fez com que a empresa do passarinho azul fizesse testes internos.

O erro foi comprovado e assumido em uma declaração da diretora de engenharia de software da empresa, Rumman Chowdhury. A análise levantou os seguintes dados: o recorte das imagens favorecia em 4% pessoas brancas comparado às negras; entre homens, a diferença foi de 2% de destaque para os brancos, enquanto que, para as mulheres, a discrepância bateu 7%.

Além do racismo, o algoritmo se mostrou machista também, já que, na comparação entre homens e mulheres, o sexo masculino foi privilegiado em 8% das combinações. O problema desse déficit na programação foi solucionado este ano, em maio, com a mudança do sistema, que mantém os registros sem cortes, tanto para usuários do sistema Android como da Apple.

“Me formei em uma turma de 70 pessoas com apenas mais quatro mulheres”

Carla Vieira, engenheira de software

No Instagram, em dezembro de 2020, a criadora de conteúdo Sá Ollebar, que é negra, fez uma série de publicações na rede com imagens de pessoas brancas. As novas publicações, segundo as métricas disponíveis no perfil de Sá, tiveram um crescimento não só no engajamento, como na entrega do conteúdo. “Não sei se isso que fiz foi tacar fogo na minha própria pele ou se vai realmente mudar algo, nem consigo pensar nesse momento”, desabafou a criadora de conteúdo no seu perfil na época.

Em janeiro deste ano, outra influenciadora negra relatou um episódio de racismo, que aconteceu no Google. A plataforma de pesquisa mostrava uma foto de Sah Oliveira como resultado de pesquisa pelo termo “cabelo feio”.

Na época, a CLAUDIA, um porta-voz afirmou que a imagem da influenciadora aparecia em uma matéria que discutia o preconceito contra cabelos crespos, o que gerava a associação ao termo, presente na matéria. Ainda assim, a empresa afirmou que vem “trabalhando ativamente para melhorar esses tipos de resultados e garantir que todas as pessoas e comunidades possam encontrar resultados úteis no Google Imagens”.

Para Gisele, os testes feitos pelos consumidores usam indícios que estão facilmente à disposição, mas o funcionamento da plataforma normalmente é bem oculto. “Os sistemas dessas grandes corporações costumam ser fechados e nós não temos acesso nem ao código fonte. Por isso nos preocupamos tanto com a transparência e a accountability, que, em português, seria uma prestação de contas de como é feita a tomada de decisão dos algoritmos. Com esses pontos, poderíamos fazer testes de outras naturezas para identificar os vieses responsáveis pela escolha de determinada imagem, por exemplo”, diz.

A cientista entende que há uma tomada de consciência por parte do setor privado em relação a essa demanda, uma vez que as empresas não querem se atrelar a práticas “eticamente indefensáveis”. Já no setor público, a regulamentação da inteligência virtual – que conta com um projeto de lei de autoria do senador Styvenson Valentim (PODEMOS) em tramitação no Senado Federal – é vista como ferramenta crucial para a segurança dos usuários e garantia de diversidade nas empresas.

A União Europeia já implementou multas de até 6% do faturamento global para empresas que desrespeitarem as recomendações das normas de boas práticas de tecnologia artificial.

 

Como furar a bolha dos algoritmos

Medir forças com o big data e os algoritmos é uma tarefa árdua se você é um usuário das redes. Porém, algumas medidas podem trazer mais reconhecimento e identificação com os conteúdos da sua timeline. Carla dá um exemplo: enquanto passava pela transição capilar, deu uma repaginada nas contas que seguia no Instagram.

“Se não for saudável, você tem que fazer uma limpa. Além disso, é importante engajar o conteúdo, comentando e, principalmente, salvando e enviando para alguém”, lembra a engenheira, que passou a observar mais pessoas com cabelos cacheados e crespos durante suas navegações.

“Há humanidade por trás do código. A tecnologia não deve ser neutra, mas democrática”

Thiane Neves, doutoranda em comunicação na UFBA

Já Camila, que usa o Instagram como uma ferramenta de trabalho, convidava seus seguidores para aderirem ao pré-save da sua música, um tipo de alerta para o lançamento nas plataformas de áudio. Segundo a engenheira de dados, a experiência no Spotify pode ficar mais diversa com a curtida e criação de playlists próprias com seus artistas preferidos.

Para ver algum vídeo que você não quer ser impactado com conteúdos semelhantes depois, opte pela navegação anônima no YouTube. Como vimos, o mundo por trás dos algoritmos ainda é bem velado, o que faz com que não haja uma fórmula exata para destruir padrões, mas a busca por um consumo mais saudável e plural já pode trazer mudanças notáveis às suas redes.

Da parte das empresas, principalmente as gigantes, conhecidas como big techs, Thiane sugere que as principais ferramentas de mudança sejam o diálogo e o compromisso social.

“As big techs precisam se dedicar a não pensar em só alimentar seus sistemas, mas em erradicar suas fórmulas nocivas. Para reduzir essas violências, é necessário conversar com que está à margem desses processos narrativos. Há uma humanidade por trás de cada código, que deve ser recuperada, porque a tecnologia não deve ser neutra, mas democrática”, defende.

  • Continua após a publicidade
    Publicidade