automatização

Pesquise 'tranças bonitas' e 'tranças feias' no Google: um caso de racismo algorítmico - Por Tiago Rogero

Trata-se de um caso de “racismo algorítmico”, explica o professor Tarcízio Silva, que monitora e estuda casos assim para sua pesquisa de doutorado na Universidade Federal do ABC — ele descobriu, por exemplo, que o recurso de identificação de imagens do Google também costuma “confundir” cabelos afro com... perucas

Faça um teste. Pesquise “tranças bonitas” na busca de imagens do Google. Depois, digite “tranças feias”. Sim. Na primeira, aparecem fotos de mulheres brancas. Na segunda, de mulheres negras.

Trata-se de um caso de “racismo algorítmico”, explica o professor Tarcízio Silva, que monitora e estuda casos assim para sua pesquisa de doutorado na Universidade Federal do ABC — ele descobriu, por exemplo, que o recurso de identificação de imagens do Google também costuma “confundir” cabelos afro com… perucas.

É assim: a escolha das fotos que aparecerão é feita pelo tal “algoritmo” do Google — um sistema automatizado. E ele toma a decisão com base numa porção de informações (como o comportamento dos usuários). “No caso das tranças, o buscador não apenas reflete percepções da sociedade, mas também pode intensificá-las ao repeti-las em massa sem responsabilidade. Se uma criança negra vê esses resultados continuamente, sem ver outros conteúdos positivos, isso gera sentimentos negativos sobre sua estética e autoestima”, disse Tarcízio.

Na maioria dos casos, explicou o professor, os estudos mostram que os problemas não são claramente “intencionais”. “Mas pecar por omissão pode ser tão negativo quanto por intenção”.

Segue…

Abaixo, leia a íntegra das respostas de Tarcízio:

Você considera esse um caso de racismo algorítmico?

Sim. Racismo não se trata apenas de xingamentos horrorosos contra uma minoria. Trata-se também da manutenção de desigualdades estruturadas e microagressões no cotidiano que podem ser resultado de como sistemas automatizados, como buscadores, reagem ao comportamento dos usuários.

No caso que está sendo viralizado, sobre as tranças feias e bonitas, o buscador não apenas reflete percepções da sociedade, mas também pode itensificá-las ao repetir em massa sem responsabilidade. Se uma criança negra, por exemplo, vê estes resultados continuamente, sem ver outros conteúdos positivos, isto gera sentimentos negativos sobre sua estética e autoestima. Há vários pesquisadores e pesquisadoras em universidades internacionais, como Joy Buolamwini, Safiya Noble, Frank Pasquale, Cathy O’Neill, Sil Bahia, Sérgio Amadeu que tratam de impactos sociais dos algoritmos há anos, mas agora o debate se populariza.

As tecnologias não são neutras. Mas isto não quer dizer que são negativas ou positivas. Significa que podemos gerar esforços coletivamente para criar ambientes favoráveis a todas as pessoas. Algumas plataformas digitais já possuem esforços neste sentido. Microsoft e IBM, por exemplo, já reagiram a pesquisas sobre casos anteriores. É importante debater tudo isto entre desenvolvedores, sociedade, jornalistas e afins.

Além da tese e artigos, minha pesquisa de doutorado busca popularizar estes casos para debate. Neste site há uma timeline de casos de racismo algorítmico que é atualizada continuamente.

O que é racismo algorítmico?

O racismo algorítmico trata de entender como sistemas regidos por algoritmos podem tomar decisões negativas contra um grupo racial específico. Há casos mapeados em áreas claramente muito graves, como decisões judiciais automatizadas ou reconhecimento facial que podem gerar, por exemplo, a prisão injusta de uma pessoa inocente. Isto mostra a necessidade, já avançada em alguns países, de permitir a “auditoria algorítmica” para que sistemas contratados por governos sejam justos e não possam ser usados para fins nocivos.

Mas na comunicação também há problemas possíveis para milhões de pessoas, uma vez que hoje nós passamos a maior parte do nosso tempo em ambientes como Google e Facebook. Assim como acontece com a publicidade tradicional, a invisibilidade ou representação nociva de grupos minorizados deve ser debatida pois prejudica os grupos citados, a sociedade e a própria economia e consumo.

Na maioria dos casos, os estudos mostram que os problemas não são claramente “intencionais”. Não é um desenvolvedor racista, geralmente, que vai incluir aquelas decisões que prejudicarão alguém. Mas pecar por omissão pode ser tão negativo quanto por intenção. Por isto tanto a pressão pela transparência das plataformas quanto falar sobre casos como este é importante para gerar o debate que vai ajudar os próprios criadores destes ambientes a melhorar seus sistemas. O campo da inteligência artificial, de modo amplo, está desenvolvendo modos de treinar melhor os sistemas e desenhar melhor as interfaces para isto, com apoio também das humanidades, artes, sociólogos e jornalistas.

 

* Este texto não reflete, necessariamente, a opinião do Polêmica Paraíba

Fonte: O Globo
Créditos: O Globo