Os estereótipos de gênero encontrados nas IAs

Por Camila Cruz*

O que vem à sua cabeça quando pensa nas assistentes virtuais Bia (Bradesco), Cris (Crevisa), Lu (Magazine Luíza), Alexa (Amazon), Siri (Apple), Cortana (Windows) e Nat (Natura)? Muito certamente você pensará ou na marca ou na imagem feminina associada a essas assistentes virtuais. Não é de hoje que as inteligências artificiais recebem nomes ou características humanas. Até na ficção, como em “2001: Uma Odisséia no Espaço” de 1968, temos HAL 9000, e tantos outros exemplos podem ser encontrados.

E assim como a vida imita a arte, não há como negar o sucesso que as IAs fazem hoje em dia. Duas pesquisas distintas realizadas pela Ilumeo apresentaram resultados interessantes sobre o uso dessas tecnologias, como o crescimento de 47% no uso de assistentes virtuais durante a pandemia, e a percepção positiva por 60% dos brasileiros quando o assunto são agentes de recomendação.

Não é para menos, afinal, elas estão conosco a todo momento, e podem tornar decisões e tarefas muito mais fáceis e rápidas, sendo que, um a cada cinco indivíduos até mesmo permitem que essas IAs tenham total autonomia sobre as escolhas de produtos. E isso acontece por um motivo bem simples: identificação com o rosto ou personalidade daquela IA que passou por um processo de antropomorfização, isso é, de conseguir características que a façam se passar por uma pessoa.

Diante desse cenário em que o entendimento de humanos e robôs fica mais confuso a cada novo avanço tecnológico, os assédios e outras problemáticas machistas, vêm sendo direcionadas às interfaces – que são em sua maioria representadas por mulheres. Em maio de 2019 a Unesco já havia mencionado o tema com o estudo “I’d Blush If I Could” (Se pudesse, eu ficaria corada), que trouxe luz ao assunto ao analisar o problema sofrido pelas assistentes de voz.

A queridinha do momento, a Sam, da Samsung, que passou por um redesign no começo do mês de junho deste ano, e fez sucesso nas redes sociais principalmente por sua aparência, já vêm sofrendo com comentários de conotação sexual – algo que também pode ser encontrado por outros perfis de empresas que têm avatares femininos. Tudo isso leva a questão: porque existe uma discrepância tão grande entre as IAs masculinas e femininas?

Quando analisamos as preferências dos usuários que utilizam os agentes de recomendação, vemos que mais da metade dos respondentes demonstraram predileção por agentes do perfil feminino (51%) em detrimento daqueles de perfil masculino (46%). E isso talvez não seja apenas coincidência.

De acordo com uma entrevista de Saniye Gülser Corat, ex-diretora da Unesco para a Igualdade de Gênero, concedida à Time, vozes e personalidade femininas muitas vezes são associadas ao ato de servir e ser dócil, ao invés de liderar. Praticamente colocando às IAs em uma posição similar ao que se via as mulheres de carne e osso durante os anos 50 e 60.

Sobretudo, o ponto-chave dessa questão também está na diversidade – ou falta dela – quando se fala do setor de TI. Isso porque, IAs são programadas a partir das percepções daqueles que as criam, ou seja, percepções preconceituosas quanto a gênero, etnia ou sexualidade muitas vezes podem ser traduzidas com comportamentos como a subserviência das IAs femininas.

Segundo o relatório da Unesco, pelo menos 90% dos profissionais de TI responsáveis pelo comportamento das IAs são homens. Por isso, assim como já recomendado pela Unesco, o ideal é realizar ações como a do Bradesco, e programar essas tecnologias de forma que respondam e desencorajem comportamentos nocivos, como assédios.

*Camila Cruz atua como Business Unit Manager na empresa de Consultoria de Data Science, Ilumeo