Tecnologia de reconhecimento facial -De acordo com uma nova pesquisa da Universidade do Colorado (CU), os serviços emergentes de reconhecimento facial costumam descaracterizar indivíduos trans e não-binários. Ou seja para entendermos melhor o que esta acontecendo. Quando máquinas de reconhecimento facial detectam um rosto ele distingue, homem e mulher, até aí tudo bem. Porém o grande problema esta quando estas maquinas detectam um rosto de pessoa trans. As maquinas reconhecem o trans e joga para masculino ou feminino dependendo do que o trans se parece mais. Mas o grande problema esta justamente que as maquinas estão errando o gênero da maioria dos trans, ou seja, para alguns a maquina coloca como homem, já para outros mulher e acaba gerando inúmeros erros. Pois para muitos, se a maquina conseguisse capturar o gênero de nascimento de um trans, não teria problema, o problema é justamente, colocar para um trans mulher, já para outro homem, sem nenhum ato congruente.
O estudo chega em um momento em que as tecnologias de análise facial, que usam câmeras ocultas para avaliar e caracterizar certos recursos de um indivíduo, estão se tornando cada vez mais predominantes. Por exemplo, é usado em aplicativos como aplicativos de namoro em smartphones e nos sistemas de vigilância policial mais controversos.
Fonte: E and It / Por Siobhan Doyle – Traduzido por Mídia Intessante
Com uma breve olhada em um único rosto, o software de reconhecimento facial emergente agora pode categorizar o sexo de muitos homens e mulheres com alta precisão. No entanto, um estudo da Universidade do Colorado Boulder, EUA, descobriu que, se um rosto pertence a uma pessoa trans ou não-binária, esses sistemas entendem errado seus sexos mais de um terço do tempo.
“Descobrimos que os serviços de análise facial tiveram desempenho consistentemente pior em indivíduos trans e eram universalmente incapazes de classificar sexos não binários”, disse Morgan Klaus Scheuerman, estudante de doutorado no departamento de Ciência da Informação da universidade. Embora existam muitos tipos diferentes de pessoas por aí, esses sistemas têm uma visão extremamente limitada de como é o gênero”.
Pesquisas anteriores também sugeriram que essa tecnologia tende a ser mais precisa ao avaliar o sexo de homens brancos, mas frequentemente identifica erroneamente mulheres de cor . Um estudo do MIT descobriu que as taxas de erro na determinação do sexo de mulheres de pele escura eram 20,8%, 34,5% e 34,7%.
“Sabíamos que havia vieses inerentes a esses sistemas em torno de raça e etnia e suspeitávamos que também haveria problemas em relação ao gênero”, disse o autor sênior Jed Brubaker, professor assistente de Ciência da Informação. “Partimos para testar isso no mundo real.”
Como parte do estudo, os pesquisadores coletaram cerca de 2.450 imagens de rostos do Instagram, cada uma delas rotulada por seu proprietário com uma hashtag indicando sua identidade de gênero.
A equipe dividiu as imagens em sete grupos de 350 imagens (#mulheres, #man, #transman, #transman, #agender, #agenderqueer, #nonbinary), analisadas por quatro dos maiores provedores de serviços de análise facial: IBM , Amazon, Microsoft e Clarifai.
Em média, todos os quatro sistemas foram mais precisos com fotos de mulheres cisgênero (aquelas que nasceram do sexo feminino e se identificam como mulheres), acertando o sexo em 98,3% do tempo. Eles também categorizaram os homens cisgêneros com precisão 97,6% das vezes.
No entanto, os homens trans foram erroneamente identificados como mulheres até 38% das vezes e aqueles que se identificaram como agender, gênero ou não-binário – o que indica que não se identificam como homens nem mulheres – foram identificados erroneamente em 100% das vezes.
Após os resultados, Brubaker argumentou: “Esses sistemas não conhecem outra língua além de masculino ou feminino; portanto, para muitas identidades de gênero, não é possível que elas estejam corretas”.
O estudo também sugere que esses serviços identifiquem o gênero com base em estereótipos desatualizados. Essa suposição foi comprovada quando Scheuerman, que é homem e tem cabelos longos, enviou sua própria imagem para todos os quatro sistemas e descobriu que metade o classificava como mulher.
Embora os pesquisadores não pudessem ter acesso aos dados do treinamento – as entradas de imagem usadas para “ensinar” ao sistema a aparência de homens e mulheres – pesquisas anteriores sugeriram que esses sistemas de visão computacional avaliam as características físicas de um indivíduo, como sua posição ocular, plenitude labial, comprimento do cabelo e até roupas.
“Esses sistemas correm o risco de reforçar estereótipos de como você deve ser se quiser ser reconhecido como homem ou mulher. E isso afeta a todos ”, disse Scheuerman.
O mercado de serviços de reconhecimento facial deve dobrar até 2024, à medida que os desenvolvedores de tecnologia trabalham para melhorar a interação homem-robô e direcionar anúncios com mais cuidado aos compradores.
“Eles querem descobrir qual é o seu sexo, para que possam vender algo mais apropriado para ele”, explicou Scheuerman, referindo-se ao exemplo de um shopping center no Canadá que usou uma câmera escondida em um quiosque para conseguir isso.
Brubaker observou que as pessoas se envolvem com a tecnologia de reconhecimento facial todos os dias para acessar seus smartphones ou fazer login em seus computadores e, se esses sistemas tenderem a dar errado a determinadas populações que já são vulneráveis, isso pode ter consequências para o indivíduo.
Por exemplo, um aplicativo de criação de partidas pode marcar alguém para um encontro com o sexo errado, levando a uma situação potencialmente perigosa, argumentou Scheuerman. No entanto, ele também expressou como está mais preocupado com o fato de tais sistemas reafirmarem noções de que pessoas trans não se encaixam na sociedade.
“As pessoas pensam na visão computacional como futurista, mas há muitas pessoas que podem ficar de fora desse futuro chamado”, disse ele.
Os autores acrescentaram que, idealmente, gostariam de ver as empresas de tecnologia se afastarem completamente da classificação por gênero e seguirem rótulos mais específicos, como ‘cabelos longos’ ou ‘maquiagem’ ao avaliar imagens.
“Quando você anda pela rua, pode olhar para alguém e presumir que sabe qual é o sexo deles, mas essa é uma ideia realmente pitoresca dos anos 90 e não é mais como o mundo é”, disse Brubaker. “À medida que nossa visão e nossa compreensão cultural sobre o que é gênero evoluíram, os algoritmos que impulsionam nosso futuro tecnológico não evoluíram. Isso é profundamente problemático. ”