Inteligência artificial para reconhecer pessoas traz riscos à população LGBTI, diz pesquisadora

Na Inglaterra, o casamento do Príncipe Harry e de Meghan Markle fez história — por vários motivos. Pela primeira vez no telejornalismo, uma emissora de notícias, a Sky News, usou inteligência artificial (IA) para identificar ao vivo os convidados do matrimônio real. Mas para Cynthia Weber, professora de Relações Internacionais e Estudos de Gênero na Universidade de Sussex, a utilização do software de reconhecimento facial, embora tenha funcionado como um truque elegante, causa preocupação.

Cynthia Weber participou de evento no UNAIDS para lembrar Dia Internacional contra a LGBTIfobia. Foto: UNAIDS

Cynthia Weber participou de evento no UNAIDS para lembrar Dia Internacional contra a LGBTIfobia. Foto: UNAIDS

Na Inglaterra, o casamento do Príncipe Harry e de Meghan Markle fez história — por vários motivos. Pela primeira vez no telejornalismo, uma emissora de notícias, a Sky News, usou inteligência artificial (IA) para identificar ao vivo os convidados do matrimônio real. Mas para Cynthia Weber, professora de Relações Internacionais e Estudos de Gênero na Universidade de Sussex, a utilização do software de reconhecimento facial, embora tenha funcionado como um truque elegante, causa preocupação.

“Há quem afirme que essa tecnologia pode identificar a orientação sexual de uma pessoa”, disse a pesquisadora durante evento na véspera do Dia Internacional contra a Homofobia, Transfobia e Bifobia (17), em Genebra, na sede do Programa Conjunto das Nações Unidas sobre HIV/AIDS (UNAIDS).

Cynthia se referia a um estudo da Universidade de Stanford que analisou mais de 35 mil imagens de pessoas brancas sem deficiências físicas, de 18 a 40 anos. As fotos eram de usuários de um site norte-americano de relacionamentos. Os cientistas compararam as orientações sexuais fornecidas por sistemas de inteligência artificial com as informações encontradas nos perfis pessoais. A pesquisa concluiu que o dispositivo de reconhecimento facial pode determinar a orientação sexual de alguém com uma precisão até 30% mais alta do que os humanos.

A especialista lembrou que organizações dos direitos LGBTI rotularam a análise como pseudocientífica ou “ciência sucateada” — o estudo usou uma amostragem enviesada em termos de raça e idade e equiparou orientação sexual com atividade sexual.

“O resultado é que o algoritmo de inteligência artificial do estudo só encontra o que foi programado para encontrar: estereótipos sobre heterossexuais, gays e lésbicas,” explicou Cynthia. Ela acredita que conhecimentos sobre inteligência artificial podem gerar oportunidades em muitos campos, mas vê muito mais riscos e perigos do que vantagens para a população LGBTI.

Quando a IA é combinada à tecnologia de reconhecimento facial e a um algoritmo de orientação sexual, pelo menos quatro questões surgem. Primeiro, a privacidade. Em legislações domésticas e no direito internacional, o rosto de uma pessoa não é protegido por leis de privacidade. Isso permite que as faces sejam escaneadas e lidas por todos, desde governos até a Sky News.

Em segundo lugar, precisão. “Em um mundo além do casamento real, a tecnologia de inteligência artificial e reconhecimento facial está longe de ser perfeita, mesmo quando tenta apenas combinar nomes com rostos. E muito menos quando tenta combinar orientações sexuais presumidas com rostos,” explicou Cynthia.

Para a pesquisadora, a preocupação principal é o conhecimento. Como um algoritmo pode saber mais sobre a sexualidade de alguém do que a própria pessoa? Cynthia considera que a abordagem binária de códigos e dados legíveis por computadores não é compatível com o vasto espectro do gênero e da sexualidade.

Os propósitos a que servem as informações de IA também suscitam inquietações. “Deixe a Sky News usá-la para comentários sobre casamentos, mas e se a polícia as utilizar em países onde a homossexualidade é criminalizada?”, questionou Cynthia.

A escritora entende que a IA influencia a imaginação e impulsiona a inovação, mas acredita que a categorização de pessoas geralmente provoca mais danos que benefícios. “As pessoas precisam se certificar de que a inteligência artificial seja orientada pela ética e não, apenas pela tecnologia”, concluiu.

O evento no escritório da agência da ONU foi organizado com a Associação Suíça LGBTI Pride@Work e a UN Globe, uma organização LGBTI das próprias Nações Unidas.