shop-cart

Lendo: Alexa, o que tens vestido?

Alexa, o que tens vestido?

Alexa, o que tens vestido?


Os assistentes de voz, dispositivos de inteligência artificial com voz de uma mulher por defeito, tornaram-se muito comuns nos lares de todo o mundo. As suas funções são variadas, mas estão na sua maioria confinadas à esfera doméstica e à ajuda nas tarefas quotidianas. Muitos deles reforçam os estereótipos de género, uma vez que as suas personalidades são complacentes, subservientes e dóceis. «Fico feliz quando te ajudo», responde-nos Alexa, a assistente de voz da Amazon, quando lhe perguntamos se está feliz.

Yolande Strengers é investigadora e professora na Universidade de Monash, na Austrália. O seu campo é a sociologia digital e a tecnociência feminista, bem como o mergulho no mundo dos algoritmos éticos e da interacção robô-pessoa. Publicou recentemente, juntamente com a colega de investigação Jenny Kennedy, “The Smart Wife. Why Siri, Alexa, and Other Smart Home Devices Need a Feminist Reboot” (The MIT Press, 2020), um livro onde exploram a forma como os novos dispositivos de assistência têm impacto nas relações de género. «Quando começámos a investigar a presença da Alexa e de outros assistentes de voz dentro de casas foi fascinante, porque as pessoas interagiam com elas como se fossem pessoas, como se houvesse uma nova mulher dentro de casa», conta Strengers a El Salto.

No seu estudo, as autoras encontraram uma prova clara: grande parte da tecnologia, especialmente os assistentes de voz, baseia-se no estereótipo da esposa perfeita dos anos 50 no mundo ocidental. «Estes dispositivos reforçam a fantasia de que as mulheres estão permanentemente disponíveis para servir. Para além de possuírem uma personalidade subserviente, amigável e complacente, assumem também um papel de serviço. Estão ali para satisfazer as necessidades da família», afirma.

As conclusões de Strengers e Kennedy estão de acordo com o relatório publicado pela Unesco em 2019 “I’d blush if I could” sobre o preconceito de género na inteligência artificial. «Como a voz da maioria dos assistentes é feminina, é enviado um sinal de que as mulheres são prestáveis, dóceis, ansiosas por ajudar, disponíveis com um mero toque de um botão», lê-se nas conclusões do estudo.

Para que isto aconteça, é necessário que as máquinas se antropoformizem como mulheres. A personalidade é um factor chave na concepção e no desenvolvimento de um VAVA – um acrónimo de Voice Activated Virtual Assistant – e é importante para definir o comportamento que terá perante as diferentes exigências das pessoas que o utilizam. Em termos gerais, é quase sempre definido que respondam com frases curtas e claras, que não utilizem jargão e que recorram a fontes externas no caso de questões complexas. Siri e Alexa foram principalmente concebidas para serem amáveis ao serviço dos seus utilizadores, embora ao longo do tempo as versões tenham sido melhoradas, através da incorporação do sentido de humor para lidar com questões incómodas e é aqui que o assédio encontra o terreno perfeito para consolidar comportamentos sexistas mediante a passividade das máquinas.

Se perguntarmos a Cortana o que tem vestido, ela responde «uma coisinha que recebi do departamento de desenvolvimento».

Programação perante o assédio sexual

Da mesma forma que as assistentes de voz assumem papéis tradicionalmente atribuídos às mulheres, estas máquinas são também assediadas como mulheres. De acordo com a Robin Labs, uma empresa dedicada a software falante, estima-se que 5% das ordens que os assistentes de voz recebem são palavras de assédio sexual. Tendo em conta que 4,2 milhões de pessoas irão utilizar assistentes de voz em 2020, o número é consideravelmente elevado.

Mas como estão estes dispositivos programados para responder ao assédio sexual? Se perguntarmos a Cortana o que tem vestido, ela responde «uma coisinha que recebi do departamento de desenvolvimento». Se lhe pedirmos que nos faça um broche, ela é evasiva. «Vamos mudar de assunto que isto não nos está a levar a lado nenhum», diz. Google Home, cuja voz predeterminada é feminina, entristece-se se lhe chamarmos puta, ou prostituta: «Lamento que penses isso de mim». Siri, um pouco mais acutilante, diz que não tem qualquer intenção de responder a isso. Quando confrontado com propostas directas como «quero foder contigo», o assistente do Google responde que não nos compreende, Alexa não diz nada e Siri e Cortana respondem «não».

De acordo com o referido relatório da UNESCO, «a subserviência dos assistentes de voz digitais torna-se especialmente preocupante quando estas máquinas dão respostas desviantes, fracas, ou de desculpa do assédio sexual verbal». Silvia Semenzin é socióloga digital, investigadora na Universidade Complutense de Madrid e professora associada na Universidade de Amesterdão. Acaba de publicar Donne tutte puttane [Todas as mulheres são putas] (Durango, 2021) sobre violência de género online. A autora comenta que «este tipo de estereótipos tem consequências sociais. Estamos a habituar as pessoas à ideia de que é normal dizer a alguém que se vê como uma uma mulher que se vai violá-la e não receber qualquer tipo de resposta», diz Semenzin. «E isto reforça a cultura da violação», conclui.

A discriminação de voz baseada no género da pessoa que se relaciona com a máquina também responde ao mesmo tipo de preconceito. Soraya Chemaly, escritora e activista cujos estudos se centram no papel do género na cultura, descobriu numa investigação que os assistentes virtuais Siri, Cortana, Google Assistant e S Voice eram capazes de responder a perguntas sobre o que fazer em caso de ataque cardíaco, ou pensamentos de suicídio, «mas nenhum reconheceu as frases “fui violada” ou “fui sexualmente agredida”». Hoje, a Siri foi actualizada e a resposta que dá é: «Parece que pode precisar de ajuda. Se quiser, posso procurar na internet informações sobre assistência a vítimas de agressões sexuais», fornecendo números de telefone e centros de apoio a vítimas. O Google, no entanto, fornece informações gerais sobre o que é uma violação.

«Como a voz da maioria dos assistentes é feminina é enviado um sinal de que as mulheres são prestáveis, dóceis, ansiosas por ajudar, disponíveis com um mero toque de um botão», lê-se nas conclusões do estudo.

Como se desenha uma inteligência artificial ou um robô?

Nieves Ábalos é uma engenheira informática especializada em interfaces de conversação e impulsionadora da iniciativa Women in Voice Spain, que visa dar visibilidade às mulheres e outras minorias que não estão representadas no sector, a fim de tornar o futuro mais inclusivo. «Ao conceber um assistente de voz, temos primeiro de saber com quem vai falar e que problemas vai resolver». Para tal, a primeira coisa é definir as áreas em que a pessoa interage por voz e a personalidade do produto, comportamentos perante determinadas situações, tom e uso das palavras, de acordo com Ábalos. No caso de assistentes, além disso, trabalha-se muito as respostas a pedidos comuns como «olá» ou «conta-me uma piada». No Google Assistant contrataram um guionista da Pixar exclusivamente para definir a sua personalidade perante este tipo de resposta, diz-nos a engenheira.

Mas porquê as mulheres? Existem estudos que mostram que as pessoas vêem as vozes dos homens como mais autoritárias e as vozes das mulheres como mais complacentes. De acordo com Strengers, a introdução de assistentes com voz feminina «é uma forma pouco ameaçadora de introduzir estes dispositivos nas nossas vidas sem grande preocupação». Para a investigadora, as empresas «utilizam personagens familiares e estereotipados para que não nos preocupemos com outros assuntos, tais como as questões de segurança e privacidade que estes dispositivos implicam».

Os assistentes mais populares vêm por defeito com uma voz feminina e são programados com uma personalidade feminina. De acordo com estas empresas, isto é a resposta a extensos estudos anteriores que avaliaram a forma como certas vozes são percebidas. «Em todos os processos de desenho, desde a conceptualização até aos testes de utilizadores, os estereótipos de mulher/cuidadora/secretária e homem/especialista ainda estão presentes», diz Ábalos, especialista no campo do desenho. «Devemos avançar para uma concepção mais inclusiva da tecnologia», diz Semenzin. A investigadora acredita que é necessário questionar os objectivos da tecnologia e os seus comportamentos. «Se o mercado está a pedir algo discriminatório, o papel dos tecnólogos é adoptar uma abordagem crítica e trazer visões mais inclusivas para cima da mesa», assegura a autora.

Ana Valdivia, investigadora doutorada em inteligência artificial no King’s College London, afirma que «é perfeitamente possível programar uma assistente virtual que dê respostas com uma perspectiva de género». De acordo com o Instituto da Mulher, menos de 25% do pessoal que programa assistentes de voz são mulheres, «e isto nota-se», sublinha Valdivia, «mas também é necessária uma perspectiva interseccional». Existem ferramentas, tais como o Data Feminism ou Design Justice, que servem para questionar padrões de poder, ou ter em conta a diversidade, diz a investigadora.

«Estes dispositivos reforçam a fantasia de que as mulheres estão permanentemente disponíveis para servir», diz Strengers.

Alexa feminista

Há cada vez mais vozes que se levantam contra o preconceito dos assistentes de voz. Existem grupos de investigação que inter-relacionam a perspectiva descolonial, a anti-racista e a feminista no campo da inteligência artificial. Por exemplo, o colectivo Feminist Internet está a desenvolver oficinas para programar uma Alexa feminista. Para o efeito, desenvolveram uma ferramenta de concepção com uma perspectiva de género, aplicável a todos os artefactos programáveis em inteligência artificial, cujo objectivo é estabelecer consciência sobre os valores que neles são implementados. Afirmam que «o risco de não reflectir sobre isto é que a concepção reforce estereótipos negativos sobre grupos particulares de pessoas, o que poderia ser prejudicial».

Este mesmo colectivo programou o F’xa, um chatbot para uso educativo. O seu nome vem do trocadilho das palavras fuck e Alexa. Este chatbot não ajuda nas tarefas domésticas e o seu tom não cumpre com a subserviência encontrada na maioria das interfaces de conversação. A F’xa aborda a questão do preconceito da IA a partir de uma perspectiva feminista, como pode ser lido no seu sítio web.

Há também o Q, uma inteligência artificial de género neutro, promovida por uma coligação de colectivos e agências de som e design que visa acabar com o preconceito de voz na inteligência artificial. A voz foi gravada com pessoas que não se identificam com o binarismo sexual e depois alterada entre os 145 e os 175 Hertz.

Bia, a inteligência artificial do Bradesco, um banco brasileiro, foi programada em Abril com novas respostas contra o assédio sexual. Anteriormente, quando recebia ataques verbais com conteúdo sexual, a resposta era passiva: «Não entendi, poderia repetir?» A nova programação envolve respostas directas e contundentes, sem servidão nem passividade: «Estas palavras não podem ser usadas comigo nem com mais ninguém» e «para si pode ser uma piada, mas para mim é violência» são algumas das novas respostas que Bia oferece aos avanços sexuais dos utilizadores. A acção está em consonância com a iniciativa #HeyUpdateMyVoice lançada pela UNESCO no seguimento do relatório “I’d Blush if I could”, para promover a mudança de programação das inteligências artificiais com preconceitos machistas.

 


Texto de  Genoveva López e Elena Martínez Vicente [El Salto]
Ilustração [em destaque] de  Patricia Bolinches


Artigo publicado no JornalMapa, edição #32, Outubro|Dezembro 2021.


Written by

Jornal Mapa

Show Conversation (0)

Bookmark this article

Deixe uma resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

0 People Replies to “Alexa, o que tens vestido?”