This article was produced by and originally published in Noema Magazine.
Por Adrienne Williams, Milagros Miceli e Timnit Gebru
O entendimento do público sobre inteligência artificial (IA) é em grande parte moldado pela cultura pop — por sucessos de bilheteria como “O Exterminador” e seus cenários catastróficos de máquinas que se tornam descontroladas e destroem a humanidade. Este tipo de narrativa de IA é também o que chama a atenção dos noticiários: um engenheiro do Google afirmando que seu chatbot era senciente estava entre as notícias mais discutidas relacionadas à IA nos últimos meses, chegando até mesmo aos milhões de telespectadores de Stephen Colbert. Mas a ideia de máquinas superinteligentes com sua própria agência e poder de decisão não está apenas longe da realidade — ela nos distrai dos riscos reais para as vidas humanas que envolvem o desenvolvimento e a implantação de sistemas de IA. Enquanto o público é distraído pelo espectro de máquinas sencientes inexistentes, um exército de trabalhadores precarizados está por trás das supostas conquistas dos sistemas de inteligência artificial de hoje.
Muitos desses sistemas são desenvolvidos por corporações multinacionais localizadas no Vale do Silício, que têm consolidado o poder em uma escala que, observa o jornalista Gideon Lewis-Kraus, é provavelmente sem precedentes na história humana. Eles estão se esforçando para criar sistemas autônomos que possam um dia realizar todas as tarefas que as pessoas podem fazer e mais, sem os salários, benefícios ou outros custos associados ao emprego de humanos. Enquanto esta utopia de executivos corporativos está longe da realidade, a marcha para tentar sua realização criou uma subclasse global, realizando o que a antropóloga Mary L. Gray e a cientista social computacional Siddharth Suri chamam de trabalho fantasma: o trabalho humano desvalorizado impulsionando a “IA”.
As empresas de tecnologia que se autodenominaram “baseadas em IA” dependem de trabalhadores precários sob forte disciplina, como etiquetadores de dados, motoristas de entrega e moderadores de conteúdo. Startups estão até contratando pessoas para se fazer passar por sistemas de IA como os chatbots, devido à pressão dos capitalistas de risco para incorporar a chamada IA em seus produtos. Na verdade, a empresa de capital de risco MMC Ventures, com sede em Londres, pesquisou 2.830 startups de IA na União Europeia e descobriu que 40% delas não usavam IA de forma significativa.
Longe das máquinas sofisticadas e sencientes retratadas na mídia e na cultura pop, os chamados sistemas de IA são alimentados por milhões de trabalhadores mal remunerados em todo o mundo, executando tarefas repetitivas sob condições precárias de trabalho. E ao contrário dos “pesquisadores de IA” que recebem salários de seis dígitos nas corporações do Vale do Silício, estes trabalhadores explorados são frequentemente recrutados a partir de populações empobrecidas e recebem tão pouco quanto US$ 1,46/hora líquidos. No entanto, apesar disso, a exploração de mão de obra não é central para o discurso em torno do desenvolvimento ético e da implantação de sistemas de IA. Neste artigo, damos exemplos da exploração do trabalho que impulsiona os chamados sistemas de IA e argumentamos que apoiar os esforços de organização dos trabalhadores transnacionais deveria ser uma prioridade nas discussões relativas à ética da IA.
Escrevemos isto como pessoas intimamente ligadas ao trabalho relacionado à gripe aviária. Adrienne é uma ex-combatente e organizadora de entregas na Amazon que experimentou os danos da vigilância e das cotas pouco realistas estabelecidas pelos sistemas automatizados. Milagros é uma pesquisadora que tem trabalhado de perto com trabalhadores de dados, especialmente com anotadores de dados na Síria, Bulgária e Argentina. E Timnit é uma pesquisadora que enfrentou represálias por descobrir e comunicar os danos dos sistemas de IA.
Tratando os trabalhadores como máquinas
Muito do que é descrito atualmente como IA é um sistema baseado no aprendizado estatístico de máquinas e, mais especificamente, no aprendizado profundo através de redes neurais artificiais, uma metodologia que requer enormes quantidades de dados para “aprender”. Mas, há cerca de 15 anos, antes da proliferação do trabalho precário, os sistemas de aprendizado profundo eram considerados meramente uma curiosidade acadêmica, confinada a alguns poucos pesquisadores interessados.
Em 2009, porém, Jia Deng e seus colaboradores lançaram o conjunto de dados ImageNet, o maior conjunto de dados de imagem rotulado na época, consistindo de imagens raspadas da Internet e rotuladas através da recém-introduzida plataforma Mechanical Turk da Amazon. A Amazon Mechanical Turk, com o lema “inteligência artificial”, popularizou o fenômeno do “trabalho de multidão”: grandes volumes de trabalho demorados divididos em tarefas menores que podem ser rapidamente completadas por milhões de pessoas em todo o mundo. Com a introdução do Mechanical Turk, tarefas intragáveis foram subitamente viabilizadas; por exemplo, a etiquetagem manual de um milhão de imagens podia ser executada automaticamente por mil pessoas anônimas trabalhando em paralelo, cada uma etiquetando apenas mil imagens. Além disso, era a um preço que até mesmo uma universidade podia pagar: os trabalhadores da multidão eram pagos por tarefa concluída, o que poderia equivaler a apenas alguns centavos.
O conjunto de dados ImageNet foi seguido pelo Desafio de Reconhecimento Visual em Grande Escala ImageNet, onde pesquisadores usaram o conjunto de dados para treinar e testar modelos executando uma variedade de tarefas como reconhecimento de imagem: anotar uma imagem com o tipo de objeto na imagem, tal como uma árvore ou um gato. Enquanto os modelos não baseados em aprendizagem profunda realizavam estas tarefas com a mais alta precisão na época, em 2012, uma arquitetura baseada em aprendizagem profunda informalmente apelidada de AlexNet teve uma pontuação mais alta do que todos os outros modelos por uma ampla margem. Isto catapultou modelos baseados em aprendizagem profunda para o grande público, e nos trouxe até hoje, onde modelos que requerem muitos dados, rotulados por trabalhadores com salários baixos em todo o mundo, são proliferados por corporações multinacionais. Além de rotular dados raspados da Internet, alguns trabalhos têm trabalhadores que fornecem os dados em si, exigindo que eles carreguem selos, fotos de amigos e familiares ou imagens dos objetos ao seu redor.
Ao contrário de 2009, quando a principal plataforma de trabalho era o Mechanical Turk da Amazon, atualmente há uma explosão de empresas de etiquetagem de dados. Estas empresas estão levantando dezenas a centenas de milhões em financiamento de capital de risco, enquanto os etiquetadores de dados foram estimados como ganhando uma média de US$ 1,77 por tarefa. As interfaces de etiquetagem de dados evoluíram para tratar os funcionários como máquinas, muitas vezes prescrevendo-lhes tarefas altamente repetitivas, fiscalizando seus movimentos e punindo os desvios através de ferramentas automatizadas. Hoje, longe de um desafio acadêmico, as grandes corporações que afirmam ser “baseadas em IA” são alimentadas por este exército de pessoas com trabalhos precários mal remunerados, tais como trabalhadores de dados, moderadores de conteúdo, trabalhadores de armazém e motoristas de entrega.
Os moderadores de conteúdo, por exemplo, são responsáveis por encontrar e sinalizar conteúdo considerado inadequado para uma determinada plataforma. Eles não são apenas trabalhadores essenciais, sem os quais as plataformas de mídia social seriam completamente inutilizáveis, seu trabalho de marcação de diferentes tipos de conteúdo também é usado para treinar sistemas automatizados visando marcar textos e imagens contendo discursos de ódio, notícias falsas, violência ou outros tipos de conteúdo que violam as políticas das plataformas. Apesar do papel crucial que os moderadores de conteúdo desempenham tanto para manter as comunidades on-line seguras quanto para treinar sistemas de IA, eles frequentemente recebem salários miseráveis enquanto trabalham para gigantes tecnológicos e são forçados a realizar tarefas traumáticas enquanto são vigiados de perto.
Todo assassinato, suicídio, agressão sexual ou vídeo de abuso infantil que não chega a uma plataforma foi visto e sinalizado por um moderador de conteúdo ou por um sistema automatizado treinado por dados muito provavelmente fornecidos por um moderador de conteúdo. Os funcionários que executam estas tarefas sofrem de ansiedade, depressão e transtorno de estresse pós-traumático devido à constante exposição a este conteúdo horrível.
Além de experimentarem um ambiente de trabalho traumático com apoio mental inexistente ou insuficiente, estes trabalhadores são monitorados e punidos se se desviarem das tarefas repetitivas que lhes foram ordenadas. Por exemplo, os moderadores de conteúdo contratados no Quênia pela Sama, uma subcontratada da Meta, são monitorados através de software de vigilância para garantir que tomem decisões sobre violência em vídeos dentro de 50 segundos, independentemente da duração do vídeo ou de quão perturbador ele seja. Alguns moderadores de conteúdo temem que o fracasso em fazê-lo possa resultar em rescisão após algumas violações. “Através de sua priorização de velocidade e eficiência acima de tudo”, relatou a revista Time Magazine, “esta política pode explicar porque vídeos contendo discursos de ódio e incitação à violência permaneceram na plataforma do Facebook na Etiópia”.
De modo semelhante às plataformas de mídia social, que não funcionariam sem moderadores de conteúdo, conglomerados de comércio eletrônico como a Amazon são postas a funcionar por exércitos de trabalhadores de logística e motoristas de entrega, entre outros. Assim como os moderadores de conteúdo, estes trabalhadores mantêm as plataformas funcionais e fornecem dados para sistemas de IA que a Amazon pode um dia usar para substituí-los: robôs que estocam pacotes em armazéns e carros auto-descarregadores que entregam estes pacotes aos clientes. Enquanto isso, esses trabalhadores devem realizar tarefas repetitivas sob pressão de vigilância constante — tarefas que, às vezes, colocam suas vidas em risco e muitas vezes resultam em lesões músculo-esqueléticas graves.
Os funcionários dos armazéns da Amazon são rastreados através de câmeras e seus scanners de inventário, e seu desempenho é mensurado em relação ao tempo que os gerentes determinam para cada tarefa com base em dados agregados de todos que trabalham na mesma instalação. O tempo longe de suas tarefas atribuídas é rastreado e usado para disciplinar os trabalhadores.
Como os trabalhadores do armazém, os motoristas de entrega da Amazon também são monitorados através de sistemas de vigilância automatizados: um aplicativo chamado Mentor conta as pontuações com base nas chamadas violações. As expectativas irrealistas de tempo de entrega da Amazon levam muitos motoristas a tomar medidas arriscadas para garantir que entreguem o número de pacotes que lhes foram designados para o dia. Por exemplo, o tempo que alguém leva para apertar e desapertar o cinto de segurança cerca de 90-300 vezes por dia é suficiente para atrasá-los em sua rota. Adrienne e muitos de seus colegas afivelaram seus cintos de segurança por trás de suas costas, de modo que os sistemas de vigilância registraram que eles estavam dirigindo com o cinto de segurança, sem se atrasarem ao realmente dirigir de cinto.
Em 2020, os motoristas da Amazon nos Estados Unidos sofreram ferimentos a uma taxa quase 50% maior do que seus homólogos do United Parcel Service [maior empresa de entregas do mundo, baseada nos EUA, duramente criticada pelas más condições de trabalho]. Em 2021, os motoristas da Amazon se lesionaram a uma taxa de 18,3 para cada 100 motoristas, quase 40% a mais do que no ano anterior. Estas condições não são perigosas apenas para os motoristas de entregas — pedestres e passageiros de veículos de passeio foram mortos e feridos em acidentes envolvendo motoristas de entregas da Amazon. Alguns motoristas no Japão recentemente demitiram-se em protesto, porque dizem que o software da Amazon os orientou por “rotas impossíveis”, levando a “exigências irrazoáveis e longas horas”. Apesar desses claros danos, porém, a Amazon continua a tratar seus trabalhadores como máquinas.
Além de rastrear seus trabalhadores através de sensores e câmeras, no ano passado, a empresa exigiu que os motoristas de entregas nos EUA assinassem um formulário de “consentimento biométrico”, concedendo à Amazon permissão para usar câmeras alimentadas por IA para monitorar os movimentos dos motoristas — supostamente para reduzir a condução distraída ou o excesso de velocidade e garantir o uso do cinto de segurança. É razoável que os trabalhadores temam que o reconhecimento facial e outros dados biométricos possam ser usados para aperfeiçoar as ferramentas de vigilância dos trabalhadores ou para treinar mais IA — que um dia poderá substituí-los. A formulação vaga nos formulários de consentimento deixa o propósito preciso aberto à interpretação, e os trabalhadores já suspeitavam de usos indesejados de seus dados antes (embora a Amazon os negasse).
A indústria da “IA” funciona às custas desses trabalhadores com baixos salários, mantidos em posições precárias, dificultando, na ausência de organização de sindicatos, fazer recuar práticas antiéticas ou exigir melhores condições de trabalho por medo de perder empregos que não podem se dar ao luxo de perder. As empresas se asseguram de contratar pessoas de comunidades pobres e carentes, tais como refugiados, pessoas encarceradas e outras com poucas opções de trabalho, muitas vezes contratando-as através de empresas terceirizadas como empreendedores [nos EUA não existe a figura do microempreendedor individual — MEI existente no Brasil] e não como empregados em tempo integral. Embora mais empregadores devam contratar de grupos vulneráveis como estes, é inaceitável fazê-lo de forma predatória, sem nenhuma proteção.
Os trabalhos de etiquetagem de dados são frequentemente realizados longe da sede das corporações multinacionais “AI first” no Vale do Silício — da Venezuela, onde os trabalhadores etiquetam os dados para os sistemas de reconhecimento de imagem em veículos automotores, até a Bulgária, onde os refugiados sírios alimentam os sistemas de reconhecimento facial com selos etiquetados de acordo com as categorias de raça, sexo e idade. Estas tarefas são frequentemente terceirizadas para trabalhadores precários em países como Índia, Quênia, Filipinas ou México. Os trabalhadores muitas vezes não falam inglês, mas recebem instruções em inglês, e enfrentam rescisão ou proibição de plataformas de trabalho em massa se não entenderem completamente as regras.
Estas corporações sabem que o aumento do poder dos trabalhadores abrandaria sua marcha em direção à proliferação de sistemas “IA” que exigem grandes quantidades de dados, implantados sem estudar e mitigar adequadamente seus danos. Falar de máquinas sencientes só nos distrai de responsabilizá-las pelas práticas trabalhistas exploradoras que alimentam a indústria da “inteligência artificial”.
Uma Prioridade Urgente para a Ética da IA
Enquanto os pesquisadores em IA ética, IA para o bem social, ou IA centrada no ser humano têm se concentrado principalmente em “remover os vieses” de dados e na promoção da transparência e equidade de modelos, aqui argumentamos que parar a exploração de mão de obra na indústria de IA deveria estar no centro de tais iniciativas. Se as corporações não puderem explorar mão de obra do Quênia a partir dos EUA, por exemplo, não poderão proliferar tecnologias nocivas tão rapidamente — seus cálculos de mercado simplesmente as dissuadirão de fazê-lo.
Assim, defendemos o financiamento de pesquisas e iniciativas públicas que visem descobrir questões na interseção de trabalho e sistemas de IA. Os pesquisadores de ética da IA devem analisar os sistemas de IA nocivos como causas e consequências de condições de trabalho injustas na indústria. Pesquisadores e técnicos de AI devem refletir sobre o uso que fazem do trabalho em multidão para fazer avançar suas próprias carreiras, enquanto os trabalhadores permanecem em condições precárias. Em vez disso, a comunidade da IA ética deveria trabalhar em iniciativas que transfiram o poder para as mãos dos trabalhadores. Exemplos incluem a co-criação de agendas de pesquisa com os trabalhadores com base em suas necessidades, o apoio aos esforços de organização transnacional de trabalhadores e garantias de que os resultados da pesquisa sejam facilmente acessados pelos trabalhadores, em vez de confinados a publicações acadêmicas. A plataforma Turkopticon criada por Lilly Irani e M. Six Silberman, “um sistema ativista que permite aos trabalhadores divulgar e avaliar suas relações com os empregadores”, é um grande exemplo disso.
Jornalistas, artistas e cientistas podem ajudar desenhando claramente a conexão entre exploração de mão de obra e produtos nocivos de IA em nossa vida diária, promovendo a solidariedade e o apoio aos trabalhadores de shows e outras populações de trabalhadores vulneráveis. Jornalistas e comentaristas podem mostrar ao grande público por que deveriam se importar com o anotador de dados na Síria ou com o motorista de entregas hipermonitorado da Amazon nos Estados Unidos. A culpa funciona em certas circunstâncias e, para as corporações, um “que vergonha” por parte do público pode, às vezes, igualar uma perda de receita e ajudar a mover a bússola rumo à responsabilidade.
O apoio à organização dos trabalhadores transnacionais deve estar no centro da luta pela “IA ética”. Enquanto cada local de trabalho e contexto geográfico tem suas próprias idiossincrasias, saber como trabalhadores de outros locais contornaram questões similares pode servir de inspiração para os esforços de organização local e sindicalização. Por exemplo, os rotuladores de dados na Argentina poderiam aprender com os recentes esforços de sindicalização dos moderadores de conteúdo no Quênia, ou dos trabalhadores da Amazon Mechanical Turk que se organizam nos EUA, e vice-versa. Além disso, os trabalhadores sindicalizados em uma localidade geográfica podem defender seus pares mais precários em outra, como no caso do Sindicato dos Trabalhadores da Alphabet [empresa controladora da Google, Youtube e outros], que inclui tanto os empregados mais bem pagos no Vale do Silício quanto os terceirizados de baixo salário em zonas mais rurais.
Este tipo de solidariedade entre trabalhadores de tecnologia altamente remunerados e seus homólogos com salários mais baixos — que os superam em grande número — é o pesadelo de um CEO de tecnologia. Embora as empresas muitas vezes tratem seus trabalhadores de baixa renda como descartáveis, elas hesitam mais em perder seus funcionários de alta renda que podem rapidamente arranjar empregos com concorrentes. Assim, os funcionários de alta remuneração podem ter uma rédea muito mais longa ao se organizarem, sindicalizarem e expressarem sua decepção com a cultura e as políticas da empresa. Eles podem usar esta maior segurança para promover a defesa de direitos trabalhistas com seus colegas de baixa remuneração que trabalham em armazéns, entregando pacotes ou etiquetando dados. Como resultado, as corporações parecem usar todas as ferramentas à sua disposição para isolar estes grupos uns dos outros.
Emily Cunningham e Maren Costa criaram o tipo de solidariedade entre os trabalhadores que assusta os CEOs tecnológicos. Ambas trabalharam como projetistas de experiência de usuário na sede da Amazon em Seattle, cumulativamente, por 21 anos. Junto com outros trabalhadores corporativos da Amazon, elas co-fundaram a Amazon Employees for Climate Justice (AECJ). Em 2019, mais de 8.700 trabalhadores da Amazon assinaram publicamente seus nomes em uma carta aberta endereçada a Jeff Bezos e à diretoria da empresa, exigindo liderança climática e passos concretos que a empresa precisava implementar para estar alinhada com a ciência climática e proteger os trabalhadores. Mais tarde naquele ano, a AECJ organizou a primeira caminhada dos trabalhadores da empresa na história da Amazon. O grupo diz que mais de 3.000 trabalhadores da Amazon caminharam pelo mundo em solidariedade a uma Greve Climática Global liderada por jovens.
A Amazon respondeu anunciando seu Compromisso Climático, um compromisso para alcançar carbono zero líquido até 2040 — 10 anos antes do Acordo Climático de Paris. Cunningham e Costa dizem que ambas sofreram medidas disciplinares e foram ameaçadas de demissão após a greve climática — mas só quando a AECJ organizou ações de solidariedade com os trabalhadores com baixos salários é que elas foram realmente demitidas. Horas depois que outro membro da AECJ enviou um calendário convidando os trabalhadores da empresa a ouvir um painel de trabalhadores de armazém discutindo as condições de trabalho desastrosas que estavam enfrentando no início da pandemia, a Amazon demitiu Costa e Cunningham. O National Labor Relations Board [agência estadunidense que tem atribuições similares ao Ministério Público do Trabalho no Brasil] descobriu que suas demissões haviam sido ilegais, e a empresa mais tarde fez um acordo com ambas as mulheres por valores não revelados. Este caso ilustra quais são os temores dos executivos: a solidariedade inflexível dos funcionários de alta renda que veem os funcionários de baixa renda como seus camaradas.
Sob esta ótica, apelamos aos pesquisadores e jornalistas para que também enfoquem as contribuições dos trabalhadores de baixa renda no funcionamento do motor da “IA” e parem de enganar o público com narrativas de máquinas totalmente autônomas com uma agência de tipo humano. Essas máquinas são construídas por exércitos de trabalhadores mal remunerados em todo o mundo. Com um entendimento claro da exploração da mão-de-obra por trás da atual proliferação de sistemas nocivos de IA, o público pode defender proteções trabalhistas mais fortes e consequências reais para as entidades que as infringem.
***
Adrienne Williams é ativista pelos direitos dos trabalhadores em plataformas, e pesquisadora do Distributed Artificial Intelligence Research Institute (DAIR Institute).
Milagros Miceli é socióloga e cientista da computação, que investiga como dados de base para o aprendizado de máquina são produzidos. Seu foco está nas condições de trabalho e dinâmica de poder na geração e etiquetamento de dados. É pesquisadora associada na Universidade Técnica de Berlim, e lidera o grupo de pesquisa “Dados, sistemas algorítmicos e ética” do Weizebaum Institute, e também pesquiadora do Distributed Artificial Intelligence Research Institute (DAIR Institute).
Timnit Gebru é uma cientista da computação que trabalha com discriminação algorítimica, mineração de dados e ética para a inteligência artificial, com PhD pela Universidade de Stanford e pesquisa pós-doutoral no laboratório Fairness, Accountability, Transparency, and Ethics in AI (FATE), da Microsoft. Entre 2018 e 2020, co-liderou a equipe de ética na inteligência artificial da Google, junto com Margaret Mitchell. Foi demitida da Google em dezembro de 2020 por publicar (em coautoria com diversos outros autores) um artigo que questionava os rumos das pesquisas em inteligência artificial e recomendava repensá-las. A demissão gerou enorme discussão na comunidade de ciência e tecnologia por acusações de racismo e sexismo. Gebru fundou e é diretora executiva do Distributed Artificial Intelligence Research Institute (DAIR Institute).
Traduzido pelo Passa Palavra a partir do original publicado na revista Noema.
As artes que ilustram o texto são da autoria de Do Ho Suh (1962-).
To read the original essay and other similar essays in English, visit http://noemamag.com/.
eu já conhecia o conceito de “crowdsourcing”, mas “crowdwork”, trabalho de multidão, é a primeira vez que vejo. Será apenas uma decorrência lógica do primeiro? Ou existe uma diferença conceitual?
Tenho impressão de que o crowdsourcing tradicional buscava implementar estratégias muitas vezes vinculadas ao marketing e a propostas de trabalho mais próximas a jogos, desafios, projetos específicos, tentavam implantar uma motivação particular para além do aspecto econômico, enquanto que o crowdwork descrito pelas autoras é muito mais próximo a uma assalariamento (por peça?), uma relação de trabalho mais parecida com o modelo do que foram os call centers, num estágio anterior da automatização de serviços.
Conheço os dois conceitos. O Amazon Mechanical Turk citado neste artigo, por exemplo, é apresentado como crowdsourcing ou crowd work meio indiscriminadamente, a única diferença que tenho encontrado no uso dessas duas expressões no que li é mesmo o ponto de vista: geralmente encontro crowdsourcing, que se traduz meio toscamente como “externalização para a multidão”, em material voltado a empresários e gestores, e crowd work, que se traduz também meio toscamente como “trabalho de multidão”, em material crítico deste mesmo processo. Mas pode ser que existam usos mais específicos que não conheço.