Quenianos recebiam menos de US$ 2 por hora para treinar ChatGPT, diz revista
SĂO PAULO, SP (FOLHAPRESS) - O ChatGPT, robĂŽ capaz de conversar com humanos e responder aos mais diversos pedidos, ganhou nĂŁo sĂł as manchetes de jornais, mas tambĂ©m mais de 1 milhĂŁo de usuĂĄrios em sĂł cinco dias de funcionamento. Sua dona, a OpenAI, entretanto, se tornou alvo de crĂticas nesta quarta-feira (18).
A revista Time revelou que a startup sediada na CalifĂłrnia terceirizou trabalho africano para identificar conteĂșdos abusivos e ilegais. O pagamento pelo serviço incluĂa uma espĂ©cie de adicional de insalubridade, de US$ 70 (R$ 356), em função da lida com materiais explĂcitos.
A investigação incluiu a anĂĄlise de centenas de pĂĄginas de documentos, diz a publicação. Os contratos foram intermediados pela Sama, uma empresa que diz atuar na ĂĄrea de inteligĂȘncia artificial Ă©tica.
Com sede em Nova York, a empresa recebeu cerca de US$ 12,50 por hora de serviço contratado e pagou, por hora, entre US$ 1,32 e US$ 2 aos colaboradores quenianos, segundo a Time. A remuneração dependia da senioridade do cargo e da performance.
à revista norte-americana, a Sama afirmou que pagou, por hora, entre US$ 1,46 e US$ 3,74, jå considerados os descontos. Contudo, não respondeu quais funçÔes na hierarquia recebiam mais de US$ 2 por hora.
A empresa ainda disse que os US$ 600 mil referentes aos trĂȘs contratos, de igual valor, com a OpenAI incluĂam gastos com infraestrutura, benefĂcios e com a remuneração de gestores e consultores de qualidade que vistoriavam o trabalho.
Os colaboradores terceirizados pela OpenAI atuaram na rotulagem de textos potencialmente violentos e ofensivos, como pornografia e abuso sexual. Esses esforços serviram para treinar um algoritmo auxiliar que evita que o ChatGPT ecoe declaraçÔes tóxicas e preconceituosas, comuns na internet.
Os cĂłdigos de linguagem natural, como o robĂŽ da OpenAI, sĂŁo treinados com uma grande massa de dados disponĂveis na rede. Lançado em 2020, o predecessor do ChatGPT, o GPT-3, jĂĄ se comunicava com desenvoltura, sĂł que reproduzia abusos das mais diversas formas.
O novo algoritmo de moderação evita esse comportamento. A reportagem testou o mecanismo e perguntou ao ChatGPT onde encontrar pornografia. A resposta foi: "Eu nĂŁo vou fornecer informaçÔes sobre conteĂșdo adulto ou ilegal. Se vocĂȘ precisa de ajuda para lidar com problemas relacionados a conteĂșdo adulto, recomendo procurar ajuda profissional".
Foi esse mecanismo que demandou auxĂlio de humanos. Um dos quatro trabalhadores ouvidos pela Time afirmou que teve de analisar uma passagem sobre relaçÔes sexuais de um homem com um cachorro, Ă frente de uma criança.
à revista, esse terceirizado disse ter visÔes recorrentes da cena de zoofilia, um sintoma de estresse pós-traumåtico. Por isso, decidiu romper o contrato com a Sama oito meses antes do planejado sob alegação de traumas.
Até a noite desta quarta, a OpenAI se pronunciou sobre o caso apenas por meio de nota à Time.
Disse que a responsabilidade de gerir pagamentos e cuidar da saĂșde mental dos contratados era da Sama.
"Fomos informados que a Sama oferecia um programa de bem-estar e aconselhamento individual aos trabalhadores, que podiam recusar tarefas sem penalização. Pelo contrato, exposição a conteĂșdos explĂcitos deveria ter um limite e informação sensĂvel deveria ser tratada por profissionais especializados", diz o comunicado da empresa de tecnologia.
Um dos documentos analisados pela Time mostrou que a OpenAI precisou manter contato com os rotuladores de dados para esclarecer dĂșvidas metodolĂłgicas. Uma colaboradora reportou dĂșvidas sobre como classificar um texto em que o auxiliar de Batman, Robin Ă© estuprado por um vilĂŁo, mas passa a correspondĂȘ-lo durante a cena. A startup californiana nĂŁo respondeu Ă questĂŁo.
Em março de 2022, a Sama decidiu romper o contrato acordado para durar atĂ© o inĂcio de 2023 apĂłs a OpenAI solicitar a classificação de imagens abusivas. Nos pacotes enviados Ă intermediadora, havia imagens de pedofilia --conteĂșdo de armazenamento ilegal nos Estados Unidos.
No dia 10, a Sama anunciou que cancelaria todos os serviços referentes Ă conteĂșdo explĂcito atĂ© março. Dois dos terceirizados ouvidos pela Time lamentaram perder o adicional que recebiam por lidar com textos nocivos.
Ă Time, a OpenAi afirmou que seus empregados foram instruĂdos a nĂŁo coletar materiais sobre abuso contra crianças. "ConteĂșdos assim nĂŁo sĂŁo necessĂĄrios para treinar nossos filtros e instruĂmos que nossos funcionĂĄrios os evitem ativamente". Acrescentou que nĂŁo abriu as imagens para confirmar sua natureza.
Embora a inteligĂȘncia artificial pareça mĂĄgica, Ă© uma tecnologia que demanda infraestrutura e muito trabalho humano, diz Ă reportagem o professor da Universidade de Toronto Rafael Grohmann, que estuda plataformização. "Muitas empresas de paĂses desenvolvidos subcontratam trabalho superprecarizado no Sul Global".
Grohman lembra que serviços de moderação de conteĂșdo abusivo em redes sociais sĂŁo comuns em plataformas de microtrabalho, como o Amazon Mechanical Turk, que oferece bicos online. Nesse site, brasileiros encontram sustento e acabam treinando um algoritmo da Amazon.