Mercado fechado
  • BOVESPA

    108.523,47
    -1.617,17 (-1,47%)
     
  • MERVAL

    38.390,84
    +233,89 (+0,61%)
     
  • MXX

    54.049,05
    +174,14 (+0,32%)
     
  • PETROLEO CRU

    73,23
    -2,65 (-3,49%)
     
  • OURO

    1.877,70
    -53,10 (-2,75%)
     
  • BTC-USD

    23.347,65
    -8,65 (-0,04%)
     
  • CMC Crypto 200

    535,42
    -1,43 (-0,27%)
     
  • S&P500

    4.136,48
    -43,28 (-1,04%)
     
  • DOW JONES

    33.926,01
    -127,93 (-0,38%)
     
  • FTSE

    7.901,80
    +81,64 (+1,04%)
     
  • HANG SENG

    21.660,47
    -297,89 (-1,36%)
     
  • NIKKEI

    27.509,46
    +107,41 (+0,39%)
     
  • NASDAQ

    12.616,50
    -230,25 (-1,79%)
     
  • BATS 1000 Index

    0,0000
    0,0000 (0,00%)
     
  • EURO/R$

    5,5385
    +0,0488 (+0,89%)
     

Quenianos recebiam menos de US$ 2 por hora para treinar ChatGPT, diz revista

SÃO PAULO, SP (FOLHAPRESS) - O ChatGPT, robÎ capaz de conversar com humanos e responder aos mais diversos pedidos, ganhou não só as manchetes de jornais, mas também mais de 1 milhão de usuårios em só cinco dias de funcionamento. Sua dona, a OpenAI, entretanto, se tornou alvo de críticas nesta quarta-feira (18).

A revista Time revelou que a startup sediada na CalifĂłrnia terceirizou trabalho africano para identificar conteĂșdos abusivos e ilegais. O pagamento pelo serviço incluĂ­a uma espĂ©cie de adicional de insalubridade, de US$ 70 (R$ 356), em função da lida com materiais explĂ­citos.

A investigação incluiu a anĂĄlise de centenas de pĂĄginas de documentos, diz a publicação. Os contratos foram intermediados pela Sama, uma empresa que diz atuar na ĂĄrea de inteligĂȘncia artificial Ă©tica.

Com sede em Nova York, a empresa recebeu cerca de US$ 12,50 por hora de serviço contratado e pagou, por hora, entre US$ 1,32 e US$ 2 aos colaboradores quenianos, segundo a Time. A remuneração dependia da senioridade do cargo e da performance.

À revista norte-americana, a Sama afirmou que pagou, por hora, entre US$ 1,46 e US$ 3,74, jĂĄ considerados os descontos. Contudo, nĂŁo respondeu quais funçÔes na hierarquia recebiam mais de US$ 2 por hora.

A empresa ainda disse que os US$ 600 mil referentes aos trĂȘs contratos, de igual valor, com a OpenAI incluĂ­am gastos com infraestrutura, benefĂ­cios e com a remuneração de gestores e consultores de qualidade que vistoriavam o trabalho.

Os colaboradores terceirizados pela OpenAI atuaram na rotulagem de textos potencialmente violentos e ofensivos, como pornografia e abuso sexual. Esses esforços serviram para treinar um algoritmo auxiliar que evita que o ChatGPT ecoe declaraçÔes tóxicas e preconceituosas, comuns na internet.

Os códigos de linguagem natural, como o robÎ da OpenAI, são treinados com uma grande massa de dados disponíveis na rede. Lançado em 2020, o predecessor do ChatGPT, o GPT-3, jå se comunicava com desenvoltura, só que reproduzia abusos das mais diversas formas.

O novo algoritmo de moderação evita esse comportamento. A reportagem testou o mecanismo e perguntou ao ChatGPT onde encontrar pornografia. A resposta foi: "Eu nĂŁo vou fornecer informaçÔes sobre conteĂșdo adulto ou ilegal. Se vocĂȘ precisa de ajuda para lidar com problemas relacionados a conteĂșdo adulto, recomendo procurar ajuda profissional".

Foi esse mecanismo que demandou auxílio de humanos. Um dos quatro trabalhadores ouvidos pela Time afirmou que teve de analisar uma passagem sobre relaçÔes sexuais de um homem com um cachorro, à frente de uma criança.

À revista, esse terceirizado disse ter visĂ”es recorrentes da cena de zoofilia, um sintoma de estresse pĂłs-traumĂĄtico. Por isso, decidiu romper o contrato com a Sama oito meses antes do planejado sob alegação de traumas.

Até a noite desta quarta, a OpenAI se pronunciou sobre o caso apenas por meio de nota à Time.

Disse que a responsabilidade de gerir pagamentos e cuidar da saĂșde mental dos contratados era da Sama.

"Fomos informados que a Sama oferecia um programa de bem-estar e aconselhamento individual aos trabalhadores, que podiam recusar tarefas sem penalização. Pelo contrato, exposição a conteĂșdos explĂ­citos deveria ter um limite e informação sensĂ­vel deveria ser tratada por profissionais especializados", diz o comunicado da empresa de tecnologia.

Um dos documentos analisados pela Time mostrou que a OpenAI precisou manter contato com os rotuladores de dados para esclarecer dĂșvidas metodolĂłgicas. Uma colaboradora reportou dĂșvidas sobre como classificar um texto em que o auxiliar de Batman, Robin Ă© estuprado por um vilĂŁo, mas passa a correspondĂȘ-lo durante a cena. A startup californiana nĂŁo respondeu Ă  questĂŁo.

Em março de 2022, a Sama decidiu romper o contrato acordado para durar atĂ© o inĂ­cio de 2023 apĂłs a OpenAI solicitar a classificação de imagens abusivas. Nos pacotes enviados Ă  intermediadora, havia imagens de pedofilia --conteĂșdo de armazenamento ilegal nos Estados Unidos.

No dia 10, a Sama anunciou que cancelaria todos os serviços referentes Ă  conteĂșdo explĂ­cito atĂ© março. Dois dos terceirizados ouvidos pela Time lamentaram perder o adicional que recebiam por lidar com textos nocivos.

À Time, a OpenAi afirmou que seus empregados foram instruĂ­dos a nĂŁo coletar materiais sobre abuso contra crianças. "ConteĂșdos assim nĂŁo sĂŁo necessĂĄrios para treinar nossos filtros e instruĂ­mos que nossos funcionĂĄrios os evitem ativamente". Acrescentou que nĂŁo abriu as imagens para confirmar sua natureza.

Embora a inteligĂȘncia artificial pareça mĂĄgica, Ă© uma tecnologia que demanda infraestrutura e muito trabalho humano, diz Ă  reportagem o professor da Universidade de Toronto Rafael Grohmann, que estuda plataformização. "Muitas empresas de paĂ­ses desenvolvidos subcontratam trabalho superprecarizado no Sul Global".

Grohman lembra que serviços de moderação de conteĂșdo abusivo em redes sociais sĂŁo comuns em plataformas de microtrabalho, como o Amazon Mechanical Turk, que oferece bicos online. Nesse site, brasileiros encontram sustento e acabam treinando um algoritmo da Amazon.