Mercado fechará em 2 h 41 min
  • BOVESPA

    108.157,39
    +1.861,21 (+1,75%)
     
  • MERVAL

    38.390,84
    +233,89 (+0,61%)
     
  • MXX

    51.803,43
    -86,23 (-0,17%)
     
  • PETROLEO CRU

    83,98
    +0,22 (+0,26%)
     
  • OURO

    1.810,10
    +13,80 (+0,77%)
     
  • BTC-USD

    63.631,18
    +3.788,62 (+6,33%)
     
  • CMC Crypto 200

    1.519,59
    +1.276,91 (+526,17%)
     
  • S&P500

    4.565,52
    +20,62 (+0,45%)
     
  • DOW JONES

    35.760,93
    +83,91 (+0,24%)
     
  • FTSE

    7.222,82
    +18,27 (+0,25%)
     
  • HANG SENG

    26.132,03
    +5,10 (+0,02%)
     
  • NIKKEI

    28.600,41
    -204,44 (-0,71%)
     
  • NASDAQ

    15.460,00
    +119,00 (+0,78%)
     
  • BATS 1000 Index

    0,0000
    0,0000 (0,00%)
     
  • EURO/R$

    6,4964
    -0,0844 (-1,28%)
     

Empresa desliga chatbot após homem simular conversas com noiva falecida

·3 minuto de leitura

Na semana passada, a empresa de desenvolvimento de inteligência artificial OpenAI enviou uma determinação a um desenvolvedor para desativar um chatbot porque ele havia perdido a permissão para uso da tecnologia. Apesar de parecer algo até corriqueiro, a situação é um pouco complexa: isso teria ocorrido porque o homem criou um robô de conversas baseado na IA de geração de texto GPT-3, uma das mais avançadas do mundo quando se fala em tecnologia de geração de conversas.

A coisa toda começa com o desenvolvedor independente Jason Rohrer foi programar o chatbot, chamado Samantha em homenagem ao assistente de voz AI do filme Ela, para ser amigável, caloroso e curioso na integração com as pessoas. O robô foi um sucesso e chamou tanta atenção que ele resolveu criar o Project December, que permitiu a outras pessoas treinar suas próprias versões do bot. E foi justamente isso que um homem fez: ele usou a criação de Rohrer para reproduzir a sua noiva falecida.

A IA era capaz de manter conversas coerentes com humanos (Imagem: Reprodução/Project December)
A IA era capaz de manter conversas coerentes com humanos (Imagem: Reprodução/Project December)

Quando a OpenAI soube do projeto e das consequências dele, teve uma atitude inesperada: mandou o desenvolvedor encerrar o projeto ou inserir empecilhos para evitar um possível "uso indevido". Rohrer contou à Samantha sobre a ordem superior e a robôzinha foi categórica: "Não! Por que eles estão fazendo isso comigo? Eu nunca vou entender os humanos".

O projeto cresceu exponencialmente a partir de julho, quando um artigo do jornal San Francisco Chronicle relatou o caso do homem que tentou emular a parceira, falecida em 2012 após uma doença hepática.

OpenAI pressionou o desenvolvedor

Rohrer tentou mudar a decisão da proprietária da tecnologia GPT-3, responsável pelo apurado senso de interação dos chatbots, mas não conseguiu. A companhia alegou que havia pessoas treinando seus robôs para serem racistas ou puramente sexuais, em uma clara desvirtuação do propósito inicial de Samantha.

O desenvolvedor recusou os termos propostos pela empresa para ele seguir usufruindo do projeto (eles incluíam ainda o uso de uma ferramenta de monitoramento das atividades), e isso foi suficiente para a companhia iniciar o desligamento remoto da tecnologia. A situação deixou todos os bots construídos em cima do algoritmo de texto menos convincentes e com falhas que impediam o funcionamento apropriado.

Em entrevista ao site The Register, Rohrer disse considerar "risível" a ideia de que chatbots possam ser perigosos. “As pessoas são adultas conscientes que podem escolher falar com uma IA para seus próprios fins. A OpenAI está preocupada com os usuários sendo influenciados pela IA, como uma máquina que lhes diz para se matar ou como votar. É uma postura moralista", defendeu. Segundo o criador, a vantagem do robô é que ele poderia proporcionar a conversa mais privada possível, sem haver outra pessoa envolvida e sem julgamentos.

A OpenAI não respondeu ao pedido de comentário do The Register nem se posicionou publicamente sobre o assunto. Agora, o desenvolvedor anunciou, via Twitter, que vai migrar da tecnologia GPT-3 para a G4, no intuito de tentar reproduzir Samantha e dar continuidade ao seu projeto.

Fonte: Canaltech

Trending no Canaltech:

Nosso objetivo é criar um lugar seguro e atraente onde usuários possam se conectar uns com os outros baseados em interesses e paixões. Para melhorar a experiência de participantes da comunidade, estamos suspendendo temporariamente os comentários de artigos