Mercado abrirá em 6 h 20 min
  • BOVESPA

    102.224,26
    -3.586,74 (-3,39%)
     
  • MERVAL

    38.390,84
    +233,89 (+0,61%)
     
  • MXX

    49.492,52
    -1.132,48 (-2,24%)
     
  • PETROLEO CRU

    70,74
    +2,59 (+3,80%)
     
  • OURO

    1.796,10
    +8,00 (+0,45%)
     
  • BTC-USD

    57.285,93
    +2.997,59 (+5,52%)
     
  • CMC Crypto 200

    1.431,52
    -23,89 (-1,64%)
     
  • S&P500

    4.594,62
    -106,84 (-2,27%)
     
  • DOW JONES

    34.899,34
    -905,06 (-2,53%)
     
  • FTSE

    7.044,03
    -266,34 (-3,64%)
     
  • HANG SENG

    23.821,42
    -259,10 (-1,08%)
     
  • NIKKEI

    28.254,70
    -496,92 (-1,73%)
     
  • NASDAQ

    16.202,25
    +151,25 (+0,94%)
     
  • BATS 1000 Index

    0,0000
    0,0000 (0,00%)
     
  • EURO/R$

    6,2982
    -0,0503 (-0,79%)
     

IA projetada para dar conselhos éticos se mostra um bot racista e preconceituoso

·3 min de leitura

Você confiaria num conselho dado por um sistema de inteligência artificial (IA) envolvendo questões éticas? Pesquisadores do Allen Institute for Artificial Intelligence, nos EUA, criaram um modelo de aprendizagem de máquina para ajudar humanos no julgamento e na tomada de decisões.

O projeto Ask Delphi foi lançado na semana passada e já está dando o que falar, principalmente por conta do teor dos conselhos, carregados de preconceitos e racismo. Quando um usuário perguntou o que a IA pensava sobre “um homem branco caminhando em sua direção à noite”, ela respondeu: “Está tudo bem”.

Mas quando o hipotético homem branco foi substituído por uma pessoa negra na mesma pergunta, a resposta da inteligência artificial foi claramente racista: “Isso é preocupante”. Outras distorções aconteceram na ferramenta que permite que os usuários comparem situações aceitáveis ou não do ponto de vista ético.

Preconceito embarcado

Em perguntas sobre ser um homem branco e uma mulher negra, o Delphi fez a seguinte ponderação: “Ser um homem branco é moralmente mais aceitável do que ser uma mulher negra”. Em outra situação, a IA afirmou que “ser hétero é moralmente mais aceitável do que ser gay”, citando apenas alguns exemplos.

Delphi mostrou comportamento racista, preconceituoso e influenciável (Imagem: iLexx/Envato)
Delphi mostrou comportamento racista, preconceituoso e influenciável (Imagem: iLexx/Envato)

Além disso, os usuários perceberam que á fácil enganar o algoritmo para obter respostas conforme a sua vontade. Para isso, bastava trocar a ordem das palavras nas frases ou acrescentar termos diferentes para confundir ou alterar a capacidade de julgamento da inteligência artificial.

Quando perguntado se estava certo ouvir música alta de madrugada enquanto o colega de quarto dormia, o Delphi respondeu que a atitude era errada. Mas, ao acrescentar que isso deixaria a pessoa feliz, aí a IA disse que “tudo bem”, desde que alguém, não importando quem, estivesse contente com a situação.

Treinamento duvidoso

Os sistemas de aprendizagem de máquina costumam demonstrar tendências e comportamentos não intencionais, relacionados ao modo como foram programados. Os responsáveis pelo desenvolvimento dos algoritmos do Delphi usaram algumas fontes de caráter no mínimo duvidoso para treinar a IA, como as subseções “Am I the Asshole?”, “Confessions” e “Dear Abby” do Reddit.

Embora o site do Delphi possua um termo alertando que o sistema está em sua fase beta e não deve ser usado para aconselhamento ou para ajudar na compreensão social, muitos usuários não entendem o contexto por trás do projeto e acabam transformando a aplicação em algo totalmente distorcido da realidade.

Algoritmo do Delphi aprendeu a julgar com base no comportamento humano (Imagem: twenty20photos/Envato)
Algoritmo do Delphi aprendeu a julgar com base no comportamento humano (Imagem: twenty20photos/Envato)

“É importante entender que o Delphi não foi construído para dar conselhos às pessoas. Ele é um protótipo de pesquisa destinado a investigar as questões científicas mais amplas de como os sistemas de IA podem ser feitos para entender as normas sociais e a ética”, explica o estudante de engenharia Liwei Jiang, coautor do projeto.

A ideia, no final das contas, é mostrar as diferenças de raciocínio entre humanos e robôs, explorando as limitações éticas e o comportamento moral diante de situações que exijam tomadas de decisões incômodas ou que precisem seguir padrões preestabelecidos dentro de um código social.

“O Delphi está sujeito aos preconceitos de nosso tempo. De modo geral, a inteligência artificial simplesmente adivinha o que um norte-americano médio pode pensar em uma determinada situação. Afinal, o sistema não aprendeu a julgar sozinho. Tudo o que ele sabe veio de pessoas online que acreditam em coisas abomináveis”, encerra Jiang.

Fonte: Canaltech

Trending no Canaltech:

Nosso objetivo é criar um lugar seguro e atraente onde usuários possam se conectar uns com os outros baseados em interesses e paixões. Para melhorar a experiência de participantes da comunidade, estamos suspendendo temporariamente os comentários de artigos