Mercado fechado
  • BOVESPA

    106.927,79
    +1.397,79 (+1,32%)
     
  • MERVAL

    38.390,84
    +233,89 (+0,61%)
     
  • MXX

    53.744,92
    -185,48 (-0,34%)
     
  • PETROLEO CRU

    84,27
    +2,15 (+2,62%)
     
  • OURO

    1.817,30
    -4,10 (-0,23%)
     
  • BTC-USD

    43.086,30
    -288,98 (-0,67%)
     
  • CMC Crypto 200

    1.037,76
    +12,03 (+1,17%)
     
  • S&P500

    4.662,85
    +3,82 (+0,08%)
     
  • DOW JONES

    35.911,81
    -201,79 (-0,56%)
     
  • FTSE

    7.542,95
    -20,90 (-0,28%)
     
  • HANG SENG

    24.383,32
    -46,48 (-0,19%)
     
  • NIKKEI

    28.124,28
    -364,82 (-1,28%)
     
  • NASDAQ

    15.616,75
    +126,50 (+0,82%)
     
  • BATS 1000 Index

    0,0000
    0,0000 (0,00%)
     
  • EURO/R$

    6,3174
    -0,0154 (-0,24%)
     

Distrito chinês usa inteligência artificial como "promotora" para acusar pessoas

·3 min de leitura

Pesquisadores da China desenvolveram um “promotor” de inteligência artificial (IA) capaz de acusar, com mais de 97% de precisão, pessoas por crimes cometidos . Segundo seus inventores, o sistema pode abrir um processo com base na descrição verbal de um caso envolvendo supostos criminosos.

A máquina distópica — digna de filmes de ficção científica — foi construída e testada pela Procuradoria Popular de Xangai no distrito de Pudong, o maior e mais movimentado Ministério Público da China. A ideia é reduzir a carga de trabalho dos promotores de carne e osso, permitindo que eles se concentrem em tarefas mais complicadas.

“O sistema de inteligência artificial pode substituir os promotores no processo de tomada de decisão até certo ponto. A ferramenta pode avaliar a força das evidências, as condições para uma prisão e o quão perigoso um suspeito é considerado”, explica o diretor do laboratório de big data e gerenciamento de conhecimento da Academia Chinesa de Ciências, Shi Yong, autor principal do projeto.

Treinamento

A "IA promotora" foi treinada com base em mais de 17 mil casos reais ocorridos entre 2015 e 2020. Com esse repertório, ela é capaz de identificar e apresentar queixas pelos oito crimes mais comuns de Xangai, como fraude de cartão de crédito, operação de jogos de azar, lesão corporal, roubo e “provocação de problemas” — termo comumente usado para acusar dissidentes do governo chinês.

Sistema de IA foi treinado com base em mais de 17 mil casos reais (Imagem: LightFieldStudios/Envato)
Sistema de IA foi treinado com base em mais de 17 mil casos reais (Imagem: LightFieldStudios/Envato)

Segundo seus idealizadores, em pouco tempo a máquina poderá reconhecer mais tipos de crimes e até registrar acusações contra suspeitos. Para que isso ocorra, basta uma atualização em sua base de dados e o aprimoramento do sistema de inteligência artificial que identifica e qualifica os casos conforme as leis do país.

“Tomar tais decisões exigiria que uma máquina identificasse e removesse qualquer conteúdo que fosse irrelevante para um crime, sem alterar as informações úteis. A IA também precisaria converter a linguagem humana em constante mudança em um formato matemático ou geométrico padrão que um computador pudesse entender”, acrescenta Yong.

Perda de autonomia

Segundo um promotor da cidade de Guanghzhou, no sul da China, que preferiu não se identificar, muitos colegas humanos estão relutantes com a possibilidade de ter um computador interferindo em seus trabalhos. Outro problema é que a IA poderia abrir uma acusação com base apenas em sua experiência anterior, sem prever a reação do público diante de um caso de grande repercussão.

Procuradores temem perder a autonomia com a implantação do sistema de IA (Imagem: DragonImages/Envato)
Procuradores temem perder a autonomia com a implantação do sistema de IA (Imagem: DragonImages/Envato)

O sistema poderia até ajudar na detecção de um erro processual, mas seria ineficiente na tomada de decisões, de acordo com o jurista. Também existe o temor de que o promotor virtual não consiga acompanhar os padrões sociais em mudança e que possa ser transformado em arma por um estado repressor.

“O uso de IA para apresentar acusações é preocupante. A precisão de 97% pode ser elevada do ponto de vista tecnológico, mas sempre haverá a possibilidade de erro. Quem vai assumir a responsabilidade quando isso acontecer? O promotor, a máquina ou o projetista do algoritmo?”, questiona o promotor.

Fonte: Canaltech

Trending no Canaltech:

Nosso objetivo é criar um lugar seguro e atraente onde usuários possam se conectar uns com os outros baseados em interesses e paixões. Para melhorar a experiência de participantes da comunidade, estamos suspendendo temporariamente os comentários de artigos