Mercado fechado
  • BOVESPA

    112.316,16
    -1.861,39 (-1,63%)
     
  • MERVAL

    38.390,84
    +233,89 (+0,61%)
     
  • MXX

    54.774,91
    -389,10 (-0,71%)
     
  • PETROLEO CRU

    79,38
    -1,63 (-2,01%)
     
  • OURO

    1.943,90
    -2,80 (-0,14%)
     
  • BTC-USD

    23.041,06
    -257,78 (-1,11%)
     
  • CMC Crypto 200

    526,66
    +9,65 (+1,87%)
     
  • S&P500

    4.070,56
    +10,13 (+0,25%)
     
  • DOW JONES

    33.978,08
    +28,67 (+0,08%)
     
  • FTSE

    7.765,15
    +4,04 (+0,05%)
     
  • HANG SENG

    22.688,90
    +122,12 (+0,54%)
     
  • NIKKEI

    27.382,56
    +19,81 (+0,07%)
     
  • NASDAQ

    12.221,00
    +114,25 (+0,94%)
     
  • BATS 1000 Index

    0,0000
    0,0000 (0,00%)
     
  • EURO/R$

    5,5462
    +0,0265 (+0,48%)
     

ChatGPT consegue enganar cientistas escrevendo resumos falsos de pesquisas

Um estudo feito com pesquisadores revelou que o ChatGPT, inteligência artificial de conversa humanizada da OpenAI, conseguiu enganar os cientistas ao escrever resumos sobre estudos reais. O objetivo era descobrir se a IA era capaz produzir de modo semelhante a um estudioso, o que ligaria o alerta dos acadêmicos para evitar uso indevido.

Em quase um terço das vezes, a ferramenta conseguiu se passar por um humano ao redigir um abstract, aquela introdução usada em pesquisas e trabalhos científicos. Os resumos falsificados foram gerados a partir de informações sobre o trabalho do pesquisador em poucos segundos.

Os pesquisadores das universidades de Northwestern e de Chicago, ambas nos Estados Unidos, instruíram o ChatGPT a gerar resumos de pesquisas baseados em 10 conteúdos publicados em revistas médicas. A IA foi alimentada com dados dos estudos científicos para produzir um conteúdo referencial que se passasse por verdadeiro.

Veja como o ChatGPT conseguiu confundir bastante as ferramentas de detecção de plágio e conteúdo gerado por IA (imagem à esquerda) (Imagem: Reprodução/Biorxiv)
Veja como o ChatGPT conseguiu confundir bastante as ferramentas de detecção de plágio e conteúdo gerado por IA (imagem à esquerda) (Imagem: Reprodução/Biorxiv)

Quais os resultados da pesquisa com o ChatGPT?

O resultado foi submetido junto dos resumos originais a dois programas de detecção de plágio e identificação de conteúdos falsos. Os apps identificaram corretamente os resumos feitos pelo ChatGPT em apenas 68% das vezes.

Os cientistas tiveram o conteúdo rotulado incorretamente em 14% dos casos — resumos reais foram marcados como falsos. Embora os artigos falsos fossem considerados únicos quando medidos pelo programa de detecção de plágio, apenas 8% seguiram os requisitos de formatação exigidos pelos periódicos científicos.

Revisores humanos disseram que os documentos fake eram mais vagos e tinham uma "forma de escrever estereotipada". Mesmo assim, disseram ser muito difícil determinar quais eram reais e quais não eram sem ajuda da tecnologia.

O que deve mudar nos artigos científicos?

Os pesquisadores agora querem estabelecer regras ainda mais rígidas para periódicos, artigos e estudos científicos, pois assim os padrões ficarão mais elevados para dificultar a criação por IAs. Quem desenvolve programas de análise de plágio também deverá se preparar para implementarem algumas ferramentas de detecção de padrões típicos da escrita por robôs.

Existe o temor real de essa tecnologia ser usada de modo indevido por estudantes nos trabalhos escolares e até profissionais mais preguiçosos no mercado de trabalho. A criação de conteúdo poderia esbarrar em graves questões envolvendo o direito autoral, já que mais de uma pessoa poderia se declarar proprietária de um material gerado por uma máquina.

Essa é a aparência básica do ChatGPT: simples e direta para conversas com a máquina (Imagem: Reprodução/OpenAI)
Essa é a aparência básica do ChatGPT: simples e direta para conversas com a máquina (Imagem: Reprodução/OpenAI)

O ChatGPT tem uma interface simples de caixa de texto na qual as pessoas podem conversar, tirar dúvidas ou pedir a realização de tarefas básicas. A inteligência artificial consegue imitar o modo humano de escrever, possibilitando uma interação natural com as pessoas.

A ferramenta já se mostrou capaz de programar códigos de computador em Python, produzir posts para redes sociais e até escrever ensaios de nível universitário. Existe a possibilidade de ajudar a detectar Alzheimer, com até 80% de precisão na previsão dos estágios iniciais da demência.

A versatilidade chamou a atenção da internet nos últimos, tanto que a Microsoft já planeja introduzir a caixa de texto da IA no mecanismo de busca Bing. A empresa pretende incorporá-lo ao Word, PowerPoint e Outlook para otimizar a realização de atividades.

Fonte: Canaltech

Trending no Canaltech: