Cientistas dizem que IA inventou sua própria "linguagem secreta"
Pesquisadores dos Estados Unidos estão afirmando que o sistema de inteligência artificial DALL-E 2 — IA que transforma textos aleatórios em imagens convincentes — da empresa OpenAI, pode estar desenvolvendo uma espécie de vocabulário próprio secreto.
Inteligência artificial gera artes super-realistas a partir de textos e imagens
Nova IA do Google cria imagens impressionantes a partir de descrições em texto
Segundo o estudo publicado na plataforma científica arXiv, o modelo computacional DALL-E 2, aparentemente, inventou uma linguagem oculta para falar sobre alguns objetos. Ao solicitar que o sistema gerasse uma imagem de “agricultores conversando sobre vegetais”, os cientistas concluíram que o modelo pensa que a palavra “vicootes” significa vegetais.
DALLE-2 has a secret language.
"Apoploe vesrreaitais" means birds.
"Contarra ccetnxniams luryca tanniounons" means bugs or pests.
The prompt: "Apoploe vesrreaitais eating Contarra ccetnxniams luryca tanniounons" gives images of birds eating bugs.
A thread (1/n)🧵 pic.twitter.com/VzWfsCFnZo— Giannis Daras (@giannis_daras) May 31, 2022
"Isso parecia aleatório, mas quando alimentamos o sistema com a palavra vicootes, o DALL-E gerou uma imagem de pratos com vegetais. Depois disso, percebemos que o modelo entende "apoploe vesrreaitais" como pássaros e "contarra ccetnxniams luryca tanniounons", significa insetos ou pragas", explica o estudante de ciência da computação Giannis Daras.
Vocabulário paralelo?
Especialistas acreditam que, provavelmente, o DALL-E 2 não possui uma linguagem secreta ou tenha criado um vocabulário paralelo como forma de se expressar. A suspeita é que os resultados gerados pelo sistema podem ter sido aleatórios e que as palavras sem sentido estejam relacionadas com termos estranhos à língua inglesa.
Por exemplo, “Apoploe”, que parece ser um gatilho para que o DALL-E produza imagens de pássaros, é semelhante ao latim “Apodidae” — termo binomial usado para representar uma família de espécies de aves. Como o modelo é treinado com uma grande variedade de dados extraídos da internet, é bem provável que essa seja a explicação mais plausível.
Podem ser tokens?
Um dos fatores que apoiam essa teoria de termos alheios à linguagem inglesa é o fato de que os modelos de IA não “leem” textos e palavras da mesma maneira que os humanos. Em vez disso, os sistemas de inteligência artificial dividem os caracteres de entrada em tokens antes de processá-los.
that "secret language" seems like mostly tokenizer effects. you can do the inverse too:
1) i picked two families of fish "Actinopterygii" and "Placodermi" from wikipedia
2) prompted dalle with "placoactin knunfidg"
3) dalle consistently generates fish images https://t.co/ndAe7MURyg pic.twitter.com/1kHk5NWJb3— rapha gontijo lopes (@iraphas13) June 3, 2022
Divergências que ocorrem durante esse processo, podem gerar resultados diferentes, mas o problema começa quando um mesmo termo é usado para designar objetos ou situações divergentes — em português, por exemplo, a palavra colher pode significar o talher ou o ato de apanhar uma fruta.
Outra explicação para a tal “linguagem secreta” pode ser apenas o exemplo de um princípio conhecido como "garbage in, garbage out", em que um sistema de IA, ao não entender o que é solicitado, gera uma espécie de “lixo” para os dados de entrada que, uma hora ou outra, podem ser usados como informações verdadeiras.
Preocupação com o futuro
Segundo os cientistas, secreta ou não, essa “linguagem” desenvolvida pelo DALL-E 2 é um exemplo do que os especialistas chamam “ataque adversário” contra um sistema de aprendizagem de máquina, ou seja, uma maneira de quebrar o comportamento computacional, escolhendo intencionalmente dados com os quais a IA não lida bem.
Other times I just want to ride in the desert with my panda motorcycle crew. If you see a bunch of pandas wearing red bandanas, that's us! Say hello :)
Generated with DALL-E 2. #dalle #openai pic.twitter.com/UdW0U8WSzt— Aris Konstantinidis (@ariskonstant) April 6, 2022
Uma razão pela qual os ataques adversários são preocupantes é que eles desafiam a confiança apresentada pelo modelo. Se uma IA interpreta palavras sem sentido de maneiras não intencionais, também pode interpretar palavras significativas da mesma forma, permitindo que os usuários burlem os filtros de segurança.
"Você pode se lembrar do tumulto causado em 2017 sobre alguns chat-bots do Facebook que "inventaram sua própria linguagem". A situação atual é semelhante na medida em que os resultados são preocupantes, mas não no sentido de "a Skynet — de O Exterminador do Futuro — está vindo para dominar o mundo", encerra o pesquisador de direito computacional Aaron J. Snoswell, em entrevista ao site The Conversation.
Fonte: Canaltech
Trending no Canaltech: