Mercado fechado

No Reino Unido, empresas serão multadas por não explicarem critérios de IA

Fidel Forato

É indiscutível os benefícios que a Inteligência Artificial (IA) traz para a sociedade em uma gama muito variada de setores, desde a busca por novos medicamentos até os carros autônomos. Mas também é verdade que as implicações de suas escolhas têm gerado boas discussões, sobretudo quando esses softwares ganham poder de decisão sobre a vida de pessoas.

Já é comum que departamentos de recursos humanos utilizem o aprendizado de máquina para selecionar candidatos a emprego com base na análise de seus currículos. Nada mais justo então que criar algumas normas para o bom funcionamento da IA. Pelo menos é isso que o Reino Unido está desenvolvendo para entrar em vigor ano que vem.


Aproximadamente dois terços das empresas do setor financeiro no Reino Unido utilizam IA na tomada de suas decisões, incluindo companhias de seguros no gerenciamento de reclamações. Diante dessa nova realidade, cerca de metade dos britânicos demonstram preocupações com os algoritmos que tomam decisões que normalmente seriam explicadas por seres humanos, segundo dados do próprio governo.

Por isso mesmo as empresas que planejam usar IA em seu trabalho precisam garantir que isso seja feito de forma "transparente e responsável", defendeu o ICO, órgão de controle de dados do país. Em suas orientações preliminares, publicadas nesta segunda-feira (2), o órgão identifica quatro princípios fundamentais para IA. São eles: transparência, responsabilidade, consideração do contexto e reflexão sobre os impactos.

Com base no documento ainda em fase de elaboração, empresas e outras organizações poderão receber multas de vários milhões de libras caso não expliquem as decisões tomadas pela IA, de acordo com os planos apresentados pelo órgão de vigilância de dados do Reino Unido. A iniciativa é a primeira no mundo a propor regras para explicar as escolhas tomadas por softwares inteligentes.

No Reino Unido, empresas que utilizam IA deverão explicar os critérios de seu uso

Desafios para regulamentação

Não ter dinheiro ou tempo suficiente para explicar as decisões de IA não será uma desculpa aceitável, defende Simon McDougall, do ICO. Segundo a autoridade do governo britânico, as empresas "precisam ser responsáveis ​​por suas ações. Se eles não têm os recursos para pensar adequadamente sobre como usarão a IA para tomar decisões, devem refletir sobre o seu uso”.

Com a iniciativa, o ICO também espera que empresas que comprem sistemas dotados com IA, no caso de não desenvolverem suas próprias tecnologias, deveriam questionar mais sobre como os softwares operam. Para Simon McDougall, “isso é puramente explicável."

Além de explicar como esses sistemas funcionam, as orientações buscam estipular quais direitos as pessoas têm para uma explicação. Para isso, McDougall pergunta, de forma genérica, para empresas e desenvolvedores: "Como você explica uma decisão de IA de forma transparente, justa, compreensível e responsável perante o indivíduo?” Essa resposta é muito importante.

A orientação, ainda em consulta, informa às organizações como comunicar explicações às pessoas, de maneira que elas sejam capazes de entender. Em casos extremos, a não explicação dos critérios pode resultar em uma multa de até 4% do faturamento global de uma empresa, de acordo com a lei de proteção de dados da União Europeia.

Fonte: Canaltech

Trending no Canaltech: