Mercado fechado
  • BOVESPA

    105.069,69
    +603,45 (+0,58%)
     
  • MERVAL

    38.390,84
    +233,89 (+0,61%)
     
  • MXX

    50.597,29
    -330,09 (-0,65%)
     
  • PETROLEO CRU

    66,22
    -0,28 (-0,42%)
     
  • OURO

    1.782,10
    +21,40 (+1,22%)
     
  • BTC-USD

    47.672,29
    -9.275,52 (-16,29%)
     
  • CMC Crypto 200

    1.367,14
    -74,62 (-5,18%)
     
  • S&P500

    4.538,43
    -38,67 (-0,84%)
     
  • DOW JONES

    34.580,08
    -59,71 (-0,17%)
     
  • FTSE

    7.122,32
    -6,89 (-0,10%)
     
  • HANG SENG

    23.766,69
    -22,24 (-0,09%)
     
  • NIKKEI

    28.029,57
    +276,20 (+1,00%)
     
  • NASDAQ

    15.687,50
    -301,00 (-1,88%)
     
  • BATS 1000 Index

    0,0000
    0,0000 (0,00%)
     
  • EURO/R$

    6,3953
    +0,0151 (+0,24%)
     

Algoritmo é 'muito branco' para detectar doenças de pele

·3 min de leitura
Conjuntos de dados de imagens de pele públicos que são usados ​​para treinar algoritmos para detectar problemas de pele não incluem informações suficientes sobre o tom da pele. (Getty Images)
  • Estudo da The Lancet Digital Health mostra que dados usam apenas imagens de pele branca

  • Conclusões são semelhantes às de um estudo publicado em setembro

  • Conjuntos de dados precisam ser melhorados para gerar IA mais equitativas

Conjuntos de dados de imagens de pele públicos que são usados ​​para treinar algoritmos para detectar problemas de pele não incluem informações suficientes sobre o tom da pele, de acordo com uma nova análise. E dentro dos conjuntos de dados onde as informações de tom de pele estão disponíveis, apenas um número muito pequeno de imagens são de pele mais escura - portanto, algoritmos construídos com esses conjuntos de dados podem não ser tão precisos para pessoas que não são brancas.

Leia também

O estudo, publicado hoje no The Lancet Digital Health, examinou 21 conjuntos de dados de imagens de doenças da pele de acesso livre. Combinados, eles continham mais de 100.000 imagens. Pouco mais de 1.400 dessas imagens tinham informações anexadas sobre a etnia do paciente e apenas 2.236 tinham informações sobre a cor da pele. Essa falta de dados limita a capacidade dos pesquisadores de detectar vieses em algoritmos treinados nas imagens. E esses algoritmos podem muito bem ser tendenciosos: das imagens com informações sobre o tom da pele, apenas 11 eram de pacientes com as duas categorias mais escuras da escala de Fitzpatrick, que classifica a cor da pele. Não havia imagens de pacientes de origem africana, afro-caribenha ou do sul da Ásia.

As conclusões são semelhantes às de um estudo publicado em setembro, que também descobriu que a maioria dos conjuntos de dados usados ​​para treinar algoritmos de dermatologia não tem informações sobre etnia ou tom de pele. Esse estudo examinou os dados por trás de 70 estudos que desenvolveram ou testaram algoritmos e descobriu que apenas sete descreveram os tipos de pele nas imagens usadas.

“O que vemos, a partir do pequeno número de artigos que relatam distribuições de tons de pele, é que eles mostram uma sub-representação de tons de pele mais escuros”, diz Roxana Daneshjou, acadêmica clínica em dermatologia na Universidade de Stanford e autora do artigo de setembro.

Conjuntos de dados precisam ser melhorados para gerar IA mais equitativas

Quando as imagens em um conjunto de dados estão disponíveis publicamente, os pesquisadores podem examinar e revisar quais tons de pele parecem estar presentes. Mas isso pode ser difícil, porque as fotos podem não corresponder exatamente ao tom da pele na vida real. Sem rótulos nas imagens, os pesquisadores não podem verificar os algoritmos para ver se eles foram criados usando conjuntos de dados com exemplos suficientes de pessoas com diferentes tipos de pele.

É importante examinar esses conjuntos de imagens porque eles são frequentemente usados ​​para construir algoritmos que ajudam os médicos a diagnosticar pacientes com doenças de pele, algumas das quais - como câncer de pele - são mais perigosas se não forem detectadas precocemente. Se os algoritmos só foram treinados ou testados em pele clara, eles não serão tão precisos para todos os outros. “A pesquisa mostrou que programas treinados em imagens tiradas de pessoas com pele mais clara podem não ser tão precisos para pessoas com pele mais escura e vice-versa”, diz David Wen, coautor do novo artigo e pesquisador da Universidade de Oxford.

Novas imagens sempre podem ser adicionadas a conjuntos de dados públicos, e os pesquisadores querem ver mais exemplos de condições em pele mais escura. E melhorar a transparência e a clareza dos conjuntos de dados ajudará os pesquisadores a rastrear o progresso em direção a conjuntos de imagens mais diversos que podem levar a ferramentas de IA mais equitativas. “Eu gostaria de ver mais dados abertos e mais dados bem rotulados”, diz Daneshjou.

Nosso objetivo é criar um lugar seguro e atraente onde usuários possam se conectar uns com os outros baseados em interesses e paixões. Para melhorar a experiência de participantes da comunidade, estamos suspendendo temporariamente os comentários de artigos