Ticker

6/recent/ticker-posts

Ad Code

Responsive Advertisement

OMS lança primeiro relatório com orientações sobre ética em IA de saúde

A Organização Mundial da Saúde (OMS) publicou, nesta semana, um relatório com diretrizes sobre ética no uso de inteligência artificial na área da saúde. O documento é fruto de um trabalho que levou dois anos em desenvolvimento, e foi feito por 20 especialistas. Segundo a OMS, a adoção de IA em processos relacionados à saúde tem o dever de ser segura, transparente e responsável.

Organização Mundial da Saúde (Imagem: Pierre Virot/OMS)

Bandeira da Organização Mundial da Saúde (Imagem: Pierre Virot/OMS)

De acordo com o relatório, há seis princípios que devem servir como base para governos, empresas e órgãos reguladores. São eles:

  • Proteção à autonomia de humanos: decisões de saúde devem ser tomadas por humanos, e não inteiramente por máquinas. Além disso, a IA não deve ser usada para orientar os cuidados médicos de alguém sem seu consentimento, e seus dados devem ser protegidos.
  • Promoção da segurança: os desenvolvedores de IA devem monitorar continuamente todas as ferramentas, garantindo seu pleno funcionamento e evitando danos.
  • Transparência: os desenvolvedores devem publicar informações sobre o design de ferramentas de inteligência artificial. Os processos devem ser totalmente auditados e compreendidos pelos usuários e reguladores.
  • Responsabilidade: é necessária a existência de mecanismos que determinam quem é o responsável por eventuais problemas com ferramentas de IA.
  • Garantia de equidade: as ferramentas devem estar disponíveis em vários idiomas, e precisam ser treinadas em uma base de dados diversa para evitar casos como os que vimos nos últimos anos, com algoritmos racistas.
  • Sustentabilidade: as ferramentas devem ser reparáveis mesmo em sistemas de saúde com poucos recursos, e os desenvolvedores devem ser capazes de prover atualizações frequentes para evitar a ineficácia da tecnologia.

Tais princípios devem guiar profissionais nas mais diversas possibilidades de uso de inteligência artificial na área, como no desenvolvimento de aplicativos, tratamento de dados e na construção de ferramentas para prevenção, tratamento ou diagnósticos de doenças.

Para a OMS, a tecnologia não deve ser uma solução rápida para desafios na área da saúde — especialmente em países de média e baixa renda. A autoridade chegou a alertar sobre os riscos do uso de modelos de IA feitos em países desenvolvidos em regiões economicamente diferentes. Em casos extremos, o uso de inteligência artificial sem o devido cuidado pode causar danos à vida humana.

Pandemia acendeu alerta sobre precauções no uso de IA

Durante a pandemia de COVID-19, houve exemplos claros de como o mau uso de tecnologia e IA pode resultar em processos prejudiciais ao bem-estar de uma sociedade. O governo de Cingapura admitiu que dados coletados para saúde foram “deslocados” para investigações criminais.

Além disso, diversos modelos de IA foram construídos pelo mundo, em países como Estados Unidos e na Europa, e com poucos dados fundamentados, colocados indevidamente em prática para detectar a infecção pelo Sars-CoV-2 — mostrando-se completamente inúteis tempos depois.

Um impasse com empresas de tecnologia

O relatório da OMS também fala sobre as big techs — como o Google e a Apple —, que têm aumentado sua participação no setor da saúde por meio de ferramentas de inteligência artificial. A organização demonstrou preocupação em relação ao guia ético dessas empresas.

“Embora essas empresas possam oferecer abordagens inovadoras, existe a preocupação de que possam eventualmente exercer muito poder em relação aos governos, fornecedores e pacientes”, afirma o documento.

Como solução, a OMS propõe que os governos se atentem à regulamentação adequada de mecanismos de supervisão para tornar o setor privado responsável e receptivo, garantindo decisões e operações transparentes.

Com informações: The Verge, OMS.

OMS lança primeiro relatório com orientações sobre ética em IA de saúde

Enregistrer un commentaire

0 Commentaires