Estado deve assumir protagonismo na regulação da inteligência artificial em prol do interesse público

Notícia publicada em:

  • 19 de Agosto de 2021
Para especialistas, evitar discriminações e garantir a privacidade de dados pessoais são desafios para a regulação

A autorregulação do setor de tecnologia para o uso da inteligência artificial na saúde não é suficiente para atenuar os riscos impostos à sociedade. A defesa sobre o papel do Estado como agente regulador da atividade foi feita pelos palestrantes da primeira sessão do XI Ciclo de Debates: Inteligência Artificial e Desigualdades em Saúde na quarta-feira (18/08).

Apesar das críticas de que uma regulamentação engessaria inovações na área, segundo Felix Rigoli, pesquisador do Centro de Estudos e Pesquisas em Direito Sanitário (Cepedisa) da Universidade de São Paulo (USP), algoritmos mal treinados podem tomar decisões erradas e causar danos à saúde pública. E os riscos ficam maiores por causa do ritmo acelerado de inovações do setor somado à cultura do sigilo da indústria. “Por trás dos sistemas de inteligência artificial, podem existir motivações econômicas capazes de influenciar decisões clínicas para a opção de determinados medicamentos”, exemplificou Rigoli.

Para o diretor do Cepedisa/USP, Fernando Aith, o tema é estratégico e deve haver uma união de esforços para orientar a sociedade e o Estado brasileiro para um bom caminho regulatório. “É fundamental que nós façamos essa reunião de pessoas que pensam no tema com o espírito do interesse público e da efetivação do direito à saúde como um direito universal para contrapor às ideias liberais que estão conduzindo o desenvolvimento da inteligência artificial aplicada à saúde”, argumentou.

Primeira sessão do Ciclo de Debates reúne pesquisadores do Cepedisa/USP; coordenador do Nethis, José Paranaguá de Santana, e a diretora da Fiocruz Brasília, Fabiana Damásio, também participaram da sessão

Racismo estrutural e os algoritmos

Os algoritmos podem ser mal treinados de forma não intencional. Para elaborar esses sistemas de decisão computacional, desenvolvedores fornecem aos algoritmos uma grande quantidade de bases de dados. O problema é que essas bases podem conter discriminações estruturais da sociedade, como o racismo e a misoginia, e causar vieses na decisão tomada pela inteligência artificial, mantendo e, até mesmo, aumentando as desigualdades sociais.

De acordo com o pesquisador do Centro de Estudos da USP, existem pesquisas que demonstram a possibilidade de os sistemas de inteligência artificial reproduzirem discriminações. Nos Estados Unidos, as estatísticas sobre o uso de analgésicos apontam que os pacientes negros recebem menos medicação para a dor. Achados semelhantes foram relacionados no Brasil em tratamentos para a dor no parto de mulheres negras. “Se os modelos preditores de medicação forem treinados com essas bases de dados, os algoritmos podem assumir que pessoas negras são menos propensas a dor”, afirmou Rigoli.

Rastreabilidade: o grande desafio dos algoritmos

Encontrar a origem de uma decisão errada desses modelos matemáticos é um dos principais desafios para o controle da inteligência artificial. A fonte de um efeito inesperado pode estar em um único código entre um milhão de linhas de códigos e surpreender até mesmo os designers dos sistemas.

O diretor do Centro de Estudos da USP destacou que a implementação de métodos dinâmicos de controle para os algoritmos, com avaliações e correções constantes, poderia auxiliar o aprimoramento dos sistemas de inteligência artificial. Outro ponto importante enfatizado pelo diretor do Cepedisa é dar força à capacidade estatal regulatória por meio da autorregulação social, criando espaços de denúncias e de solução de conflitos.

Confidencialidade de dados

A privacidade de dados pessoais empregados, muitas vezes, na criação dos serviços de inteligência artificial foi um outro desafio evidenciado pela diretora da Fiocruz Brasília, Fabiana Damásio, que coordenou a mesa. Ela lembrou do recente relatório global sobre inteligência artificial da Organização Mundial da Saúde (OMS), publicado em junho deste ano.

No documento, a Organização enumera alguns riscos associados à utilização dessa tecnologia na saúde, entre eles o uso antiético de dados de saúde e os preconceitos codificados em algoritmos. Rigoli defendeu que os dados coletados por meio de esforços públicos devem ser tratados como um bem público e não podem ser comercializados a menos que haja o consentimento dos titulares.

Assista aqui à integra do debate.

Ciclo de Debates

O XI Ciclo de Debates sobre Bioética, Diplomacia e Saúde Pública é promovido pelo Núcleo de Estudos em Bioética e Diplomacia em Saúde (Nethis/Fiocruz Brasília). A concepção das atividades deste semestre é uma iniciativa compartilhada entre o Nethis/Fiocruz Brasília e Centro de Estudos e Pesquisas de Direito Sanitário (Cepedisa) da Faculdade de Saúde Pública da Universidade de São Paulo (FSP/USP).

Assine a newsletter do Nethis e não perca as próximas sessões do XI Ciclo de Debates: Inteligência Artificial e Desigualdades em Saúde.