em

Iniciativas querem usar inteligência artificial para melhorar acesso à saúde

Acesso limitado à tecnologia e à carência de dados representativos são obstáculos chave na implementação de IA no setor

(Imagem ilustrativa/Freepik)

Por Gabriel Alves, de Dacar, Senegal, para a Agência Einstein

Já faz anos, talvez décadas, que escutamos a mesma história: computadores, algoritmos, inteligência artificial (IA) e companhia vão nos ajudar a resolver os grandes problemas da humanidade, inclusive de acesso à saúde. Com a chegada e a rápida popularização de produtos como o ChatGPT, esse horizonte finalmente está menos nebuloso.

Em várias partes do mundo, com base em inteligência artificial, iniciativas estão testando e implementando ou um acesso mais fácil a orientações de saúde para o paciente ou um suporte para que profissionais da linha de frente sejam ainda mais resolutivos em seus atendimentos.

Por exemplo, no Paquistão, país que amarga altos índices de mortalidade materno-fetal, uma equipe da Universidade de Lahore está criando um registro à base de mensagens de voz, turbinado com inteligência artificial, para ser usado por gestantes. Assim, elas terão, espera-se, além de um registro de saúde fidedigno à palma da mão ou na nuvem, melhores desfechos em suas gravidezes.

De forma semelhante, trabalhos em Bangladesh e na Índia querem, com ajuda da IA, criar principalmente para mulheres e pessoas LGBT+, um ambiente seguro, não enviesado e livre de julgamentos, permitindo que tenham as melhores informações de saúde reprodutiva e sexual.

Em Gana, especialistas do Instituto Aurum estão tentando usar IA para que profissionais de saúde que prescrevem antibióticos tenham à mão as melhores recomendações possíveis para cada caso, a fim de evitar o surgimento e o espalhamento de micróbios multirresistentes — dificílimos de tratar e potencialmente letais.

Já no Brasil, um trabalho feito por pesquisadores de Ribeirão Preto, no interior do estado de São Paulo, quer entender qual é justamente o desempenho e a confiabilidade dessas novas tecnologias, do tipo ChatGPT, para apoiar profissionais de saúde da linha de frente nas tomadas de decisão.

Esses são alguns dos exemplos de dezenas de iniciativas que recentemente foram escolhidas e financiadas pela Fundação Bill e Melinda Gates e cujos representantes se reuniram em outubro em Dacar, no Senegal, para discussões técnicas, troca de experiências e construção de colaborações. A ideia do edital, que distribuiu US$ 100 mil a cada projeto escolhido, é promover o uso equitativo de IA na saúde.

Essa profusão de iniciativas acontece depois (e também por causa) da popularização do ChatGPT, plataforma da empresa OpenAI, ganhar dezenas de milhões de usuários, feito comparável ao de fenômenos como Tik Tok e Instagram. “É uma plataforma simples, amigável, aparentemente muito útil e que gera uma sensação de conforto quando estamos nela”, explica Lívia Ciabati, coordenadora de inovação do Einstein e que lidera uma das iniciativas agraciadas pela Fundação Gates. 

O ChatGPT é exemplo do que se convencionou chamar de large language model (LLM, sigla em inglês, e modelo grande de linguagem, em tradução livre). O nome é estranho, mas faz sentido. Sabe quando você está digitando uma mensagem no celular e, de repente, a partir do que você já escreveu, o aparelho consegue adivinhar a próxima palavra? Aqui o que a “inteligência” fornece é apenas uma palavra.

E como isso fica “grande”? Em vez de ler as palavras anteriores, esses modelos leem o contexto, e tem um arsenal de trilhões (literalmente) de informações na memória. O que eles fazem é ligar uma palavra na outra, depois uma frase na outra, como uma linguagem natural. Agora é possível perguntar praticamente qualquer coisa, das minúcias de “Memórias Póstumas de Brás Cubas”  aos efeitos do uso indiscriminado de aspirina, e ter uma resposta coesa, bem escrita.

O problema é justamente saber se as respostas obtidas são fidedignas — algo essencial, especialmente em saúde. 

“Melhorar a conscientização pública e tornar as informações de saúde acessíveis e compreensíveis é a chave para transformar nossa abordagem à saúde. Não se trata de reinventar a roda, mas sim de usar o conhecimento existente de forma eficiente para capacitar as pessoas a adotarem estilos de vida mais saudáveis e prevenir problemas de saúde. Modelos de linguagem como o GPT podem ajudar na disseminação desse conhecimento, mas devemos permanecer vigilantes e adaptáveis para garantir que ele realmente seja benéfico”, diz Francisco Barbosa Junior, um dos pesquisadores que quer usar a tecnologia no apoio a decisões de profissionais de saúde.

Outro pesquisador brasileiro envolvido no assunto é o cirurgião Henrique Lima, que faz seu doutorado na UFMG. Ele tem explorado a capacidade de LLMs gerarem boas respostas para os pacientes em temas como cirurgia bariátrica, transplante de fígado e câncer de pâncreas. Segundo especialistas-avaliadores, o resultado tende a ser muito satisfatório.

“A inteligência artificial não está aqui para substituir, mas para aprimorar e liberar tempo dos profissionais de saúde, transformando a forma como cuidamos dos pacientes e oferecemos atendimento médico de qualidade”, diz Lima. 

Para o cirurgião, porém, ainda é difícil de saber como as diversas iniciativas, plataformas e aplicativos se integrarão (ou não) num horizonte próximo. Daí a importância de explorar os caminhos e fazer as experimentações, ainda que por ora haja poucas discussões em nível governamental a respeito, além de ausência de uma regulamentação específica.

É com base nesse espírito de gerar colaborações e de pavimentar esse caminho que surgiu a ideia de selecionar e financiar tais iniciativas, explica Zameer Brey, que lidera os esforços da Fundação Gates na seara do uso equitativo de IA.

“Não podemos ser imprudentes e esperar que os governos adotem novas tecnologias onde não há evidências de que funcionem ou de custo-efetividade. Este [aporte financeiro] é o primeiro passo de muitos outros que serão necessários ao longo do tempo. Mas já há sinais positivos desses primeiros projetos. Agora estamos criando um espaço para que empreendedores, pesquisadores, governos e financiadores possam fazer parte de uma plataforma que vai ajudar essas tecnologias a ganhar escala. E isso é algo que a Fundação Gates não pode fazer sozinha”, diz. 

Além de conseguir juntar todos esses atores, há mais desafios, ainda mais centrais na adoção e na disseminação do uso da IA, como uma arquitetura que privilegie não os algoritmos ou os dados, mas o elemento humano. 

A encrenca nesse sentido pode ser tremenda: se historicamente houve mais condenações de pessoas negras, uma IA jurídica, com base no que aprendeu, pode, com base na cor do réu, ter maior probabilidade de condená-lo. Ou ainda, na hipótese de condenação, ela pode dar uma sentença maior para a pessoa por conta de fatores como etnia ou endereço de residência.

Ciabati traz outro exemplo. Seria possível que, com base na prática atual, um LLM recomendasse a realização de episiotomia, corte feito na região do períneo com intenção de facilitar o nascimento do bebê. “Nesse caso, as evidências para a realização do procedimento são fracas, e os danos causados à mulher podem ser maiores que os benefícios.”

Ela está à frente do projeto SAMPa (acrônimo para Smart Assistant for Monitoring Prenatal Health Care with Large Language Models). No caso, a ideia é auxiliar médicos durante atendimentos a gestantes, especialmente em regiões mais vulneráveis. Essa ferramenta irá “escutar” e transcrever as informações das pacientes durante as consultas de pré-natal e, com base nessas informações, sugerir ao profissional novas perguntas que devem ser feitas e condutas a serem adotadas — com todo o cuidado para não deixar estigmas emergirem.

“Ao replicar processos negativos e não corrigir as injustiças na área da saúde com o uso da inteligência artificial, estamos perpetuando um ciclo vicioso em vez de criar um círculo virtuoso. A regulamentação governamental é essencial para garantir que a ética seja priorizada e que as consequências de decisões erradas sejam consideradas. Além disso, a diversidade na definição do sucesso para as ferramentas de IA é fundamental para atender às diversas necessidades das pessoas na saúde e garantir que todos recebam o cuidado de que precisam”, afirma Ciabati.

Para Rodrigo Demarch, diretor de inovação do Einstein, as tecnologias emergentes no campo da saúde ainda estão em processo de amadurecimento e requerem validação científica, especialmente para aplicações clínicas.

“Não podemos nos basear unicamente em anedotas ou relatos isolados de acertos diagnósticos divulgados na internet. A realidade é que esses sistemas são suscetíveis a erros e, por isso, a colaboração entre instituições de saúde, cientistas, médicos e desenvolvedores de tecnologia é vital. Esse esforço conjunto visa assegurar que o desenvolvimento tecnológico seja monitorado por especialistas, submetendo os algoritmos a processos de validação científica meticulosos. Esta etapa é fundamental para diminuir vieses potenciais e garantir que os bancos de dados utilizados para treinar os algoritmos sejam representativos e imparciais.”

Mas, no fim das contas, otimismo é preponderante: “Embora ainda faltem evidências mais robustas, a tendência inevitável é que a automatização dos algoritmos assuma os onerosos encargos administrativos, liberando médico e outros profissionais de saúde para o que realmente importa: um envolvimento mais profundo e atencioso com os pacientes. Com essas inovações, espera-se que o trabalho na área se torne não só mais eficiente, mas também mais humano”, afirma Demarch.

*O jornalista viajou a convite da Fundação Bill e Melinda Gates

Agência Einstein

Com foco em saúde, ciência e bem-estar, a Agência Einstein oferece gratuitamente conteúdo qualificado para jornais, revistas, emissoras de TV e rádio e sites de notícias. A iniciativa do Hospital Israelita Albert Einstein, de São Paulo, tem o objetivo de difundir informação de qualidade para promover saúde e difundir conhecimento.

(Imagem ilustrativa/Freepik)

Regime PJ traz vantagens para profissionais

(Imagem ilustrativa/Freepik)

6 sinais que podem indicar que o seu filho esteja sendo vítima de alienação parental