O sistema de saúde britânico está implementando ferramentas baseadas na inteligência artificial para ajudar médicos nos atendimentos relacionados à saúde mental em ambientes clínicos de grande escala. Nos EUA, as seguradoras de saúde estão testando soluções semelhantes. E o que isso significa? A IA pode democratizar o acesso a tratamentos de forma mais eficiente?
O entendimento é de que a IA tem o potencial de auxiliar os sistemas de saúde a lidarem com uma sobrecarga de pacientes que precisam de cuidados, inclusive para a saúde mental. Pensando nisso, uma ferramenta de diagnóstico “e-triage” da Limbic, uma startup britânica de IA, já examinou mais de 210 mil pacientes com uma precisão reivindicada de 93% nos oito transtornos mentais mais comuns, incluindo depressão, ansiedade e estresse pós-traumático.
Impacto da IA no Serviço Nacional de Saúde
O Serviço Nacional de Saúde do Reino Unido descobriu que o chatbot fornece aos seus psicólogos e psiquiatras informações para ajudá-los a determinar a gravidade e urgência das necessidades de um paciente em potencial. Com isso, os erros de diagnósticos diminuem. A empresa afirma, ainda, que a ferramenta utiliza cerca de 40 minutos para uma avaliação clínica detalhada, liberando os médicos para examinar mais pacientes e reduzir as listas de espera.
A abordagem da Kintsugi nos EUA
Nos EUA, a Kintsugi, uma startup, arrecadou mais de US$28 milhões de investidores utilizando uma abordagem diferente: uma ferramenta de análise de voz alimentada por IA, que procura sinais de depressão clínica e ansiedade em pequenos trechos de fala.
Grace Chang, CEO da Kintsugi, destaca a importância de não apenas o que é dito, mas como é dito. O sistema da Kintsugi utiliza dados de 250 mil pessoas que mantiveram diários orais para identificar “biomarcadores de voz”.
Desafios e preocupações
De acordo com o psicólogo Marcos Raul de Oliveira, o futuro da IA na psicologia e na pesquisa em saúde mental representa uma trajetória irreversível, com cenários que ainda não foram completamente explorados.
“Temos, como tecnologias da Inteligência, objetos inerentes àqueles que os criaram e os usam. São discussões além de técnicas, mas de responsabilidade e contextos. Creio que os profissionais precisarão se reinventarem e adquirir novos conhecimentos, mas antes da IA, já precisavam”, afirma.
Em entrevista ao Olhar Digital, ele enfatizou que a tecnologia representa uma ferramenta valiosa para analisar registros médicos, históricos de pacientes e até mesmo imagens cerebrais, a fim de identificar possíveis padrões associados a transtornos mentais – caso existam.
Outra possibilidade é oferecer suporte na tomada de decisões clínicas, capacitando os profissionais a efetuarem diagnósticos e prognósticos informados e atualizados. No entanto, é crucial sempre se recordar da complexidade e singularidade da experiência humana.
Diagnósticos em saúde mental frequentemente envolvem nuances e contextos individuais que são desafiadores de serem capturados apenas por algoritmos. Neste sentido, a IA pode ser uma excelente ferramenta complementar, mas não pode e nem deve substituir o julgamento clínico e a interação humana.
O psicólogo destaca que a utilização da IA no diagnóstico de transtornos é um tema de grande relevância e complexidade, uma vez que a eficácia dos algoritmos depende de conjuntos extensos de dados para treinamento.
Se esses dados não forem representativos ou contiverem vieses, os algoritmos podem fazer diagnósticos imprecisos ou injustos. O que nos leva à privacidade, à coleta e armazenamento de dados de saúde mental que levantam preocupações sobre a vida do paciente e o potencial de uso indevido dessas informações. E aí vem a responsabilidade em caso de diagnóstico incorreto ou negligente, o que pode ser difícil determinar a responsabilidade entre a IA, os desenvolvedores do algoritmo e os clínicos, o que leva ao produto de omissão ou opressão.
Marcos Raul de Oliveira ressalta que, conforme a tecnologia evolui, será crucial abordar essas preocupações de forma proativa, garantindo que ela seja usada de maneira responsável e ética no campo da saúde mental.
Fonte: Olhar Digital
Comentários