Em uma cúpula organizada pelo Journal of the American Medical Association, especialistas alertaram que o uso de inteligência artificial na saúde pode tornar mais difícil identificar quem é responsável quando algo dá errado em um atendimento médico.
O encontro e a preocupação central
O evento reuniu médicos, fornecedores de tecnologia, órgãos reguladores, seguradoras, especialistas em ética, advogados e economistas. O relatório final apontou que, diante de um diagnóstico incorreto — por exemplo —, pacientes podem ter dificuldade para comprovar prejuízos ou para localizar quem de fato foi o responsável pelo erro. Mas como responsabilizar quando o erro vem de um algoritmo integrado ao sistema de saúde?
Desafios práticos
O documento chama atenção para vários entraves processuais: a possibilidade de deslocamento mútuo de responsabilidade entre profissionais de saúde, instituições e fornecedores; cláusulas contratuais que transferem obrigações; e litígios complexos sobre indenizações. Tudo isso pode tornar ações judiciais mais difíceis e demoradas.
Além disso, os participantes destacaram que muitas ferramentas de IA já são usadas na prática clínica, mas nem todas são adequadas para uso médico e a maioria não passou por supervisão rigorosa por órgãos reguladores.
Recomendações
Entre os especialistas citados está o professor Glenn Cohen, da faculdade de direito de Harvard. O relatório recomenda a criação de uma legislação clara para avaliação prévia dessas ferramentas, condicionando o uso clínico ao cumprimento de requisitos como eficácia comprovada e supervisão técnica.
No relatório, os autores defendem a elaboração de normas e mecanismos regulatórios que definam critérios de avaliação e responsabilização, de modo que o uso da IA na medicina dependa de requisitos formais e ofereça mais segurança a médicos e pacientes.
O debate sobre essas recomendações também repercutiu em instituições de saúde no estado da Bahia, onde gestores e profissionais acompanharam as propostas de regulação e avaliação técnica antes de uma adoção em larga escala.
Em resumo: o documento não propõe simplesmente frear a tecnologia, mas sim criar regras e avaliações claras para que a IA possa ser usada de forma segura e responsável na medicina.