De acordo com o médico Gustavo Khattar de Godoy, um dos maiores desafios éticos no uso da inteligência artificial na medicina está na sua capacidade — ou limitação — de interpretar o contexto humano por trás das decisões clínicas. A prática médica não envolve apenas o diagnóstico com base em dados; ela requer empatia, compreensão de situações pessoais complexas, e sensibilidade cultural. Por mais avançados que sejam os algoritmos, eles ainda não são capazes de replicar a experiência subjetiva de um ser humano.
Uma IA pode identificar padrões em exames laboratoriais ou imagens médicas, mas não consegue captar nuances emocionais, dilemas familiares ou escolhas de vida que muitas vezes influenciam profundamente as decisões sobre tratamentos. Isso levanta a pergunta: até que ponto devemos permitir que sistemas automatizados participem de decisões que afetam vidas humanas em sua totalidade?
Quem é o responsável por erros cometidos pela IA na medicina?
A responsabilidade legal e moral por decisões erradas tomadas com o apoio de sistemas de IA é uma área cinzenta. Quando um médico comete um erro, existem canais legais para avaliar sua responsabilidade. Mas e quando uma IA recomenda um tratamento incorreto, que o médico aceita? Quem é responsabilizado nesse cenário — o desenvolvedor do algoritmo, o hospital, ou o profissional de saúde?

O doutor Gustavo Khattar de Godoy explica que a distribuição de responsabilidade entre humanos e sistemas automatizados ainda não está claramente definida na maioria das jurisdições. Essa lacuna pode gerar insegurança jurídica e desestimular a adoção de tecnologias promissoras, ou pior, permitir que erros aconteçam sem consequências claras para os responsáveis.
Os dados de saúde estão realmente seguros quando usados por sistemas de IA?
O uso de IA na medicina depende fortemente da coleta e análise de grandes volumes de dados pessoais de saúde. Gustavo Khattar de Godoy menciona que isso levanta preocupações importantes sobre privacidade e segurança da informação. O vazamento de dados médicos pode ter consequências graves, desde discriminação em seguros até estigmatização social.
Mesmo com regulamentações como a LGPD (Lei Geral de Proteção de Dados) no Brasil e o GDPR na Europa, ainda há muitos casos de uso indevido ou malicioso de informações sensíveis. Além disso, muitos pacientes não sabem exatamente como seus dados estão sendo utilizados. Transparência, consentimento informado e tecnologias robustas de proteção são indispensáveis para mitigar esses riscos.
Os profissionais da saúde estão preparados para usar a IA com responsabilidade?
Outro desafio ético importante é o preparo dos profissionais da saúde para utilizar ferramentas de IA de maneira crítica e ética. Muitos médicos e enfermeiros não possuem formação técnica suficiente para compreender como os algoritmos funcionam, o que pode levar à dependência cega da tecnologia ou à sua rejeição por medo do desconhecido.
Segundo o doutor Gustavo Khattar de Godoy, a formação médica precisa ser atualizada para incluir competências em ciência de dados, ética digital e pensamento crítico frente à tecnologia. O uso responsável da IA na medicina exige não apenas conhecimento técnico, mas também julgamento humano apurado e compromisso com os valores fundamentais da prática clínica.
Por fim, há uma questão de fundo: como conciliar os avanços acelerados da inteligência artificial com os princípios éticos clássicos da medicina — como beneficência, não maleficência, justiça e autonomia? Para o médico Gustavo Khattar de Godoy, a inovação tecnológica não pode ser um fim em si mesma, mas deve estar a serviço da dignidade humana e do cuidado integral com o paciente.
Autor: Katryna Rexyza