News / Renato Assis Advogados Associados

Médico não faz milagre… nem IA.

O que a resolução do CFM faz, no fundo, é impedir dois extremos igualmente perigosos: a tecnofobia e a tecnolatria.

O CFM publicou em fevereiro a Resolução nº 2.454/2026, que regulamenta o uso da Inteligência Artificial no âmbito da medicina. Muito além de uma mera norma corporativa, trata-se de um verdadeiro marco setorial: reconhece que a IA pode ampliar diagnósticos, otimizar fluxos e apoiar decisões clínicas — mas deixa claro que tecnologia não substitui o médico. E essa frase é o centro de tudo.

A resolução estabelece o óbvio — que, ainda assim, precisa ser dito: a IA deve ser utilizada exclusivamente como ferramenta de apoio, e o julgamento clínico precisa permanecer 100% humano. Até porque a responsabilidade continua sendo 100% humana. Em outras palavras: o algoritmo pode ajudar, direcionar e sugerir. Mas quem decide — e responde pelas consequências — continua sendo o médico. E ninguém mais.

A resolução não chove no molhado. Ela busca evitar que os médicos façam justamente o que profissionais de outras áreas vêm fazendo: terceirizar o senso crítico e assumir o lugar de copiloto — função que deveria caber à própria IA. O problema é que, no caso da medicina, essa inversão não compromete apenas a originalidade do trabalho. Ela pode comprometer a saúde do paciente.

Há ainda um outro risco silencioso: o empobrecimento intelectual do próprio profissional. Pesquisa, análise crítica e raciocínio clínico são partes essenciais do aprendizado médico. Quando essas etapas são terceirizadas para algoritmos, o resultado tende a ser uma perigosa regressão cognitiva.

Vivemos um momento em que ferramentas generativas produzem laudos, sugerem condutas e oferecem probabilidades diagnósticas com impressionante velocidade. Nesse contexto, o risco não está apenas no erro técnico, mas na tentação da delegação acrítica.

A resolução do CFM acerta ao impor três pilares fundamentais para o uso da IA na medicina: validação científica dos sistemas utilizados, certificação regulatória adequada e monitoramento contínuo. O texto dialoga diretamente com o PL nº 2.338/2023 — o marco legal geral da IA no Brasil — que classifica sistemas por risco e exige avaliações de impacto, auditorias e supervisão humana para aplicações de alto risco, como as da saúde.

Não se trata de dificultar ou inviabilizar a inovação tecnológica. Trata-se de impedir que a inovação se transforme em imprudência, trazendo riscos à segurança dos pacientes.

A convergência entre o CFM e o projeto de lei é estratégica. Enquanto o PL estabelece princípios amplos — transparência, explicabilidade e responsabilização — a resolução do CFM traduz esses princípios para o contexto da prática médica. Sem esse detalhamento, a IA em saúde ficaria em um limbo jurídico e regulatório. E limbo regulatório é terreno fértil para erros, litígios e, em casos extremos, tragédias.

Mas há um outro protagonista nessa história: a proteção de dados. Dados de saúde não são apenas dados pessoais — são dados sensíveis. A LGPD exige tratamento reforçado, base legal adequada, minimização de coleta, finalidade específica e segurança da informação.

A resolução do CFM incorpora esses princípios e exige que o paciente seja informado quando a IA for utilizada em seu atendimento. Isso muda o cotidiano dos consultórios e hospitais. A transparência deixa de ser opcional. A governança deixa de ser discurso. E a segurança da informação deixa de ser “coisa da TI”, passando a ser responsabilidade de toda a instituição.

É nesse contexto que surge o papel estratégico do DPO — o Encarregado de Dados. Não como figura decorativa para cumprir checklist de compliance, mas como agente central no ciclo de vida da IA em saúde: desde a aquisição do sistema até sua implementação, operação e auditoria. Se uma instituição adquire uma ferramenta de IA sem avaliação de impacto, sem análise de base legal, sem testes de viés e sem política clara de supervisão humana, o problema não será tecnológico. Será jurídico. E ele chegará rápido.

Os riscos não são teóricos. São inúmeros — e com alto potencial danoso para profissionais e instituições.

Há riscos técnicos: alucinações algorítmicas, vieses estatísticos e modelos opacos.

Há riscos éticos: desumanização do cuidado e redução da autonomia do paciente.

Há riscos jurídicos: responsabilização por falhas e uso de sistemas não certificados.

Há riscos de segurança: vazamentos, ataques cibernéticos e reidentificação de dados.

A resolução do CFM reconhece esses riscos — e isso é positivo. Mas é preciso compreender algo fundamental: regular não significa eliminar o problema. Significa identificá-lo, distribuí-lo e gerenciá-lo com responsabilidade.

A boa notícia é que a norma do CFM também traz segurança. Pela primeira vez, o médico tem diretrizes claras sobre como utilizar IA, sem ultrapassar limites éticos. O paciente ganha direito à informação, e as instituições passam a ter parâmetros objetivos de governança.

No fundo, o que a resolução do CFM faz é impedir dois extremos igualmente perigosos: a tecnofobia e a tecnolatria. Não devemos demonizar a IA. Mas tampouco podemos idolatrá-la.

A Inteligência Artificial não substitui o médico. Ela amplia sua capacidade. Mas toda ampliação de poder exige ampliação de responsabilidade.

A IA não trata o paciente. Não evolui o prontuário. Não responde a processo ético. E não indeniza o paciente em caso de erro. Quem responde é o médico. E a instituição responsável pelo cuidado.

A história da medicina é cheia de avanços tecnológicos que prometeram revolucionar o cuidado. Muitos cumpriram parte dessa promessa. Outros apenas mudaram a forma dos problemas. A Inteligência Artificial certamente transformará a medicina. Mas há um equívoco perigoso em acreditar que tecnologia substitui discernimento humano.

Algoritmos não possuem prudência clínica, responsabilidade ética ou empatia. Não conhecem o peso de uma decisão difícil diante de um paciente real. Se a medicina esquecer isso, a IA não será uma revolução — será apenas mais um instrumento sofisticado para produzir erros em escala.

Renato Assis é advogado há 20 anos, especialista em Direito Médico e Empresarial, professor e empresário. É conselheiro jurídico e científico da ANADEM. Seu escritório de advocacia atua em defesa de médicos em todo o país.

Site: www.renatoassis.com.br

Instagram: @renatoassis.advogado

Artigos Relacionados

Fique por dentro das principais notícias, decisões judiciais e tendências em Direito Médico.
No Blog de Direito Médico do Escritório Renato Assis, você encontra artigos exclusivos sobre os desafios enfrentados por profissionais da saúde, atualizações legislativas, análise de casos reais e discussões sobre éticaresponsabilidade civil e saúde mental.
Nossa equipe acompanha de perto as evoluções do cenário jurídico médico, trazendo informações claras, profundas e relevantes para médicos, clínicas, hospitais e gestores que buscam se manter atualizados e protegidos diante das constantes mudanças do setor.

Fique por dentro das principais notícias, decisões judiciais e tendências em Direito Médico.
No Blog de Direito Médico do Escritório Renato Assis, você encontra artigos exclusivos sobre os desafios enfrentados por profissionais da saúde, atualizações legislativas, análise de casos reais e discussões sobre éticaresponsabilidade civil e saúde mental.
Nossa equipe acompanha de perto as evoluções do cenário jurídico médico, trazendo informações claras, profundas e relevantes para médicos, clínicas, hospitais e gestores que buscam se manter atualizados e protegidos diante das constantes mudanças do setor.