Inteligência Artificial na Medicina e os Novos Limites Éticos da Atuação Médica
- Ricardo Stival
- há 1 dia
- 8 min de leitura
A incorporação da inteligência artificial à rotina médica deixou de ser uma hipótese distante. Ela já está presente em sistemas de apoio diagnóstico, ferramentas de triagem, análise de exames, organização de fluxos assistenciais, automação administrativa, pesquisa clínica e educação continuada. O que faltava, no Brasil, era uma norma específica que delimitasse, com clareza, até onde essa tecnologia pode ser utilizada sem comprometer a ética médica, a autonomia profissional e a segurança do paciente.

Essa lacuna foi preenchida pela Resolução CFM nº 2.454/2026, que normatiza a pesquisa, o desenvolvimento, a auditoria, o monitoramento, a capacitação e o uso responsável de soluções de inteligência artificial na Medicina, com foco em segurança, transparência, proteção de direitos fundamentais e preservação da relação médico-paciente.
A relevância dessa regulamentação não está apenas em permitir o uso da IA. O ponto central é que o CFM reconhece a utilidade da tecnologia, mas reafirma, de forma expressa, que ela não substitui o médico, não desloca a responsabilidade profissional e não rompe os deveres éticos que estruturam a prática médica. Em outras palavras, a inteligência artificial entra na Medicina como ferramenta de apoio, mas continua juridicamente subordinada ao julgamento humano e à responsabilidade pessoal do profissional.
Isso altera o eixo do debate. A questão deixa de ser apenas se a IA pode ou não ser usada. A pergunta correta passa a ser outra: como utilizar essa tecnologia sem ultrapassar os limites éticos e sem criar, para o próprio médico, um novo campo de exposição profissional.
A IA foi autorizada como apoio, não como substituição
A resolução assegura expressamente ao médico o direito de utilizar ferramentas de inteligência artificial como apoio à prática médica, à decisão clínica, à gestão em saúde, à pesquisa científica e à educação médica continuada. Também reconhece o direito do profissional de conhecer o funcionamento, as limitações, os riscos e o grau de evidência científica das soluções adotadas, bem como o direito de recusar sistemas sem validação científica adequada, sem certificação pertinente ou incompatíveis com os princípios éticos, técnicos ou legais da profissão.
Esse ponto é decisivo porque a norma não trata a IA como ferramenta neutra nem automaticamente benéfica. O CFM parte da premissa de que o médico deve ter liberdade crítica para aceitar ou rejeitar a ferramenta, preservando sua autonomia profissional. A decisão final sobre diagnóstico, prognóstico, terapêutica e qualquer ato médico permanece, em todos os casos, com o profissional.
Na prática, isso impede uma deturpação cada vez mais comum no ambiente digital. A existência de um sistema sofisticado não autoriza a ideia de que a decisão “veio da máquina”. A resolução impede esse deslocamento e preserva o núcleo da atuação médica. A tecnologia pode organizar informação, apontar padrões, sugerir hipóteses e apoiar a análise, mas não passa a ocupar o lugar do raciocínio clínico.
Os principais efeitos da nova resolução na prática
A leitura integral da norma é indispensável, mas, em termos práticos, os principais efeitos podem ser resumidos nos seguintes eixos:
Ponto Central | Impacto Prático |
A decisão continua sendo do médico | A inteligência artificial pode auxiliar na análise e no suporte clínico, mas a decisão final sobre diagnóstico, conduta e tratamento permanece sob responsabilidade do médico. |
O paciente deve ser informado | O uso relevante de inteligência artificial no cuidado, no diagnóstico ou no tratamento deve ser comunicado ao paciente de forma clara e compreensível. |
A IA não pode substituir a comunicação médica | Diagnóstico, prognóstico e decisões terapêuticas não podem ser comunicados ao paciente por sistemas de IA sem a devida mediação humana. |
A proteção de dados passa a ter peso central | O uso de IA deve observar padrões rigorosos de privacidade, segurança da informação e proteção de dados sensíveis em saúde. |
A responsabilidade médica é mantida | O uso da ferramenta não transfere a responsabilidade profissional. O médico continua responsável pela avaliação crítica e pela conduta adotada. |
O médico pode recusar sistemas inadequados | O profissional não é obrigado a utilizar ferramentas sem validação adequada, sem segurança suficiente ou incompatíveis com os princípios éticos da profissão. |
As instituições passam a ter dever de governança | Clínicas, hospitais e serviços de saúde que utilizem IA devem adotar mecanismos internos de controle, supervisão e, em certos casos, estrutura formal de governança. |
Esse resumo, embora útil, não substitui a leitura técnica da resolução. Ele apenas mostra que o CFM não tratou o tema como simples liberação tecnológica. O Conselho estruturou um modelo de uso responsável, com deveres claros para médicos e instituições, preservando a centralidade ética da atuação profissional.
A responsabilidade médica permanece integral
Talvez o ponto mais sensível da norma esteja justamente aqui. O médico continua sendo o responsável final pelas decisões clínicas, diagnósticas, terapêuticas e prognósticas, mesmo quando utiliza sistemas de IA como apoio. A resolução impõe o dever de exercer julgamento crítico sobre as recomendações fornecidas pela ferramenta, avaliar sua coerência com o quadro clínico, com as evidências científicas e com as boas práticas, manter-se atualizado sobre as capacidades, limitações, riscos e vieses do sistema e registrar em prontuário o uso da IA como suporte à decisão.
Além disso, o texto é expresso ao afirmar que o uso da inteligência artificial não afasta o cumprimento do Código de Ética Médica nem das demais normas do Conselho Federal de Medicina, permanecendo integral a responsabilidade ético-profissional do médico pelos atos praticados com apoio desses sistemas. O descumprimento dos deveres previstos na resolução pode gerar sanções éticas, sem prejuízo das responsabilidades civil e penal cabíveis.
Essa parte da norma precisa ser lida com muita atenção. A IA não funciona como escudo. O médico não poderá invocar a ferramenta como justificativa automática para uma conduta inadequada. A proteção só existe quando o uso for diligente, tecnicamente justificável, criticamente supervisionado e compatível com a realidade clínica do caso.
Na prática, isso exige mudança de postura. Não basta aderir à plataforma porque ela é moderna, eficiente ou comercialmente atraente. O profissional passa a ter o dever de saber por que a está usando, como a está usando e até que ponto aquela recomendação realmente faz sentido no contexto clínico concreto.
A relação médico-paciente não pode ser substituída pela automação
A resolução trata de forma direta de um ponto extremamente sensível. O CFM determina que o uso da inteligência artificial não pode comprometer a relação médico-paciente, a escuta qualificada, a empatia, a confidencialidade e o respeito à dignidade da pessoa humana. O paciente tem o direito de ser informado, de forma clara e acessível, quando modelos, sistemas ou aplicações de IA forem utilizados como apoio relevante em seu cuidado, diagnóstico ou tratamento. Também é vedado delegar à IA, sem a devida mediação humana, a comunicação de diagnósticos, prognósticos ou decisões terapêuticas.
Esse trecho é especialmente importante porque impede uma distorção que tende a crescer com a popularização de assistentes automatizados e sistemas generativos. A ferramenta pode apoiar análise, organização e triagem, mas não pode ocupar o espaço mais sensível da medicina, que é o momento em que o médico comunica, orienta, acolhe e conduz o paciente.
A norma ainda reforça que o paciente pode recusar, de maneira informada, o uso de modelos, sistemas e aplicações de IA. Isso demonstra que a tecnologia, embora autorizada, não entra na prática médica como elemento soberano. Ela continua subordinada à autonomia do paciente e à mediação clínica do médico.
Dados de saúde, sigilo e segurança ganham ainda mais importância
Como toda solução de IA depende fortemente de dados, a resolução dedicou parte relevante do texto à proteção da informação em saúde. O médico deve zelar pela confidencialidade, integridade e segurança dos dados utilizados por modelos e sistemas de IA, observando a legislação vigente, especialmente no que se refere a dados pessoais sensíveis. O compartilhamento de informações deve ocorrer apenas quando estritamente necessário e em bases juridicamente adequadas. Além disso, é vedado utilizar sistemas que não garantam padrões mínimos de segurança da informação compatíveis com a natureza dos dados tratados.
A própria resolução também determina que os dados usados no desenvolvimento, treinamento, validação e implementação dessas soluções devem observar rigorosamente a LGPD e as normas específicas de segurança da informação em saúde, com proteção eficaz contra destruição, perda, alteração, acessos não autorizados ou vazamentos.
Na prática, isso eleva significativamente o grau de cuidado exigido do médico e da instituição. O uso informal, apressado ou tecnicamente ingênuo de ferramentas de IA passa a ser ainda mais perigoso. Inserir dados sensíveis em plataformas sem controle, utilizar soluções sem clareza sobre armazenamento, retenção ou uso secundário das informações, ou recorrer a ferramentas sem segurança mínima pode gerar um problema ético e jurídico que extrapola a simples discussão tecnológica.
A partir da nova norma, a forma como os dados circulam dentro do ecossistema de IA deixa de ser uma preocupação acessória. Ela passa a compor diretamente o campo da responsabilidade médica e institucional.
A resolução cria um dever real de governança institucional
Um dos pontos mais sofisticados do texto está na lógica de governança. A resolução estabelece que instituições médicas públicas ou privadas que desenvolvam ou utilizem sistemas de IA devem realizar avaliação preliminar para definir o grau de risco da solução, considerando impacto nos direitos fundamentais, criticidade do contexto de uso, complexidade, grau de autonomia do modelo e sensibilidade dos dados. A norma classifica os sistemas em risco baixo, médio, alto ou inaceitável.
Além disso, a instituição médica ou o médico que desenvolver ou contratar sistema de IA deve estabelecer processos internos de governança aptos a garantir segurança, qualidade e ética. Nas instituições que adotarem sistemas próprios, a resolução exige a criação de uma Comissão de IA e Telemedicina, sob coordenação médica e subordinada à diretoria técnica, justamente para assegurar o cumprimento das diretrizes de governança e o uso ético do sistema.
Esse ponto muda profundamente a forma como clínicas, hospitais e serviços de saúde devem tratar o tema. IA não é mais apenas assunto de fornecedor, do setor de tecnologia ou da área de inovação. Passa a ser tema de estrutura institucional, responsabilidade organizacional e supervisão técnica.
A norma também reforça transparência, prevenção de vieses discriminatórios, mecanismos internos de governança, interoperabilidade e acesso de órgãos de controle a relatórios de auditoria e monitoramento, sempre dentro dos limites legais. Isso mostra que o CFM não quer apenas permitir o uso da tecnologia. Quer que ela seja incorporada dentro de um ambiente minimamente auditável, controlado e tecnicamente supervisionado.
A autonomia do médico foi protegida de forma expressa
Outro acerto relevante da resolução foi proteger claramente a autonomia do médico. A norma determina que os sistemas de IA devem ser concebidos e implantados de modo a preservar essa autonomia, sem restringir ou substituir a autoridade final do profissional. A decisão sobre diagnóstico, prognóstico, prescrição ou qualquer ato médico permanece com o médico, que pode acolher ou rejeitar as sugestões da IA de acordo com seu próprio julgamento técnico.
Esse ponto é decisivo porque, na prática, já existe o risco de instituições tentarem transformar algoritmos em padrão obrigatório de conduta, seja por redução de custos, padronização de atendimento, ganho de escala ou controle interno. A resolução se antecipa a esse risco e impede que o médico seja rebaixado a mero executor de recomendações automatizadas.
Para o profissional, isso representa proteção institucional importante. A tecnologia não pode se transformar em comando obrigatório contra o raciocínio clínico. A norma preserva o espaço de decisão individual e reafirma que a medicina continua sendo uma atividade intelectual, ética e humana.
O que realmente muda daqui em diante
A Resolução CFM nº 2.454/2026 não foi feita para proibir a inteligência artificial. Ao contrário, ela reconhece a inevitabilidade da tecnologia e cria um ambiente normativo para sua incorporação responsável. O que a norma faz é impor maturidade ética, responsabilidade documental, transparência, proteção de dados e limites claros para impedir que a IA avance sobre espaços que continuam pertencendo ao médico e ao paciente.
Para o profissional, isso significa que a inteligência artificial poderá ser usada, mas não de forma acrítica, informal ou intuitiva. O médico precisará conhecer a ferramenta, compreender sua finalidade, avaliar seus limites, preservar sua autonomia, informar o paciente quando houver uso relevante no cuidado, registrar o suporte tecnológico em prontuário e manter supervisão efetiva sobre a decisão final.
O ponto central é simples. A inteligência artificial entrou definitivamente na Medicina, mas entrou como instrumento subordinado à ética médica, à autonomia do paciente e à responsabilidade pessoal do profissional. O médico que tratar a IA como mera inovação operacional corre o risco de subestimar a carga ética e jurídica do tema. Já o médico que compreender que a tecnologia amplia apoio, mas não reduz dever de prudência, estará em posição muito mais segura para utilizá-la de forma legítima, eficiente e compatível com as exigências do Conselho.





































