top of page

Defesas Médicas no CRM e Respostas elaboradas pelo ChatGPT, o perigo das manifestações feitas com IA

  • Foto do escritor: Ricardo Stival
    Ricardo Stival
  • há 21 horas
  • 5 min de leitura

A inteligência artificial tornou-se uma ferramenta muito comum no cotidiano das pessoas, otimizando desde a organização de rotinas até a estruturação de ideias. Nesse cenário, muitas pessoas acabam utilizando a inteligência artificial como um conselheiro pessoal para soluções da sua vida pessoal.


 

Nesse sentido, também é compreensível que muitos médicos, ao necessitarem de orientação jurídica, recorram a ferramentas como o ChatGPT para buscar um primeiro direcionamento, "pesquisando" o que fazer ou até mesmo redigir uma manifestação ou até mesmo como elaborar uma defesa para uma sindicância no CRM, por exemplo.

 

Contudo, essa atitude, embora compreensível, embute um risco silencioso e crescente que pode comprometer seriamente a defesa do médico.

 

Este artigo não se propõe a ser um ataque à tecnologia, mas sim um alerta responsável sobre um erro específico, pois ao tratar a inteligência artificial como uma fonte confiável de orientação jurídica e estratégia de defesa, a IA, por sua própria natureza, não substitui a análise técnica, a avaliação de provas e a compreensão profunda das regras de um trâmite processual.

 

No âmbito do CRM, por exemplo, o que um médico assina em sua defesa não é apenas "uma explicação"; é um documento que pode e será usado como prova, vinculando sua narrativa desde o início.

 

Um dos efeitos mais nocivos do uso da IA em casos jurídicos não é simplesmente o erro, mas a falsa segurança que ela transmite. As ferramentas de IA são programadas para responder em um tom confiante e agradável, muitas vezes validando a conduta do médico e oferecendo garantias como "você agiu corretamente" ou "as chances de êxito são altas". O problema é que a chance de êxito em um processo não é algo que se "calcula" com base em uma narrativa unilateral. Ela depende de uma análise criteriosa de elementos concretos, sobretudo do que está documentado como prova e a cronologia dos fatos, alinhando a coerência interna do relato com as provas disponíveis, principalmente as alegações da outra parte e as possíveis contradições.

 

A IA desconhece esses fatores na profundidade necessária e, quando afirma uma "probabilidade", está, na verdade, apenas completando um raciocínio com a aparência de análise, o que pode levar o médico a responder de forma impulsiva e a se expor desnecessariamente.

 

Em uma defesa médica, o ponto central raramente é "saber o que a lei diz", mas sim o que pode ser provado. Uma manifestação tecnicamente segura exige uma leitura integral de documentos e a sua validade jurídica, com a organização precisa da cronologia dos acontecimentos, a identificação do que é fato e do que é alegação, e uma estratégia narrativa compatível com os documentos e acima de tudo a própria lei.

A IA não realiza essa análise. Ela não "julga" uma prova, não percebe o peso de uma contradição nem antecipa como uma frase pode ser interpretada contra o médico. Pior ainda, o profissional, sob pressão, tende a pedir que a IA "monte uma manifestação ou defesa completa", o que geralmente resulta em um amontoado de explicações que abrem flancos para a acusação.

 

Não é raro encontrar situações em que o médico elabora manifestações ou defesas por conta própria com o auxílio de uma IA, acreditando que está "resolvendo" o problema, mas está gerando um transtorno ainda maior do que a própria denúncia/acusação recebida, por exemplo.

 

Dessas situações, ocorrem principalmente quando um médico é denunciado no CRM e a sindicância inicial evolui para um processo ético-profissional e ele finalmente busca assessoria técnica. No entanto, a narrativa inicial já está registrada e consolidada nos autos. O que foi escrito passa a ser confrontado com prontuários, e-mails, depoimentos e perícias. Qualquer excesso, omissão relevante ou contradição pode se tornar o principal ponto de ataque. A tentativa de "se explicar logo" acaba por dar mais corpo ao procedimento, em vez de encerrá-lo.

 

Outro risco grave é a chamada "alucinação" de conteúdo técnico. Aparece com frequência, em textos gerados por IA, a citação de jurisprudências inexistentes ou a invenção de "precedentes" do CRM. É fundamental compreender que o trâmite de um processo ético é sigiloso. Não existe um repositório público e rastreável de "decisões do CRM" que possa "ensinar" uma IA da mesma forma que ela aprende com a jurisprudência de tribunais (e que ainda sim também são fontes questionáveis, pois as inteligências artificiais tendem a inventar informações nesse sentido).

 

Na prática, quando a IA afirma que "o Conselho costuma decidir assim", ela está gerando um texto com aparência de autoridade, mas sem base na realidade. O médico, ao usar essas referências inventadas em uma manifestação formal, acaba por minar a credibilidade de sua própria defesa.

 

Além disso, o procedimento ético possui uma lógica e regras próprias que a IA não aplica com segurança. Sindicâncias e processos no CRM não seguem o modelo de uma petição judicial padrão. A dinâmica, a finalidade e a lógica do julgamento são distintas. Textos gerados por IA frequentemente importam uma linguagem e uma estrutura do processo judicial, sugerindo linhas de defesa genéricas que podem ser imprudentes do ponto de vista estratégico.

 

Por fim, há a questão do sigilo. Para obter uma resposta "mais precisa", muitos médicos inserem na IA detalhes do caso, como diagnósticos, condutas e trechos de prontuário. Esse hábito, mesmo sem a intenção de expor informações, gera riscos adicionais, pois em Direito Médico, o sigilo não é um detalhe, mas um dever ético que pode gerar um problema paralelo.

 

Em suma, o maior perigo da IA para um médico em trâmites jurídicos não é apenas o erro, mas a capacidade de convencer o médico de que tudo está sob controle, com base em suposições e textos que parecem técnicos, mas que não foram construídos a partir de uma análise de provas, do rito processual e de uma estratégia de defesa.

Por isso, ao utilizar ferramentas de IA, o médico pode se orientar para compreender em linhas gerais do que se trata o trâmite, mas jamais se basear em respostas de inteligência artificial para conduzir o caso. Pois da mesma forma que um paciente não pode se orientar por uma IA com base no resultado de um exame médico ou sintomas relatados para uma IA, o mesmo serve para o médico. Assim como você não recomendaria a um paciente que confiasse cegamente em um diagnóstico gerado por IA sem a avaliação de um profissional qualificado, a defesa jurídica também exige o mesmo rigor e responsabilidade.

 

Se você recebeu uma notificação, a postura mais segura é evitar o impulso de resolver a questão sozinho ou de delegar decisões a uma ferramenta automatizada. Defesa não é apenas um "texto"; é estratégia técnica baseada em documentos, fatos verificáveis e na compreensão profunda do procedimento, principalmente pois em casos como processo ético, haverá a necessidade de atuação pessoal do advogado em audiências, sobretudo em depoimentos e oitivas, assim como principalmente em sessão de julgamento com sustentação oral perante os conselheiros do CRM ou em necessidade de recurso, ao Conselho Federal de Medicina.

 

Ricardo Stival é Advogado, Professor de Pós-Graduação de Direito Médico,  Especialista em Ações Judiciais de Erro Médico, Sindicâncias e Processos Éticos no CRM e CRO, com atuação em todo o Brasil
Ricardo Stival - Advogado de Direito Médico

Ricardo Stival - Advogado e Professor de Direito Médico

bottom of page