No dia 29 de outubro de 2025, a OpenAI atualizou suas Políticas de Uso e Termos de Serviço, deixando mais explícito que o ChatGPT — seu modelo de inteligência artificial — não deve ser utilizado para diagnósticos médicos, interpretação de exames ou qualquer tipo de aconselhamento personalizado em saúde sem a supervisão de um profissional licenciado.
A medida gerou dúvidas entre usuários da área médica sobre o que realmente mudou. Segundo Paulo Henrique Fernandes, advogado e especialista em tecnologia, “as novas diretrizes não adicionam restrições inéditas, mas deixam claro que a IA não deve ser tratada como substituta de um profissional de saúde”.
O QUE ESTÁ VETADO
O ChatGPT não pode fornecer consultoria médica personalizada sem envolvimento direto de um profissional habilitado.
Está vetada a interpretação de exames médicos, como radiografias, tomografias ou ressonâncias magnéticas.
A IA não deve ser usada para diagnóstico ou prescrição de tratamentos, mesmo que em caráter experimental.
O QUE CONTINUA PERMITIDO
Explicações gerais sobre possíveis causas de sintomas
Apoio na compreensão de exames e termos médicos
Orientações sobre quando buscar atendimento médico, especialmente em situações de urgência
Indicação de fontes confiáveis, como o Ministério da Saúde, a OMS e sociedades médicas
A decisão da OpenAI tem caráter preventivo e ético. Ao reforçar os limites, a empresa busca evitar riscos regulatórios e garantir que a IA seja usada com responsabilidade. “O sistema não ficou mais limitado, ele ficou mais claro sobre o que nunca deveria ter sido”, afirma Fernandes.
A inteligência artificial continua sendo uma aliada poderosa na democratização do conhecimento médico, mas não pode — nem deve — substituir o julgamento clínico e a responsabilidade técnica de um profissional de saúde.
As novas políticas já estão em vigor e podem ser consultadas no site oficial da OpenAI.
Felipe Von Zuben – Consultor e Especialista em Inteligência Artificial – Fundador da BRIA Tech | briatech.com.br


