OpenAI actualizó el 29 de octubre de 2025 sus políticas de uso y reforzó que ChatGPT no puede dar consejo profesional a la medida (médico o legal). Podrá explicar conceptos de forma general y sugerir acudir a profesionales. Medios y pruebas independientes comprobaron el cambio y su alcance.
¿Qué cambió exactamente?
- Nueva redacción de políticas (29/10/2025): OpenAI unificó sus políticas de uso y prohíbe usar ChatGPT para asesoría personalizada que requiera licencia profesional (médica, legal, etc.) sin la intervención adecuada de un experto.
- Cobertura y verificación independiente: medios comprobaron con preguntas reales que ChatGPT rechaza peticiones de consejo médico o legal a la medida, mientras mantiene explicaciones generales.
- Aclaración clave: no es un “apagón” de temas de salud o derecho; es una línea dura contra la personalización profesional. ChatGPT sí puede seguir explicando salud y derecho en general, con advertencias y derivación a especialistas.
¿Qué sí puede hacer ChatGPT?
- Aclarar dudas generales de salud (¿qué es la migraña?, ¿qué significan estos exámenes?) o legales (¿qué es un arrendamiento?, ¿cuáles son los pasos comunes de un trámite?).
- Elaborar listas de verificación/preguntas para llevar al médico o al abogado.
- Resumir fuentes públicas y guías oficiales.
¿Qué no hará?
- Diagnosticar o recomendar tratamientos para tu caso personal.
- Redactar estrategias legales específicas, ni decir “qué te conviene firmar/prometer” en tu situación.
- Sustituir la revisión de un profesional certificado.
¿Por qué es importante?
- Reduce sesgos en las decisiones de alto riesgo y alinea el uso de la IA responsable en sectores delicados.
- Es importante que los usuarios tomen la IA como herramienta educativa y punto de partida; la decisión final es con tu médico/abogado.
¿Entonces ChatGPT ya no habla de salud o leyes?
Sí habla, pero sin personalizar. Piensa en un manual o enciclopedia con avisos de seguridad.