Cada vez aparecen más casos de errores y malos asesoramientos legales en relación con el uso de la inteligencia artificial (IA). No es, de ninguna forma, el único ámbito profesional afectado. Las consultas relacionadas con medicina o con finanzas también pueden dar lugar a verdaderas catástrofes personales si se utilizan en sustitución de un asesoramiento profesional y personal. La última noticia al respecto nos llega, afortunadamente, desde una de las principales plataformas responsables de este caos. OpenAI ha actualizado sus Políticas de uso (vigentes desde el pasado 29 de diciembre de 2025) para dejar más claro un límite que afecta de lleno a los sectores regulados: no puede usarse ChatGPT para ofrecer asesoramiento personalizado que exija habilitación profesional sin la participación adecuada de un profesional acreditado.
Desde Kernel Legal estamos convencidos de que toda solución legal requiere de un análisis personalizado, realizado por un equipo de profesionales formado, actualizado y capaz de comprender el complejo mundo normativo y sus entresijos. Creemos, además, en la enorme responsabilidad que implica nuestro trabajo, y censuramos la posibilidad de sustituir este tipo de asesoramiento recurriendo a herramientas de IA sin intervención de un profesional. Si necesitas ayuda el cualquier asunto con una dimensión jurídica, ponte en contacto con nuestro despacho.
El uso de la IA como sustituto de un abogado: una práctica peligrosa
La utilización de la IA como sustituta de un asesoramiento profesional puede poner en peligro a las personas y empresas que recurran a esta herramienta de forma aislada. Así, aunque somos defensores de cualquier herramienta que ayude y facilite el trabajo de los profesionales colegiados, somos plenamente conscientes de que la intervención personal es esencial para prestar un servicio de calidad y sin errores. Otro punto clave consiste en hacer un uso responsable de estas herramientas: cada vez surgen más casos en los que abogados poco profesionales citan jurisprudencia o normativa que no se aplica al caso o que ni siquiera pertenece al ordenamiento jurídico del país en cuestión.
Como ejemplo, muy recientemente hemos conocido el caso de un abogado que presentó un recurso de apelación en el que citaba jurisprudencia e informes oficiales presuntamente generados por herramientas de inteligencia artificial. La Sala de lo Penal del Tribunal Superior de Justicia de Canarias (TSJC) ha acordado investigar una posible falta a la buena fe procesal debido a esta práctica.
En concreto, el Tribunal detectó que el abogado incluyó en su recurso diversas citas de jurisprudencia supuestamente «espurias» o «apócrifas», además de una referencia a un informe del Consejo General del Poder Judicial sobre la credibilidad del testimonio infantil del que, de igual forma, el Tribunal «tampoco tiene constancia de que exista».
Estos hechos «parecen evidenciar una conducta reveladora de la palmaria negligencia de quien, tenido por experto en normas procesales y respetuoso con los principios deontológicos de su profesión, fio su trabajo, sin mayor revisión, a lo que el algoritmo le propuso, omitiendo la diligencia de verificar la existencia de lo que citaba, confiando acaso en que la abundancia de referencias no solo pasaría inadvertida a este Tribunal, sino que infundiría autoridad a sus asertos (probablemente de idéntica factura que las citas)».
Desde nuestro despacho no podemos dejar de censurar este tipo de prácticas, pero recordando al mismo tiempo que no se trata, en absoluto, de un caso que pueda extrapolarse a la generalidad de la profesión; también celebramos una contundente respuesta institucional y judicial al respecto.
De todo esto se desprende el alcance limitado que tiene, a día de hoy, la inteligencia artificial como herramienta que pueda sustituir en modo alguno la labor de un abogado colegiado. La intervención de un profesional es en todo caso necesaria y es preciso cotejar la veracidad de cualquier sugerencia legal obtenida a través de cualquier herramienta de IA.
¿Qué dice la nueva Política de uso de OpenAI?
La nueva Política de uso revisada de OpenAI establece que sus herramientas no deben utilizarse para ofrecer asesoría personalizada que requiera una licencia profesional, como es el caso del Derecho, la medicina o las finanzas, sin la participación apropiada de un profesional acreditado. Esto no significa que la IA vaya a dejar de tratar estos temas, pero sí invita a valorar que estas búsquedas son útiles únicamente de cara a obtener información general, comprensión de conceptos, explicación de marcos normativos o preparación de documentación. Lo que la compañía pretende evitar es que el sistema se perciba como «sustituto» de la responsabilidad profesional en casos concretos.
En la práctica, tal y como resume el Ilustre Colegio de Abogados de Madrid (ICAM), estas son las consecuencias de la nueva política:
- General sí; caso concreto, con cautelas. Se mantiene el uso para aprendizaje y orientación general, pero se restringe pedir instrucciones aplicadas a hechos personales sin intervención profesional.
- Impacto directo en el ámbito jurídico. Para la abogacía, el mensaje es claro: la IA puede apoyar (resúmenes, borradores, checklist, análisis de estructura), pero la revisión y validación debe recaer en una persona colegiada cuando el resultado sea un consejo profesional.
- Finanzas también entra en el perímetro. En paralelo, OpenAI prohíbe automatizar ciertas acciones sensibles (por ejemplo, automatizar operaciones de inversión) y refuerza la idea de supervisión humana en dominios de alto impacto.
- No a decisiones «críticas» sin revisión humana. Las políticas incluyen la prohibición de automatizar decisiones de alto riesgo en ámbitos como crédito, seguros, vivienda, empleo (entre otros) sin revisión humana, precisamente por el potencial de daño y la exigencia de garantías.
- Más que ética: gestión de riesgo y expectativas. Varias lecturas públicas de la actualización destacan que el objetivo es acotar usos indebidos y responsabilidades, evitando que terceros presenten la salida del modelo como si fuera criterio profesional habilitado.
En conjunto, el cambio apunta a un escenario híbrido: la tecnología gana peso como herramienta de apoyo, pero la responsabilidad (y la trazabilidad del criterio) sigue anclada en el profesional.
OpenAI opera de este modo teniendo en cuenta que la IA puede generar información incorrecta o imprecisa si se le solicita una recomendación específica. En ámbitos sensibles como el Derecho, los errores pueden tener consecuencias graves (decisiones incorrectas, pérdida de derechos, obligaciones mal interpretadas). Al reforzar estos límites, tal y como explica PymeLegal, OpenAI busca evitar que los usuarios confíen en respuestas que parecen profesionales pero no lo son.
Por otro lado, el hecho de que una IA ofrezca asesoría específica sin supervisión humana puede exponer tanto a OpenAI como a sus usuarios a riesgos legales y regulatorios. El cambio también responde a un entorno normativo global en transformación, donde algunos países están empezando a exigir límites claros al uso de IA en áreas reguladas —como ocurre con la Ley de IA de la Unión Europea, que impulsa estándares de seguridad y responsabilidad.
En definitiva, OpenAI deja claro que la tecnología es una herramienta de apoyo, no un sustituto del abogado, y fomenta una colaboración IA + profesional. Solo un abogado puede interpretar, adaptar y aplicar todo el cuerpo de conocimiento legal a un caso concreto, con responsabilidad y rigor.
