Reglamento Anti-IA en Doctorado 2026: Aspectos Críticos del Marco Español
El debate sobre el reglamento anti-IA doctorado España marco ha dominado las conversaciones académicas desde que las primeras políticas universitarias sobre IA comenzaron a proliferar en 2023. En 2026, el panorama es complejo, fragmentado y a menudo contradictorio: la plena aplicabilidad del Reglamento (UE) 2024/1689 de Inteligencia Artificial —el AI Act europeo— llegó el 2 de agosto de 2026, mientras que la regulación específica para los programas de doctorado españoles continúa en construcción, con posiciones que oscilan entre la restricción cautelar y la integración supervisada. Este artículo ofrece un análisis riguroso del estado de este marco regulatorio, sus implicaciones prácticas para los doctores en formación y los aspectos críticos que cualquier doctorando español debe conocer en 2026.
La confusión terminológica es el primer obstáculo. Lo que coloquialmente se denomina «reglamentos anti-IA» abarca en realidad tres categorías distintas de instrumentos normativos: (1) prohibiciones de sistemas específicos de IA en contextos educativos de alto riesgo; (2) obligaciones de declaración del uso de IA; y (3) restricciones al peso que los productos asistidos por IA pueden tener en la evaluación académica. Distinguir entre estas categorías es indispensable para interpretar correctamente el marco aplicable a cada situación concreta de un doctorando. El marco ético para el uso de IA en tesis doctorales proporciona el contexto ético en el que se inscribe este análisis regulatorio.
El AI Act europeo y su aplicación al doctorado
El Reglamento (UE) 2024/1689 de Inteligencia Artificial —el AI Act— es el marco regulatorio de referencia de nivel superior. Publicado en el Diario Oficial de la Unión Europea el 12 de julio de 2024 y plenamente aplicable desde el 2 de agosto de 2026, establece un sistema de clasificación de sistemas de IA por nivel de riesgo que tiene implicaciones directas —aunque no siempre evidentes— para los programas de doctorado.
El Anexo III del AI Act enumera los sistemas de IA de alto riesgo. La Categoría 3 incluye específicamente los sistemas de IA utilizados en «educación y formación profesional» para: la evaluación de resultados de aprendizaje, la detección de comportamientos prohibidos en estudiantes y la determinación del acceso a instituciones educativas. Sin embargo, es crucial distinguir lo que el AI Act regula de lo que no regula:
- Lo que el AI Act sí regula en educación superior: los sistemas de IA utilizados por las instituciones para evaluar a los estudiantes, detectar comportamientos irregulares (detectores de plagio basados en IA) o determinar el acceso a programas doctorales. Estas herramientas, cuando son de alto riesgo, deben cumplir obligaciones específicas: documentación técnica, registro, supervisión humana, transparencia y precisión.
- Lo que el AI Act no prohíbe directamente: el uso de herramientas de IA por parte de los propios estudiantes y doctores en formación para la elaboración de su investigación. Esta actividad no está tipificada como sistema de IA de alto riesgo en el Reglamento.
En consecuencia, el AI Act por sí solo no establece prohibiciones generales del uso de IA por parte de los doctores. Lo que establece son obligaciones para las instituciones que despliegan sistemas de IA en la evaluación académica. La Comisión Europea (2024) ha aclarado que la línea entre el «uso de herramientas de apoyo a la investigación» y los «sistemas de IA de alto riesgo en educación» depende del grado de autonomía del sistema y de su impacto en decisiones académicas formales.
Posición de ANECA: acreditación doctoral y IA
La Agencia Nacional de Evaluación de la Calidad y Acreditación (ANECA) es el organismo que acredita los programas de doctorado en España y evalúa los méritos de los investigadores para la acreditación académica. Su posición sobre la IA en el doctorado en 2026 puede caracterizarse como de cautela activa con integración supervisada.
ANECA no ha publicado hasta abril de 2026 ningún reglamento específico que prohíba el uso de IA en la elaboración de tesis doctorales. Sin embargo, sus criterios de evaluación para la acreditación de programas de doctorado incluyen la garantía de que los procesos de supervisión doctoral aseguran la originalidad y la autoría intelectual de las tesis producidas. Esto tiene implicaciones indirectas:
- Los programas de doctorado que no dispongan de protocolos claros para la gestión del uso de IA en las tesis pueden ver comprometida su acreditación en las próximas evaluaciones.
- Los criterios de «originalidad» y «contribución original al conocimiento» que ANECA utiliza para evaluar tesis doctorales se interpretan como incompatibles con la delegación de las aportaciones intelectuales centrales de la tesis en sistemas de IA.
- La acreditación como investigador (figuras de Ayudante Doctor, Contratado Doctor, Titular) requiere demostrar producción científica propia, lo que implica que las publicaciones derivadas de la tesis deben reflejar la autoría intelectual genuina del candidato.
La guía sobre privacidad, RGPD y AI Act en tesis doctorales desarrolla las implicaciones específicas de la normativa de protección de datos en el uso de herramientas de IA que procesan datos personales de participantes en investigación doctoral.
Marco CRUE: directrices para las universidades españolas
La Conferencia de Rectores de las Universidades Españolas (CRUE) es el organismo que coordina las posiciones de las universidades públicas españolas y que ha publicado las directrices más influyentes sobre IA en educación superior en el período 2023-2026. El documento de referencia es el «Marco para el uso ético y responsable de la inteligencia artificial en las universidades españolas», cuya versión actualizada incorpora las obligaciones del AI Act.
Los principios fundamentales del marco CRUE en relación con el doctorado son:
- Transparencia: toda producción académica que haya sido asistida por IA debe declararlo explícitamente, especificando las herramientas utilizadas y las tareas realizadas.
- Responsabilidad humana: el investigador es el responsable de la veracidad, la originalidad y la integridad de su trabajo. La IA no puede ser coautora ni puede eximirle de responsabilidad sobre errores u omisiones.
- Proporcionalidad: el nivel de supervisión requerida sobre el uso de IA debe ser proporcional al riesgo potencial de la aplicación. Un corrector ortográfico basado en IA requiere una supervisión distinta que un sistema que genera secciones de texto de la tesis.
- Formación en competencias digitales: las universidades deben garantizar que los doctores en formación reciben formación sobre el uso ético y metodológicamente riguroso de la IA.
Este marco es compatible con el uso de herramientas como Tesify en el proceso doctoral, siempre que el doctorando mantenga la supervisión intelectual de los procesos asistidos y declare su uso conforme a las directrices del programa. La revisión del estado del arte de la IA generativa en investigación española contextualiza estas directrices en el panorama más amplio de la política científica española.
El mosaico regulatorio universitario: análisis de posiciones
En ausencia de un reglamento estatal vinculante específico para el doctorado, cada universidad española ha adoptado su propia posición, creando lo que los expertos denominan un «mosaico regulatorio» de difícil navigación para los doctores en movilidad o en cotutela internacional. En 2026, pueden identificarse tres modelos regulatorios principales:
Modelo restrictivo
Algunas universidades —especialmente aquellas con fuerte cultura de integridad académica tradicional— han optado por reglamentos que equiparan el uso no declarado de IA generativa con el plagio y lo sancionan conforme a los procedimientos disciplinarios existentes. Este modelo no prohíbe el uso de IA per se, pero establece obligaciones de declaración tan exigentes que el incumplimiento genera consecuencias graves. Estas universidades suelen requerir la firma de una declaración jurada de uso de IA en el depósito de la tesis.
Modelo de integración supervisada
La mayoría de universidades españolas de tamaño medio y grande han adoptado un modelo que permite el uso de IA con declaración, estableciendo distintas categorías de uso según el grado de intervención de la IA: (a) uso para búsqueda bibliográfica y organización de referencias; (b) uso para corrección gramatical y estilística; (c) uso para análisis de datos; (d) uso para generación de texto. Las categorías (a) y (b) generalmente no requieren declaración explícita más allá de la mención genérica de las herramientas; las categorías (c) y (d) requieren secciones metodológicas específicas.
Modelo de integración abierta
Un número creciente de universidades tecnológicas y politécnicas ha adoptado reglamentos que explícitamente fomentan la integración de IA en la investigación doctoral, estableciendo únicamente obligaciones de transparencia y de mantenimiento de la responsabilidad intelectual del doctorando. Estas universidades argumentan que restringir el uso de IA en el doctorado equivale a restringir el uso de calculadoras o de software estadístico, y que la formación en el uso crítico de IA es parte indispensable del desarrollo doctoral en el siglo XXI.
Qué está efectivamente prohibido y qué no
Con base en el análisis del marco normativo vigente en 2026, es posible establecer una clasificación práctica de lo que está prohibido, lo que está permitido con declaración, y lo que permanece en zona gris:
| Uso de IA | Estado regulatorio | Requisito principal |
|---|---|---|
| Generación de secciones de texto de la tesis sin revisión ni supervisión del doctorando | Prohibido universalmente | Equivale a plagio o fraude académico |
| Falsificación o fabricación de datos con IA | Prohibido universalmente | Conducta de investigación irresponsable |
| Asistencia en análisis de datos estadísticos con declaración | Permitido con declaración | Describir herramienta, tarea y supervisión ejercida |
| Corrección gramatical y estilística con IA | Generalmente permitido | Declaración genérica en muchos reglamentos |
| Búsqueda y organización bibliográfica con IA | Generalmente permitido | Verificación humana de cada referencia |
| Generación de texto revisado y sustancialmente reescrito por el doctorando | Zona gris | Depende del reglamento de la universidad |
Obligaciones de declaración: el nuevo estándar de 2026
La declaración del uso de IA se ha convertido en el mecanismo regulatorio central en los programas de doctorado españoles en 2026. El estándar emergente, convergente con las directrices del EHEA (Espacio Europeo de Educación Superior) y de la OCDE, requiere que la declaración incluya los siguientes elementos:
- Identificación de las herramientas: nombre, versión y empresa desarrolladora de cada herramienta de IA utilizada.
- Descripción de las tareas: para qué tareas específicas se empleó cada herramienta (búsqueda bibliográfica, análisis estadístico, corrección de estilo, síntesis de literatura, etc.).
- Alcance y extensión: en qué partes de la tesis se utilizaron herramientas de IA, con indicación aproximada del volumen.
- Supervisión y verificación: cómo verificó el doctorando los resultados generados por la IA y qué modificaciones realizó.
- Responsabilidad: declaración explícita de que el doctorando asume plena responsabilidad intelectual sobre el contenido de la tesis, independientemente de las herramientas utilizadas en su elaboración.
Esta declaración suele ubicarse en las páginas preliminares de la tesis, junto con la declaración de originalidad y el certificado del director. Algunas universidades están incorporando también esta declaración en el expediente electrónico del doctorando en el sistema de gestión académica.
La bibliometría con IA para el mapeo de citas y el análisis discursivo asistido por IA son dos de los usos más comunes que los doctores deben declarar conforme a este estándar.
Zonas grises regulatorias que todo doctorando debe conocer
La regulación en 2026 presenta zonas grises significativas que generan incertidumbre legítima entre los doctores en formación. Las más importantes son:
La frontera entre asistencia y autoría
El reglamento más restrictivo y el más permisivo coinciden en que la autoría intelectual de la tesis corresponde al doctorando. Pero el criterio de «contribución intelectual suficiente» para mantener la autoría cuando se usa IA generativa no está definido operativamente en ningún reglamento español. ¿Es suficiente contribución revisar y corregir texto generado por IA? ¿Requiere reescritura sustancial? La práctica emergente sugiere que la aportación debe ser verificable: el doctorando debe poder explicar y defender cada sección de la tesis, incluidas las elaboradas con asistencia de IA, ante su comité evaluador.
Los detectores de IA como instrumentos de evaluación
El uso de detectores automáticos de texto generado por IA (GPTZero, Turnitin AI Detection, Copyleaks) por parte de las universidades para auditar tesis doctorales plantea serios problemas de fiabilidad y equidad. Las tasas de falsos positivos de estos sistemas —clasificar como generado por IA texto humano, especialmente en registros formales o técnicos— son lo suficientemente elevadas como para que su uso como prueba en procedimientos disciplinarios sea metodológicamente cuestionable. Los doctores que escriben en un registro muy formal, los no nativos en español y quienes emplean vocabulario técnico repetitivo son especialmente vulnerables a los falsos positivos.
La tesis por compendio de publicaciones y el uso de IA en los artículos
La modalidad de tesis doctoral por compendio de publicaciones —cada vez más frecuente en las universidades españolas— plantea la pregunta de si el uso de IA declarado en los artículos publicados debe reproducirse en la tesis. La práctica recomendada es incluir en la introducción de la tesis una declaración consolidada del uso de IA en todos los artículos que la componen, incluyendo las declaraciones ya publicadas en las revistas.
La cotutela internacional y los conflictos de reglamentos
Los doctores en cotutela entre una universidad española y una extranjera pueden encontrarse con reglamentos incompatibles sobre el uso de IA. En ausencia de un protocolo específico, la práctica recomendada es adherirse al reglamento más restrictivo de los dos, informando a ambos directores y dejando constancia documentada de las decisiones adoptadas.
Tendencias: hacia dónde evoluciona el marco regulatorio
El análisis de las tendencias regulatorias en el EHEA y las señales del legislador europeo permite anticipar la dirección de la evolución del marco en los próximos años:
- Estándares de declaración armonizados: la Comisión Europea y el Ministerio de Ciencia, Innovación y Universidades están trabajando en un formato estandarizado de declaración de uso de IA aplicable a toda la investigación financiada con fondos públicos, incluidas las tesis doctorales.
- Integración en los criterios de acreditación: ANECA tiene previsto incorporar indicadores sobre gestión del uso de IA en los estándares de acreditación de programas de doctorado, lo que obligará a todas las universidades a disponer de protocolos formalizados antes de 2027.
- Formación obligatoria: el anteproyecto de ley de IA español prevé la obligatoriedad de formación en alfabetización de IA para todos los agentes del sistema universitario, incluidos los doctores en formación, lo que implica que el conocimiento del marco regulatorio dejará de ser opcional.
- Revisión de los sistemas de evaluación de la originalidad: la comunidad académica internacional —a través de publicaciones en revistas como Nature y Science— está presionando para reformar los criterios de originalidad en la evaluación doctoral, reconociendo que la IA es una herramienta de investigación legítima cuando se usa con transparencia y rigor metodológico.
La reproducibilidad científica con IA generativa y los estándares de triangulación metodológica con IA serán los pilares del nuevo marco de rigor doctoral que emerge de esta transición regulatoria.
Preguntas frecuentes
¿El AI Act prohíbe usar ChatGPT o herramientas similares para escribir una tesis doctoral en España?
No directamente. El AI Act europeo no prohíbe el uso de herramientas de IA generativa por parte de estudiantes y doctores para la elaboración de sus trabajos académicos. Lo que el AI Act regula son los sistemas de IA de alto riesgo que las instituciones despliegan para evaluar a los estudiantes. Sin embargo, el uso no declarado de IA para generar contenido de la tesis puede constituir fraude académico conforme a los reglamentos de cada universidad, independientemente de lo que diga el AI Act.
¿Qué ocurre si mi universidad detecta que usé IA sin declararlo en la tesis doctoral?
Las consecuencias dependen del reglamento específico de tu universidad y del tipo de uso no declarado. En los casos más graves —generación de secciones completas sin supervisión significativa del doctorando— puede equivaler a fraude académico con consecuencias que van desde la anulación de la defensa hasta la revocación del título si ya fue concedido. En casos de menor gravedad —uso no declarado de corrección automática o búsqueda bibliográfica— las consecuencias suelen limitarse a correcciones y advertencias formales. La transparencia proactiva es siempre la mejor estrategia.
¿Puede Tesify usarse en una tesis doctoral española sin infringir los reglamentos universitarios?
Sí, en la inmensa mayoría de universidades españolas, siempre que se declare su uso conforme al reglamento de la institución. Tesify está diseñado para asistir —no reemplazar— el trabajo intelectual del doctorando: ayuda en la estructuración del capítulo metodológico, la verificación de la coherencia argumental, la revisión bibliográfica y la preparación para la defensa. Todas estas son tareas de apoyo que el doctorando supervisa y valida. La clave es declarar explícitamente el uso en el apartado correspondiente de la tesis.
¿Son fiables los detectores de IA que usan algunas universidades para auditar tesis doctorales?
No suficientemente para su uso como prueba en procedimientos disciplinarios. Los detectores de texto generado por IA disponibles en 2026 presentan tasas de falsos positivos significativas, especialmente con texto académico formal, autores no nativos y textos técnicos. La comunidad científica internacional ha publicado estudios que documentan estos problemas (Weber-Wulff et al., 2023). El uso de estos detectores como único elemento de prueba en un procedimiento disciplinario doctoral sería metodológicamente inadecuado y legalmente cuestionable.
¿Qué debe incluir la declaración de uso de IA en una tesis doctoral española en 2026?
La declaración debe especificar: (1) las herramientas de IA utilizadas (nombre, versión); (2) las tareas para las que se emplearon; (3) en qué partes de la tesis intervino la IA; (4) cómo se verificó y supervisó el uso; (5) declaración explícita de responsabilidad intelectual del doctorando sobre el contenido. Esta declaración debe ubicarse en las páginas preliminares de la tesis, junto con la declaración de originalidad, y en los artículos publicados derivados de la investigación, siguiendo las directrices de la revista correspondiente.
¿Cómo afecta el AI Act a los programas de doctorado industrial o en empresas?
Los doctorados industriales o en empresa presentan complejidades adicionales: los sistemas de IA utilizados en el contexto empresarial pueden estar sujetos a obligaciones del AI Act como operadores o proveedores de sistemas de alto riesgo, independientemente del uso académico. En estos casos, el doctorando debe coordinar con la empresa para determinar qué datos e información pueden usarse en la tesis conforme a los reglamentos de confidencialidad y protección de datos aplicables, y declarar cualquier restricción en la metodología de la tesis.
¿Puede el director de tesis ser considerado responsable del uso no declarado de IA por parte del doctorando?
En principio, la responsabilidad principal es del doctorando. Sin embargo, los directores de tesis tienen obligaciones de supervisión que incluyen velar por la integridad académica del trabajo doctoral. Si se demuestra que el director fue negligente en la supervisión o que conocía el uso no declarado de IA, pueden derivarse responsabilidades académicas y en algunos casos disciplinarias para el director también. Por este motivo, los directores tienen un interés legítimo en establecer protocolos claros de declaración con sus doctorandos desde el inicio del proceso.
¿Dónde puedo consultar el reglamento específico de mi universidad sobre IA en el doctorado?
Los reglamentos sobre IA en el doctorado suelen publicarse en tres lugares: (1) la sede electrónica de la Escuela Internacional de Doctorado (EIDON) o equivalente de tu universidad; (2) el normativa del programa de doctorado específico en el que estás matriculado; (3) el código ético de investigación de la universidad. Si no encuentras una política específica, consulta directamente a tu director/a de tesis o a la comisión académica del programa, y documenta la respuesta obtenida.
Referencias
- ANECA. (2024). Criterios de evaluación para la acreditación de programas de doctorado (3.ª ed.). Agencia Nacional de Evaluación de la Calidad y Acreditación. https://www.aneca.es
- CRUE Universidades Españolas. (2023). Marco para el uso ético y responsable de la inteligencia artificial en las universidades españolas. CRUE. https://www.crue.org
- European Commission. (2024). Guidelines on prohibited artificial intelligence practices under the AI Act. European Commission.
- European Parliament. (2024). Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial. Diario Oficial de la Unión Europea, L 2024/1689.
- Ministerio de Ciencia, Innovación y Universidades. (2024). Estrategia Nacional de Inteligencia Artificial (ENIA) 2024. Gobierno de España.
- OECD. (2024). Recommendation of the Council on Artificial Intelligence (OECD/LEGAL/0449). OECD Publishing. https://doi.org/10.1787/eedfee77-en
- Stanford HAI. (2024). AI Index Report 2024. Stanford University Human-Centered AI Institute. https://aiindex.stanford.edu
- UNESCO. (2023). Recommendation on the Ethics of Artificial Intelligence. UNESCO.
- Weber-Wulff, D., Anohina-Naumeca, A., Bjelobaba, S., Foltýnek, T., Guerrero-Dib, J., Popoola, O., Šigut, P., & Waddington, L. (2023). Testing of detection tools for AI-generated text. International Journal for Educational Integrity, 19(1), 26. https://doi.org/10.1007/s40979-023-00146-z
- Real Decreto 99/2011, de 28 de enero, por el que se regulan las enseñanzas oficiales de doctorado. Boletín Oficial del Estado, 35, 13909–13926.

Deja una respuesta