,

Citar IA en TFG 2026: 5 Errores que Suspenden tu Trabajo

Tesify Avatar
Citar IA en TFG 2026: 5 Errores que Suspenden tu Trabajo

En junio de 2025, María entregó su TFG convencida de que había hecho todo bien. Había citado ChatGPT en la bibliografía, siguiendo un tutorial de YouTube. Tres semanas después, el tribunal la suspendió por “falta de transparencia metodológica”.

¿El problema? Confundió citar con declarar.

No fue un caso aislado. Según datos recopilados de universidades españolas durante el curso 2024-2025, el 40% de los TFG y TFM revisados presentaron deficiencias graves en la declaración del uso de IA generativa. Y lo más frustrante: la mayoría de esos estudiantes habían intentado hacerlo bien.

En mis años ayudando a estudiantes universitarios españoles a preparar sus trabajos académicos, he visto cómo los criterios de los tribunales han evolucionado drásticamente. Lo que en 2023 se toleraba como “experimento”, en 2026 se evalúa con lupa de detective.

Ilustración de un estudiante ante un tribunal académico siendo evaluado

Y créeme, los profesores ya saben distinguir qué partes de tu trabajo llevan la huella de una inteligencia artificial.

🚨 Los 5 errores que suspenden tu TFG al citar IA en 2026:

  1. Confundir “declarar” con “citar” el uso de IA
  2. Omitir versión, fecha y prompt en la referencia
  3. Usar IA para traducir/reformular sin reconocerlo
  4. No verificar la normativa específica de tu universidad
  5. Atribuir autoría o responsabilidad a la herramienta de IA

En este artículo voy a desmenuzar cada uno de estos errores con ejemplos reales, soluciones prácticas y un checklist final que puedes usar antes de entregar tu trabajo. Porque el objetivo no es que dejes de usar IA —eso ya no es realista— sino que aprendas a usarla con la transparencia que los tribunales exigen.

Si necesitas una visión completa del marco normativo actual antes de seguir, consulta nuestra guía troncal 2025 sobre citación de IA en España.

Por Qué 2026 Marca un Antes y un Después

Piensa en cómo ha cambiado tu relación con la tecnología en solo tres años. En 2023, cuando ChatGPT empezó a popularizarse, las universidades españolas estaban en modo pánico. Algunas prohibieron su uso totalmente, otras lo ignoraron, y la mayoría simplemente no sabía qué hacer.

Era el Salvaje Oeste de la IA académica.

En 2024, llegó la fase de “tolerancia experimental”. Las directrices de la CRUE y las adaptaciones de la LOSU empezaron a dar forma a un marco más coherente. Las bibliotecas universitarias comenzaron a publicar guías —algunas excelentes, otras copiadas de internet sin mucha reflexión— y los tutores empezaron a incluir el tema en las reuniones de seguimiento.

Pero 2026 es diferente. Es el año en que la IA generativa pasa de ser una “herramienta auxiliar” a un “elemento metodológico documentable”. Ya no basta con mencionarla de pasada. Los tribunales ahora evalúan tres cosas específicas: transparencia, trazabilidad y justificación del uso.

La Universidad del País Vasco (EHU) publicó una guía pionera que distingue claramente entre declarar y citar el uso de IA. Esta distinción se ha convertido en el estándar de facto para muchas universidades españolas.

Y aquí viene lo importante: el riesgo ya no es solo de plagio. Es de “falta de integridad académica”, una etiqueta mucho más grave que puede afectar a tu expediente más allá de ese trabajo concreto.

“La inteligencia artificial no puede ser autora ni asumir responsabilidad. El estudiante sigue siendo responsable de todo lo entregado.”

— Adaptación de principios COPE/AMS sobre ética de publicación

Según un análisis de las guías de citación publicadas por universidades españolas, más del 75% actualizaron sus directrices sobre IA entre 2024 y 2025. Y la tendencia es clara: cada actualización es más estricta, más detallada y más exigente que la anterior.

Estos criterios ya se endurecieron significativamente en 2025. Para conocer los errores que los tutores ya detectan actualmente, te recomiendo revisar nuestro análisis específico.

Error #1: Confundir “Declarar” con “Citar” el Uso de IA

Este es, sin duda, el error más común y el que más suspensos provoca. Y lo entiendo perfectamente: a primera vista, parece que “declarar” y “citar” son lo mismo. Pero no lo son, y la diferencia puede costarte el trabajo de meses.

Comparación visual entre declarar y citar el uso de IA en trabajos académicos

📌 Diferencia clave entre declarar y citar IA:

  • Declarar: Incluir en la metodología o anexo una explicación de cómo, cuándo y para qué usaste IA generativa en tu trabajo.
  • Citar: Referenciar el output específico de la IA como fuente en el texto y en la bibliografía según el estilo requerido (APA, MLA, ISO 690…).

¿Por qué es un error fatal? Porque muchos estudiantes hacen una de las dos cosas, pero no ambas. Y cuando el uso de IA es sustancial, los tribunales exigen AMBAS acciones.

El caso de Carlos: Estaba orgulloso de su TFG sobre marketing digital. Había usado ChatGPT para generar ideas para el marco teórico y para reformular algunos párrafos. En la bibliografía, incluyó una referencia a ChatGPT siguiendo un formato que encontró en internet. Pensó que estaba siendo transparente.

El problema: en ningún momento de su trabajo explicó qué había hecho con ChatGPT, qué partes habían sido asistidas, o cómo había verificado la información generada. El tribunal lo interpretó como una declaración incompleta. Suspenso.

Antes de entregar tu trabajo, hazte estas preguntas:

  1. ¿He usado IA generativa en algún momento del proceso?
  2. Si la respuesta es sí: ¿He explicado en la metodología cómo, cuándo y para qué la usé?
  3. ¿Hay outputs específicos que deba citar en la bibliografía?

Una plantilla de declaración básica podría ser:

“En la elaboración de este trabajo se utilizó [nombre de herramienta] (versión [X]) como herramienta de apoyo para [especificar uso: generación de ideas, revisión gramatical, síntesis de información…]. Todas las contribuciones generadas fueron verificadas, contrastadas con fuentes académicas y editadas por el autor, quien asume la responsabilidad total del contenido final.”

Para profundizar en cuándo es necesario declarar versus citar según el tipo de uso, consulta nuestra guía específica.

Error #2: Omitir Datos Críticos en la Referencia

Imagina que citas un libro así: “García (2024)”. Sin título, sin editorial, sin página. Absurdo, ¿verdad?

Pues eso mismo es lo que hacen miles de estudiantes cuando citan IA de esta manera: “ChatGPT (2024). Respuesta sobre metodología cualitativa.”

Los tribunales consideran este tipo de referencia como “cita inválida” o “no verificable”. Y tienen razón: sin los datos completos, es imposible rastrear o verificar qué le preguntaste a la IA y qué obtuviste.

Checklist de elementos obligatorios al citar herramientas de IA generativa

📋 Elementos obligatorios al citar IA generativa:

  1. Nombre de la herramienta (ChatGPT, Claude, Gemini…)
  2. Versión específica (GPT-4, GPT-4o, Claude 3.5…)
  3. Compañía desarrolladora (OpenAI, Anthropic, Google…)
  4. Fecha exacta de la consulta
  5. Prompt utilizado (textual o resumido)
  6. URL compartible si existe
Estilo Formato de citación de IA
APA 7ª ed. OpenAI. (2025, 15 de marzo). ChatGPT (versión GPT-4o) [Modelo de lenguaje grande]. https://chat.openai.com/share/xxxx
MLA 9ª ed. “Descripción del prompt” prompt. ChatGPT, versión GPT-4o, OpenAI, 15 mar. 2025, chat.openai.com/share/xxxx.
ISO 690 OPENAI. ChatGPT [en línea]. Versión GPT-4o. [Consulta: 15 marzo 2025]. Disponible en: https://chat.openai.com/share/xxxx

El MLA Style Center enfatiza especialmente la importancia de incluir la versión del modelo y una URL estable cuando exista. No es capricho: es trazabilidad.

❌ Cita incorrecta:

ChatGPT. (2024). Respuesta sobre metodología cualitativa.

✅ Cita correcta (APA 7ª ed. adaptada):

OpenAI. (2025, 15 de marzo). ChatGPT (versión GPT-4o) [Modelo de lenguaje grande]. Prompt: “Explica las diferencias entre metodología cualitativa y cuantitativa para un TFG de ciencias sociales”. https://chat.openai.com/share/xxxx

Para una explicación visual detallada de cómo citar IA en diferentes formatos, te recomiendo esta videoclase de la UNED:

Descubre también las 9 reglas que aplican los tutores para evaluar tus citas de IA.

Error #3: Traducir o Reformular Sin Reconocerlo

Este es el error “invisible”. El que cometen estudiantes que genuinamente creen que no han usado IA para su trabajo.

“Yo solo traduje unas fuentes con DeepL.”

“Solo le pedí a ChatGPT que me ayudara a reformular un párrafo que no me convencía.”

Aquí viene la sorpresa: las universidades SÍ consideran estos usos como “uso sustancial de IA” que requiere declaración.

Casos que requieren declaración (aunque no lo creas):

  • Traducción de fuentes de otros idiomas
  • Reformulación o parafraseo de textos propios o ajenos
  • Corrección gramatical extensa
  • Síntesis de información de múltiples fuentes
  • Generación de esquemas o estructuras de contenido

La guía de la UC3M lo deja claro: “Si te ha aportado ideas, debes reconocerlo”.

El caso de Laura: Estaba preparando un TFG sobre economía circular. Su tutor le había recomendado varias fuentes en inglés —papers e informes de la UE— que eran fundamentales para su marco teórico. Laura utilizó ChatGPT para traducir extensos fragmentos de estas fuentes.

Citó todas las fuentes originales impecablemente en su bibliografía. Parecía que todo estaba bien. Pero el tribunal notó algo: el nivel de inglés técnico reflejado en las traducciones era inconsistente con el que Laura demostraba en otras partes del trabajo y en la defensa oral.

Cuando le preguntaron directamente, Laura admitió haber usado IA para traducir. El problema: no lo había declarado en ningún sitio. Suspenso por “falta de transparencia metodológica”.

Los profesores experimentados notan:

  • Inconsistencias estilísticas entre secciones
  • Nivel de dominio lingüístico superior al demostrado en la defensa
  • Patrones de escritura reconocibles de herramientas de IA
  • Vocabulario técnico que el estudiante no domina cuando se le pregunta

Para usos auxiliares, una fórmula de declaración simple es suficiente:

“Se utilizó [herramienta, ej. DeepL/ChatGPT] para asistencia en la traducción de fuentes consultadas en [idioma]. Todas las traducciones fueron revisadas, contrastadas y adaptadas por el autor, quien asume la responsabilidad de su precisión.”

La honestidad no te resta puntos. La falta de ella, sí.

Error #4: Ignorar la Normativa de Tu Universidad

Cada universidad española tiene sus propios criterios. Y lo que es válido en la UCM puede no serlo en la UPV. Aplicar “normas genéricas de internet” sin verificar qué exige tu centro específico es jugar a la ruleta rusa académica.

Mapa conceptual mostrando la variación de normativas sobre IA en diferentes universidades españolas

Algunas universidades exigen:

  • Declaración en un anexo específico con formato predeterminado
  • Formulario firmado de “uso ético de IA” adjunto al trabajo
  • Sección obligatoria en la metodología con un título concreto
  • Inclusión de los prompts completos utilizados

E incluso dentro de la misma universidad, puede haber diferencias por facultad o por tipo de trabajo.

Universidad Requisito específico 2025/2026
UCM Anexo con prompts utilizados + declaración en metodología
EHU Declaración explícita + cita bibliográfica obligatoria
UC3M Sección específica en metodología con justificación del uso
UNED Según directrices del tutor (variable por facultad)

Dónde encontrar tu normativa:

  1. Web de biblioteca universitaria: Busca secciones como “integridad académica”, “citación” o “IA generativa”
  2. Guía de TFG/TFM de tu facultad: El documento oficial con los requisitos formales
  3. Tu tutor/a: Pregúntale directamente Y documenta la respuesta por email
  4. Secretaría académica: Para casos de duda institucional

⚠️ Importante: Esta información puede haber cambiado desde la publicación de este artículo. Verifica siempre con tu universidad antes de entregar.

Consulta nuestra guía rápida adaptable a diferentes universidades españolas para un punto de partida.

Error #5: Atribuir Autoría a la IA

Este error es más sutil pero igual de peligroso. Se manifiesta en frases como “Según ChatGPT, la metodología cualitativa es preferible porque…” o “ChatGPT recomienda que…”

El problema de fondo: estás tratando a la IA como si fuera un experto con autoridad académica.

Y no lo es.

Las herramientas de IA generativa no pueden ser autoras. No tienen responsabilidad legal ni académica. No pueden responder preguntas del tribunal. No pueden defender argumentos. Y lo más importante: pueden estar completamente equivocadas sin que “se responsabilicen” de ello.

El American Mathematical Society (AMS), siguiendo principios COPE, lo expresa con claridad: la responsabilidad del contenido recae siempre en el autor humano, independientemente de las herramientas utilizadas.

En lugar de escribir: “Según ChatGPT, el análisis cualitativo es preferible…”

Escribe: “El análisis cualitativo resulta preferible en este contexto porque [tu argumento], consideración que fue contrastada mediante herramientas de IA generativa y verificada con fuentes académicas.”

Tú eres el autor. Tú defiendes el trabajo. Tú asumes la responsabilidad. La IA es una herramienta, no un coautor.

Tu Siguiente Paso

Llegados a este punto, tienes las herramientas para evitar los errores que suspenden la mayoría de TFG con uso de IA. Pero la teoría sin práctica no sirve de mucho.

Lo que deberías hacer ahora:

  1. Revisa tu trabajo actual y marca cada punto donde hayas usado IA (cualquier tipo de uso)
  2. Comprueba la normativa específica de tu universidad
  3. Redacta tu declaración en la metodología
  4. Completa las citas en tu bibliografía con todos los datos obligatorios

¿Te parece abrumador? Es normal. La buena noticia es que no tienes que hacerlo solo. En Tesify ayudamos a estudiantes universitarios españoles a preparar sus TFG y TFM con todas las garantías de integridad académica, incluyendo la correcta declaración y citación de herramientas de IA.

Tu trabajo de meses merece una entrega impecable.

Leave a Reply

Your email address will not be published. Required fields are marked *