Machine Learning para TFG: Aplicaciones y Ejemplos 2026

Machine Learning para TFG: Aplicaciones y Ejemplos 2026

El machine learning aplicado al TFG ha dejado de ser territorio exclusivo de los grados de Informática. En 2026, estudiantes de Economía, Medicina, Psicología, Derecho e incluso Humanidades aplican algoritmos de aprendizaje automático para responder preguntas de investigación que antes requerían métodos mucho más limitados. La democratización de herramientas como scikit-learn, Keras y Hugging Face ha eliminado las barreras técnicas; la brecha que queda es metodológica, y este artículo la cierra.

Si estás considerando incorporar machine learning en tu TFG, la pregunta más importante no es «¿qué algoritmo uso?» sino «¿mi pregunta de investigación justifica el uso de ML?». Un modelo de regresión logística bien justificado vale más que una red neuronal mal argumentada. Esta guía te ayuda a tomar esa decisión con criterio y a ejecutarla con rigor.

Respuesta rápida: Machine learning en un TFG es la aplicación de algoritmos que aprenden patrones en datos para clasificar, predecir, agrupar o recomendar. Los algoritmos más usados en TFGs académicos son regresión logística, Random Forest, SVM, K-Means y XGBoost. La herramienta estándar es Python con scikit-learn. La clave es elegir el algoritmo según el tipo de problema y justificarlo en el marco teórico con referencias bibliográficas apropiadas.

¿Por qué usar machine learning en un TFG?

El machine learning ofrece cuatro tipos de valor metodológico que los métodos estadísticos clásicos no pueden proporcionar de manera equivalente:

  1. Modelado de relaciones no lineales: la mayoría de fenómenos sociales, biológicos y económicos no siguen relaciones lineales. Los algoritmos de ML capturan estas relaciones sin requerir supuestos distribucionales.
  2. Trabajo con alta dimensionalidad: cuando el número de variables predictoras supera el número de observaciones, los métodos clásicos colapsan. Técnicas como Lasso, Random Forest o PCA resuelven este problema.
  3. Automatización de la clasificación: tareas como clasificar textos, imágenes o señales biométricas son inherentemente problemas de ML que no tienen equivalente clásico.
  4. Exploración de patrones en datos no etiquetados: el clustering y los modelos de tópicos descubren estructura en datos donde no existe una variable objetivo predefinida.

Sin embargo, el ML no es siempre la mejor opción. Si tu objetivo es entender la relación entre variables (no predecir), si tienes pocas observaciones (<100) o si necesitas resultados altamente interpretables para políticas públicas, los métodos estadísticos clásicos siguen siendo preferibles. Para entender cuándo cada enfoque es adecuado, consulta tipos de investigación cuantitativa, cualitativa y mixta con IA.

Tipos de aprendizaje automático: supervisado, no supervisado y por refuerzo

La taxonomía fundamental del machine learning es crucial para elegir el enfoque correcto:

Aprendizaje supervisado

El algoritmo aprende de ejemplos etiquetados (pares entrada-salida conocidos). Se usa cuando existe una variable objetivo definida: predecir una puntuación, clasificar un correo como spam o diagnosticar una enfermedad. Es el tipo más frecuente en TFGs. Incluye clasificación y regresión.

Aprendizaje no supervisado

El algoritmo descubre estructura en datos sin etiquetas. Se usa para segmentar poblaciones (clustering), reducir dimensionalidad (PCA, t-SNE) o descubrir temas en texto (LDA). Muy útil cuando no existe una variable objetivo clara o cuando se quiere explorar la estructura latente de los datos.

Aprendizaje por refuerzo

Un agente aprende mediante recompensas y penalizaciones en un entorno. Rara vez se utiliza en TFGs de grado por su complejidad, aunque puede aparecer en TFGs de Ingeniería Informática o Robótica.

Aprendizaje semisupervisado y por transferencia

El transfer learning es especialmente relevante para TFGs en 2026: consiste en reutilizar un modelo ya entrenado en grandes datos (como BERT para NLP o ResNet para visión por computador) y ajustarlo (fine-tuning) con los datos específicos del TFG. Esto permite obtener resultados de alta calidad incluso con conjuntos de datos pequeños.

Algoritmos principales y cuándo usarlos

Algoritmo Tipo Ventaja principal Limitación
Regresión logística Supervisado (clasificación) Coeficientes interpretables como odds ratios Solo relaciones lineales en log-odds
Random Forest Supervisado (clasificación/regresión) Robusto, importancia de variables Lento con datos muy grandes
XGBoost Supervisado (clasificación/regresión) Máxima precisión en tabular Requiere ajuste de hiperparámetros
SVM Supervisado Eficaz con pocos datos y alta dimensionalidad Difícil de escalar
K-Means No supervisado (clustering) Simple, interpretable Requiere definir k a priori
PCA No supervisado (reducción) Reduce dimensionalidad, elimina ruido Componentes difíciles de interpretar
Red neuronal (MLP) Supervisado Modela relaciones muy complejas Necesita muchos datos, caja negra

Para una guía específica sobre análisis de regresión, consulta análisis de regresión con IA en TFG, y para el análisis factorial como técnica complementaria de reducción de dimensionalidad, análisis factorial con IA: aplicaciones en TFG.

Aplicaciones por carrera y área de conocimiento

El machine learning tiene aplicaciones concretas en prácticamente cualquier disciplina universitaria:

Ciencias de la Salud

  • Clasificación de imágenes médicas (radiografías, dermatoscopía) con redes convolucionales.
  • Predicción de readmisión hospitalaria con Random Forest sobre registros clínicos.
  • Identificación de subgrupos de pacientes con K-Means para medicina personalizada.

Economía y ADE

  • Predicción de default crediticio con XGBoost sobre datos de comportamiento financiero.
  • Análisis de sentimiento en memorias anuales de empresas del IBEX con BERT.
  • Detección de anomalías en series temporales de precios con Isolation Forest.

Psicología y Ciencias Sociales

  • Clasificación de perfiles psicológicos con K-Means sobre escalas de Likert.
  • Predicción de bienestar laboral con Random Forest sobre datos de encuestas.
  • Análisis de lenguaje en redes sociales para detección de indicadores de salud mental.

Derecho y Humanidades

  • Clasificación de sentencias judiciales por temática con TF-IDF + SVM.
  • Análisis de tópicos en prensa histórica digitalizada con LDA.
  • Detección de similitudes textuales en corpus legislativos.

Ingeniería y Ciencias

  • Mantenimiento predictivo de maquinaria industrial con LSTM sobre series temporales de sensores.
  • Optimización de consumo energético en edificios con gradient boosting.
  • Clasificación de materiales por imagen con CNN.

La guia paralela em portugués sobre tipos de investigación cuantitativa, cualitativa y mixta en tesify.pt complementa perfectamente este panorama con el enfoque del sistema universitario portugués y brasileño.

Flujo de trabajo de ML en un TFG paso a paso

  1. Definición del problema: Formular la pregunta de investigación como un problema de ML (clasificación, regresión, clustering).
  2. Recopilación y exploración de datos (EDA): Estadísticas descriptivas, visualizaciones, detección de valores atípicos y missing values.
  3. Preprocesamiento: Limpieza, codificación de variables categóricas (One-Hot, Label Encoding), normalización, tratamiento de datos desbalanceados.
  4. División train/validation/test: Tipicamente 70/10/20 o 60/20/20. Esta división debe hacerse antes de cualquier transformación.
  5. Selección y entrenamiento de modelos: Entrenar al menos 3 modelos candidatos para poder comparar.
  6. Búsqueda de hiperparámetros: GridSearchCV o RandomizedSearchCV con validación cruzada sobre el conjunto de entrenamiento.
  7. Evaluación final: Evaluar el mejor modelo solo sobre el conjunto de test (que no se ha tocado durante el desarrollo).
  8. Interpretación: SHAP values, feature importance, curvas ROC/PR.
  9. Documentación: Código reproducible en Jupyter Notebook con semilla aleatoria fija.

Ejemplo aplicado con Python y scikit-learn

A continuación se presenta la estructura de un pipeline estándar para clasificación con scikit-learn aplicable a cualquier TFG:

from sklearn.model_selection import train_test_split, StratifiedKFold, GridSearchCV
from sklearn.preprocessing import StandardScaler
from sklearn.pipeline import Pipeline
from sklearn.ensemble import RandomForestClassifier
from sklearn.linear_model import LogisticRegression
from sklearn.metrics import classification_report, roc_auc_score
import pandas as pd

# 1. Cargar datos
df = pd.read_csv('datos_tfg.csv')
X, y = df.drop('variable_objetivo', axis=1), df['variable_objetivo']

# 2. División train/test (antes de cualquier preprocesamiento)
X_train, X_test, y_train, y_test = train_test_split(
    X, y, test_size=0.2, random_state=42, stratify=y
)

# 3. Pipeline: escalado + modelo
pipeline_rf = Pipeline([
    ('scaler', StandardScaler()),
    ('clf', RandomForestClassifier(random_state=42))
])

# 4. Búsqueda de hiperparámetros con validación cruzada
param_grid = {'clf__n_estimators': [100, 200], 'clf__max_depth': [5, 10, None]}
cv = StratifiedKFold(n_splits=10, shuffle=True, random_state=42)
grid_search = GridSearchCV(pipeline_rf, param_grid, cv=cv, scoring='roc_auc')
grid_search.fit(X_train, y_train)

# 5. Evaluación sobre test (una sola vez)
y_pred = grid_search.predict(X_test)
print(classification_report(y_test, y_pred))
print(f"AUC-ROC: {roc_auc_score(y_test, grid_search.predict_proba(X_test)[:,1]):.3f}")

Este pipeline incorpora buenas prácticas esenciales: semilla aleatoria reproducible (random_state=42), estratificación para mantener la proporción de clases, separación estricta train/test y evaluación final sobre datos no vistos.

Para más contexto sobre la estructura metodológica completa, revisa cómo redactar la metodología de un TFG.

Cómo citar y justificar el ML en tu metodología

El marco teórico y la sección metodológica deben justificar el uso de ML con referencias específicas. Estas son las citas esenciales:

  • scikit-learn: Pedregosa, F., et al. (2011). Scikit-learn: Machine learning in Python. Journal of Machine Learning Research, 12, 2825–2830.
  • Random Forest: Breiman, L. (2001). Random forests. Machine Learning, 45(1), 5–32. https://doi.org/10.1023/A:1010933404324
  • XGBoost: Chen, T., & Guestrin, C. (2016). XGBoost: A scalable tree boosting system. Proceedings of KDD 2016, 785–794.
  • SHAP: Lundberg, S. M., & Lee, S.-I. (2017). A unified approach to interpreting model predictions. Advances in Neural Information Processing Systems, 30.
  • Deep learning: Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep learning. MIT Press.

Para gestionar todas estas referencias, consulta la guía de normas APA para TFG.

Preguntas frecuentes

¿Cuál es el algoritmo de machine learning más fácil para empezar en un TFG?

La regresión logística es el mejor punto de partida: tiene muy pocos hiperparámetros, sus coeficientes son directamente interpretables y está ampliamente documentada en la literatura académica. Random Forest es el segundo paso recomendado si se necesita mayor precisión o trabajar con relaciones no lineales. Ambos están disponibles en scikit-learn con pocas líneas de código.

¿Puede un alumno de Humanidades o Ciencias Sociales usar machine learning en su TFG?

Sí, y cada vez es más frecuente. Las humanidades digitales aplican ML para análisis de texto histórico, clasificación de documentos o detección de estilos literarios. Las ciencias sociales lo usan para predicción de comportamiento, segmentación de poblaciones y análisis de redes sociales. El requisito es tener datos cuantitativos y una pregunta de investigación compatible con predicción o clasificación, independientemente de la disciplina.

¿Es suficiente con usar AutoML para el TFG?

AutoML puede ser útil para obtener baselines y explorar qué familia de modelos funciona mejor, pero no es suficiente como metodología principal de un TFG. El tribunal espera que el estudiante demuestre comprensión de los algoritmos usados, justifique la elección metodológica, interprete los resultados más allá de las métricas numéricas y discuta las limitaciones. AutoML como herramienta auxiliar, sí; como metodología autónoma, no.

¿Qué extensión debe tener la sección de machine learning en un TFG?

No existe una norma universal, pero una distribución típica es: preprocesamiento y EDA (10-15 %), selección y entrenamiento de modelos (25-30 %), evaluación y comparación (15-20 %), interpretación y discusión de resultados (30-35 %). El código completo va en el anexo (o en un repositorio GitHub enlazado), no en el cuerpo principal del TFG.

¿Necesito declarar el uso de IA (ChatGPT, Copilot) para escribir el código de ML?

Según las directrices de la mayoría de universidades españolas en 2026, el uso de IA generativa como asistente de codificación debe declararse en la sección metodológica o en los anexos, especificando qué partes del código fueron generadas o asistidas por IA y qué revisión humana se realizó. El análisis, la interpretación de resultados y las conclusiones deben ser íntegramente del estudiante.

¿Cómo sé si mi modelo está sobreajustado (overfitting)?

El sobreajuste se manifiesta como una diferencia grande entre el rendimiento en entrenamiento y en validación/test. Por ejemplo, accuracy del 99 % en train y del 62 % en test indica sobreajuste severo. Para diagnosticarlo, usa curvas de aprendizaje (learning curves en scikit-learn). Para corregirlo: reduce la complejidad del modelo, añade regularización, aumenta los datos de entrenamiento o aplica técnicas de ensemble.

Referencias clave para tu bibliografía:
Pedregosa, F., et al. (2011). Scikit-learn: Machine learning in Python. Journal of Machine Learning Research, 12, 2825–2830.
Breiman, L. (2001). Random forests. Machine Learning, 45(1), 5–32.
Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep learning. MIT Press.
Bishop, C. M. (2006). Pattern recognition and machine learning. Springer.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *