El Predictive Coding (PC) es una teoría neurocientífica, formalizada por Karl Friston y otros, que sugiere que el cerebro no es un receptor pasivo de información sensorial, sino que genera proyecciones constantes sobre el mundo para minimizar la "sorpresa" o el error.
1. El Principio Fundamental: Jerarquías de Inferencia
En una red neuronal tradicional, la información fluye de abajo hacia arriba (Bottom-up): de los píxeles a las formas, y de las formas a los objetos.
En el Predictive Coding, el flujo es bidireccional y jerárquico:
Top-Down (Predicción): Las capas superiores (más abstractas) envían una predicción a las capas inferiores sobre lo que deberían estar viendo.
Bottom-Up (Error de Predicción): Las capas inferiores comparan la predicción con los datos reales y solo envían hacia arriba la diferencia (el error).
El Concepto de Energía Libre
Matemáticamente, estas redes intentan minimizar la Energía Libre Variacional, lo cual es equivalente a maximizar la probabilidad de que el modelo interno de la IA coincida con la realidad externa.
2. Diferencias con el Backpropagation Tradicional
Característica | Backpropagation (Standard AI) | Predictive Coding (Bio-inspired) |
Flujo de señal | Unidireccional durante la inferencia. | Bidireccional constante. |
Aprendizaje | Requiere una fase global de "backward pass". | El aprendizaje es local: cada neurona se ajusta sola. |
Eficiencia | Computacionalmente costoso en hardware biológico. | Muy eficiente; solo se procesa lo "nuevo" o inesperado. |
Supervisión | Suele requerir muchas etiquetas. | Es intrínsecamente auto-supervisado. |
3. Ejemplo Práctico: Reconocimiento de una Cara
Imagina una red de Predictive Coding entrenada para reconocer rostros:
Nivel Superior (Idea): La capa más alta tiene la hipótesis "Hay una cara de frente".
Nivel Medio (Predicción): Esta capa envía una predicción hacia abajo: "Deberías detectar dos círculos oscuros (ojos) y una línea horizontal (boca)".
Nivel Sensorial (Datos): La cámara ve la cara, pero la persona lleva gafas de sol cuadradas.
Generación de Error:
La capa sensorial compara "círculos" (predicción) con "cuadrados" (realidad).
Se genera un error de predicción fuerte.
Actualización: El error sube por la red. El nivel superior recibe el mensaje: "Tu hipótesis de 'cara normal' es incorrecta". La red se ajusta a: "Es una cara con gafas".
Resultado: Una vez la predicción coincide con la realidad, el error llega a cero y la red se "estabiliza". No hay necesidad de seguir enviando información: el cerebro/IA ya "entiende" lo que pasa.
4. Cómo se usa y se implementa en IA
Actualmente, el Predictive Coding se está usando para superar las limitaciones del hardware actual y crear IAs más autónomas:
A. Aprendizaje Local (Niche AI)
En lugar de esperar a que toda la red termine para calcular el error (como en los Transformers actuales), cada capa de una red de PC puede aprender de forma independiente. Esto permite diseñar chips neuromórficos que consumen una fracción de la energía de una GPU de NVIDIA.
B. Visión Artificial Robusta
Las IAs de PC son menos vulnerables a "ataques adversarios". Como la red tiene una opinión propia (Top-down) sobre lo que está viendo, es más difícil engañarla con unos pocos píxeles ruidosos que a una red tradicional que solo depende de los datos de entrada.
C. Agentes de Aprendizaje por Refuerzo
Se utiliza en robótica para que el robot prediga las consecuencias de sus movimientos. Si el robot predice que su brazo chocará con una mesa, el error de predicción generado antes del choque permite corregir la trayectoria en tiempo real.
D. Implementación Matemática Básica
Para cada capa $l$, la actualización de los estados $\mu$ y los pesos $W$ se basa en minimizar el error $\epsilon$:
$$\epsilon_l = \mu_{l-1} - f(W_l \mu_l)$$Donde $f$ es la función de activación y $\mu_l$ es la representación interna de esa capa.
5. El Futuro: ¿Adiós al Backpropagation?
Aunque el Backpropagation domina la industria hoy, el Predictive Coding es el candidato principal para la AGI (Inteligencia Artificial General) porque:
Permite aprendizaje continuo sin olvidar tareas anteriores.
Se adapta a entornos dinámicos de forma natural.
Es la base de la "Inferencia Activa", donde la IA no solo predice el mundo, sino que actúa en él para que el mundo se parezca a sus predicciones.
No hay comentarios:
Publicar un comentario