Un equipo de científicos de la Universidad de Harvard avanza en la comprensión del funcionamiento interno de los sistemas de inteligencia artificial, considerados aún como una “caja negra” debido a la dificultad de explicar cómo toman decisiones.
El estudio, publicado este 5 de mayo, propone un modelo matemático simplificado que permite analizar el aprendizaje de las redes neuronales mediante herramientas de la física estadística. Este enfoque busca identificar los principios fundamentales que rigen el comportamiento de estos sistemas, ampliamente utilizados en tecnologías actuales como chatbots y modelos generativos.
Según los investigadores, aunque existen leyes empíricas —como el hecho de que los modelos mejoran al aumentar datos o tamaño— aún no se comprende por qué ocurre este fenómeno.
El trabajo compara el estado actual de la inteligencia artificial con la etapa previa a la teoría de la gravedad: se observan patrones, pero falta una explicación profunda que los sustente.
Los científicos advierten que esta falta de comprensión no solo limita el desarrollo tecnológico, sino que también implica desafíos en términos de eficiencia energética y confiabilidad de los sistemas, que hoy consumen grandes cantidades de recursos sin ofrecer plena transparencia.
El objetivo final es lograr una IA más explicable y segura, capaz de ofrecer no solo resultados, sino también fundamentos claros de cómo se generan, un aspecto clave para su aplicación en sectores sensibles como la salud, la justicia o la seguridad.

