El placer de escuchar

DeepMind cree que la IA “a nivel humano” podría llegar en menos de una década. Por qué el verdadero reto no es saber más, sino pensar de otra forma

Las predicciones sobre la llegada de una inteligencia artificial “a nivel humano” suelen moverse entre el hype y la cautela. Esta vez, la estimación llega desde dentro de uno de los laboratorios que más ha empujado el campo en la última década. La cuestión no es solo cuándo podría alcanzarse ese umbral, sino qué entendemos realmente por una IA comparable al pensamiento humano.

Ponerle fecha a la inteligencia artificial general

Cuando se habla de inteligencia artificial general (AGI), se alude a sistemas capaces de razonar, planificar y adaptarse a problemas nuevos de una forma parecida a como lo hace una persona. No es una mejora incremental de los modelos actuales, sino un salto cualitativo: pasar de herramientas muy especializadas a algo que funcione de forma flexible en múltiples dominios.

Las previsiones de DeepMind apuntan a un horizonte sorprendentemente cercano. No porque la tecnología actual ya esté “ahí”, sino porque la velocidad de avance en modelos, infraestructura y técnicas de aprendizaje ha sido mayor de lo que muchos esperaban hace solo unos años.

El problema de fondo: saber no es pensar

DeepMind cree que la IA “a nivel humano” podría llegar en menos de una década. Por qué el verdadero reto no es saber más, sino pensar de otra forma
© Getty Images / gremlin.

Los sistemas actuales brillan en una tarea concreta: manejar enormes volúmenes de información y ofrecer respuestas coherentes a partir de patrones aprendidos. En la práctica, funcionan como enciclopedias ultrarrápidas con una interfaz conversacional. Eso es útil, pero no equivale a la capacidad humana de formular hipótesis originales, cuestionar marcos previos o proponer teorías que rompen con lo conocido.

El desafío que plantean desde DeepMind no es tanto “hacer modelos más grandes”, sino dotarlos de una dimensión creativa real. En ciencia, crear no es combinar datos existentes de una forma elegante, sino atreverse a proponer explicaciones que no estaban implícitas en el conocimiento previo.

Medir la creatividad de una máquina

Una de las ideas que circulan en este debate es cómo evaluar si una IA ha cruzado ese umbral creativo. Los test clásicos de inteligencia no sirven para medir descubrimiento científico. La propuesta de plantear desafíos en los que una máquina tenga que “redescubrir” teorías fundamentales sin haber visto sus datos históricos apunta a una cuestión incómoda: si una IA solo puede reproducir lo que ya ha sido codificado, su margen de innovación es limitado.

Este tipo de pruebas no buscan una réplica literal de los genios del pasado, sino comprobar si la máquina puede generar marcos explicativos nuevos a partir de información incompleta. Es un listón mucho más alto que acertar preguntas de examen.

Combinar planificación y modelos del mundo

Otra pieza clave del rompecabezas es la integración de capacidades. Sistemas como los que aprendieron a jugar al Go demostraron que la planificación a largo plazo y la exploración estratégica son posibles en máquinas. Los grandes modelos actuales, por su parte, han aprendido a representar fragmentos del mundo en forma de lenguaje, imágenes o código.

El reto está en fusionar ambas cosas: modelos que no solo describan el mundo, sino que lo “simulen” internamente para experimentar con hipótesis, anticipar consecuencias y aprender de sus propios errores. En otras palabras, pasar de responder bien a empezar a pensar con propósito.

Por qué estas predicciones importan aunque fallen

Las fechas concretas casi siempre se equivocan en tecnología. Lo relevante no es si la AGI llegará en cinco, ocho o quince años, sino qué tipo de problemas se consideran hoy los cuellos de botella reales. El desplazamiento del foco desde la potencia de cálculo hacia la creatividad y el descubrimiento científico indica una maduración del debate: ya no se trata solo de hacer modelos más grandes, sino de entender qué es lo que hace que la inteligencia humana sea algo más que una base de datos sofisticada.

Si la próxima década traerá o no una IA “a nivel humano” es una incógnita abierta. Lo que sí parece claro es que el salto que falta no es cuantitativo, sino cualitativo: pasar de máquinas que saben mucho a máquinas que, en algún sentido, sepan pensar de otra manera.

Actualizáte