Las máquinas que hoy se presentan como prodigios digitales también tropiezan en terrenos que parecerían sencillos , lo que alimenta la idea de que la Inteligencia Artificial no siempre hace honor a su propio nombre y que, en ocasiones, la I de IA podría interpretarse como Idiotez Artificial , tal y como bromean algunos usuarios en foros especializados.

La paradoja se aprecia con más claridad en los sistemas que alternan respuestas brillantes con fallos casi infantiles , una dualidad que ha provocado debates dentro de la propia industria tecnológica. La consecuencia inmediata es que los modelos actuales, por muy espectaculares que parezcan en ciertos ámbitos, todavía muestran una fragilidad estructural cuando se exigen tareas más básicas . Este contraste ha sido subrayado por Demis Hassabis , director de Google DeepMind, al describir el estado real de la investigación en Inteligencia Artificial General .

Demis Hassabis advierte que el tamaño de los modelos no resuelve la inestabilidad

El directivo expuso en el pódcast oficial de Google que la inconsistencia representa el obstáculo principal para alcanzar un sistema verdaderamente general. Al ilustrar esta idea, señaló que Gemini , uno de los modelos más avanzados de la compañía, es capaz de resolver problemas matemáticos de nivel olímpico pero falla en operaciones de secundaria .

Según detalló el directivo, “no debería ser tan fácil para la gente corriente encontrar un fallo trivial en el sistema”. El científico británico llamó a este comportamiento “ inteligencia irregular ”, expresión que también emplea Sundar Pichai , consejero delegado de Google.

Sundar Pichai, consejero delegado de Google

La explicación de Hassabis apunta a que aumentar el tamaño de los modelos no corrige el problema de fondo . Indicó que el progreso re quiere desarrollar capacidades nuevas en memoria, planificación y razonamiento. Además, insistió en que es imprescindible contar con pruebas más duras que permitan medir de manera rigurosa los límites de cada sistema. Sin esos parámetros, la Inteligencia Artificial seguirá pareciendo potente en apariencia pero frágil cuando se le exigen tareas fuera de lo estrictamente programado .

Sam Altman admite que GPT-5 aún está lejos de ser una inteligencia general completa

El debate no se limita a Google. Sam Altman , consejero delegado de OpenAI, reconoció en una rueda de prensa previa al lanzamiento de GPT-5 que los avances actuales representan un paso importante, aunque todavía faltan aspectos cruciales para considerar estos modelos como una auténtica Inteligencia Artificial General . Altman señaló que “este modelo es claramente inteligente en términos generales, aunque en la manera en que la mayoría define la IAG todavía falta algo bastante importante, o muchas cosas bastante importantes”.

Uno de los puntos que Altman destacó como esenciales es la capacidad de aprender de manera continua a partir de la experiencia real de uso , algo que los sistemas actuales aún no incorporan. Tal y como explicó, “una de las cosas grandes que faltan es que este no es un modelo que aprenda de forma continua conforme se despliega y descubre cosas nuevas, que para mí es algo que se siente como IAG. Pero el nivel de inteligencia aquí, el nivel de capacidad, se siente como una mejora enorme”.

Sam Altman, en una imagen de archivo

El interés empresarial en alcanzar la IAG es evidente. Google, OpenAI y otras compañías se encuentran inmersas en una carrera que combina ambición tecnológica con la necesidad de ofrecer productos más fiables. Hasta ahora, los fallos repetidos y las llamadas alucinaciones de los modelos han generado desconfianza tanto en entornos académicos como en aplicaciones prácticas. Hassabis afirmó en abril que la Inteligencia Artificial General podría llegar “en los próximos 5 a 10 años”, aunque condicionó ese horizonte temporal a resolver antes la irregularidad q ue caracteriza a los sistemas actuales.

El futuro de la Inteligencia Artificial depende de su consistencia más que de su potencia

La coincidencia entre Hassabis y Altman revela un punto en común entre rivales directos: el futuro de la Inteligencia Artificial no depende solo de la escala, sino de la consistencia y la capacidad de razonar de forma estable. En este contexto, la ironía de hablar de Idiotez Artificial - o Irregular según los gurús de Sillicon Valley - deja de ser un chiste fácil para convertirse en una advertencia seria sobre los límites de la tecnología que más atención recibe hoy en el mundo digital.