La inteligencia artificial todavía no sabe resolver problemas matemáticos de primaria

Los modelos actuales de inteligencia artificial pueden resolver problemas científicos avanzados, pero todavía presentan inconsistencias en operaciones matemáticas básicas.

La inteligencia artificial todavía no sabe resolver problemas matemáticos de primaria
Publicado en Tecnología

La inteligencia artificial general (la famosa AGI que promete igualar o superar la inteligencia humana) podría llegar en menos de una década. Al menos eso afirma Demis Hassabis, CEO de Google DeepMind, quien sitúa su llegada entre cinco y ocho años. El plazo es ambicioso, pero lo interesante no es la fecha, sino la confesión que la acompaña: los sistemas actuales todavía fallan en tareas extremadamente básicas. Entre ellas, operaciones matemáticas de primaria.

Sí, mientras algunos modelos resuelven problemas de nivel olímpico en física o geometría, pueden equivocarse en una simple suma o en un cálculo aritmético elemental. No es un chiste ni una anécdota aislada. De hecho, es extraño ver que una herramienta que puede llegar a fingir que es estúpida y que puede cambiar al internet para siempre puede fallar en un simple 2 + 2.

Medallas científicas y errores básicos

Hassabis lo llama “inteligencia irregular”. La definición es precisa: modelos capaces de rendir al máximo nivel en contextos complejos y, al mismo tiempo, inconsistentes en tareas que deberían ser triviales.

El problema no es solo técnico, es conceptual. Estos sistemas no entienden las matemáticas como lo haría una persona. Funcionan a partir de patrones estadísticos aprendidos de enormes volúmenes de datos. En muchos escenarios eso es suficiente para brillar, pero cuando se exige coherencia absoluta, pueden tropezar y hacernos reir a más no poder.

Además, el mismo modelo puede responder de forma impecable a una pregunta y fallar segundos después en otra muy similar. Esa falta de estabilidad es uno de los grandes obstáculos hacia una inteligencia verdaderamente general, como ha pasado con el post viral en donde la AI recomienda ir a lavar tu automóvil a pie...

Y hay más. Una vez desplegados, estos sistemas no aprenden por experiencia propia y no desarrollan intuición. No tienen lo que Hassabis llama “instinto científico”: la capacidad de formular la pregunta correcta o de intuir qué hipótesis merece la pena explorar. Pueden analizar datos a una velocidad sobrehumana, pero no deciden con criterio propio qué camino seguir.

Ai problemas básicos

Demis Hassabis, CEO de Google DeepMind, sitúa la llegada de la AGI entre cinco y ocho años, aunque reconoce limitaciones actuales en coherencia y razonamiento.

La carrera hacia la AGI (y sus límites)

El discurso en la industria también está cambiando. Sam Altman, CEO de OpenAI, ha reconocido que estamos cerca de un punto de inflexión, pero también ha advertido que el momento es delicado. Mientras los laboratorios compiten por acortar plazos, los riesgos empiezan a ocupar más espacio en la conversación: ciberseguridad, desinformación, amenazas biológicas. La tecnología avanza rápido, pero no de forma lineal.

Que una IA falle en matemáticas de primaria puede sonar ridículo. En realidad, es una señal clara de que aún no estamos ante una inteligencia coherente en todos los ámbitos. Resolver problemas complejos no basta si no existe consistencia en lo básico. La AGI puede estar en el horizonte. Pero hoy, por sofisticados que sean los modelos, siguen siendo extraordinarios… y profundamente imperfectos.

Puedes seguir a iPadizate en Facebook, WhatsApp, Twitter (X) o consultar nuestro canal de Telegram para estar al día con las últimas noticias de tecnología.

Para ti
Queremos saber tu opinión. ¡Comenta!