Sabe mucho sobre IA y predice un futuro en el que nos superará, pero tardaremos más tiempo en verlo de lo esperado
La IA superará a la humana, pero no mañana. Daniel Kokotajlo revisa sus propias predicciones y plantea un futuro menos inmediato, pero con información bastante importante para conocer.
Durante los últimos años nos hemos acostumbrado a que la tecnología avance a un ritmo muy rápido. Internet tardó más de una década en alcanzar los mil millones de usuarios, mientras que ChatGPT lo hizo en menos de dos años. En apenas tres años desde su lanzamiento, la inteligencia artificial generativa se ha integrado en la vida cotidiana como si llevara décadas entre nosotros. Ese crecimiento acelerado ha alimentado una idea inquietante: la llegada de una inteligencia artificial que supere a la humana.
Uno de los expertos que más ha reflexionado sobre este escenario es Daniel Kokotajlo, antiguo investigador de OpenAI y figura destacada en el debate sobre seguridad en IA. Durante años sostuvo que la llamada Inteligencia Artificial General (AGI) —una IA capaz de realizar cualquier tarea cognitiva humana— podría llegar antes de lo que pensábamos. Hoy, sin embargo, matiza su propia predicción y pueden ser buenas o muy malas noticias según como se vea.
De la ciencia ficción a una discusión real
Las pruebas de los pasos agigantados de la IA han llegado desde el año pasado. Por ejemplo, hemos visto como los usuarios ya no realizan búsquedas como antes utilizando Google, además de que muchos jóvenes ya le preguntan a la Inteligencia en que universidad debe de estudiar a partir del siguiente año. Todo esto de manera autónoma, como si de ciencia ficción se tratara.
La AGI ya no pertenece exclusivamente al terreno de la ciencia ficción. A diferencia de los sistemas actuales, que están especializados en tareas concretas como escribir textos, traducir idiomas o generar imágenes, una AGI podría aprender de forma autónoma, razonar sobre problemas inéditos, crear soluciones originales e incluso desarrollar otros sistemas de IA. En términos simples, no solo ejecutaría instrucciones: pensaría y aprendería de manera general.
Ese salto cualitativo es enorme y, según Kokotajlo, todavía estamos lejos de resolver los desafíos técnicos que implica. Los modelos actuales dependen de grandes volúmenes de datos, arquitecturas diseñadas por humanos y objetivos bien definidos. No “entienden” el mundo como lo hace una persona.
El escenario “AI 2027”… y su revisión
En 2024, Kokotajlo y otros investigadores publicaron el documento AI 2027, un ejercicio prospectivo que describía una carrera tecnológica entre Estados Unidos y China culminando, hacia 2027, con la aparición de una AGI capaz de transformar (y potencialmente desestabilizar) el orden global, siendo más inteligente que nosotros.
Sin embargo, en su revisión más reciente, el propio Kokotajlo reconoce que el progreso real es más lento y menos lineal de lo previsto. Aunque la potencia de cómputo y los microchips siguen tendencias claras (como la conocida ley de Moore), la inteligencia artificial enfrenta obstáculos que creemos todos han visto el año pasado: rendimiento irregular, dificultades de implementación y límites conceptuales aún no resueltos, además de un sesgo en ciertos temas delicados.
Hoy, sitúa la posible aparición de sistemas con programación verdaderamente autónoma en la década de 2030, con una superinteligencia más avanzada alrededor de 2034, como horizonte tentativo, no como fecha cerrada.

La promesa de una AGI capaz de aprender, razonar y crear sin intervención humana ya no pertenece a la ciencia ficción, pero los expertos advierten que el camino es más complejo y menos lineal de lo que sugieren los grandes titulares.
No hay consenso entre los expertos
La evolución de estas predicciones refleja una realidad incómoda: no existe acuerdo sobre cuándo llegará la AGI. Algunos estudios académicos, como los inspirados por el filósofo Nick Bostrom, sitúan ese momento entre las décadas de 2040 y 2070. Otros son más optimistas (o más alarmistas), según sus creencias políticas y filosóficas.
Las consecuencias, además, se mueven entre dos extremos. En el lado positivo, una AGI podría ayudar a resolver problemas complejos como enfermedades, cambio climático o educación personalizada. En el negativo, una inteligencia capaz de auto-mejorarse podría escapar a nuestro control o desplazar a los humanos de decisiones críticas.
¿Y qué dice la propia IA?
Cuando se le pregunta a ChatGPT sobre este futuro, su respuesta es bastante mesurada (para sorpresa de nadie). Reconoce la ambición y los riesgos, pero recuerda que una AGI no sería una réplica completa de la mente humana. Emociones, intuición, consciencia y comprensión profunda siguen siendo territorios poco mapeados incluso para la neurociencia.
La conclusión de Kokotajlo no es tanto una fecha como una advertencia. La AGI puede llegar más tarde de lo que muchos imaginaban, pero llegará. Y ese margen temporal es la clave aquí: aún estamos a tiempo de debatir, regular y decidir cómo queremos convivir con una tecnología que transformará nuestra relación con el mundo. No lo hicimos con la energía nuclear, ni con la genética, ni siquiera con internet. Esa, según Kokotajlo, es la predicción más relevante de todas.
Puedes seguir a iPadizate en Facebook, WhatsApp, Twitter (X) o consultar nuestro canal de Telegram para estar al día con las últimas noticias de tecnología.