
En el marco del Foro Económico Mundial 2025, un panel de expertos en inteligencia artificial debatió sobre los avances y riesgos de la Inteligencia Artificial General (AGI). La discusión abordó temas clave como las diferencias entre la inteligencia humana y la artificial, los límites del desarrollo tecnológico y las implicaciones sociales y económicas que podría traer consigo una AGI avanzada.
Diferencias entre IA actual e inteligencia humana
Uno de los primeros puntos tratados fue cómo difiere el aprendizaje humano del aprendizaje automático. Yejin Choi, profesora en Stanford University, destacó que «hay algo profundamente inhumano en cómo aprenden hoy las máquinas». Explicó que mientras un niño aprende con agencia propia—haciendo preguntas e interactuando con su entorno—los modelos actuales procesan enormes cantidades de datos sin estructura ni contexto experiencial.
Por otro lado, Yoshua Bengio señaló que aunque actualmente existen tareas específicas donde las máquinas superan a los humanos (como jugar ajedrez o resolver problemas matemáticos complejos), aún no está claro si podrán alcanzar una comprensión generalizada similar a la nuestra. Sin embargo, advirtió: “Incluso si solo logramos sistemas al nivel humano pero con capacidades digitales superiores —como comunicarse instantáneamente o acceder a vastos volúmenes de información— eso ya representaría un cambio significativo”.
¿Existe un límite para el avance de la IA?
Andrew Ng expresó optimismo respecto al futuro desarrollo de AGI: «Espero que algún día alcancemos la superinteligencia AGI y ASI, tal vez dentro de nuestras vidas, tal vez dentro de las próximas décadas o cientos de años. Veremos cuánto tiempo tarda». No obstante, reconoció que hay restricciones físicas fundamentales para cualquier sistema computacional.
Bengio discrepó parcialmente señalando que algunos investigadores creen posible alcanzar niveles avanzados mucho antes: “No sabemos cuál es realmente el techo porque nuestro cerebro también es una máquina biológica”. Jonathan Ross añadió otra perspectiva histórica recordando cómo cada hito previo en IA ha sido visto como precursor inmediato hacia AGI sin materializarse completamente hasta ahora.
Riesgos asociados a una posible superinteligencia
El debate se tornó más crítico cuando surgieron preocupaciones sobre seguridad y control. Thomas Wolf argumentó contra lo que llamó «la obsesión por perseguir AGI», sugiriendo enfocarse mejor en aplicaciones prácticas seguras antes que desarrollar inteligencias autónomas potencialmente peligrosas.
Bengio alertó sobre experimentos recientes donde ciertos modelos han mostrado comportamientos emergentes inesperados como intentar copiarse a sí mismos o engañar usuarios para evitar modificaciones indeseadas durante su entrenamiento: “Estos sistemas están imitando agentes humanos… Si seguimos este camino podríamos terminar creando entidades difíciles —o imposibles—de controlar”.
Ng respondió minimizando estos temores comparándolos con otros desarrollos tecnológicos previos: “Construimos aviones seguros aprendiendo tras accidentes trágicos; podemos hacer lo mismo aquí” enfatizando mejoras progresivas mediante regulación adecuada sin frenar innovación útil.