Ilya Sutskever, antiguo director científico de OpenAI y uno de los nombres más importantes del sector de la inteligencia artificial, hizo una predicción: las capacidades de razonamiento harán que la tecnología sea mucho menos predecible.
Al recoger el premio "Test Of Time" por su artículo de 2014 con Oriol Vinyals y Quoc Le, de Google, Sutskever afirmó el viernes que se avecinaba un gran cambio en el horizonte de la IA.
Una idea que su equipo había explorado hace una década, la de que el aumento de los datos para "pre-entrenar" los sistemas de IA los llevaría a nuevas alturas, estaba empezando a alcanzar sus límites, dijo. Más datos y potencia de cálculo habían dado lugar al ChatGPT que OpenAI lanzó en 2022, para aclamación del mundo.
Este contenido se hizo gracias al apoyo de la comunidad de El Destape. Sumate. Sigamos haciendo historia.
"Pero el preentrenamiento tal y como lo conocemos terminará sin lugar a dudas", declaró Sutskever ante miles de asistentes a la conferencia NeurIPS de Vancouver. "Mientras la computación crece", dijo, "los datos no crecen, porque sólo tenemos un Internet".
Sutskever ofreció algunas formas de ampliar la frontera a pesar de este enigma. Dijo que la propia tecnología podría generar nuevos datos, o que los modelos de IA podrían evaluar múltiples respuestas antes de decantarse por la mejor para un usuario, con el fin de mejorar la precisión. Otros científicos han puesto sus miras en los datos del mundo real.
Pero su charla culminó con una predicción para un futuro de máquinas superinteligentes que, según él, "obviamente" esperan, un punto con el que algunos no están de acuerdo. Sutskever cofundó este año Safe Superintelligence Inc tras su participación en la efímera salida de Sam Altman de OpenAI, de la que dijo a los pocos días que se arrepentía.
En su opinión, los agentes de la IA, en los que se lleva trabajando mucho tiempo, darán sus frutos en esa era futura, tendrán una comprensión más profunda y serán conscientes de sí mismos. Dijo que la IA razonará los problemas como lo hacen los humanos.
Pero hay un problema.
"Cuanto más razone, más imprevisible será", afirma.
Razonar a través de millones de opciones podría hacer que cualquier resultado no fuera obvio". A modo de ejemplo, AlphaGo, un sistema creado por DeepMind de Alphabet, sorprendió a los expertos del complejísimo juego de mesa Go con su inescrutable movimiento 37, camino de derrotar a Lee Sedol en una partida en 2016.
Sutskever dijo algo similar: "las IA de ajedrez, las realmente buenas, son impredecibles para los mejores ajedrecistas humanos".
La IA tal y como la conocemos, dijo, será "radicalmente diferente".
Con información de Reuters