OpenAI ha creado una escala interna para medir el avance de sus modelos de lenguaje grandes hacia la inteligencia artificial general (IAG), o IA con inteligencia similar a la humana, según informó un portavoz a Bloomberg.
Los chatbots actuales, como ChatGPT, están en el Nivel 1. OpenAI dice estar cerca del Nivel 2, definido como un sistema que puede resolver problemas básicos al nivel de una persona con doctorado. El Nivel 3 se refiere a agentes de IA capaces de realizar acciones en nombre del usuario. El Nivel 4 implica IA que puede crear nuevas innovaciones. El Nivel 5, el paso final para lograr la IAG, es IA que puede realizar el trabajo de organizaciones enteras de personas. OpenAI ha definido previamente la IAG como “un sistema muy autónomo que supera a los humanos en la mayoría de las tareas económicamente valiosas”.
La estructura única de OpenAI se centra en su misión de lograr la IAG, y cómo OpenAI define la IAG es importante. La empresa ha dicho que “si un proyecto alineado con valores y consciente de la seguridad se acerca a construir IAG” antes que OpenAI, se compromete a no competir con el proyecto y a dejar todo para ayudar. La redacción de esto en la carta de OpenAI es vaga, dejando espacio para el juicio de la entidad con fines de lucro (gobernada por la organización sin fines de lucro), pero una escala en la que OpenAI puede probarse a sí misma y a los competidores podría ayudar a determinar cuándo se alcanza la IAG en términos más claros.
Sin embargo, la IAG aún está bastante lejos: se necesitarán miles de millones de dólares en poder de cómputo para alcanzar la IAG, si es que se logra. Los plazos de los expertos, e incluso en OpenAI, varían mucho. En octubre de 2023, el CEO de OpenAI, Sam Altman, dijo que estamos “a cinco años, más o menos” de alcanzar la IAG.
Esta nueva escala de calificación, aunque aún en desarrollo, se presentó un día después de que OpenAI anunciara su colaboración con el Laboratorio Nacional de Los Álamos, que busca explorar cómo los modelos de IA avanzados como GPT-4o pueden ayudar de manera segura en la investigación biocientífica. Un gerente de programa en Los Álamos, responsable del portafolio de biología de seguridad nacional y clave en asegurar la asociación con OpenAI, dijo a The Verge que el objetivo es probar las capacidades de GPT-4o y establecer un conjunto de factores de seguridad y otros para el gobierno de EE. UU. Eventualmente, los modelos públicos o privados pueden probarse contra estos factores para evaluar sus propios modelos.
En mayo, OpenAI disolvió su equipo de seguridad después de que el líder del grupo, el cofundador de OpenAI Ilya Sutskever, dejara la empresa. Jan Leike, un investigador clave de OpenAI, renunció poco después, afirmando en una publicación que “la cultura y los procesos de seguridad han pasado a un segundo plano frente a los productos llamativos” en la empresa. Aunque OpenAI negó que ese fuera el caso, algunos están preocupados por lo que esto significa si la empresa realmente alcanza la IAG.
OpenAI no ha proporcionado detalles sobre cómo asigna modelos a estos niveles internos (y declinó comentar a The Verge). Sin embargo, los líderes de la empresa mostraron un proyecto de investigación usando el modelo de IA GPT-4 durante una reunión general el jueves y creen que este proyecto muestra algunas nuevas habilidades que exhiben un razonamiento similar al humano, según Bloomberg.
Esta escala podría ayudar a proporcionar una definición estricta del progreso, en lugar de dejarlo a la interpretación. Por ejemplo, la CTO de OpenAI, Mira Murati, dijo en una entrevista en junio que los modelos en sus laboratorios no son mucho mejores que lo que el público ya tiene. Mientras tanto, el CEO Sam Altman dijo a finales del año pasado que la empresa recientemente “empujó el velo de la ignorancia hacia atrás”, lo que significa que los modelos son notablemente más inteligentes.
Vía | Here’s how OpenAI will determine how powerful its AI systems are – The Verge
One thought on “OpenAI revela su escala secreta: ¿Qué tan cerca estamos de la IA humana?”