Home Ciencia y tecnologia OpenAI muestra un nuevo modelo de razonamiento, pero no espere probarlo pronto

OpenAI muestra un nuevo modelo de razonamiento, pero no espere probarlo pronto

37
0
An OpenAI logo over an illustration of its o1 model.

Para el último día de ship-mas, OpenAI presentó un avance de un nuevo conjunto de modelos de “razonamiento” fronterizos denominados o3 y o3-mini. El borde informó por primera vez que vendría un nuevo modelo de razonamiento durante este evento.

La compañía no lanzará estos modelos hoy (y admite que los resultados finales pueden evolucionar con más capacitación posterior). Sin embargo, OpenAI está aceptando solicitudes de la comunidad de investigación para probar estos sistemas antes de su lanzamiento público (para el cual aún no ha fijado una fecha). OpenAI lanzó o1 (con nombre en código Strawberry) en septiembre y salta directamente a o3, omitiendo o2 para evitar confusiones (o conflictos de marcas) con la empresa de telecomunicaciones británica llamada O2.

El término razonamiento Se ha convertido últimamente en una palabra de moda común en la industria de la IA, pero básicamente significa que la máquina divide las instrucciones en tareas más pequeñas que pueden producir resultados más sólidos. Estos modelos a menudo muestran el trabajo sobre cómo llegó a una respuesta, en lugar de simplemente dar una respuesta final sin explicación.

Según la empresa, o3 supera en todos los ámbitos los récords de rendimiento anteriores. Supera a su predecesor en pruebas de codificación (llamado SWE-Bench Verified) en un 22,8 por ciento y supera al científico jefe de OpenAI en programación competitiva. El modelo casi superó una de las competencias de matemáticas más difíciles (llamada AIME 2024), falló una pregunta y logró el 87,7 por ciento en un punto de referencia para problemas científicos de nivel experto (llamado GPQA Diamond). En los desafíos más difíciles de matemáticas y razonamiento que normalmente desconciertan a la IA, o3 resolvió el 25,2 por ciento de los problemas (donde ningún otro modelo supera el 2 por ciento).

a: flotar]:text-gray-63 [&>a:hover]:sombra-subrayado-negro oscuro:[&>a:hover]:texto-gris-bd oscuro:[&>a:hover]:sombra-subrayado-gris [&>a]:sombra-subrayado-gris-63 oscuro:[&>a]:texto-gris-bd oscuro:[&>a]:sombra-subrayado-gris”>OpenAI

La compañía también anunció una nueva investigación sobre alineación deliberativa, que requiere que el modelo de IA procese las decisiones de seguridad paso a paso. Entonces, en lugar de simplemente dar reglas de sí o no al modelo de IA, este paradigma requiere que razone activamente si la solicitud de un usuario se ajusta a las políticas de seguridad de OpenAI. La compañía afirma que cuando lo probó en o1, siguió mucho mejor las pautas de seguridad que los modelos anteriores, incluido el GPT-4.

fuente