Estás leyendo
OpenAI revela cómo o3 y o4-mini usan herramientas en tiempo real

OpenAI revela cómo o3 y o4-mini usan herramientas en tiempo real

  • La tarjeta del sistema de OpenAI explica cómo o3 y o4-mini integran herramientas externas durante su razonamiento, bajo evaluaciones de seguridad deliberativa.
OpenAI System Card

ha publicado la tarjeta del sistema correspondiente a sus modelos o3 y o4-mini, en la que describe cómo estos sistemas integran el uso de herramientas en su arquitectura de razonamiento y cómo evalúan riesgos de forma deliberativa.

Este documento forma parte de la primera publicación bajo la Versión 2 de su Marco de Preparación, centrado en la evaluación técnica de capacidades potencialmente peligrosas en modelos avanzados.

La tarjeta ofrece detalles sobre el entrenamiento, los mecanismos de control y las funciones internas de los modelos, con énfasis en su capacidad para combinar con el uso activo de herramientas externas. A diferencia de iteraciones anteriores, los modelos de la serie o no solo generan respuestas, sino que pueden invocar herramientas como Python, buscadores web, análisis de imágenes o automatizaciones, en medio de sus cadenas de razonamiento, para mejorar la calidad y precisión de sus resultados.

Integración de herramientas en el proceso de razonamiento

Uno de los aspectos más destacados del documento es la explicación de cómo los modelos o3 y o4-mini utilizan herramientas como parte de su proceso de pensamiento. Esta integración no se produce al final de la generación, sino durante la propia deliberación del modelo, lo que permite encadenar operaciones complejas como:

  • Extraer datos de una imagen, procesarlos con Python y devolver un análisis estadístico.

  • Buscar información actualizada en la web para contrastar una fuente antes de responder.

  • Recortar o transformar visualmente una imagen antes de interpretarla.

  • Automatizar tareas o interacciones mediante interfaces conectadas a otras aplicaciones.

Este enfoque permite que los modelos actúen de manera más estructurada y adaptativa, acercándose a flujos de trabajo reales utilizados en entornos profesionales. El razonamiento no se limita a texto plano, sino que se construye sobre acciones secuenciales respaldadas por herramientas externas que el propio modelo decide utilizar en función del contexto.

Evaluación de riesgos bajo el nuevo Marco de Preparación

La también detalla los resultados de las pruebas internas realizadas por OpenAI bajo su Preparedness Framework v2, que se aplica a modelos que pueden tener un impacto transversal. En el caso de o3 y o4-mini, el Safety Advisory Group (SAG) concluyó que ninguno de los modelos supera el umbral de riesgo alto en las tres categorías evaluadas:

  • Capacidades biológicas y químicas

  • Ciberseguridad

  • Auto-mejora de la IA

Esta evaluación implica que, aunque los modelos tienen acceso a herramientas y pueden realizar tareas complejas, no disponen de capacidades que puedan considerarse peligrosas según los criterios actuales del marco. No tienen, por ejemplo, la capacidad para desarrollar armas químicas ni para automejorarse sin intervención externa.

Razonamiento deliberativo sobre políticas de seguridad

Una de las innovaciones más relevantes introducidas en esta generación de modelos es el concepto de alineamiento deliberativo. Según la tarjeta del sistema, los modelos o-series son capaces de razonar en tiempo real sobre las políticas de seguridad de OpenAI cuando se enfrentan a solicitudes potencialmente peligrosas o ambiguas.

Este razonamiento se basa en una comprensión contextual de la instrucción del usuario, evaluando no solo el contenido literal, sino también el posible impacto de la respuesta. De este modo, los modelos pueden rechazar o reformular respuestas de forma autónoma si detectan que una instrucción entra en conflicto con los principios de seguridad establecidos.

Te puede interesar
Servicios Bancarios

Este sistema no se basa únicamente en filtros estáticos o reglas predefinidas, sino en mecanismos activos de deliberación durante la ejecución, lo que representa un cambio significativo respecto a generaciones anteriores.

Herramientas como extensión del modelo, no como añadido externo

Otra precisión importante recogida en la tarjeta del sistema es la consideración de las herramientas como parte del modelo. Aunque técnicamente se ejecutan fuera del modelo principal, su uso está integrado en la lógica interna del razonamiento, lo que significa que las decisiones de invocarlas forman parte del propio proceso de generación.

Por ejemplo, si el modelo necesita verificar una cifra estadística en una imagen o realizar una operación matemática compleja, puede decidir utilizar una herramienta sin intervención humana y combinar los resultados directamente en la respuesta. Esta capacidad extiende el alcance de lo que puede resolver, sin que implique mayor autonomía estructural.

Además, los modelos han sido entrenados para utilizar estas herramientas de forma eficiente y controlada, limitando el uso innecesario o improductivo de recursos externos. Según la documentación, esta eficiencia forma parte de los criterios evaluados durante el entrenamiento por refuerzo.

Supervisión humana y limitaciones actuales

La tarjeta deja claro que, a pesar de estas capacidades, los modelos no operan de forma independiente. Requieren activación por parte del usuario y están sujetos a límites de seguridad que restringen tanto su comportamiento como el uso de herramientas. No hay evidencia, según OpenAI, de que estos sistemas puedan alterar sus propios límites ni generar instrucciones que escapen al control previsto.

Además, se especifica que los modelos no pueden acceder libremente a internet o a sistemas externos sin autorización explícita, y que el uso de herramientas está condicionado por configuraciones específicas habilitadas por la plataforma o el usuario final.

Implicaciones para entornos profesionales

El uso integrado de herramientas dentro del razonamiento del modelo abre nuevas posibilidades para su aplicación en entornos donde la complejidad de los datos o la necesidad de contextualización dificultan el uso de asistentes tradicionales. Ámbitos como la auditoría de datos, la revisión de información visual, la validación de cálculos o la ejecución de automatizaciones pueden beneficiarse de un modelo que decida por sí mismo cuándo y cómo utilizar recursos técnicos adicionales para resolver una tarea.

No obstante, OpenAI advierte que estos modelos no deben considerarse sustitutos de supervisión humana, sino asistentes que mejoran su rendimiento mediante una arquitectura modular de razonamiento y herramientas.

Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad