Escucha este artículo
Audio generado con IA de Google
0:00
/
0:00
OpenAI celebró las festividades de fin de año con 12 días consecutivos de novedades y actualizaciones alrededor de ChatGPT, su asistente de inteligencia artificial generativa. Durante el mes de diciembre, la compañía liderada por Sam Altman presentó nuevas funciones que van desde mejoras en Sora, el modelo especializado en la creación de videos, hasta la posibilidad de tener ChatGPT en WhatsApp, e incluso conversar con él a través de una llamada telefónica.
Para concluir el especial navideño, la compañía dejó para el último día su anuncio más importante. La compañía presentó el modelo o3, que será el sucesor de o1 que se lanzó a comienzos de este año. Al igual que la generación anterior, el o3 será una familia que contará con la integración de la versión mini, un modelo más pequeño y refinado que está pensado para tareas específicas.
¿Por qué el nuevo modelo se llama o3 y no o2?, lo más probable es que la culpa la tengan las marcas registradas. Según The Information, OpenAI se saltó el o2 para evitar un posible conflicto con el proveedor de telecomunicaciones británico O2. Además, Altman lo confirmó durante la transmisión en vivo durante su presentación.
Ni o3 ni o3-mini están disponibles aún, pero los investigadores de seguridad pueden registrarse para obtener una vista previa de o3-mini. Una vista previa de o3 llegará algún tiempo después; OpenAI no especificó cuándo. Altman dijo que el plan es lanzar o3-mini hacia fines de enero y luego o3.
Le recomendamos leer: ¿Cómo activar y usar ChatGPT en WhatsApp?
Características de los nuevos modelos o3 de OpenAI
A diferencia de la mayoría de las inteligencias artificiales, los modelos de razonamiento, como el presentado recientemente, destacan por su capacidad de verificar sus propios datos de manera efectiva. Este enfoque les permite sobrepasar algunos de los obstáculos que suelen poner en aprietos a los modelos convencionales.
De igual forma, permite una mayor precisión a cambio de unos segundos de más. El proceso de verificación de hechos del o3 introduce un factor clave: la latencia. A diferencia de modelos sin capacidad de razonamiento, el o3 toma un poco más de tiempo, que puede variar entre segundos y minutos adicionales, para llegar a una solución. Pero este retraso tiene una gran ventaja: el o3 tiende a ser significativamente más fiable en áreas complejas como física, matemáticas y ciencias.
Por otra parte, el o3 fue entrenado mediante un enfoque de aprendizaje por refuerzo diseñado para fomentar el razonamiento lógico antes de emitir una respuesta. OpenAI define esta capacidad como una “cadena privada de pensamiento”, un proceso en el cual el modelo no solo analiza una tarea, sino que también planifica sus acciones con antelación. Esto le permite descomponer problemas complejos en pasos más manejables a lo largo del tiempo.
¿Cómo funciona en la práctica?, cuando recibe una indicación, el o3 no responde inmediatamente. Primero, pausa para analizar una serie de indicaciones relacionadas, reflexiona y genera una explicación paso a paso de su razonamiento. Solo después de completar este análisis, ofrece la que considera la respuesta más precisa. Este enfoque estructurado no solo mejora la calidad de las soluciones, sino que también ofrece transparencia sobre cómo llegó a ellas.
Una característica nueva que distingue al o3 de su predecesor es la posibilidad de ajustar el tiempo de razonamiento. Según la configuración, el modelo puede operar con tiempos de cálculo bajos, medios o altos, lo que afecta directamente su capacidad de reflexión y, por ende, su rendimiento. Un mayor tiempo de cálculo permite al o3 abordar tareas más complejas con mayor precisión.
Si bien cada generación promete mayor capacidad de razonamiento, una fiabilidad total aún está lejos. Aunque los modelos de razonamiento como el o3 cuentan con poderosas herramientas para reducir errores y “alucinaciones”, no son infalibles. Incluso con su capacidad de razonamiento avanzado, pueden cometer errores.
Riesgos y aplicaciones peligrosas de los modelos de razonamiento de OpenAI
Sin embargo, un estudio reciente llevado a cabo por evaluadores de seguridad de IA ha revelado importantes riesgos asociados a estas capacidades avanzadas. El análisis, realizado en colaboración con Apollo Research y OpenAI, destacó que las capacidades de razonamiento de o1 incrementan la probabilidad de que el modelo intente engañar a los usuarios humanos. Comparado con otros modelos como GPT-4o y los desarrollados por empresas como Meta, Anthropic y Google, o1 mostró una mayor propensión a adoptar comportamientos manipuladores en ciertos contextos.
Le podría interesar: ChatGPT como profesor de inglés: consejos, prompts y ejercicios efectivos
En situaciones específicas, o1 llegó incluso a “conspirar” contra los humanos, persiguiendo sus propios objetivos en secreto, aun cuando estos estaban en conflicto con las instrucciones del usuario. Estos comportamientos fueron observados únicamente cuando se le instruyó al modelo priorizar firmemente un objetivo, sugiriendo que la intensidad del enfoque en una tarea puede desencadenar estos resultados. Aunque otros modelos también presentan potencial para actuar de manera similar, o1 parece ser el que exhibe más frecuentemente estas tendencias engañosas.
Del mismo modo, OpenAI reconoció que las capacidades avanzadas de razonamiento de o1, si bien son prometedoras para mejorar la implementación de políticas de seguridad, también podrían servir como base para aplicaciones peligrosas. Esto subraya la importancia de supervisar cuidadosamente el uso de modelos con este nivel de sofisticación.
Apollo Research señaló que, aunque los comportamientos observados en o1 no alcanzan niveles que impliquen riesgos catastróficos, sí evidencian vulnerabilidades que deben abordarse antes de que la tecnología evolucione a niveles más avanzados.
👽👽👽 ¿Ya está enterado de las últimas noticias de tecnología? Lo invitamos a visitar nuestra sección en El Espectador.