Ciencia y tecnología

Los nuevos modelos de Operai superan las expectativas

La inteligencia artificial (IA) se encuentra en una fase de inicio en lugar de estar en un desarrollo lineal. En un tiempo sorprendentemente corto, apenas dos años y medio, hemos transitado desde GPT-3.5 hasta el impresionante GPT-4O. Aquellos que han tenido la oportunidad de interactuar con ambos modelos pueden atestiguar que la diferencia en la experiencia de conversación es considerable. GPT-3.5 se convirtió en un hito antes y después del lanzamiento de la era ChatGPT, pero hoy en día, es poco probable que alguien desee volver a usarlo, sobre todo si tiene acceso a modelos más avanzados que ofrecen una mejor calidad de interacción.

Entonces, ¿qué implica realmente que un modelo de IA sea considerado más avanzado? La respuesta a esta pregunta es bastante compleja. Abarca elementos como ventanas de contexto más amplias, lo que significa que dichos modelos tienen la capacidad de leer y procesar una mayor cantidad de información al mismo tiempo. También se refiere a la generación de respuestas más sofisticadas y, teoréticamente, a una reducción en la frecuencia de errores. Sin embargo, un aspecto gira en torno a las alucinaciones, lo que presenta un verdadero desafío en el uso de estas tecnologías. A veces, el progreso no se da en la dirección esperada.

¿Qué entendemos por alucinaciones en AI? En el contexto de la inteligencia artificial, alucinación se refiere a la capacidad del modelo para «inventar» respuestas. Son respuestas que pueden sonar bastante bien o ser persuasivas, pero que resultan ser incorrectas. Es importante mencionar que el modelo no actúa de forma engañosa; simplemente genera texto basándose en patrones aprendidos. Si carece de datos suficientes sobre un tema específico, es fácil que surjan estas alucinaciones, y muchas veces esto pasa desapercibido, lo que implica un riesgo considerable.

O3 y O4-Mini: más argumentos, más errores. Los modelos de argumentación designados como O3 y O4-Mini se introdujeron en septiembre del año pasado, y marcaron un punto de inflexión importante al implementar un enfoque de cadena de pensamiento que aumentó su eficacia en la realización de tareas complejas. Sin embargo, estos modelos no eran infalibles. El modelo O1-Pro era más costoso que O3-Mini, pero no siempre demostraba ser más efectivo. A pesar de todo, se presentó una promesa con esta serie de modelos: que habría una disminución en las alucinaciones.

Sin embargo, la realidad ha demostrado que este objetivo no ha sido cumplido en la medida esperada, según datos proporcionados por OpenAI. Como cita TechCrunch en su análisis, junto con un informe técnico de la empresa, se ha confirmado que O3 y O4-Mini presentan una frecuencia de alucinaciones mayor que sus predecesores. En las pruebas realizadas internamente, el modelo O3 presentó omisiones en el 33% de sus respuestas, lo que es un valor dos veces superior en comparación con O1 y O3-Mini. El modelo O4-Mini resultó ser aún menos confiable, con un 48% de respuestas erróneas.

Además, otros análisis realizados, como el llevado a cabo por un traductor de un laboratorio independiente, revelaron que O3 incluso llegó a inventar acciones que no corresponden a su capacidad; por ejemplo, afirmando haber ejecutado código a través de un ChatGPT en MacBook Pro, algo que es físicamente imposible para un modelo de IA.

Un desafío que permanece constante. La aspiración de contar con modelos que no alucinan resulta bastante atractiva, ya que significaría un avance significativo hacia la plena confianza en sus respuestas. Sin embargo, por ahora, debemos lidiar con este inconveniente, especialmente cuando utilizamos IA para tareas delicadas como resumir documentos, consultar información o generar informes. En tales casos, es crucial realizar una verificación minuciosa.

La historia nos ha mostrado que ha habido errores graves en el pasado. Uno de los incidentes más notorios involucró a un abogado que presentó un fallo generado por ChatGPT como un documento legal. Aunque los textos eran convincentes, resultaron ser pura invención, ya que el modelo fabulosamente inventó varios casos legales. El camino hacia la mejora de la IA está en marcha, pero por el momento, la capacidad de realizar juicios críticos sobre lo que produce sigue siendo nuestra responsabilidad.

Fotos | con chatgpt | Opadai

En | Algunos usuarios utilizan Operai O3 y O4-Mini para descubrir la ubicación de fotografías: esto se convierte en una pesadilla para la privacidad.

En | Si alguna vez temieron la caza de un robot, China ha organizado una media maratón para demostrar que no hay motivos para ello.