OpenAI, la compañía de Sam Altman, ha celebrado en la tarde de hoy un evento en el que hemos podido apreciar varias demostraciones de algunas actualizaciones de ChatGPT y GPT-4. El plato fuerte ha sido la presentación de su nuevo modelo de lenguaje, el GPT-4o, que es más rápido y soporta texto, video y audio, por lo que será posible darle indicaciones a través de voz. Además de confirmar su versión de ChatGPT para escritorio.
Así es GPT-4o, el nuevo modelo de lenguaje más avanzado de OpenAI
El nuevo modelo de lenguaje GPT-4o ofrece una inteligencia equiparable al nivel GPT-4, pero con una notable mejora en velocidad y capacidades en texto, visión y audio. Es decir, todo en uno, lo que se ha bautizado como ‘Omnimodel’. De ahí la letra ‘o’ en el nombre. Posee el doble de rapidez, un límite de velocidad 5 veces mayor (usuarios de pago) que GPT4-Turbo y un precio reducido en un 50% para más funciones, pero estará disponible para usuarios con membresía gratuita y de pago. La compañía destaca este modelo como una opción más accesible y eficiente.
Una de las características más importantes que hemos podido ver en el evento es su capacidad para llevar la conversación a un nivel completamente nuevo con su modalidad de voz. Ofreciendo una voz conversacional en tiempo real con un amplio rango dinámico, con la que los usuarios disfrutarán de una experiencia de conversación más natural. Iguala el rendimiento de GPT-4 Turbo en texto en inglés y posee una mejora significativa en texto en idiomas distintos de dicho idioma.
Puede responder a entradas de audio en tan solo 232 milisegundos, con un promedio de 320 milisegundos, que es similar al tiempo de respuesta humano en una conversación. El usuario puede interrumpirle en mitad de la respuesta para solicitar un cambio en el prompt original, sin que haya latencia. Gracias a una reducción significativa en la latencia entre servicios, la interacción con el GPT-4o es más fluida con 50 idiomas disponibles.
Este servicio es gratuito para los usuarios, lo que significa que todos pueden disfrutar de las increíbles capacidades del GPT-4o sin ningún coste. Con voz, texto y visión, todo en un solo modelo, el GPT-4o es claramente un paso adelante. También ChatGPT activará una función para todos los usuarios llamada Memory, con la que podrá recordar el contenido con el que ha interactuado con el usuario para que las tareas no sean tan repetitivas.
Demostración de GPT-4o y versión de escritorio de ChatGPT
En la presentación, han puesto a prueba al nuevo modelo de lenguaje pidiéndole que realice un código de programación. Lo que más llama atención es que ahora lo hace todo a través de los comandos de voz, pero tiene la misma capacidad que el chatbot actual. También le han pedido que cuente una historia y que la relate con diferentes tonos, con voz de robot e incluso cantando. El resultado, la verdad que no deja de ser impresionante. Otro punto a destacar es que, en la conversación, el chatbot transforma todo directamente a través de voz, nada a texto.
Incluso le han mostrado una gráfica para que la analice y ha dado sus conclusiones en relación con lo que ve en la imagen. También puede resolver problemas matemáticos. Se le podrá proporcionar una foto o una captura de pantalla para que la analice. Siguiendo con las novedades en la presentación, otra ha sido la confirmación de la versión de escritorio de ChatGPT. Gracias a esto, los usuarios no tendrán que acceder al ordenador y a su navegador para poder utilizarlo, sino que con esto tendrán una manera más directa de hacerlo.
Disponibilidad de GPT-4o
OpenAI ha confirmado que ya ha comenzado el despliegue gradual de GPT-4o. Es decir, que irá llegando a todos los usuarios en diferentes periodos. En relación con las novedades de texto
Artículo publicado en la web de https://www.msn.com/