



Ya está aquí GPT-4, el nuevo modelo de lenguaje de OpenAI
Es más avanzado y preciso que el modelo que ahora utiliza ChatGPT y puede entender también imágenes
IA Google anuncia funciones de inteligencia artificial en Gmail y Docs para competir con ChatGPTCuatro meses después de lanzar ChatGPT, la popular herramienta conversacional de inteligencia artificial, OpenAI tiene lista una nueva versión del modelo de lenguaje que le da vida. La empresa se ha convertido en la aplicación de más rápida adopción de la historia reciente, por delante de TikTok.
Ahora, con GPT-4, ChatGPT y otras herramientas, como la función conversacional del buscador Bing de Microsoft, podrán ofrecer respuestas mucho más coherentes, completas y complejas.
En una conversación normal los cambios parecen en un primer momento sutiles. "La diferencia surge cuando la complejidad de la tarea alcanza un umbral específico: GPT-4 es más fiable, creativo y capaz de manejar conceptos con muchos más matices que GPT-3.5", explican desde OpenAI.
El nuevo modelo de lenguaje, por ejemplo, es mucho más versátil a la hora de entender las relaciones entre diferentes elementos o responder a ejercicios de lógica.
Esto lo hace destacar especialmente en entornos académicos. OpenAI lo ha utilizado para responder las preguntas de más de una veintena de exámenes de acceso a la universidad, fin de carrera o de certificación profesional con resultados sorprendentes. El modelo, por ejemplo, consiguió colocarse entre el 10% de los alumnos con mejor nota del examen para poder ejercer la abogacía en EEUU y entre el 30% de los mejores en un examen de química avanzada.
El nuevo modelo soluciona algunos de los límites conocidos de la anterior versión. GPT-4 tiene, por ejemplo, un 82% menos de probabilidades de responder a una solicitud de contenido no autorizado y un 40% más de probabilidades de producir una respuestas objetiva que GPT-3.5.
Aún así, sus creadores apuntan a que sigue teniendo algunos de los problemas inherentes a este tipo de herramientas. Ocasionalmente puede "alucinar" una respuesta, inventándose datos y hechos, o desarrollar a lo largo de una conversación extensa algo parecido a una "personalidad" que puede llegar a ser algo abrasiva o antagónica.
Uno de los grandes cambios de la nueva versión es que se tarta de un modelo multimodal. Esto quiere decir que no sólo entiende texto, sino también imágenes. A diferencia de otras herramientas generativas de inteligencia artificial, como Midjourney o Dall-E, GPT-4 no puede crear imágenes pero sí entenderlas dentro del contexto de una pregunta. Al mostrar una imagen de un balancín con un peso suspendido sobre un extremo y una pelota en el otro y preguntarle qué pasará a continuación, por ejemplo, GPT-4 responderá que el peso caerá, lanzando la pelota al aire.
GPT-4 está ya disponible con acceso limitado para empresas e instituciones académicas. OpenAi también lo ha integrado dentro de la última versión de ChatGPT, pero de momento sólo para los usuarios del servicio de pago ChatGPT Plus, que por 20 dólares al mes da acceso prioritario a la herramienta.
Etiquetas: #Ya #está #aquí #GPT #4 #el #nuevo #modelo #de #lenguaje #de #OpenAI