Los creadores de ChatGPT finalmente revelaron los avances de GPT-4, con mayor potencia y la capacidad de analizar tanto imágenes o escritos para generar textos.
OpenAI busca seguir marcando la pauta en la industria de la inteligencia artificial, la firma presentó este martes GPT-4, la última versión de su modelo avanzado de lenguaje detrás del funcionamiento de aplicaciones como ChatGPT y Bing AI de Microsoft. La compañía afirma que el nuevo sistema es significativamente más potente que las versiones anteriores y que incluso ha mostrado un “rendimiento de nivel humano” en distintas pruebas profesionales y académicas.
Para crear GPT-4 OpenAI trabajó con Microsoft, juntos desarrollaron una “supercomputadora” desde cero en la nube de Azure, que fue utilizada para entrenar a la última generación de sus modelos avanzados de lenguaje.Posteriormente, la firma de IA pasó seis meses perfeccionando GPT-4 mediante lecciones de un programa interno de pruebas. Según la compañía esto le permitió mejorar la factibilidad, veracidad y certeza de las respuestas del modelo.
“Esperamos que GPT-4 se convierta en una herramienta valiosa para mejorar la vida de las personas al potenciar muchas aplicaciones innovadoras”, escribió OpenAI mediante un comunicado.
Las características del nuevo GPT-4 de OpenAI
GPT-4 es más grande que las versiones predecesoras, esto se debe a que fue entrenado con una base mucho más amplia de datos. La compañía afirmó que, gracias a esto, la última generación de su modelo de lenguaje es “más creativo que nunca” y “puede resolver problemas complejos con mayor precisión”. Al igual que los modelos anteriores, GPT-4 se entrenó utilizando información disponible de miles de páginas web públicas, así como datos con licencia de OpenAI.
La compañía señaló que las mejoras de GPT-4 son evidentes en el rendimiento del sistema. De hecho, el nuevo modelo presentó una serie de exámenes SAT, que están diseñados para evaluar el razonamiento y las aptitudes de estudiantes de carrera en los Estados Unidos, los cuales aprobó con una puntuación casi 10 % superior a la del promedio de los examinados, mientras que las calificaciones de su versión anterior GPT-3.5, se situaron 10% por debajo de la media.
Otra característica sobresaliente de GPT-4 es que es una inteligencia artificial multimodal, lo que significa que el sistema tiene la capacidad de aceptar no solo entradas escritas, sino también imágenes para generar salidas de texto. Además, puede subtitular, e incluso describir imágenes complejas, de manera tan detallada o superficial como el usuario lo indique.
“Si una persona sube a ChatGPT una foto del interior de su refrigerador, GPT-4 no solo podrá identificar correctamente lo que contiene, sino también extrapolar y analizar qué se puede preparar con esos ingredientes. Posteriormente, la herramienta generará varias recetas y enviar una guía paso a paso para cada una de ellas”, explicó la compañía en un comunicado.
OpenAI asegura que la capacidad del modelo para analizar palabras e imágenes simultáneamente le permite interpretar indicaciones más específicas y complicadas.
Es mejor que los anteriores, pero aún no es perfecto
A pesar de la capacidad avanzada de GPT-4 OpenAI advierte que el nuevo software aún está lejos de ser perfecto. “Todavía tiene muchas limitaciones ya conocidas que estamos trabajando para abordar, como los prejuicios sociales y el hecho de que inventa información, además puede llegar a fallar con algunas indicaciones”, señaló la compañía. Sin embargo, afirman que el riesgo de que esto suceda ha disminuido en un 40% en comparación con modelos anteriores.
Por otro lado, GPT-4 carece de conocimiento de los eventos que ocurrieron después de septiembre de 2021, cuando la gran mayoría de sus datos fueron cargados al sistema y no aprende de su experiencia. También, puede cometer errores de razonamiento simples que no parecen corresponder a la conversación, o puede ser demasiado insistente al asegurar hechos que realmente jamás sucedieron.
“Todavía hay mucho trabajo por hacer y esperamos mejorar este modelo a través de los esfuerzos colectivos de la comunidad, así mismo explorando, construyendo y contribuyendo al desarrollo de esta tecnología”, mencionó la compañía en su blog.
El nuevo modelo estará disponible para los suscriptores de ChatGPT Premium y también como parte de una APIque permite a los desarrolladores integrar el nuevo modelo en sus aplicaciones. OpenAI anunció un costo de 3 centavos de dólar por cada 750 palabras de indicaciones y 6 centavos de dólar por la misma cantidad de texto generada en respuestas.