Marzo 27, 2023
GPT-4, el nuevo modelo OpenAI, sin duda alguna es un gran avance en el campo de la tecnología de procesamiento del lenguaje y la inteligencia artificial. Esta gran empresa lo anunció, ha habido mucha expectativa con su lanzamiento desde hace unos meses y finalmente parece que ha cumplido.
Tiene el potencial de convertirse en una herramienta realmente capaz para cualquiera y tan solo queda esperar para ver aplicaciones que surjan de este modelo e incluso ya un mejorado ChatGPT.
La compañía ha dado a conocer los poderes del modelo de lenguaje en su blog diciendo que es más creativo y colaborativo que nunca. Mientras que ChatGPT —con tecnología GPT-3.5— solo aceptaba entradas de texto, GPT-4 también puede usar imágenes para generar subtítulos y análisis.
Pero eso es solo la punta del iceberg. Esto no acaba aquí y es el comienzo de multitud de ventajas, aunque puede que también algún que otro inconveniente.
¿Qué novedades integra con respecto a GPT-3?
Parámetros: más no es sinónimo de mejor
En cuanto a las diferencias con los anteriores modelos, hay que recalcar el concepto de «Más poder en una escala más pequeña». OpenAI, tal y como acostumbra, es muy cautelosa a la hora de ofrecer toda la información y los parámetros utilizados para entrenar en este caso a GPT-4.
Por el momento se sabe que GPT-3 cuenta con 175.000 millones de parámetros y se estima que GPT-4 lo supere pero no con una abismal diferencia como ha circulado por redes sociales.
Con respecto a las suposiciones que muchos medios hacen sobre los parámetros con los que GPT-4 está entrenado, OpenAI ya ha confirmado que se está guardado esta información con el objetivo de protegerse de la competencia. Es decir, prefiere no decirlo para evitar que otras empresas como Google que desarrollan también grandes modelos de lenguaje tengan una referencia a batir.
Con herramientas como ChatGPT ya se ha demostrado que el número de parámetros no lo es todo, sino que la arquitectura, y la calidad también desempeñan un papel importante en el entrenamiento.
«GPT-4 tiene muchos más parámetros con los que ha sido entrenado y ha recibido mucho más feedback de los usuarios finales que GPT-3, lo que permite tener una mayor compresión del contexto a lo largo de la conversación que le damos, pudiendo dar una mayor creatividad a las respuestas y longitud», explica para Computer Hoy Josué Pérez Suay, especialista en Inteligencia Artificial y ChatGPT.
Modelo multimodal
Otra gran diferencia a destacar y ya anunciada por OpenAI es su naturaleza multimodal. En lugar de trabajar únicamente con texto, GPT-4 también será capaz de admitir imágenes como entrada. Es decir, podrás subir fotos y pedirle a GPT-4 que las analice, que explique por qué es gracioso el meme que le enseñas o que te diga qué objetos se encuentran en la imagen.
Por ejemplo, mostraron una imagen con ingredientes y le preguntaron qué recetas se podían hacer con ellos. En un principio respondió con los elementos que aparecen en la imagen, los reconoce, y luego empezó a dar multitud de recetas. En la siguiente imagen puedes ver otro caso de uso.
Más idiomas
Si bien el inglés sigue siendo su primer idioma, GPT-4 da otro gran paso adelante con sus capacidades multilingües. Es casi tan preciso en mandarín, japonés, africano, indonesio, ruso y otros idiomas como lo es en su lengua materna. De hecho, es más precisa en punjabi, tailandés, árabe, galés y urdu que la versión 3.5 en inglés.
Por lo tanto, es verdaderamente internacional y su aparente comprensión de los conceptos combinado con habilidades de comunicación sobresalientes podría convertirlo en una herramienta de traducción verdaderamente de siguiente nivel.
«A esto hay que sumarle que La optimización interna ha reducido los costos computacionales y de energía asociados con el uso del modelo», explica Pérez Suay.
RLHF mejorado aunque sigue teniendo limitaciones
Teniendo en cuenta lo que ellos mismos comentan en su informe, han puesto especial énfasis en emplear algoritmos de RLHF (Aprendizaje por Refuerzo con Retroalimentación Humana).
Esta es una técnica de aprendizaje automático en la que se entrena a un sistema de IA utilizando retroalimentación humana, en lugar de solo usar datos con el objetivo de frenar la información falsa que en ocasiones proporcionan las herramientas basadas en estos modelos.
OpenAI otorgó un grupo de expertos acceso anticipado a múltiples versiones del modelo GPT-4 para realizar algunas pruebas. Corrigieron los fallos en las respuestas y evaluaron la capacidad de este modelo para incluso realizar ataques de phishing.
«Pasamos 6 meses haciendo que GPT-4 sea más seguro y más alineado. GPT-4 tiene un 82% menos de probabilidades de responder a solicitudes de contenido no permitido y un 40% más de probabilidades de producir respuestas fácticas que GPT-3.5 en nuestras evaluaciones internas», comentan. Por supuesto GPT-4 no es perfecto y OpenAI lo reconoce en su informe.
Qué le depara el futuro a GPT-4: pros y contras
Cuando se mira hacia el futuro de GPT-4 hay que centrarse en el corto plazo de 2023 en lugar de los próximos 5 a 10 años. Esto se debe a que las cosas pueden cambiar rápidamente de rumbo en el campo de la inteligencia artificial que resulta incluso absurdo hablar de cara a 2 años.
OpenAI se comercializará a gran escala
Muchos creen que OpenAI obtendrá la mayor parte de sus ingresos mediante la concesión de licencias de sus tecnologías a otras empresas para crear sus propios chatbots personalizados en lugar del modelo de suscripción. Esto es algo que ya se está dejando ver con GPT-4 y algunas empresas como Duolingo que ya integran su modelo (Duolingo Max).
Comienza una nueva carrera de potencias
Bing de Microsoft es el primero en integrar modelos GPT en la búsqueda, iniciando una nueva carrera en la búsqueda que Google ha dominado desde un inicio. Ahora habrá que ver a Google si con la ayuda de Bard —que ya se está abriendo al público— consigue sortear estas piedras en el camino.
Problemas para los que se nutren de los clics en Internet
También se plantearán cuestiones relativas a la atribución y al impacto que tendrá en el tráfico de los sitios web, ya que si estas herramientas pueden resumir eficazmente una respuesta completa a una consulta, los usuarios no tendrán necesidad de hacer clic en el sitio o sitios web de los que procede la información.
Los reguladores toman nota
2023 finalmente puede ser el año en que los reguladores tomen nota de la interrupción de la IA. Es posible que finalmente se creen políticas que generen un marco para establecer leyes de seguridad y derechos de autor para estos modelos de IA.
«No creo que GPT-4 sea un detonante para la regulación de la información. Es un paso más, conciencia a la gente, pero en muy poco tiempo tendremos muchos Transformers similares con entrenamientos diversos, que harán que su uso sea mucho más natural», opina para Computer Hoy Nicolás Franco Cerame, Profesor UPM y Director de desarrollo en mrHouston.
Las noticias falsas aumentarán
Una de las partes negativas del crecimiento de los modelos GPT es que los malos actores pueden difundir noticias falsas mucho más rápido que antes. Como estas herramientas buscan aparecerse al habla humana, será difícil distinguirlo.
Con información de Computer Hoy