¡GPT-4 ya puede ir a la universidad! Así le fue a la herramienta de inteligencia artifical en los exámenes de admisión El progreso contra la versión anterior de la herramienta es sorprendente. El resultado obtenido en los tests y exámenes de admisión lo demuestra.
Por Entrepreneur en Español Editado por Eduardo Scheffler Zawadzki
OpenAI ya ha liberado GPT-4, la nueva versión de su modelo de lenguaje autorregresivo que utiliza el machine learning para simular de manera efectiva el modo en que escribimos los seres humanos.
Al igual que las anteriores versiones del desarrollo, GPT-4 es capaz de redactar cuentos, canciones, guiones cinematográficos, artículos, novelas y ensayos siguiendo las instrucciones de un usuario. Además, es capaz de responder preguntas y "conversar" con gran naturalidad.
Mientras que GPT-3.5 contaba con 175 millones de parámetros, GPT-4 cuenta con más de 100 billones y es capaz de realizar las tareas solicitadas con mayor precisión.
Para demostrar la capacidad de la herramienta, OpenAI, la organización que la creó, la ha sometido a diversos exámenes universitarios con excelentes resultados.
En un reporte técnico publicado por la organización se explica: "Si bien es menos capaz que los humanos en muchos escenarios del mundo real, GPT-4 exhibe un rendimiento a nivel humano en varios puntos de referencia profesionales y académicos, incluida la aprobación de un examen de barra simulado con una puntuación que la sitúa alrededor del 10% superior de los examinados".
Sin haber recibido un entrenamiento previo a responder los exámenes de admisión de diversas universidades de Estados Unidos, la herramienta logró calificaciones sobresalientes.
En el Uniform Bar Exam, uno de los exámenes más utilizados en la Unión Americana, GPT-4 logra estar en el 90% del percentil, lo que le serviría para ser aceptado en cualquier universidad. Lo mismo sucede en otros exámenes como el GRE Quantitative (80% del percentil) que mide la comprensión de concetos matemáticos, en el GRE Verbal (99% del percentil) que mide las capacidades de razonamiento verbal y cuantitativo del estudiante y en el APP Macroeconomics (84% del percentil) que mide el entendimiento del estudiante en cuestiones de economía.
Imagen: OpenAI
Los resultados del reporte dejan ver que si GPT-4 fuera una persona, no tendría problema para aprobar muchos de los exámenes. La evolución es notable al comparar a esta versión de la herramienta con GPT-3.5 que estuvo en el 10% inferior del percentil en el Uniform Bar Exam.
Sin embargo, hay todavía áreas en las que la inteligencia artificial y GPT-4 batallan. Por ejemplo el desempeño de la herramienta en la prueba Leetcode sigue siendo deficiente (31/41 en el nivel sencillo; 21/80 en el nivel medio; 3/45 en el nivel difícil). Este examen mide la capacidad de un estudiante para programar. Tampoco le va bien a la herramienta resolviendo tests creatividad abstracta como el AP English Literature and Compostion.
Conforme la tecnología avance es posible que las futuras versiones de GPT logren resultados sobresalientes en todos los exámenes, aunque eso no significa que la herramienta sería realmente un buen estudiante. Como humanos sabemos que estudiar, aprender y asumir el conocimiento significa mucho más que ser capaz de pasar un examen de admisión.