Un estudio revela que las personas encargadas de capacitar a la inteligencia artificial están delegando su trabajo... a la IA El documento indica que los entrenadores de la IA estarían usando a la misma IA para realizar su labor.
Por Entrepreneur en Español Editado por Eduardo Scheffler Zawadzki
Un estudio revela que un alto número de profesionales encargados de entrenar a la inteligencia artificial (IA) podrían estar utilizando a la misma IA para realizar su labor.
La investigación destaca que para entrenar a los sistemas de IA se requiere una gran cantidad de datos, con el fin de que los sistemas puedan llevar a cabo tareas específicas de manera precisa y confiable. Para ello algunas empresas contratan a trabajadores independientes para completar tareas que son difíciles de automatizar, como resolver CAPTCHA, etiquetar datos y anotar texto.
Estas tareas se introducen en modelos de IA para su entrenamiento. Los trabajadores suelen recibir un bajo salario a cambio y deben de completar un gran número de tareas en poco tiempo.
Un equipo de investigadores del del Instituto Federal Suizo de Tecnología (EPFL) empleó a 44 personas empleadas en la plataforma de trabajos temporales Amazon Mechanical Turk, para resumir extractos de trabajos de investigación médica. Luego, analizaron las respuestas utilizando un modelo de IA que ellos mismos habían entrenado, buscando señales que indicaran la influencia de ChatGPT, como la falta de variedad en la elección de los términos utilizados.
Además, examinaron las pulsaciones de teclas de los trabajadores para determinar si habían copiado y pegado sus respuestas, lo cual sugeriría que habían generado las respuestas en otro lugar.
Los resultados del estudio revelaron que entre el 33 y el 46% de los trabajadores habían utilizado modelos de IA como ChatGPT de OpenAI para realizar su trabajo.
Según Ilia Shumailov, investigadora junior en ciencias de la computación en la Universidad de Oxford, quien no participó en el proyecto, no existe una solución sencilla para evitar que los errores se propaguen de un modelo a otro. La investigadora explicó a Technology Review: "El problema es que, cuando usas datos artificiales, adquieres los errores de los malentendidos de los modelos y los errores estadísticos. Debes de asegurarte de que sus errores no sigan la salida de otros modelos, y no hay una manera simple de hacerlo".