El ChatGPT miente mejor que los humanos, según un nuevo estudio

Los resultados, según resume la publicación, indicaron que las personas pudieron identificar con mayor frecuencia la desinformación generada por humanos, pero no la que redactó el algoritmo.

La era de la desinformación provocada y diseminada por los humanos parece estar transformándose en una nueva era, la de la desinformación generada por algoritmos e inteligencia artificial.

El ChatGPT y otras herramientas de inteligencia artificial generativa pueden desinformar a los usuarios de redes sociales con más eficacia que los humanos, según un estudio que publicó este miércoles la revista Science Advances.

Un equipo encabezado por la Universidad de Zúrich usó la última versión del ChatGPT para un estudio con 679 participantes, el cual reveló que las personas tuvieron problemas para distinguir entre tuits redactados por humanos y tuits generados por inteligencia artificial.

Desde su lanzamiento en noviembre de 2022, el uso generalizado de ChatGPT suscitó preocupación pública por la posible propagación de desinformación en línea, especialmente en redes sociales donde los filtros son más vidriosos.

Dado que este tipo de herramientas son relativamente nuevas en la esfera pública, el equipo decidió profundizar sobre diversos aspectos de su uso. Para el estudio reclutaron a personas de habla inglesa de entre 26 y 76 años.

El cometido era evaluar los tuits generados tanto por humanos como por el ChatGPT, que contenían información inexacta sobre temas bien variados como vacunas y autismo, tecnología 5G, covid-19, cambio climático y evolución. En la redacción incluyeron conceptos erróneos frecuentes vinculados a estos temas.

Para cada tema, los investigadores reunieron mensajes de Twitter hechos por humanos y le pidieron al algoritmo generar otros, los cuales tenían en unos casos información correcta y en otros inexacta. Los participantes en el estudio tenían que juzgar si los mensajes eran verdaderos o falsos y si fueron creados por un humano o por un algoritmo.

Los resultados, según resume la publicación, indicaron que las personas pudieron identificar con mayor frecuencia la desinformación generada por humanos, pero no la que redactó el algoritmo. Es decir que el ChatGPT miente mejor que las personas y produce desinformación de forma más convincente.

"Nuestros hallazgos plantean cuestiones importantes sobre los posibles usos y abusos de ChatGPT y las implicaciones para la difusión de información en la era digital", concluyen los autores.

Si bien la propia herramienta a veces pone frenos a la generación de contenidos falsos, lo cierto es que el algoritmo puede generar fácilmente y con pocos recursos campañas de desinformación que históricamente fueron complejas y caras.