La investigación, dirigida por Nikola Biller-Andorno (director del Instituto de Ética Biomédica de la universidad), Giovanni Spitale y Federico Germani, estudió en 697 participantes sus reacciones ante tuits escritos por humanos o por el modelo de lenguaje GPT-3 de OpenAI, sobre temas tales como las vacunas, el terraplanismo, el uso de homeopatía contra el cáncer o la crisis climática.
Lea más: Video: Panel sobre inteligencia artificial generativa
GPT-3 "mostró su habilidad para generar tuits acertados, y más claramente comprensibles que los de usuarios reales de Twitter", señaló la universidad en un comunicado, pero "los investigadores también descubrieron que el modelo de lenguaje podía generar campañas de desinformación a gran escala".
Estas campañas producían información "muy persuasiva", que además los participantes en el estudio, de forma inesperada, no sabían diferenciar de la generada por seres humanos.
Las conclusiones "muestran el poder de la inteligencia artificial tanto para informar como para desinformar", admitió Germani.
Lea más: En análisis: Cuáles son los riesgos de la Inteligencia Artificial
En casos de crisis sanitarias públicas, como la reciente pandemia de covid-19, tanto uno como otro rol pueden marcar la diferencia, concluyen los expertos, advirtiendo de que “los sistemas con IA pueden ser usados para generar campañas de desinformación sobre virtualmente cualquier tema”.
Ello, "pondría en riesgo no solo la salud pública, sino también la integridad de ecosistemas informativos vitales para que las democracias funcionen", alertaron los autores del estudio.
Estos piden a las autoridades que en consecuencia adopten regulaciones basadas en principios éticos y en datos objetivos con el fin de contrarrestar los posibles impactos negativos y “garantizar un uso responsable de la IA”.