Ginebra – Un estudio de la Escuela Politécnica Federal de Lausana (EPFL) ha concluido que aunque los contenidos creados con inteligencia artificial (IA) han demostrado ser un arma de desinformación masiva en campañas electorales, su impacto en los resultados por el momento es «marginal» y «limitado».
Para llegar a esta conclusión, los investigadores analizaron el uso de material creado mediante IA en varios comicios celebrados este año, como los deepfakes (vídeos que parecen mostrar personas reales) en las elecciones presidenciales de Estados Unidos o los avatares falsos de figuras políticas fallecidas en las legislativas indias.
Los resultados mostraron que estos contenidos habían tenido un impacto «marginal» en las campañas, sin suponer ninguna novedad o variación en los resultados de éstas.
Sin embargo, el estudio sí que encontró que el uso de estos contenidos degradó el entorno informativo de estos países, aumentando los sentimientos de polarización y desconfianza hacia los partidos políticos, las autoridades y los medios de comunicación.
Según el comunicado de la institución educativa, los expertos consideran que esto se debe fundamentalmente a la ausencia de marcos que regulen la industria de la IA en estos países, lo que ha permitido que estos contenidos circulen libremente a través de las redes sociales.
También concluyen que muchas campañas políticas aprovechan este vacío regulatorio para utilizar la técnica del «microtargeting» que, a partir de los datos de perfiles, IA y chatbots, transmite mensajes personalizados y emocionales sin aportar información que demuestre que provienen de fuentes fiables.
Este tipo de «microtargeting», alertan, debe analizarse y supervisarse mejor, especialmente cuando se utiliza para dirigirse a población «especialmente vulnerable», como los votantes jóvenes.
«Tenemos que concienciarles de los riesgos asociados a las noticias falsas y darles recursos para verificar las fuentes de la información que reciben», afirmó el director del grupo de procesamiento de señales multimedia de la EPFL y responsable del estudio, Touradj Ebrahimi.
Otro estudio recientemente publicado por la misma universidad demuestra que una de las IA más utilizadas actualmente, los grandes modelos de lenguaje como Chat-GPT, presentan fallas que permiten que aquellos que quieran usarlos con fines propagandísticos maliciosos puedan producir contenido tóxico, difundir información errónea o respaldar actividades dañinas.
Para frenar estas prácticas, el grupo dirigido por Ebrahimi está desarrollando varios sistemas de detección y rastreo de contenidos falsos.
Uno de ellos consiste, por ejemplo, en la implementación de un formato de foto estándar en los medios de comunicación denominado JPEG Trust, el cual permite verificar la autenticidad de las imágenes desde el momento de su creación hasta su publicación.
Sin embargo, advierten, para que estas herramientas sean útiles también será fundamental que los Estados introduzcan regulaciones internacionales y exijan mayores responsabilidades a los medios de comunicación por la difusión de estos contenidos maliciosos. EFE