La firma de seguridad cibernética Mandiant dijo el jueves en su blog que había visto en los últimos años un uso creciente de inteligencia artificial (IA) para “realizar campañas de manipulación de información en línea, aunque el uso de la tecnología en otras intrusiones digitales había sido limitado hasta ahora”.
Mandiant, con sede en Virginia y que pertenece a la empresa Google, encontró "numerosos casos" desde 2019 en los que el contenido generado por IA, como imágenes de perfil fabricadas, se había utilizado en campañas de influencia en línea con motivaciones políticas.
Estos incluyeron campañas de “grupos alineados con los gobiernos de Rusia, China, Irán, Etiopía, Indonesia, Cuba, Argentina, México, Ecuador y El Salvador”, según el informe.
El mismo se produce en medio de un auge reciente en los modelos generativos de IA que hacen que sea mucho más fácil crear videos, imágenes, texto y código de computadora falsos y convincentes.
La empresa advirtió que “la IA generativa permitiría a los grupos con recursos limitados producir contenido de mayor calidad a escala”.
La vicepresidenta de Mandiant, Sandra Joyce, en declaraciones a la agencia Reuters, dio como ejemplo una campaña de información vinculada al estado chino llamada Dragonbridge, que según dijo, se había expandido "exponencialmente" en 30 plataformas sociales y 10 idiomas diferentes desde que comenzó enfocándose en los manifestantes prodemocracia en Hong Kong en 2019.
Añadió que sin embargo, el impacto de tales campañas fue limitado, opinando que "desde el punto de vista de la eficacia, no hay muchas victorias allí".
"Realmente todavía no han cambiado el curso del panorama de amenazas", dijo.
China, en el pasado, ha negado las acusaciones de Estados Unidos de participación en campañas de influencia.
La empresa dijo que “aún no había visto que la IA desempeñara un papel clave en las amenazas de Rusia, Irán, China o Corea del Norte”.
(Con información de la agencia Reuters)