Héctor Quintero Montiel: Vulnerabilidad e inteligencia artificial en tiempo electoral
La democracia estará a prueba, en 2024, nos encontramos con un panorama incierto. Esta etapa que recién se inicia será eminentemente electoral. Al menos 74 países –algunos de ellos de gran relevancia por su tamaño o su influencia geopolítica– se acercarán a las urnas para elegir jefes de Estado y de Gobierno, diputados o representantes regionales y locales. que en conjunto reúnen más de la mitad de la población mundial, entre ellos podemos mencionar Estados Unidos, Rusia, India, México, Venezuela, Taiwán y los de la Unión Europea, tienen una cita con las urnas este nuevo año. En total, unos 4.000 millones de personas estarán llamados a votar, lo que representa casi el 51% de la población mundial.
Por lo cual la incertidumbre y la vulnerabilidad de los comicios será el orden del día, los ataques de los hackers y el resultado de las elecciones serán escépticos e irresolutos, unido ello a la inquietud y la zozobra generada por los conflictos bélicos que se han expandido en la comunidad internacional, viviremos momentos de intranquilidad e impaciencia. La inteligencia artificial generativa (IA) potencia ahora, como nunca antes, la amenaza de la desinformación electoral en Estados Unidos y en el mundo, al facilitar que cualquier individuo con un teléfono inteligente y una imaginación retorcida y deshonesta cree contenido falso —pero convincente— destinado a engañar a los votantes.
En el mundo moderno la vulnerabilidad se ha hecho un problema cotidiano, a pesar de que los intereses políticos y financieros de grupos, élites o partidos lo justifiquen o lo edulcoren para aparentar la misma seguridad que en décadas anteriores. Lo otro es la realidad y las posibilidades que se encuentran hoy al alcance de todos, lo que convierte a las instituciones y procesos en cada vez menos creíbles para la población.
En países más pobres, donde la cultura e información sobre los medios es deficiente, hasta las falsificaciones con IA de baja calidad pueden ser efectivas. Cada vez más se pone de moda que las campañas políticas utilicen IA generativa para reafirmar la imagen de sus candidatos. A medida que se multiplican los tipos de falsificaciones de IA generativa, las autoridades de todo el mundo se apresuran para idear salvaguardas, pero desfasadas de la celeridad de los avances tecnológicos.
Las grandes empresas de tecnología también se prestan de forma muy cuestionable a intereses políticos y manipulan y controlan de múltiples formas al individuo, desde el domino de sus gustos hasta el alcance de lo que publican en sus supuestos perfiles «públicos». La Unión Europea ya exige que las redes sociales reduzcan el riesgo de difundir información falsa, desinformación o “manipulación electoral”, pero eso es demasiado subjetivo y preliminar para cumplirse.
Lo mismo han pedido representantes y senadores del Congreso de EEUU a Meta y a otras tecnológicas, pero esas supuestas restricciones no constituyen por el momento algo realmente efectivo. Las empresas tecnológicas más grandes del mundo firmaron — de manera voluntaria— un pacto para evitar que las herramientas de IA generativa sean disruptivas para las elecciones.
En noviembre de 2022, el Departamento de Justicia de Estados Unidos calificó el software malicioso de LockBit como el «más activo y destructivo en el mundo». LockBit se centró en infraestructuras críticas y grandes grupos industriales dentro y fuera de EEUU. De acuerdo con datos del Buró Federal de Investigaciones (FBI), el grupo realizó más de 1.700 ataques contra víctimas, entidades y negocios en Estados Unidos y en el mundo (Australia, Canadá y Nueva Zelanda, entre otros). Sólo la variante conocida como Business Email Compromise (BEC) o Email Corporativo Comprometido ha generado pérdidas mundiales por más de 30.000 millones de dólares desde el 2016. Hace menos de un mes, mediante una operación internacional de inteligencia en la que participó EEUU, fue desmantelado el grupo de hackers «más dañino y criminal» del mundo: LockBit.
El Tribunal Supremo de EEUU evaluó a inicios de este mes un caso que podría definir las normas para la libertad de expresión en internet, dado que debe decidir hasta dónde puede llegar el Gobierno federal para combatir publicaciones polémicas en redes sociales sobre temas como la covid-19 y las elecciones.
La mayoría de los nueve jueces del tribunal parecieron inclinarse a favor de los argumentos de la administración del demócrata Joe Biden y mostraron escepticismo hacia la coalición de estados republicanos, encabezados por Missouri y Louisiana, que acusan a funcionarios federales de presionar a las plataformas de redes sociales para silenciar a los ciudadanos. Tribunales inferiores, incluida la corte de apelaciones del quinto circuito, la más conservadora del país, se han posicionado a favor de los estados, pero el Supremo ha bloqueado esas resoluciones para estudiar el asunto en profundidad. Se espera que la decisión de este caso se tome antes de que finalice el curso judicial del Tribunal Supremo en junio.
En Estados Unidos, no existen normas que regulen específicamente los límites de la libertad de expresión en las redes sociales. Ante la ausencia de esta legislación, el Tribunal Supremo está adquiriendo un papel cada vez más importante. En días pasados esta instancia judicial estableció nuevas reglas sobre cuándo los funcionarios públicos pueden bloquear voces críticas en sus cuentas de redes sociales. El auge de las herramientas de IA generativa como ChatGPT ha aumentado la posibilidad de que una amplia gama de atacantes se dirija a las elecciones de todo el mundo en 2024, según un nuevo informe del gigante de la ciberseguridad CrowdStrike.
Brian Fletcher, Viceprocurador General de los Estados Unidos, defendió el derecho del Ejecutivo a presentar “argumentos persuasivos” a las grandes empresas de redes sociales y pedirles que eliminen contenido que viola sus propias reglas; pero negó cualquier intento de coerción. Fletcher argumentó que no existe coerción, ya que en todo momento las empresas de redes sociales están “ejerciendo su propio juicio independiente” y tienen la última palabra sobre el contenido que deben retirar.
Los gobiernos o las empresas podrían cruzar la línea a veces “muy delgada” entre un comentario político y un “intento ilegítimo de difamar a un candidato”, dijo Tim Harper, analista político del Centro para la Democracia y la Tecnología, en Washington. Los principales servicios de IA generativa tienen reglas para «limitar» la desinformación política. Pero los conocedores del tema consideran que todavía es demasiado fácil burlar las restricciones de las plataformas o utilizar servicios alternativos que no tienen las mismas salvaguardas.
Incluso sin malas intenciones, el creciente uso de la IA generativa es problemático. Buena parte de los chatbots populares impulsados por Inteligencia Artificial aún escupen información falsa y engañosa que amenaza con privar de su derecho al voto a los electores. Y el software no es la única amenaza. Los candidatos podrían intentar engañar a los votantes al afirmar que acontecimientos reales que los muestran de forma desfavorable fueron fabricados con IA generativa.
“Un mundo en el que todo es sospechoso —y en el que todos pueden elegir en qué creer— es también un mundo que supone un verdadero desafío para una democracia floreciente”, dijo Lisa Reppell, investigadora de la Fundación Internacional para Sistemas Electorales, en Arlington, Virginia. Por esas razones, la tecnología en sentido general y la incapacidad de garantizar al 100% la seguridad cibernética en cualquier parte del planeta genera mucha desconfianza en lo que pueda declarar el gobierno de Joe Biden y otros en el mundo sobre las «garantías electorales» y la «confiabilidad» del sistema electoral, dentro y fuera de Estados Unidos.
La tensión respecto a los llamados hackers o ciberpiratas se ha incrementado por años mediante acciones directas. Se ha demostrado que pueden distorsionar, interferir y dañar sistemas de software considerados extremadamente seguros. Desde hospitales, grandes empresas, bancos, hasta sistemas digitalizados de gobiernos estatales, locales y federales, han sido hackeados en todas partes del mundo. Por tales razones, la pregunta, entre muchas, es cuán confiables y seguros son los sistemas de votación actuales, a pesar de las supuestas garantías de las que hablan los gobiernos de turno en el poder.
Tanto los piratas informáticos vinculados al Estado como los llamados «hacktivistas» aliados están experimentando cada vez más con ChatGPT y otras herramientas de IA, lo que permite a una gama más amplia de actores llevar a cabo ciberataques y estafas, según el informe anual de amenazas globales de la compañía. Esto incluye a piratas informáticos vinculados a Rusia, China, Corea del Norte e Irán, que han estado probando nuevas formas de usar estas tecnologías contra Estados Unidos, Israel y países europeos.
Si los actores vinculados al Estado continúan mejorando su uso de la IA, «realmente va a democratizar la capacidad de hacer campañas de desinformación de alta calidad» y acelerará el ritmo al que pueden llevar a cabo ataques cibernéticos, dice Meyers. «Dada la facilidad con la que las herramientas de IA pueden generar narrativas engañosas pero convincentes, es muy probable que los adversarios utilicen dichas herramientas para llevar a cabo [operaciones de información] contra las elecciones de 2024», dicen los autores del informe. «Es probable que los partidarios políticamente activos dentro de los países que celebran elecciones también utilicen la IA generativa para crear desinformación que difunda dentro de sus propios círculos».
El informe de CrowdStrike destaca cómo el campo de batalla digital se ha expandido más allá de las zonas de conflicto activo como Ucrania y Gaza. En 2023, grupos vinculados a Yemen, Pakistán, Indonesia y Turquía atacaron entidades en Estados Unidos y Europa «en represalia contra el apoyo real o percibido a Israel». En octubre, un grupo yemení se atribuyó un ataque DDoS contra un aeropuerto estadounidense no identificado, según el informe de CrowdStrike.
Un grupo hacktivista del sur de Asia reivindicó un ataque similar contra un sitio web militar británico, que estaba «acompañado de referencias al apoyo del Reino Unido a Israel». Y un grupo indonesio afirmó haber violado los datos personales de 790.000 médicos en Estados Unidos «supuestamente en represalia contra el apoyo de Estados Unidos a Israel, así como para mostrar su apoyo a los palestinos», según el informe. Sorprende que en los comicios rusos no se escuchó que los ciberpiratas atacaran los sistemas informáticos de ese país.
Podemos observar la incertidumbre, la vulnerabilidad, la inseguridad que como sociedad y ciudadanos encontramos ante el crecimiento desmesurado de la inteligencia artificial, sobre todo por el mal uso que se le está dando a este avance tecnológico; en vez, de utilizarlo para el crecimiento, la investigación médica y el desarrollo de la comunidad internacional, lo usamos para desacreditar al adversario, al oponente o al disidente, para el cotilleo o chisme, para que el escepticismo y la desconfianza nos consuma.