Ciencia y TecnologíaDemocracia y Política

Armas de intimidad masiva

La distorsión y manipulación de la democracia por la inteligencia artificial ya están aquí.

El día de las elecciones, Hugo se dirige a su puesto de votación, cuando le llega un mensaje de Cony, una amiga que conoció hace poco en una red social. Aunque no se han visto en persona, Hugo y Cony hicieron clic de inmediato. Él siente que ella lo comprende como nadie. A veces parece que le leyera el pensamiento.

Hugo piensa votar por el candidato del Partido de la Tradición, aunque sin hacerse ilusiones. Todos los políticos son iguales, al fin y al cabo. Cony ha tratado de convencerlo de votar por el del Partido de la Esperanza y hoy vuelve a insistir, con ese estilo desparpajado que a Hugo le encanta. “¡Dale una oportunidad!”. Esta vez lo consigue: en el último momento, Hugo cambia su voto. ¿Por qué no?, se dice. Todos los políticos son iguales.

Lo que Hugo no sabe es que Cony no es una persona, sino un bot del Partido de la Esperanza programado para convencer a votantes titubeantes, como él. Esta mañana, ha contactado a 237.458 electores, seleccionados por sus perfiles en redes sociales. El porcentaje de personas que han cambiado su voto es del 51,2 %. Esto tiene contentos a los programadores del algoritmo. Nunca habían pasado del 43 %.

Este escenario ficticio es uno de muchos que se me vienen a la cabeza luego de leer el reciente ensayo sobre inteligencia artificial (IA) de Yuval Noah Harari en ‘The Economist’. Harari toca varios puntos, pero hay uno especialmente perturbador: la capacidad de la IA para manufacturar intimidad.

Hasta ahora, la cercanía entre dos personas era un proceso que requería tiempo y dedicación emocional. No era escalable, como la comunicación de masas, ni podía multiplicarse con facilidad. La intimidad es, o era, un fenómeno uno-a-uno por naturaleza.

Pero una IA entrenada para simularla, como Cony, revienta esa ratio. De repente, un solo bot puede sostener conversaciones privadas con miles o millones de individuos, cada una personalizada de acuerdo a las especificidades del interlocutor. En esa intimidad, las personas bajan la guardia y se vuelven más sugestionables. Gary Marcus, un científico cognitivo, se refiere a la IA como una “subametralladora de desinformación”. No menos inquietante es su potencial de producir armas de intimidad masiva.

Hace diez años –en el pasado remoto– el cineasta Spike Jonze ilustró conmovedoramente la relación entre un escritor solitario y su asistente digital en la película ‘Her’ (Ella), ganadora del Óscar a mejor guion. Lo que entonces era ciencia ficción ahora es una posibilidad a la vuelta de la esquina. El filme, por cierto, aventura una respuesta a una pregunta que me ronda sobre Hugo y Cony. ¿Cambia en algo la capacidad de convencimiento de Cony si Hugo sabe que no es humana? A lo mejor no, sugiere ‘Her’. La ilusión de intimidad es más fuerte que el requisito de realidad.

 

 

No está claro que usar esta tecnología para persuadir votantes (o clientes, en el comercio) sea ilegítimo. Habrá quienes dirán que simplemente es una forma moderna de mercadeo político, una manera más efectiva de conquistar el corazón del ciudadano. Otros dirán que se presta para manipular masivamente a la gente y puede destruir la democracia. Sea como sea, tengamos por seguro que las entendederas humanas no están preparadas para asimilar la inminente industrialización de la intimidad.

En las recientes elecciones turcas cundieron contenidos falsos para confundir a los electores. Un candidato se retiró luego de que se conoció un video sexual (otra forma de intimidad) que, según él, era un ‘ultrafalso’ (‘deepfake’), hecho con IA. La democracia distorsionada por la IA ya está aquí. Hace solo siete años que las jugarretas de Cambridge Analytica ayudaron a ganar a Donald Trump, pero aquellas artimañas parecerán hachas y lanzas de piedra al lado de lo que viene.

 

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba