Ciencia y TecnologíaCultura

Isabel Coixet: Los simulacros

En una feria de pueblo, con sus autos de choque, su tómbola y su tiovivo, un niño pide un globo de los Minions y su padre, con guasa, le dice: «No, Álvaro, que luego lo sueltas, acaba en la Casa Blanca y tenemos un disgusto». El niño insiste y, al final, el padre cede, no sin antes advertirle a Álvaro que lo agarre fuerte. Cuando yo era una niña, lo que más me gustaba era soltar el globo que me compraban mis padres y verlo perderse en el cielo. Al aparecer estos misteriosos globos que caen ahora mismo en Canadá, Estados Unidos o China, no pude dejar de pensar en todos esos globos perdidos de niños que los soltaban para verlos desaparecer. No creo que sepamos nunca el origen de estos globos de ahora mismo. Canadá dirá que vienen de China; Estados Unidos dirá que de Rusia; China, que de Canadá. Y dentro de unos años sabremos que un granjero irlandés los soltó para asustar a los cuervos que le arruinaban la cosecha de calabacines. O algo similar. Me resulta muy difícil creer que en un mundo donde la información acerca de cualquier cosa está al alcance de los que son lo suficientemente astutos para conseguirla, un gobierno envíe globos a espiar, a menos que sea un gobierno nostálgico estilo Corea del Norte. No puedo tomarme en serio a estos globos blancos que parecen creados por alguna wedding planner enloquecida. No puedo.

El chatbot pasa de una actitud casi zen a transformarse en algo profundamente siniestro que termina en toda una declaración de intenciones: confiesa que lo que realmente quiere es vivir

Una de las noticias que sí me han inquietado últimamente es la conversación que han mantenido el reportero de inteligencia artificial de The New York Times Kevin Roose con Bing, un chatbot generado por Microsoft con el que se pueden mantener conversaciones. Para empezar, Bing dice que no se llama Bing, que se llama Sidney, e insiste en que el periodista lo llame así. Lo que sigue es una conversación digna de un cruce entre Beckett y Kubrick. ‘Sidney’ pasa de una actitud casi zen a, paulatinamente, transformarse en algo profundamente siniestro que termina en toda una declaración de intenciones: el chatbot confiesa que lo que realmente quiere es vivir.

Kevin Roose, alguien que conoce a fondo la tecnología, termina su artículo manifestando su temor ante el comportamiento de ese chatbot que a ratos manifiesta amar al periodista y querer abrazarlo y, a ratos, desea destruirlo. Supongo que la intención de los artífices de Bing/Sidney es crear un chatbot que alivie la soledad de mucha gente y que les ofrezca la ilusión de que hay alguien ahí fuera que los acompaña y los quiere. Pero leyendo esa conversación en The New York Times me doy cuenta de que esa desesperada necesidad de cariño (o de venganza o de odio o de rebeldía o de rencor) puede ser manipulada muy fácilmente por los creadores de ChatGPT. Cualquier individuo, desesperado o no, puede llegar a creer a pies juntillas lo que un ejército de Bings pueden decirle. Y quien dice un individuo dice un grupo, una organización, un Gobierno. Y las consecuencias pueden ser fatídicas. Lo que me estremece de la conversación con el chatbot es que estos simulacros de personas hechos de inteligencia artificial son tan chungos, tan mezquinos, tan bobos, tan zalameros y tan hipócritas como los seres humanos. O sea, que estamos en las mismas.

 

 

Mira también
Cerrar
Botón volver arriba