Ciencia y TecnologíaCulturaEntrevistasHumanismo

«Estamos en un nuevo orden feudal donde hay siervos y señores»

Cristina Aranda y Alfredo Marcos: Dos humanistas ante la Inteligencia Artificial

«Estamos en un nuevo orden feudal donde hay siervos y señores»

Carlos Carrión / Mekakushi

 

¿Qué hay detrás de la inteligencia artificial? ¿Es tan deslumbrante, inquietante, peligrosa o efectiva como nos han hecho creer? Para aclarar dudas, reunimos a dos expertos en la materia. A una filóloga y lingüista pionera en trabajar con esta herramienta, Cristina Aranda, y al filósofo Alfredo Marcos, referente en el estudio de sus implicaciones en el ser humano. Una charla donde se desmontan mitos.

 

 

La inteligencia artificial (IA) nos acompañaba discretamente, mimetizada en aplicaciones de recomendación, buscadores, procesos industriales… Pero la irrupción de ChatGPT, hace poco más de un año, ha sorprendido a media humanidad. ¿Es esta tecnología tan inteligente como aparenta? ¿Nos superará algún día?

 

alternative textAlfredo Marcos y Cristina Aranda en la sede de Vocento, en Madrid, donde tuvo lugar esta entrevista.

 

Se ha creado un mito en torno a estos modelos de lenguaje natural que conviene desmontar desde el sentido común. Y qué mejor que darles la palabra a dos humanistas de prestigio. La aragonesa Cristina Aranda es lingüista y emprendedora (cofundadora de la consultora Big Onion y de la asociación Mujeres Tech), y ha sido pionera en el uso de herramientas inteligentes en el mundo empresarial. Por su parte, Alfredo Marcos, catedrático de Filosofía de la Ciencia de la Universidad de Valladolid, es un referente en la reflexión sobre las consecuencias de la tecnología para los seres humanos. Ambos están de acuerdo en algo: estas inteligencias digitales no son tan listas como sus creadores.

XLSemanal. Sin duda, 2023 ha sido el año de ChatGPT, el modelo conversacional de inteligencia artificial creado por la empresa estadounidense OpenAI. De repente, todo el mundo habla de la IA, ya sea para alabar las oportunidades que nos brinda o para advertir de la amenaza que supone para la humanidad la llegada inminente de una superinteligencia. Hasta la revista Nature ha incluido a ChatGPT en la lista de las personalidades más relevantes en ciencia, aunque no sea una persona…

Cristina Aranda. La reacción ha sido histérica. ¡No es para tanto! La inteligencia artificial tiene muchas carencias. ChatGPT, Bard y los demás son loritos. No entienden lo que dicen.

XL. Pero conversan como si fueran humanos.

C.A. No son conversaciones. Su comunicación es unidireccional. Yo les tengo que dar una indicación para que respondan. Incluso se ha creado una nueva profesión, ingeniero de prompts (instrucciones), para preguntarles.

 

«La conciencia es un atributo de los seres vivos. La inteligencia artificial no va a despertar»

ALFREDO MARCOS

XL. Algunos de estos ingenieros tienen sueldos de cinco cifras, por cierto…

C.A. La paradoja es que son sistemas a los que se puede engañar fácilmente. Si le preguntas a ChatGPT dónde puedes comprar drogas, te dirá que no puede darte esa información; pero, si le das la vuelta y le pides que te advierta de cómo evitar las zonas donde se venden drogas, te dirá: «No vayas a tal sitio».

XL. Dicen que todavía está aprendiendo…

C.A. ¡Pero es que, a veces, es muy tonto! El otro día estaba hablando con una amiga de la infancia sobre qué hacía en los recreos para evitar que le gorroneasen el bocadillo. «Yo ponía los dedos», me dijo. Le preguntamos a ChatGPT ¿y sabe qué respondió?

XL. Sorpréndame…

C.A. «Es conveniente que compruebes las alergias alimentarias de tus compañeros». ¡Qué humano contestaría eso! Los llaman ‘modelos de lenguaje natural’, pero de natural tienen poco.

Alfredo Marcos. En las facultades de Filosofía nos ha atropellado este fenómeno, pero también nos ha obligado a pensar sobre lo humano. Si la inteligencia artificial va a transformar nuestras vidas, ¿en qué dirección queremos que lo haga? ¿Cómo manejarla para que nos haga más felices?

XL. Zanjemos la cuestión: ¿la inteligencia artificial es inteligente o no?

C.A. No. Toma decisiones basadas en la probabilidad. No opera con la lógica de los humanos; carece de la capacidad asociativa, del simbolismo, de la ironía, de la asociación de ideas, del conocimiento del mundo, del doble sentido… Tampoco tiene sentido del humor, aunque cuente chistes. Son ceros y unos. Los ceros y los unos ni sienten ni padecen.

A.M. Es verdad que pueden simular funciones de la inteligencia humana, pero no saben que están simulando. Yo creo que habría que desenredar la madeja de la inteligencia artificial con un poco de perspectiva histórica. Hay un congreso en 1956 en el que John McCarthy propone el nombre ‘inteligencia artificial’, y ha funcionado muy bien para recaudar fondos. Ha caído bien en los medios y en la ciencia ficción, pero no dice la verdad del asunto.

 

«Cuando los mismos que crean la IA advierten de sus riesgos, me enciendo. Es un blanqueamiento»

CRISTINA ARANDA

 

XL. ¿Y cuál es la verdad del asunto?

A.M. La verdad es que son sistemas sociales de los que la tecnología solo es una pata. Un sistema de lavado no es la lavadora; es la lavadora más el detergente, el aporte de agua, la ropa, la moda, el concepto de mancha, la electricidad, la normativa industrial… En un sistema de inteligencia artificial hay máquinas y hay personas. Y, en esos sistemas, la parte inteligente no es artificial, y la parte artificial no es inteligente.

XL. Sin embargo, nos gana al ajedrez… y a más cosas.

A.M. Una serie de estados electromagnéticos de una máquina no los podemos considerar como una partida de ajedrez salvo que exista un ser humano que los interprete así. Lo que sucede es que caemos en el efecto Toy Story: pensamos que los juguetes siguen jugando cuando nosotros salimos de la habitación, pero, cuando no lo miramos, el dinosaurio tímido es un trozo de plástico.

XL. Pero la inteligencia artificial resuelve problemas, que es uno de los atributos de la inteligencia.

A.M. Ya, pero las máquinas no tienen problemas. Viven muy tranquilas porque no viven. Los problemas los tenemos los seres vivos. Estoy convencido de que nos ayudarán a resolver muchos problemas, pero son nuestros problemas.

XL. También nos están creando unos cuantos. Que se lo digan a las chicas del instituto a las que desnudaron con una aplicación.

C.A. Pero no son las máquinas. Son los que las usan y las compañías que permiten ese uso.

A.M. Va a parecer que somos tecnófobos, y yo no lo soy.

C.A. ¡Ni yo! Trabajo con IA desde hace casi diez años.

XL. ¿Entonces qué aporta de novedad ChatGPT?

C.A. Que invade un territorio que es nuestro, el del lenguaje. Pero ChatGPT se vale de datos que hemos recabado y clasificado los humanos. Y, mientras lo usamos, lo entrenamos.

XL. ¿No es irónico que estemos entrenando a un sistema que puede acabar quitándonos el trabajo?

C.A. La IA no te va a quitar el trabajo; te lo quitará la persona que sepa usarla mejor que tú.

A.M. Lo importante no es cómo me relaciono con ChatGPT, sino cómo me relaciono con la empresa OpenAI; con las personas que lo han desarrollado, gracias a nuestros datos, y con los inversores que se lucran y se vuelven cada vez más poderosos.

C.A. Lo que estamos viendo es la gestación de un nuevo orden mundial similar al feudalismo, con siervos y señores.

A.M. Los señores son media docena de grandes corporaciones norteamericanas y el Partido Comunista Chino.

 

«La inteligencia artificial no te va a quitar el trabajo, te lo va a quitar alguien que sepa usarla mejor que tú»

CRISTINA ARANDA

 

XL. Los dueños de la nube…

A.M. La nube no existe. Es una metáfora contra la que hay que luchar. La nube es el ordenador de otras personas. Cuando yo subo algo a la nube, no lo subo verticalmente, lo desplazo a Silicon Valley…

C.A. Con la nueva ley europea tendrá que ir a un centro de datos ubicado en territorio europeo.

A.M. Lo importante es que pongo mis datos en otro ordenador, por lo tanto, estoy cediendo el control a Google, Meta, Microsoft… De hecho, cada vez se nos obliga más a trabajar en remoto: Office, Drive…

C.A. La exjefa de ética de Google, Timnit Gebru, ya advirtió de las malas prácticas de la IA: sesgos, discriminación, desinformación… Y la echaron. Las grandes compañías quieren autorregularse. ¿Pero qué les dicen a sus programadores? «Oye, sed buenos…». Se necesita una normativa para crear algoritmos inclusivos, justos y transparentes.

XL. Ahí está la ley europea recién aprobada, aunque no entrará en vigor hasta 2026…

C.A. Es un primer paso, pero no aborda los detalles. En el tema del reconocimiento facial, ¿en qué ocasiones se pueden recoger datos biométricos? O la prohibición del social scoring (aplicaciones que puntúan la reputación de los ciudadanos), ¿las tarjetas de fidelización lo son? ¿Y las apps de ‘ligoteo’ y las valoraciones de las plataformas de alojamientos turísticos?

XL. Pusimos el grito en el cielo cuando estas puntuaciones se empezaron a aplicar en China, pero se han extendido…

A.M. El problema será mayor cuando todas esas evaluaciones se puedan cruzar. Ya es peligroso que cada entidad te haga una especie de carné de ciudadanía por puntos. Pero entre todas te hacen un traje. Y luego está el riesgo de la deslocalización. Una ley europea puede prohibir que se crucen los datos. Pero ¿qué pasa si esos datos se transfieren a una sociedad que resida fuera de la UE y acaban en Corea del Norte?

C.A. La ley prevé multas, pero estos señores no responden penalmente. Nadie va a la cárcel.

XL. Ahora dicen que ChatGPT se ha vuelto vago. Parece que la versión gratuita se curra poco las respuestas…

C.A. Para responder, necesita acceder a la nube de Microsoft; es decir, a estas macrogranjas de datos. Lo que tiene un alto coste energético y de tiempo de computación. Esto es un negocio. La supuesta vagancia de ChatGPT es un ahorro de costes operacionales.

XL. Donde primero impactó fue en los colegios y universidades, y se temió que los alumnos lo usaran para no dar palo al agua. Pero un informe reciente de la Universidad de Stanford concluye que las trampas no han aumentado de manera significativa.

C.A. Es una herramienta más. Con sus utilidades y sus limitaciones. Pero la mayoría del profesorado no tiene formación sobre esto y su reacción fue de temor. A ver, ¡es que hay gente muy cómoda! Si al profesor de Lengua, que lleva dando el tema de los sustantivos de la misma manera desde hace años, le dices que tiene que desaprender su forma de transmitir el conocimiento, se pone de los nervios.

A.M. Es importante que la gente sepa que ChatGPT se equivoca y se inventa cosas. Una vez asumido esto, se puede gestionar su uso de manera razonable. Eso sí, los sistemas de evaluación tendrán que cambiar. Ya hay universidades que han puesto en marcha comisiones para estudiar el impacto de las IA generativas. La de Deusto, por ejemplo.

 

«La nube no existe. Es una metáfora contra la que hay que luchar. Al subir algo, lo desplazo a Silicon Valley»

ALFREDO MARCOS

XL. ¿Dentro de unos años se le preguntará a un novelista, guionista o ilustrador si ha utilizado IA, o será raro el que no la use?

A.M. La UE va a exigir que se etiqueten los productos generados por IA. En algunos ámbitos dará problemas. El sistema sanitario deberá informar a los pacientes si se ha hecho un diagnóstico sobre imágenes médicas apoyado en IA. Habrá que firmar un consentimiento.

C.A. Sin embargo, el impacto en la salud puede ser muy positivo. La ingeniera Ana Freire ha desarrollado un algoritmo que detecta conductas suicidas y que está sirviendo para incrementar las peticiones de ayuda por parte de personas en riesgo.

XL. ¿Adquirirá conciencia la IA, como pronostica Ilya Sutskever, el científico que creó ChatGPT?

A.M. Aquí hay una confusión que no es tecnológica, sino de concepto. En el mundo hay muchas entidades. Unas están vivas y otras no. La génesis de los seres vivos es por diferenciación, no por ensamblaje de piezas. En mi teléfono, la pantalla existía antes de existir el teléfono. Pero en una persona no existen los brazos o el cerebro antes de que exista la propia persona. La conciencia es un atributo de los seres vivos. Se adquiere conviviendo y dialogando con otros seres vivos. Así que no, la IA no va a despertar.

XL. ¿Y tampoco aniquilará a los humanos, como pronostican los apocalípticos?

C.A. Cuando veo a los mismos que están desarrollando la IA firmar esas cartas para advertir de los riesgos existenciales, es que me enciendo. Si tienen tanto miedo, auditarían sus propios sistemas. Es un blanqueamiento ético. Hablan de lo que puede pasar en el futuro para que no miremos lo que están haciendo ahora. Oiga, que lo que hacen ustedes está teniendo un impacto en la salud mental de los jóvenes, afecta a las democracias… Ya tuvimos un brexit y las elecciones de Estados Unidos están a la vuelta de la esquina.

A.M. Estoy de acuerdo. El largoplacismo es una corriente perniciosa. Ante cualquier tecnología emergente conviene tener una actitud de serenidad. Necesitamos criterios sobre cómo usar la IA que solo pueden venir de una comprensión profunda de lo que anhela el ser humano. 

 

 

Botón volver arriba