Cómo usar la inteligencia artificial sin perder la nuestra
Delegar a ChatGPT o Gemini la tarea de pensar disminuye nuestra capacidad de razonar

Vista de una persona que navega en la página de ChatGPT. | Foto: EFE/Balleteros
Los recientes lanzamientos de Gemini Deep Think y GPT-5 han puesto de manifiesto la velocidad con que evolucionan los grandes modelos lingüísticos o LLM (Large Language Models, diseñados para entender y generar lenguaje humano).
El 67% de las organizaciones del mundo ya usa LLM, y es probable que usted también haya experimentado con ellos. Quizá le hayan parecido impresionantes (o no tanto, en el caso del nuevo ChatGPT). Pero también puede que haya notado que ahora se distrae más a menudo, que su memoria no es tan fiable y que tareas que antes no le costaban esfuerzo ahora parecen intratables.
No es su imaginación. Más allá de la velocidad y fluidez asombrosas que muestran las herramientas basadas en inteligencia artificial, depender demasiado de ellas puede embotarnos, volviéndonos más lentos y obtusos y menos capaces de pensar por cuenta propia. En las investigaciones sobre el tema, se destacan cuatro tendencias.
Las distracciones digitales reducen la capacidad de atención y concentración. En las últimas dos décadas, con sus notificaciones constantes y sus incentivos para el scrolling interminable, los teléfonos inteligentes y otros dispositivos han ido debilitando nuestra capacidad de mantener la atención, tomar decisiones y completar tareas. El impulso de mirar el teléfono, reforzado por la pequeña recompensa que registra el cerebro con cada mensaje o actualización, es adictivo y debilitante. Diversos estudios muestran que estas interrupciones, combinadas con la gratificación instantánea del scrolling, hacen más difícil concentrarse en tareas exigentes y largas.
La creciente accesibilidad de la información debilita la memoria, y eso se traslada a pérdida de capacidad para retener y organizar información a la hora de tomar decisiones. Muchos investigadores llevan tiempo estudiando el “efecto Google” y resaltando de qué manera la dependencia creciente respecto de los teléfonos inteligentes ejerce un impacto adverso sobre la memoria. Las generaciones anteriores, en cambio, tenían que memorizar números de teléfono, poesías e incluso la tabla periódica.
El efecto más reciente de la inteligencia artificial (IA), conforme más personas delegan a ChatGPT, Gemini o DeepSeek la tarea de pensar, es una disminución de la capacidad para razonar y construir un argumento sólido. Diversos estudios muestran que esta “descarga cognitiva” nos resta capacidad para pensar con claridad, reconocer conexiones lógicas y detectar argumentos erróneos. Es el equivalente mental de pagarle a otra persona para que haga gimnasia por nosotros: en lo inmediato, nos ahorramos energía, pero con el tiempo, perderemos fuerza propia.
En la era previa a los LLM, un investigador tenía que buscar en Internet (y antes de eso, en una biblioteca) y evaluar cuidadosamente cada fuente que encontraba. ¿Era útil, mejor o peor a otras fuentes? ¿Se podían combinar las ideas o contrastarlas entre sí? El proceso de investigación entrenaba la mente para recordar, aplicar, analizar y sintetizar. Sin ese trabajo, es inevitable que esas capacidades se debiliten.
Abandonar el escrutinio, el debate y el cuestionamiento de ideas produce mentes más obtusas. La “fricción cognitiva” es esencial para agudizar la capacidad mental; en cambio, el servilismo de los LLM (entrenados para agradar al usuario y buscar su aprobación) nos embota el pensamiento. Y además, tiene un costado oscuro, como cuando los modelos de IA coinciden con autodiagnósticos incorrectos o hacen sugerencias dañinas.
Un estudio reciente advierte de que cuanto más insisten los usuarios en falsedades, más las repiten los principales modelos. OpenAI está trabajando en reducir el servilismo de los modelos apelando a fomentar (en palabras del propio ChatGPT) “la honestidad, el desacuerdo constructivo y el pensamiento independiente en vez de la alabanza o la deferencia automáticas”. El problema es que la fricción incomoda a los usuarios; pero esa tensión es el motor del crecimiento personal.
Empresas tecnológicas, lugares de trabajo, instituciones educativas y personas deben asumir el reto de garantizar que la IA refuerce la capacidad humana. En mi caso, como docente universitaria, ese desafío es inmediato. Según una encuesta de 2023, un tercio de los estudiantes universitarios en Estados Unidos usaba ChatGPT para hacer sus tareas; otra encuesta de 2024 halló que el 86% de los estudiantes en 16 países recurría a la IA en sus estudios.
Con un dispositivo dotado de IA siempre al alcance de la mano, necesitamos una respuesta convincente a esta pregunta: ¿por qué esforzarnos en recordar cosas, razonar o armar un argumento cuando un LLM puede hacerlo por nosotros? La respuesta es que si no entrenamos el cerebro para recordar, razonar y aceptar la “fricción cognitiva”, el resultado será una erosión de la capacidad para el aprendizaje, el razonamiento, la creatividad, la metacognición y el pensamiento crítico.
Existen soluciones con una larga historia. Quizá sea hora de recuperar la memorización como forma de entrenamiento cerebral. Un ejercicio sencillo puede ser tratar de enseñar a nuestro LLM favorito algo que acabamos de aprender: explicar el conocimiento nuevo a otra persona (o incluso a un asistente de IA) ayuda a fijarlo.
Los antiguos griegos sabían que el verdadero aprendizaje no surge de entretener, impresionar o complacer a los estudiantes, sino de desafiarlos a cuestionar sus creencias. El método socrático (preguntar: ¿qué estás afirmando?, ¿qué pruebas lo apoyan?, ¿has considerado otra perspectiva?) obliga a los estudiantes a poner a prueba sus supuestos y afinar sus razonamientos.
Algunas posibilidades para reducir las distracciones incluyen crear espacios, aulas y tiempos en los que no se recurra a los dispositivos en forma constante. En el Reino Unido, aproximadamente el 90% de las escuelas ha prohibido el uso de teléfonos inteligentes en clase. También universidades y lugares de trabajo pueden crear más entornos libres de dispositivos, donde se fomenten la lectura, la reflexión y el debate; con simulaciones y técnicas de aprendizaje basado en problemas, pueden ayudar a estudiantes y colegas a abordar problemas complejos y amplios usando (y perfeccionando) el juicio y la creatividad.
Enfrentamos una elección entre rendir nuestras mentes a la IA o tratar a los LLM como sparrings que nos ayuden a mejorar nuestras capacidades cognitivas. La revolución de los datos ha entrado en una nueva fase, y el único modo de seguirle el ritmo será entrenando nuestras mentes.
*Este artículo se publicó originalmente en Project Syndicate.