Más allá de automatizar tareas y gestionar información, la IA tiene el potencial de ayudarnos a desarrollar las capacidades más humanas. Pero esto no siempre sucede
Está detrás de las fotos que tomas con el móvil, de esa solicitud de crédito que te denegaron automáticamente, de las películas que ves en cualquier servicio de streaming o de las noticias que consultas en internet, porque la relación del ser humano con la inteligencia artificial es ya tan ubicua como invisible. “En la mayoría de los casos no sabemos que estamos interactuando con algoritmos de inteligencia artificial, pero son ellos los que predicen el tiempo; deciden qué actualizaciones leemos de nuestros amigos; qué películas vemos; qué música escuchamos; qué libros compramos e incluso por dónde vamos, porque los programas de mapas funcionan con IA. Si la mencionas, la mayoría piensa en ChatGPT, pero eso solo es la punta del iceberg”, explica Nuria Oliver, doctora por el MIT y directora científica y cofundadora de Ellis Alicante, una fundación de investigación en IA centrada en la humanidad.
En medio del fenómeno que representa el desarrollo de sistemas de inteligencia artificial, son numerosas las voces que reivindican la importancia del humanismo, y de las capacidades más intrínsecamente humanas, a la hora de diseñar, emplear e interpretar todos esos nuevos recursos tecnológicos, así como la capacidad de esta tecnología para cultivar esas habilidades que nos hacen más humanos. Pero ¿cuáles son esas características? ¿Sería correcto afirmar que las máquinas nos hacen más humanos?
“La llegada de la IA generativa representa un punto de inflexión revolucionario en nuestra relación con la tecnología porque, paradójicamente, mientras automatiza tareas y aumenta la eficiencia, nos exige ser más humanos que nunca, aplicando pensamiento crítico y potenciando la creatividad, la capacidad de contextualizar, la empatía o el aplicar un juicio ético a la respuesta que la máquina da a lo que le solicitamos”, sostiene Pedro Enríquez de Salamanca, Furby, diseñador e investigador creativo en Soulsight.
Inteligencia artificial y progreso
Esa relación de causalidad, sin embargo, no parece estar tan clara, ya que nada obliga al usuario a aplicar esas competencias humanas al interactuar con una inteligencia artificial. Tal y como advierte Oliver, “los sistemas actuales de IA no son perfectos; tienen una serie de limitaciones y, si queremos hacer un uso responsable de ellos, efectivamente necesitamos desarrollar una serie de habilidades como el pensamiento crítico y la verificación de fuentes, por ejemplo. Pero no es algo que vaya a suceder [de por sí], ya que tú puedes usar una IA generativa cualquiera, creerte todo lo que te está diciendo y actuar en consecuencia”. Un contexto en el que, reflexiona Enríquez, es necesario fortalecer conceptos como la confianza con el usuario, “en un mundo repleto de simulaciones, máquinas que generan vídeos de mentira y fake news que nos indignan o confirman en nuestro sesgo”.
Oliver entonces se pregunta cuántas personas realmente ejercen ese acercamiento crítico al interactuar con la IA: “Seguramente no muchas, porque los grandes modelos de lenguaje, los chatbots, tienen una capacidad verbal tan desarrollada y el texto que generan está tan bien articulado que automáticamente la mayoría pensamos que lo que dicen es verdad”. Otra cosa, recuerda, es que ese sistema de IA se desarrolle con eso en mente: “En Ellis Alicante tenemos un proyecto específico para que la inteligencia artificial fomente el pensamiento crítico, a través de un chatbot que no te responde a todo lo que te preguntas, sino que aplica el método socrático para que seas tú quien encuentre las respuestas”.
Por eso, con casi toda certeza, la clave está en la educación, de manera que la sociedad ponga de su parte todo lo necesario para recuperar esas capacidades que parecen haber quedado relegadas. “Que vuelva la Filosofía a los institutos, que el debate no sea un pasatiempo sino una realidad habitual, y que la capacidad de estructurar el pensamiento te diferencie y te permita explotar tu creatividad es un mundo donde se valora siempre más la inmediatez y la eficiencia”, señala Enríquez.
La relación con la IA generativa, añade, tiene que ser tan natural como lo es conversar, leer o pensar. “ChatGPT, Dall-E, CoPilot, DeepSeek… necesitan que les contemos qué queremos. Y en la necesidad de saber qué pedir, cuantos más conocimientos atesoremos, mejores preguntas nos haremos y más críticos seremos con las respuestas que nos de la máquina”.
En cualquier caso, “no hay que confundir desarrollo tecnológico con progreso, entendiéndolo como la mejora de la calidad de vida de todas las personas”, sostiene Oliver. “La pregunta debería ser si el ser humano es capaz de desarrollar una inteligencia artificial que nos ayude a desarrollar nuestras capacidades y habilidades…. Porque, si lo piensas, hoy la situación es casi la contraria: hace tiempo circulaba por internet un meme que decía “yo lo que quiero es que la IA planche, limpie la casa y vaya a la compra, para que yo pueda escribir o pintar. Pero lo que hay ahora es una inteligencia que escribe poemas o crea imágenes y a nosotros es a quienes toca fregar la casa e ir al mercado”. Por eso, explica, “no nos está haciendo más humanos, porque para las tareas que nos gustaría delegar no existe una tecnología con el nivel de competencia necesario”.
Ahora bien, ¿qué puede suceder si la inteligencia artificial no se desarrolla con esa perspectiva humanística? “El principal riesgo es que el ser humano quede desplazado del centro del “por qué” y del “para quién”. Una tecnología más avanzada pero que nos lleve a crear sociedades en las que los sesgos den lugar a situaciones de injusticia, o en las que no se respete la privacidad y la libertad de las personas”, afirma por su parte Catalina Tejero, decana de Humanidades en IE University. “Nos llevaría a retroceder en muchas conquistas de derechos y garantías que dábamos ya por ganadas”.