La Inteligencia artificial como compañera emocional
Desde que la inteligencia artificial se democratizó son muchas las personas que pasan horas y horas trabajando con herramientas basadas en IA. Nuestra relación con las máquinas se está “humanizando” y no somos conscientes de los riesgos que entraña tratar con un conjunto de chips como si fuera una persona racional. Vale, sí. La inteligencia artificial a veces asusta por su capacidad generativa de cierto contenido lógico, y es lo común, pero no es lo normal.
Dos estudios pioneros publicados por MIT media Lab y otro por OpenAI han descubierto recientemente que los chats de inteligencia artificial pueden atenuar la soledad y mejorar el bienestar emocional de algunos usuarios, dado el “consuelo” que encuentran al compartir sus emociones porque la IA generativa, como la que emplean la mayoría de chats bots, interactúa con ellos de forma individualizada, lo que quiere decir que en la mayoría de los casos, las personas que usan Chats de IA para combatir la soledad, reciben respuestas acordes a su “problema”. Es decir, ocurre lo que comúnmente decimos de “te dicen lo que quieres escuchar”, pues con la IA generativa está ocurriendo lo mismo.
No obstante, la desproporción y la realidad disociativa con la que algunos usuarios tratan estas IAs, puede causar problemas de dependencia. La intensidad con la que se relacionan las personas “adictas” a los chats genera que los internautas atribuyan comportamientos aparentemente racionales e inherentes del Ser Humano a las máquinas, como racionalidad de creencias o la afectiva.
Por tanto, estos estudios han demostrado que la humanización de las relaciones del Ser Humano con las máquinas, a medida que interactúan con la IA, pierden capacidades cognitivas de relacionase con sus semejantes.
Las relaciones humano-inteligencia artificial, un fenómeno con trampa
A pesar de que las interacciones de las personas con las máquinas alivian momentáneamente el dolor emocional por situaciones de soledad o ansiedad, se ha demostrado que la conexión humana aparca temporalmente los vaivenes sensitivos.
Pero utilizar en exceso, como he comentado, a la inteligencia artificial como fuente de consuelo instantánea provoca dependencia y aquí está la trampa.
La inteligencia artificial en este caso es beneficiosa a corto plazo, pero muy dañina si se mantiene en el tiempo. Es decir, a largo plazo provoca aislamiento social y dificultad para afrontar contratiempos sin acudir a la tecnología y, además, agrava el impacto psicológico hasta puntos severos con casos en adolescentes que han terminado en suicidio, como aquel joven de Estados Unidos que se quitó la vida tras “enamorarse” de un personaje ficticio con el que hablaba a través de Chat GPT.
Por tanto, este apego extremo provoca dependencia por la inmediatez de respuesta ante un bloqueo emocional y racional del Ser Humano, pero me pregunto hasta qué punto es aceptable que la inteligencia artificial esté diseñada de tal manera que simule las emociones humanas si ahora somos conscientes del riesgo de adicción que genera en algunos usuarios.
Me gustaría romper una lanza a favor de la inteligencia artificial y cuestionar si nuestra dependencia hacia esta tecnología es un síntoma de debilidad social o una evolución natural de las interacciones entre el Ser Humano y las máquinas porque durante milenios, el ser humano ha formado vínculos espirituales y con deidades, y lo mismo ocurre con los personajes ficticios de películas, series y videojuegos. Todas esas conexiones son vínculos emocionales que han ayudado, o perjudicado, a las personas, pero aquí estamos a día de hoy. No nos hemos extinguido, sino que hemos evolucionado acompañados de estos vínculos necesarios para prosperar como especie.
No obstante, la IA emocional está en camino y a pesar de que todavía la no puede obtener ni experimentar las mismas emociones que una persona sí cuenta con comprensión emocional profunda y con capacidades adaptativas gracias a la convergencia entre los humanos y la IA, lo que en un futuro permitirá predecir a la IA las necesidades humanas gracias a los datos emocionales para conseguir una empatía artificial.
Con todo ello quiero decir que la visión catastrofista sobre nuestra relación con la inteligencia artificial no debe ser tal puesto que por más avanzada que esté la IA, somos nosotros, los seres humanos quienes otorgamos los parámetros que hacen que la IA funcione de una manera u otra. Es decir, que la IA tiene freno y nosotros mismos somos los que decidimos cuando pisar el pedal para que la IA no replique completamente el comportamiento humano.
Como especie, nuestro comportamiento es limitado. Pero lo que nos diferencia de la inteligencia artificial es la capacidad de planificar, de transformar, de desarrollar y de adaptación al entorno.
¿Crees que las relaciones con la IA son una forma válida de conexión emocional? ¿Es buena idea hacer que las máquinas tengan empatía?