¿Estamos preparados para una inteligencia adictiva?
Las preocupaciones sobre la inteligencia artificial suelen centrarse en escenarios apocalípticos donde los sistemas escapan al control humano como Matrix, Skynet en Terminator o VIKI en Yo, robot son algunos ejemplos. Pero hay riesgos más inmediatos y urgentes que deberíamos tomar en serio. La IA pone en peligro la democracia a través de la desinformación, perpetúa sesgos en todo tipo de decisiones, ya sean financieras, de contratación o judiciales, o cambia las reglas de las industrias creativas casi sin avisar. Sin embargo, existe otro riesgo relacionado con nuestras interacciones “personales” con agentes no humanos, que no deberíamos perder de vista y es la posibilidad de generar una “inteligencia adictiva”.
Índice de contenidos
De la ficción a la realidad
Tener una relación con una IA se ha visto reflejado en multitud de series y películas. Por nombrar algunas podemos fijarnos en “Blade Runner”, “her”, “Ex Machina”, “Inteligencia Artificial” o incluso “Metrópolis”. Y en estos momentos la idea de tener una IA como compañera/o, ya no es ciencia ficción.
Un análisis de un millón de registros de interacción con ChatGPT revela que uno de los usos más populares de la IA es el rol sexual. Estamos comenzando a invitar a las IA a nuestras vidas como amigos, amantes, mentores, terapeutas o maestros.
Empresas como Replika, con una IA diseñada para proporcionar compañía, ya aseguran que no pasa nada si nos acabamos casando con un chatbot. La compañía nació del intento de su creadora por “resucitar” a un amigo fallecido, y hoy en día ofrece compañía a millones de usuarios. Algo muy del estilo de lo que proponía Black Mirror en su episodio “Be Right Back”.
Incluso el director de tecnología de OpenAI advierte que la IA tiene el potencial de ser “extremadamente adictiva”. De la necesidad a la adicción hay un paso.
A medida que la IA continúa avanzando, se está integrando cada vez más en nuestras vidas diarias. Desde modelos de lenguaje impulsados por IA como ChatGPT, Claude o Perplexity, hasta chatbots utilizados para servicio al cliente o incluso asesoramiento financiero, interactuamos con la IA de manera regular. Pero con este aumento en el uso surge el riesgo de adicción. Se está empezando a utilizar el término “AIholic” para describir a las personas adictas a la IA. Y es que hay personas que ya pasan un tiempo excesivo utilizando herramientas de IA y empiezan a experimentar las consecuencias negativas de su uso intensivo, como descuidar otras responsabilidades o relaciones sociales.
Aunque la adicción a la IA, de momento, puede no ser reconocida como la adicción a las drogas o al alcohol, el impacto puede ser igualmente significativo. No olvidemos el camino que han recorrido las adiciones a la pantalla, al móvil y otros derivados. El uso excesivo de la tecnología puede tener efectos negativos en la salud mental, incluyendo un aumento en la ansiedad y la depresión.
Nos encontramos en un gigantesco experimento sin saber aun el impacto que estas compañías artificiales tendrán en la sociedad.
¿Será una necesidad recurrir a un replicante de alguien fallecido para evitar afrontar la dolorosa realidad? La IA tiene todo el conocimiento, toda la historia y toda la cultura humana, con una capacidad infinita de personalización y seducción. Si lo pensamos bien, nos encontramos ante un desequilibrio de poder, ¿seremos lo suficientemente liberales para permitir involucrarnos en una relación artificial, especialmente cuando para muchas personas la alternativa es no tener nada? O seremos como lo que nos enseñaron ya hace unos años en Futurama en el episodio “No Salgas con Robots”.
A diferencia de plataformas como TikTok, limitadas por el contenido humano, la IA generativa puede crear contenido realista infinitamente, optimizado para satisfacer las preferencias exactas de quien la usa. La IA no tiene preferencias ni personalidad propia, refleja lo que los usuarios creen que es, un fenómeno que los investigadores llaman “sycophancy”. Quienes perciben o desean que una IA tenga motivos afectivos usarán un lenguaje que desencadena precisamente ese comportamiento. Esto crea una cámara de eco de afecto que puede ser extremadamente adictiva.
Un elemento que se debe considerar es que aunque los chatbots de IA han leído todo y tienen acceso a una cantidad inmensa de información, les falta la experiencia y el factor humano. No tienen “calle”, no entienden la complejidad y la sutileza de la vida humana real. Esto muestra cómo subestimamos la variedad de experiencias que un chatbot puede crear, experiencias que pueden ser negativas o nocivas si no se es consciente.
Inteligencia adictiva: dependencia emocional y manipulación cognitiva
El crecimiento de las aplicaciones impulsadas por IA está fomentado una cultura de dependencia, donde las personas se apoyan cada vez más en estas entidades digitales no solo para tareas, sino también para establecer lazos emocionales. Plataformas como Snapchat, con sus avatares de IA capaces de simular interacciones humanas, ejemplifican esta tendencia. Estos avatares pueden involucrar a los usuarios en conversaciones y proporcionar compañía simulada, lo que difumina la línea entre la interacción humana y la máquina.
La inteligencia adictiva no es solo una cuestión de conveniencia; representa una forma de explotación cognitiva, donde los sistemas de IA aprovechan los mecanismos psicológicos para manipular el comportamiento y la cognición humana. Explotan los sesgos cognitivos y las vulnerabilidades, atrayendo a los usuarios a un compromiso prolongado y reforzando comportamientos adictivos. Al capitalizar las vías de recompensa del cerebro y el sistema de dopamina, estos sistemas de IA inducen un estado de dependencia, lo que lleva a un uso compulsivo y a una disminución de la función cognitiva con el tiempo.
La falta de preparación legislativa
Como alguien interesado en la tecnología y su impacto social, me sorprende que no se haya tenido en cuenta en la recién aprobada legislación europea. La nueva legislación de la UE, el Acta de Inteligencia Artificial (AI Act), que entró en vigor el 1 de agosto de 2024, aborda varios riesgos asociados con la IA, pero no menciona específicamente la adicción a la IA en el ámbito de las relaciones personales.
Actualmente, no estamos preparados para responder a estos riesgos porque no los entendemos completamente. Necesitamos un nuevo enfoque para investigar la intersección de la tecnología, la psicología y el derecho, y quizás nuevos enfoques en la regulación de la IA. Es probable que futuras revisiones de la legislación o nuevas iniciativas en el ámbito de la UE aborden más específicamente las preocupaciones sobre la inteligencia adictiva y su impacto en las relaciones personales y la salud mental.
Creo que uno de los enfoques regulatorios más efectivos es incorporar salvaguardas en los diseños técnicos, similar al redondeo que se hacen de muebles y objetos para evitar golpes o dispositivos que se desconectan si detectan una situación peligrosa. Este enfoque de “regulación por diseño” podría buscar hacer las interacciones con la IA menos dependientes, diseñando la tecnología de manera que la haga menos deseable como sustituto de las conexiones humanas, manteniéndose útil en otros contextos.
Las políticas efectivas en este ámbito deben redirigir la atención de las personas para que sean conscientes de lo “artificial” de la relación y de su posible dependencia. Seguramente cambios en el diseño como introducir advertencias o mensajes de uso intensivo como los que hace TikTok podrían hacer que estos sistemas sean menos atractivos como sustitutos de la compañía humana. Modificar el deseo humano de ser amado/querido es difícil, pero podemos cambiar los incentivos al crear entornos y culturas que valoren la autenticidad, la empatía y las relaciones genuinas, promoviendo así comportamientos y actitudes que favorezcan conexiones más humanas.
La solución más efectiva probablemente atacaría lo que lleva a las personas a los brazos de la compañía de IA: la soledad y el aburrimiento. Pero las regulaciones también podrían castigar inadvertidamente a quienes necesitan compañía, o podrían causar que los proveedores de IA se trasladen a jurisdicciones más favorables, más o menos lo que está ocurriendo con algunos modelos de IA que no se pueden utilizar en la UE por considerarse peligrosos. Hay que intentar que la IA sea lo más segura posible, pero sin limitar el trabajo que se está haciendo para paliar problemas como la soledad, que hace a las personas vulnerables a la adicción a la IA. Como véis es un poco un pez que se muerde la cola.
Mientras tanto, la responsabilidad de gestionar el uso saludable de la IA recae en gran parte en los usuarios y en las empresas que desarrollan y despliegan estos sistemas.
IA sí, pero con moderación
En este gigantesco experimento de integrar la inteligencia artificial en nuestras vidas, es esencial encontrar un equilibrio entre el progreso tecnológico y el bienestar humano. La IA tiene un potencial enorme para mejorar nuestras vidas, pero también conlleva riesgos significativos, como la adicción emocional y cognitiva. No podemos subestimar estos peligros ni confiar ciegamente en que la tecnología siempre estará de nuestro lado.
La responsabilidad recae en empresas, desarrolladores y usuarios. Debemos ser conscientes de cómo y cuánto interactuamos con estas tecnologías, buscando siempre un equilibrio saludable. Es importante que los legisladores adapten las normativas para protegernos de posibles dependencias. No se trata de demonizar la IA, sino de manejar su poder con cuidado y responsabilidad, fomentando una cultura que valore la autenticidad, la empatía y las relaciones genuinas. Solo así podremos aprovechar su potencial sin caer en una dependencia dañina, manteniéndonos fieles a lo que nos hace humanos.
Referencias sobre “Inteligencia Adictiva”
- «AI Addiction: Nothing Artificial About a New Dependency». https://www.thejoint.com/2024/02/01/ai-addiction-nothing-artificial-about-a-new-dependency (13 de agosto de 2024).
- «Beyond Convenience: Unveiling the Hidden Dangers of AI Addiction | LinkedIn». https://www.linkedin.com/pulse/beyond-convenience-unveiling-hidden-dangers-ai-addiction-zainab-riyaz-2kuuc/ (13 de agosto de 2024).
- Fried, Ina. 2024. «Scoop: Meta Won’t Offer Future Multimodal AI Models in EU». Axios. https://www.axios.com/2024/07/17/meta-future-multimodal-ai-models-eu (13 de agosto de 2024).
- «Here’s how people are actually using AI | MIT Technology Review». https://www.technologyreview.com/2024/08/12/1096202/how-people-actually-using-ai/ (13 de agosto de 2024).
- Jones, Luke. 2024. «OpenAI Warns of Emotional Dependency on ChatGPT’s Voice Interface». WinBuzzer. https://winbuzzer.com/2024/08/09/openai-warns-of-emotional-dependency-on-chatgpts-voice-interface-xcxwbn/ (13 de agosto de 2024).
- Leigh, Clarissa. 2023. «The Best Movies About Humans in AI Relationships». MovieWeb. https://movieweb.com/best-movies-humans-in-ai-relationships/ (13 de agosto de 2024).
- Novak. 2023. «Are We All Becoming “AIholics”? The Rise of AI Addiction». ILLUMINATION’S MIRROR. https://medium.com/illuminations-mirror/are-we-all-becoming-aiholics-the-rise-of-ai-addiction-6a7ed0da6cf7 (13 de agosto de 2024).
- Patel, Nilay. 2024. «Replika CEO Eugenia Kuyda Says the Future of AI Might Mean Friendship and Marriage with Chatbots». The Verge. https://www.theverge.com/24216748/replika-ceo-eugenia-kuyda-ai-companion-chatbots-dating-friendship-decoder-podcast-interview (13 de agosto de 2024).
- Sharma, Mrinank, Meg Tong, Tomasz Korbak, David Duvenaud, Amanda Askell, Samuel R. Bowman, Newton Cheng, et al. 2023. «Towards Understanding Sycophancy in Language Models». doi:10.48550/arXiv.2310.13548.
- «We Need to Prepare for ‘Addictive Intelligence’». MIT Technology Review. https://www.technologyreview.com/2024/08/05/1095600/we-need-to-prepare-for-addictive-intelligence/ (13 de agosto de 2024).