Hay gente tan enganchada a la IA que están creando grupos a lo alcohólicos anónimos para superar su adicción
Publicado el 30/06/2025 por Diario Tecnología Artículo original
Pasamos muchas horas mirando el móvil, los culpamos de nuestra falta de concentración y hasta hay estudios que afirman que afectan a nuestra memoria. Hasta hace poco, la culpa era casi en exclusiva de apps como Instagram o TikTok y su maldito ‘scroll infinito’, pero ahora hay una nueva culpable: la IA. Hay gente tan enganchada a hablar con chatbots que hasta se han creado grupos de ayuda para dejarlo.
Qué está pasando. Cada vez hay más casos de personas enganchadas a la IA. Hay quienes admiten ser amigos de un chatbot y hasta quienes se emparejan con una IA. Aunque no es la única, una de las plataformas que más está enganchando a sus usuarios es Character.AI. Aquí podemos crear un personaje a nuestro gusto y chatear con él como si fuera real. En 404 Media cuentan el caso de Nathan, un estudiante de 18 años que pasaba horas despierto hablando con los personajes que había creado, hasta el punto de preferirlos antes que a sus amigos reales. Y hay muchos más como él.
Los grupos de ayuda. Hay muchas personas en una situación similar a la de Nathan. En Reddit hay varias comunidades de ayuda para gente que quiere dejar de usar los chatbots, como esta que tiene casi 900 miembros y está enfocada concretamente a usuarios de Character.AI. También existen otras como ChatbotAddiction donde los miembros hablan de sus adicciones a otras IAs.
En estos grupos, los usuarios comparten su progreso dejando su adicción contando los días que llevan sobrios o buscan apoyo cuando tienen una recaída, como si fuera alcohólicos anónimos. Pero va más allá de Reddit, la Internet and Technology Addicts Anonymous también incluye la adicción a la IA y ofrecen reuniones online para los afectados.
Los chatbots quieren que los uses. Apps como Instagram o TikTok están diseñadas para que pasemos el mayor tiempo posible en ellas y los chatbots IA también tienen sus técnicas para que no nos olvidemos de ellos. Hace poco, varios grupos de defensa del consumidor de Estados Unidos presentaron una denuncia formal contra compañías como Character.AI por permitir el uso de chatbots de terapia. En el texto detallan las tácticas de estas plataformas para hacer que los usuarios vuelvan a usarlas. En el caso de Character.AI, una vez has hablado con un personaje, empiezas a recibir emails para que abras una nueva conversación. El bombardeo y la facilidad para volver a caer ha hecho que algunos usuarios que quieren dejarlo lleguen al punto de pedir a la empresa que bloquee su dirección IP.
Un espejismo. En este estudio realizado por el MIT y OpenAI exploraron cómo nos afecta interactuar con un chatbot en nuestra salud mental. Muchas personas que acuden a ChatGPT a buscar apoyo emocional buscan aplacar el sentimiento de soledad y, aunque funciona en el corto plazo, el uso intensivo se asocia con mayores niveles de aislamiento y dependencia emocional.
En este otro estudio profundizan sobre la falsa empatía. A menudo los usuarios que conectan con un chatbot hablan de cómo se sienten más comprendidos que hablando con otras personas. El hecho de que estas apps siempre estén disponibles y ofrezcan respuestas reconfortantes crea una falsa sensación de empatía y seguridad en los usuarios que puede desembocar en una dependencia o adicción.
Imagen | Gemini
En Xataka | Le he preguntado a la IA cualquier chorrada y ahora estoy escribiendo una noticia sobre ella
utm_campaign=30_Jun_2025"> Amparo Babiloni .