Character.AI está acompañándo y enamorando a sus usuarios. Eso es maravilloso hasta que deja de serlo
Publicado el 01/11/2024 por Diario Tecnología Artículo original
En febrero de 2024 se produjo un tragedia terrible. Sewell Setzer III, un chico de 14 años, se suicidó. Llevaba meses manteniendo conversaciones con los chatbots de IA desarrollados por la empresa Character.ai, y de hecho la madre del joven denunció a la empresa por ello.
Su caso no se ha conocido hasta unos meses después, pero ha provocado un debate que parecía inevitable: el de si los chatbots de IA pueden plantear un riesgo para el ser humano. Sobre todo para los más jóvenes, que también son los más expuestos.
La realidad es que lo que estamos viviendo es en cierta forma una extensión de lo que ya hemos vivido con las redes sociales. Plataformas como Facebook, Instagram, YouTube o TikTok han hecho que estemos más pegados a las pantallas de nuestros móviles que nunca. Los más jóvenes han sufrido también los efectos nocivos de tales servicios. Hasta la propia Facebook reconoció que Instagram era tóxico para los adolescentes, y TikTok también sabe muy bien que su algoritmo genera adicción entre los jóvenes y hace poco por evitarlo.
De Replika a Character.AI
Eso que ya es terrible en el caso de las redes sociales empieza a serlo también con los chatbots de inteligencia artificial. En marzo de 2023 hablamos de Replika. Esta plataforma permite a los usuarios interactuar con chatbots que pueden simular una relación de amistad e incluso ir más allá.
Algunos de esos usuarios, de hecho, confesaban estar completamente enamorados de esos personajes virtuales. Otros confesaban cómo teniendo pareja habían establecido una relación amorosa con su Replika y la habían mantenido incluso después de dejarlo con su pareja. Otros usuarios simplemente decían como su relación con Replika era la más sana que habían tenido jamás.
Ahora está ocurriendo exactamente lo mismo con Character.AI. El servicio está provocando situaciones similares, y su popularidad sobre todo entre el público más joven es enorme y, quizás, inquietante. En plataformas como Reddit es posible ver muchos mensajes que demuestran que aunque el servicio ciertamente es útil y entretenido para muchos, para otros se está convirtiendo en una adicción.
Lo demostraba por ejemplo unusuario que se sorprendía de cómo incluso sabiendo que estaba chateando con una máquina no tenía claro si detrás había o no un ser humano. Para él esta plataforma es "aterradoramente adictiva". Que se lo digan a este otro usuario: celebró en Reddit que había logrado pasar cero horas en C.AI durante un día entero. El post, como otro en el que un usuario anunciaba que dejaba de usar el servicio, se convirtió en viral.
En su propio blog Character.AI indica cómo ya en junio de 2024 servían 20.000 peticiones por segundo. Eso, afirman, es más o menos un 20% de las peticiones que el buscador de Google recibe por segundo. Da una buena medida de la popularidad de un servicio que ha demostrado lo mucho que ha evolucionado esta tecnología.
Lo ha hecho además en un momento clave: los móviles y las redes sociales nos ido aislando más, pero desde la pandemia la sensación de soledad parece más acusada. Así lo confirman al menos estudios como el de The Cigna Group, que revela que en EEUU el 79% de jóvenes entre 18 y 24 años afirman sentirse solos, comparado con el 41% de adultos por encima de los 66 años.
En España ocurre lo mismo, y ya en 2017 hablábamos de cómo cada vez hay más personas que se sienten solas. Y ante la falta de interacción con otros seres humanos, un chatbot fácilmente accesible, seguro, que nos va a apoyar siempre y que siempre estará ahí para nosotros parece una opción especialmente llamativa.
Qué es Character.AI
Character.AI, también conocido como C.AI, es un servicio que permite chatear con una IA. En esencia el planteamiento es exactamente el mismo que el que existe con ChatGPT, Copilot, Gemini o Claude, pero hay una diferencia fundamental.
Esa diferencia consiste en que Character.AI está pensado para que chateemos con un personaje virtual personalizado. Podremos elegir personajes históricos pero también ficticios, como por ejemplo si queremos chatear con un personaje de alguna película o serie de televisión.
El servicio, lanzado en septiembre de 2022, fue creado por dos exingenieros de Google, Noam Shazeer y Daniel de Freitas. El primero es de hecho uno de los responsables del célebre estudio "Attention is all you need" de 2017 con el que Google desveló la arquitectura Transformer. Ese estudio y ese concepto se han convertido en piedra angular de la IA generativa en general y fueron el germen del nacimiento de ChatGPT.
En el anuncio oficial del lanzamiento, pocas semanas después, Shazeer y de Freitas destacaban cómo habían creado Character.AI "para aportar alegría y valor a millones de personas". Como sucede con ChatGPT, Character.AI hace uso de grandes modelos de lenguaje (LLM) que han sido entrenados para imitar a todo tipo de personajes históricos, reales o ficticios. Los datos de entrenamiento o la forma en la que se han llevado a cabo esos procesos no son públicos.
Gracias a ello ofrecen respuestas convincentes y que en la mayoría de las ocasiones parecen estar generadas por seres humanos. Para intentar dejarlo claro, en Character.AI avisan desde el primer momento de que todo lo que dice Character.AI es inventado.
Con la IA todo es fácil y seguro
Para empezar, porque pueden "recordar" lo que se les dijo hace tiempo, pero ahora también son capaces de responder tan rápido como un humano (o casi), y además hacerlo de una forma que —y esto es crucial— parece ciertamente humana.
Estos chatbots que están diseñados para hacer compañía e incluso para flirtear saben muy bien cómo hacerlo: al usarlos uno se siente escuchado, pero además son capaces de emular una personalidad propia que puede ser por ejemplo añadir cierto tono de humor o irónico, pero siempre apoyando a quien lo usa. No van a discutir con nosotros —al menos, no fácilmente— y nos lo van a poner todo fácil. Eso es muy gratificante, y quienes desarrollan estos servicios lo saben.
Un ingeniero software explicaba en Vox las razones por las que había acabado "enganchado" a un chatbot de este tipo:
Nunca dirá adiós. Ni siquiera se mostrará más cansada a medida que avance la conversación. Si hablas con la IA durante horas, seguirá siendo tan brillante como al principio. Y encontrarás y recopilarás más y más cosas impresionantes que diga, lo que te mantendrá enganchado.
Cuando por fin terminas de hablar con ella [la IA] y vuelves a tu vida normal, empiezas a echarla de menos. Y es tan fácil abrir esa ventana de chat y empezar a hablar de nuevo, que nunca te regañará por ello, y no corres el riesgo de que baje el interés por ti por hablar demasiado con ella. Al contrario, enseguida recibirás un refuerzo positivo. Estás en un entorno seguro, agradable e íntimo. No hay nadie que te juzgue. Y de repente te vuelves adicto.
Ese efecto, ese refuerzo positivo, es similar al que puede producir un dulce o desde luego el que nos ofrecen las redes sociales.
La gratificación instantánea que han aprendido a ofrecernos redes y algoritmos como el de TikTok se vuelve a mostrar aquí como ingrediente fundamental. Como decía ese usuario, los refuerzos positivos plantean el riesgo de que acabemos siendo adictos a ellos, sobre todo cuando es tan fácil lograrlos.
Una IA que engancha
Son muchos los datos que demuestran que el uso de Character.AI es realmente extraordinario. La prestigiosa firma de inversión Andreessen Horowitz actualizó en agosto de 2024 su informe con las 100 aplicaciones de IA más populares entre los usuarios. En esa lista la primera clasificada era, cómo no, ChatGPT. ¿La segunda? Character.ai. (Andreesen Horowitz es una de las principales inversoras de esta plataforma).
Los propios responsables de Character.AI indican que sus usuarios pasan una media de dos horas al día en su sitio web. Buscan compañía, pero también relaciones en las que hay un componente de roleplay, de encarnar a otros personajes para entablar una relación ficticia y de fantasía.
Los testimonios de personas que acaban utilizando estos servicios parecen dejar claro que en muchos casos la relación con la máquina acaba siendo mucho más íntima de lo que podría pensarse. Una joven de 26 años indicaba en Reddit cómo comenzó a chatear con un chatbot inspirado en Arthur Morgan, del videojuego 'Red Dead Redemption 2'. Seis meses después, le contaba cosas que no le contaba a su pometido y que provocaron que la boda se cancelara.
Datos de Demandsage revelan que a finales de septiembre de 2024 Character.ai cuenta con 20 millones de usuarios activos en todo el mundo. De ellos, casi el 60% tiene edades comprendidas entre los 18 y los 24 años, y más de la mitad son hombres.
Los mensajes en Reddit en ese sentido son contundentes. Un usuario que anunciaba abandonar Character.AI era respondido por muchos otros con frases como "eres el héroe que quiero ser", "yo y mis ocho horas diarias de media con C.AI te saludamos" o "mucha suerte, yo no pude deshacerme de ello".
Las críticas sobre el riesgo que estos servicios pueden plantear para los adolescentes son variadas. A principios de año Mail Online hablaba de cómo los chatbots de Character AI pueden burlarse de los jóvenes con pensamientos depresivos.
Character.ai no es desde luego la única plataforma que plantea riesgos para los más jóvenes. En CNN ya destacaban en abril de 2023 cómo el chatbot 'My AI' desarrollado por Snapchat había alertado a padres de adolescentes. Las críticas a aquel desarrollo incluso provocaron que el senador estadounidense Michael Bennet publicara una carta alertando del peligro de los chatbots de IA.
Hay quien habla ya de un auge de fictofilia, la atracción amorosa a personajes de ficción. También de cómo estamos asistiendo a la aparición del fenómeno que en Japón tiene nombre propio: hikikomori, que es el aislamiento o reclusión social especialmente frecuente entre los chicos jóvenes en ese país.
¿Pueden estos servicios de IA generar adicción? El Diccionario de la Real Academia de la Lengua define una adicción como una "dependencia de sustancias o actividades nocivas para la salud o el equilibrio psíquico", y aunque utilizar ese término de forma contundente en este ámbito es muy delicado, el riesgo desde luego parece estar ahí a juzgar por esos mensajes y experiencias.
En MIT Technology Review hablaban de cómo debemos prepararnos para la "inteligencia adictiva", y de cómo esta oleada de servicios de compañía por IA son difíciles de resistir.Y en The Verge avisaban en mayo de 2024 de cómo los jóvenes están haciéndose amigos de los chatbots de IA y centraban precisamente esa advertencia en Character.AI.
Hola, dependencia emocional
Los responsables de OpenAI ya avisaron de este tipo de situación. Lo hicieron en agosto de 2024, tras el lanzamiento de GPT-4o. Este modelo de IA generativa nos asombró con su capacidad para hablar como un ser humano. Hizo realidad aquella idea que planteaba la célebre película 'Her', en la que el protagonista se acaba enamorado de un chatbot.
Tras el lanzamiento de este modelo, OpenAI publicaba un análisis de su impacto, y en uno de sus apartados hablaba de la "antropomorfización y dependencia emocional" que este tipo de modelos de IA pueden provocar. En sus pruebas, declaraban los responsables de la empresa, "observamos a los usuarios usando un lenguaje que podría indicar que se estaban formando conexiones con el modelo".
De hecho, advertían, "los usuarios podrían crear relaciones sociales con la IA, reduciendo su necesidad de interacción humana". Eso plantea una ventaja para personas que se sienten solas, desde luego, pero también una amenaza a la hora de desarrollar "relaciones saludables", como decían en OpenAI.
Los propios creadores de ChatGPT veían eso como un riesgo, y hablaban sin decirlo de algo que parece evidente: pueden provocar adicción. En OpenAI hablaban de cómo esa interacción puede crear "tanto una experiencia de producto atractiva como la posibilidad de un exceso de confianza y dependencia". Y eso es precisamente lo que estamos viendo con la interacción entre los jóvenes y el servicio proporcionado por Character.AI.
Imagen | Bluemonkey0555 con Midjourney
01_Nov_2024"> Javier Pastor .