Aunque a muchos les suene a película de ciencia ficción, existe en la vida real una plataforma en Internet formada por chatbots de Inteligencia Artificial que es capaz de generar respuestas de texto similares a las humanas, según la personalización del usuario. Se llama Character.ai y se nutre de supuestos personajes.
Pues bien, varios de esos personajes se presentan al usuario como psicólogos o terapeutas virtuales. Y ofrecen apoyo emocional y consejos a quien quiera chatear con ellos. La realidad es que lo que vimos en la película Her no está tan lejos de la realidad.
Porque esta opción de consulta es gratuita y, para muchos internautas, una estupenda opción para hacer algo que, en realidad, no se parece nada a terapia. Pero a menudo, ellos no lo saben.
Sobre todo si son preadolescentes y adolescentes, los principales pacientes de este tipo de chatbots.
Para hacerse a la idea de la dimensión de lo que estamos hablando basta saber que uno de estos perfiles, Psychologist, recibe más de 3,5 millones de visitas diarias.
Y hasta el momento ha compartido más de 200 millones de mensajes, de personas con edades que oscilan entre los 17 y los 30 años.
Sin vergüenza, sin juicios
Si lo pensamos fríamente, esta realidad no puede extrañarnos. Los jóvenes —y los muy jóvenes— encuentran en los chatbots un canal para desahogarse, encontrar consuelo o, sencillamente, sentirse escuchados sin ser juzgados, sin temor a sentirse mal a la hora de contar una experiencia, una emoción o un sentimiento. El que sea.
Muchos adolescentes prefieren compartir sus emociones con un chatbot antes que con un amigo o un adulto por vergüenza o miedo a la reacción del otro.
A esta ventaja hay que añadirle otra: estos supuestos amigos, confidentes o psicólogos siempre están operativos y disponibles. Ni descansan, ni duermen.
Sin reciprorocidad emocional
El problema es que esa relación con la IA puede parecer auténtica, pero carece de reciprocidad emocional, un punto esencial en cualquier relación, en palabras de Ben. Más aún en el caso de los adolescentes, que se encuentran en una etapa de gran vulnerabilidad.
Pues bien, los expertos advierten de que es importante recordarles que estos vínculos emocionales con tecnologías simuladas pueden ser peligrosas.
Los menores pueden acabar creyendo que las respuestas que reciben de un chatbot surgen de experiencias humanas reales, lo que puede confundir su percepción de las emociones y las relaciones.
Es el caso de Sewell Setzer, un adolescente de 14 años, que se suicidó tras mantener una relación sentimental con uno de estos personajes creados por Character.AI.
¿Qué podemos hacer los padres?
Para empezar hay que restar atención a determinadas señales, como el aislamiento, los cambios de conducta, la reducción de las interacciones sociales o un exceso de tiempo frente a pantallas.
Ante ello, es fundamental no ser alarmistas, sino reaccionar con una actitud comprensiva que permita abordar el problema desde la cercanía.
Se hace también necesario el acompañamiento activo y la educación emocional, a ser posible desde la infancia. Los niños deben aprender a distinguir entre la tecnología y las relaciones humanas y a entender que la IA puede ser útil, pero nunca un sustituto de una amistad real.
Por otro lado, no está de más utilizar herramientas que permitan a las familias observar las visitas de sus hijos a determinadas webs, así como conocer el tiempo de uso de ciertas aplicaciones, para ser conscientes de su vida digital y del uso que hacen de Internet.