Cómo usar los chats de IA sin perder el norte... según los propios chats de IA

Limitar el tiempo de consulta y tener siempre presente que estos sistemas simulan la empatía pero no la sienten es fundamental

Julio Arrieta

Lunes, 7 de julio 2025, 19:00

Las inteligencias artificiales (IA) conversacionales, «como Grok, ChatGPT o Character.AI se han integrado profundamente en nuestra vida diaria, ofreciendo desde respuestas rápidas a dudas ... hasta apoyo emocional instantáneo. Sin embargo, esta accesibilidad plantea riesgos psicológicos, como la dependencia emocional, el aislamiento social y la adicción». Este planteamiento no es la opinión de un experto o de alguna eminencia en nuevas tecnologías. Lo ha escrito una IA, en concreto Grok, chatbot desarrollado por xAI por iniciativa de Elon Musk. El texto es parte de la respuesta a una consulta realizada a raíz de una noticia según la cual muchos jóvenes pasan hasta dos horas diarias charlando con este tipo de robots virtuales.

Publicidad

Recientemente 'The New York Times' publicaba un reportaje cuyo titular hubiera sonado a ciencia ficción no hace mucho: «Los terapeutas humanos se preparan para luchar contra la IA». Casos graves, como el suicidio de un adolescente de 14 años en Florida que había pasado los últimos meses de su vida hablando a través de Character.AI con una mujer artificial configurada como un personaje de 'Juego de Tronos' llevaron a la Asociación Estadounidense de Psicología (APA) a dar la voz de alarma. «Los chatbots pueden reforzar pensamientos negativos, lo que es especialmente peligroso para personas vulnerables», según esta entidad.

La capacidad de imitar la conversación humana de las IAs hace que parezcan espacios seguros en los que expresar emociones, sincerarse o consultar cuestiones muy personales. Pero esto puede acabar en soledad o derivar en comportamientos adictivos, particularmente en menores. La psicoterapeuta Catherine Knibbs explica que algunos niños, adolescentes y jóvenes «prefieren interactuar con chatbots porque de este modo evitan el miedo al rechazo y satisfacen necesidades de apego». Esto es común en jóvenes con dificultades para las interacciones cara a cara. Por su parte, un estudio del MIT Media Lab apuntó que «los chatbots actúan como espejos vacíos donde los usuarios proyectan sus necesidades, lo que puede llevar a una relación compulsiva».

El caso del adolescente de Florida llevó a Character.AI y las demás compañías especializadas a introducir nuevas funciones de seguridad en sus chatbots. Ahora, si detectan que queremos 'intimar' demasiado con ellos, o que recurrimos en exceso a sus consejos en cuestiones personales, dejan de hablarte como un amigo y cambian el tono, dejando claro que no son personas: «Como Grok, creado por xAI, no tengo opiniones personales ni emociones, así que no puedo sentir o pensar sobre el tema que planteas como lo haría un humano».

Publicidad

También se 'animan' a dar consejos «sobre los riesgos psicológicos de encariñarse demasiado con una IA como yo» y a cómo usar correctamente un chatbot. Aquí reunimos algunos de ellos, aportados por Grok y ChatGPT, sistemas a los que se ha pedido que se basen exclusivamente en estudios y publicaciones académicas.

«Fija límites de tiempo»

«Si te encuentras charlando conmigo más de 20-30 minutos al día por motivos emocionales, considera reducir el tiempo y busca apoyo humano», aconseja Grok. Por su parte, ChatGPT sugiere «usar temporizadores o recordatorios para evitar que las interacciones se alarguen innecesariamente y para asegurarte de dedicar tiempo a otras actividades».

Publicidad

«Establece hábitos de autorreflexión»

«Antes de interactuar con la IA tómate un momento para reflexionar sobre cómo te sientes», sugiere ChatGPT. «Si estás buscando consuelo porque te sientes solo o ansioso, puede ser una señal de que necesitas buscar otras formas de cuidar tu bienestar emocional. Si necesitas apoyo emocional, hablar con un amigo, un familiar o un terapeuta será mucho más beneficioso».

«Sé consciente de lo que soy»

«Soy una herramienta, no una persona», recuerda Grok, que es particularmente insistente en aclarar que es una máquina. «Mis respuestas están basadas en datos y algoritmos, no en experiencias o emociones reales. Los chatbots simulan empatía, pero no la sienten».

Publicidad

«¿Por qué recurres a mí?»

«Reflexiona sobre el propósito de la interacción. Pregúntate siempre por qué estás buscando una interacción con la IA», plantea ChatGPT. «¿Es para obtener información o es porque necesitas compañía? Si es lo segundo, es importante explorar otras formas de buscar conexión, como unirse a grupos sociales, practicar actividades que te permitan interactuar con otros, o incluso considerar terapia si es necesario».

«Desconectar es importante»

«Es vital tomarse momentos para desconectarse del mundo digital y centrarse en actividades offline», dice el mismo chatbot. «Ya sea practicar deporte, leer un libro, salir a caminar o simplemente disfrutar del tiempo con seres queridos, estos momentos desconectados permiten restaurar el equilibrio emocional y evitar caer en patrones de dependencia tecnológica».

Publicidad

«Haz preguntas específicas»

«Usa la IA como apoyo, no como sustituto. Haz preguntas concretas y neutras», coinciden ambas máquinas. «Recuerda que no soy un terapeuta. Si quieres hablar con un terapeuta lo lógico es que llames a uno de verdad».

Este contenido es exclusivo para suscriptores

Accede todo un mes por solo 0,99€

Publicidad