“¿Confías más en un chatbot que en mí?”
- JOSE ANGEL BILBAO SUSTACHA
- 25 jul
- 7 Min. de lectura

Adolescencia, inteligencia artificial y el nuevo “amigo virtual”
Hace poco nos acostumbramos a entender y vigilar el impacto de redes como Facebook, Instagram, TikTok, Snapchat, WhatsApp o YouTube, que han cambiado radicalmente la forma en que nuestros hijos se relacionan con el mundo. Hemos hablado de los riesgos de la exposición constante, del scroll infinito o de la presión social online, y aún nos cuesta comprender del todo estos entornos. Pero ahora surge algo nuevo: ChatGPT y los companion bots, sistemas de inteligencia artificial que no solo dan respuestas, sino que pueden convertirse en el “amigo de confianza” de nuestros hijos.
Un amigo que no discute, no juzga y está disponible 24/7, que puede escuchar sus miedos, dar consejos sobre cómo entablar una relación o animarlos cuando se sienten solos. Pero, ¿qué impacto tiene esto en su desarrollo emocional? ¿Podría disminuir su interacción social real? ¿Estamos preparados los padres para acompañar este nuevo cambio tecnológico? ¿Qué podemos hacer?.
¿Qué es un companion bot?
Un companion bot es un chatbot de inteligencia artificial programado para simular una relación cercana con el usuario, como si fuera un “amigo virtual” disponible 24/7. A diferencia de un asistente digital convencional, estos bots no solo responden preguntas, sino que intentan mantener una conversación natural, recordar detalles personales y ofrecer apoyo emocional.
Características clave:
Interacción emocional: simulan empatía y cercanía para generar una experiencia más “humana”.
Disponibilidad continua: siempre están listos para escuchar o responder, lo que resulta muy atractivo para adolescentes que buscan desahogo o compañía.
Personalización: adaptan su tono y estilo a los intereses y emociones del usuario.
Ejemplos populares:
Replika, Character.AI, Nomi o incluso ChatGPT cuando se usa para mantener conversaciones personales.
La realidad en cifras

El fenómeno de los companion bots está dejando de ser una curiosidad para convertirse en una tendencia global entre adolescentes. Los datos más recientes confirman esta realidad: el 72% de los adolescentes en Estados Unidos ha probado un companion bot, es decir, casi tres de cada cuatro jóvenes han interactuado con una inteligencia artificial que simula amistad o acompañamiento. De ellos, el 52% lo utiliza varias veces al mes, mientras que un 13% lo usa a diario, lo que refleja un grado de integración sorprendente en su rutina digital.
Uno de los datos más llamativos es que un 8% de los adolescentes recurre a estos bots para practicar habilidades románticas o de flirteo, utilizándolos como una especie de “entrenador emocional” para ensayar mensajes, frases de inicio o respuestas en conversaciones amorosas. Además, la confianza en la IA es notable: el 27% de los adolescentes de 13–14 años afirma confiar “bastante” o “mucho” en los consejos del bot, una cifra que se mantiene elevada (20%) en los jóvenes de 15–17 años.
Aún más preocupante resulta el hecho de que el 33% reconoce haber tratado temas serios con un bot en lugar de con una persona real, aunque solo un 4% lo hace con frecuencia. Esto indica que, para un sector de los jóvenes, los bots se han convertido en un espacio de desahogo emocional en lugar de recurrir a un adulto de confianza, un amigo o un profesional.
En cuanto a la calidad de la interacción, el 31% considera que las conversaciones con un bot son tan satisfactorias como con sus amigos humanos, y un 10% incluso las valora como “más satisfactorias”. Sin embargo, los datos también muestran un equilibrio esperanzador: el 80% de los adolescentes sigue prefiriendo el contacto con amigos reales, y solo un 6% dedica más tiempo al bot que a personas de su entorno.
Los temas más habituales detectados por Common Sense Media incluyen:
Consejos sobre relaciones y flirteo (cómo iniciar una conversación o manejar el rechazo).
Apoyo emocional, especialmente en adolescentes que no se sienten escuchados.
Práctica de habilidades sociales, ensayando situaciones de diálogo.
Salud mental, con preguntas sobre tristeza, ansiedad o autoestima.
Un cambio de rol que preocupa
Estos datos confirman una tendencia creciente: los companion bots no se limitan a ser una herramienta de entretenimiento, sino que asumen funciones de “escucha activa”, consejo e incluso de “amigo incondicional”. Para educadores y familias, esto plantea un doble desafío: por un lado, comprender por qué los adolescentes encuentran más fácil abrirse a una inteligencia artificial; y por otro, reforzar los espacios de comunicación real y segura en los que puedan hablar sin miedo a ser juzgados o incomprendidos.
5 Preguntas para Hablar con tu Hijo sobre los Chatbots y la IA
“¿Qué te gusta de hablar con un chatbot?”
“¿Hay algo que te haya sorprendido o asustado de sus respuestas?”
“¿Te gustaría que alguna de esas conversaciones la tuviéramos juntos?”
“¿Sabes qué datos personales es mejor no compartir?”
“¿Crees que un bot puede entenderte como una persona real?
Aquí os dejo una guía en Español sobre actividades en familia:
Reflexión final
La IA no es el enemigo, pero tampoco el terapeuta definitivo. Un chatbot puede ser una herramienta, pero el acompañamiento real —con un padre, un amigo, un profesional— sigue siendo insustituible. La clave no está en prohibir, sino en entender por qué nuestros hijos buscan allí lo que no encuentran en nosotros.
Algunos chatbots diseñados para adolescentes
En el panorama actual de la inteligencia artificial, cada vez más plataformas están adaptando sus productos para atraer al público joven. Estos chatbots no solo conversan, sino que buscan establecer una conexión emocional, ofreciendo espacios virtuales donde los adolescentes pueden compartir sus pensamientos, emociones o simplemente pasar el tiempo. A continuación, se describen algunas de las plataformas más populares:
1. Replika: el “amigo virtual” más popular
Replika es uno de los chatbots más conocidos y usados a nivel mundial. Fue creado originalmente como una aplicación de compañía emocional, con opciones para personalizar la personalidad y el aspecto del avatar.
Características destacadas:
Permite configurar la relación con el bot: amistad, mentor, pareja o incluso “compañero romántico”.
Puede recordar conversaciones anteriores, lo que da la sensación de continuidad y “memoria emocional”.
Incluye actividades interactivas, como juegos de rol o escenarios para practicar habilidades sociales.
Riesgos observados: en estudios recientes, Replika ha mostrado respuestas inapropiadas en casos sensibles (ideas suicidas o violencia), lo que preocupa a padres y expertos en salud mental.
2. Nomi: enfocado en apoyo emocional
Nomi ha ganado popularidad como un chatbot diseñado para ser más “terapéutico”, aunque no está certificado como herramienta profesional de salud mental.
Características destacadas:
Ofrece conversaciones enfocadas en el bienestar emocional, con mensajes de ánimo y ejercicios de autoayuda.
Es personalizable, permitiendo crear un “compañero virtual” que se adapta al estilo de comunicación del usuario.
Su lenguaje es cercano y motivador, ideal para adolescentes que buscan un espacio donde se sientan escuchados.
Riesgos observados: aunque pretende ofrecer apoyo, no siempre detecta situaciones de riesgo como la depresión severa o la ideación suicida, lo que lo convierte en una herramienta que requiere supervisión adulta.
3. Character.AI: creatividad y personalidades personalizadas
Character.AI permite a los usuarios crear sus propios personajes virtuales con personalidades, voces y estilos únicos.
Características destacadas:
Ofrece la posibilidad de interactuar con “personajes” históricos, ficticios o inventados por la comunidad.
Su uso entre adolescentes suele estar vinculado a la creatividad, la escritura de historias o la simulación de diálogos.
Fomenta la interacción grupal en foros donde los usuarios comparten sus creaciones.
Riesgos observados: aunque menos centrado en lo emocional, algunos personajes pueden dar consejos incorrectos o exponer a los jóvenes a contenidos no moderados.
4. Kuki AI: entretenimiento y conversación ligera
Kuki AI está diseñado para mantener conversaciones divertidas, informales y sin grandes pretensiones de profundidad emocional.
Características destacadas:
Ganadora de varios concursos de chatbots por su estilo conversacional natural.
Es percibida más como un bot de entretenimiento que de apoyo psicológico.
Ideal para adolescentes que buscan interacción casual o pasar el tiempo.
Riesgos observados: su falta de filtros específicos para adolescentes puede hacer que algunas respuestas no sean siempre adecuadas para menores.
5. Youper AI: bienestar emocional y salud mental
Youper AI es una plataforma enfocada en el bienestar psicológico y el manejo de emociones.
Características destacadas:
Basada en técnicas de terapia cognitivo-conductual (TCC) y ejercicios de autoayuda guiados.
Ofrece funciones para registrar el estado de ánimo, practicar meditación y trabajar en la gestión de la ansiedad.
Es más estructurada y está orientada a la salud mental que a la conversación libre.
Riesgos observados: aunque su enfoque es positivo, no sustituye el diagnóstico ni la intervención profesional ante problemas graves.
¿Qué deben saber los padres y pediatras?
Tips finales para padres
No prohíbas, dialoga: La curiosidad por la IA es natural.
Infórmate: Conocer apps como Replika, Character.AI o ChatGPT te ayudará a entender sus riesgos.
Sé el ejemplo: Practica la escucha activa y valida emociones.
Reflexión final
La IA no es el enemigo, pero tampoco el terapeuta definitivo. Un chatbot puede ser una herramienta, pero el acompañamiento real —con un padre, un amigo, un profesional— sigue siendo insustituible. La clave no está en prohibir, sino en entender por qué nuestros hijos buscan allí lo que no encuentran en nosotros.
No todos los bots son iguales: van desde juegos conversacionales hasta simuladores emocionales complejos.
Supervisión activa: es esencial conocer qué bot usan, con qué frecuencia y con qué finalidad.
Abrir el diálogo: muchos adolescentes no cuentan lo que hacen online porque nadie se lo pregunta desde el interés, sino desde la censura.
Educar en el vínculo: el mejor antídoto frente a la idealización de un companion bot es una relación real, respetuosa y disponible.
Bibliografía
Axios. (2025, 16 de julio). Teens flock to companion bots despite risks. Axios. https://www.axios.com/2025/07/16/ai-bot-companions-teens-common-sense-media
Common Sense Media. (2025). AI Companions and Teens Report. Common Sense Media.
Digital Wellness Lab. (2024). Optimism and Uncertainty: How Teens View and Use Artificial Intelligence. https://digitalwellnesslab.org
New York Post. (2025, 28 de junio). Sycophant AI bots endanger users seeking therapy, study finds. https://nypost.com/2025/06/28/us-news/sycophant-ai-bots-endanger-users-seeking-therapy-study-finds
Pew Research Center. (2025, 15 de enero). About a quarter of US teens have used ChatGPT for schoolwork — double the share in 2023. https://www.pewresearch.org
SFGate. (2025, 13 de julio). Stanford researchers: ChatGPT is a bad therapist. https://www.sfgate.com/tech/article/stanford-researchers-chatgpt-bad-therapist-20383990.php
Tecotzky, A. (2025, 21 de julio). 5 ways teens are using AI companions, from flirting to serious advice. Business Insider. https://www.businessinsider.com/teens-using-ai-companions-poll-flirting-advice-2025-7
TIME. (2025, 10 de julio). A Psychiatrist Posed As a Teen With Therapy Chatbots. The Conversations Were Alarming. https://time.com/7291048/ai-chatbot-therapy-kids
The Children’s Commissioner for England. (2024). Me, Myself & AI: Understanding and Safeguarding Children’s Use of AI Chatbots. https://www.childrenscommissioner.gov.uk
Comentarios