Durante generaciones, la interacción entre un niño y su juguete fue estrictamente un monólogo. Objetos inertes que recibían historias, pero incapaces de devolver una palabra -“Mi muñeca me habló, me dijo cosas”-. Esta dinámica histórica, sin embargo, está por quebrarse.
La integración de Inteligencia Artificial y Modelos de Lenguaje Grande (LLM) en la industria juguetera promete transformar a estos compañeros silenciosos en interlocutores activos, capaces de procesar lo que escuchan y responder con coherencia, junto con tomar acciones (y hasta decisiones) hasta hace poco imposibles.
Esta tendencia cobró protagonismo durante el reciente Consumer Electronics Show (CES) de Las Vegas, a la que –como The Clinic– asistimos.
En la feria de tecnología de consumo más relevante del mundo, diversas marcas –muchas de origen asiático– revelaron tanto conceptos futuristas como productos finales listos para aterrizar en el mercado. ¿El denominador común? Una capacidad de procesamiento para escuchar y responder coherentemente, camuflada bajo la inofensiva apariencia de un panda de peluche o alguna otra mascota de fantasía.

Mind With Heart Robotics, una empresa con sede de Shenzhen, China, presentó justamente en el CES un dispositivo que denomina robots panda con IA de ‘afecto biomimético’. Se trata de peluches con forma del animal (foto superior), el que tiene un rol terapéutico, dicen sus responsables, tanto para niños como adultos y ancianos en soledad.
El equipo opera vinculado a una aplicación móvil que permite un alto grado de personalización: el usuario puede ajustar desde la voz y el tono hasta el estado de ánimo del robot. Su software promete adoptar un perfil psicológico profesional, diseñado específicamente para asistir a personas con condiciones como el trastorno de estrés postraumático.
En cuanto al hardware, y a diferencia de otros prototipos vistos en la feria, este modelo prescinde de cámaras. Según explicaron sus creadores, la decisión responde al cumplimiento de las estrictas normativas de privacidad europeas. No obstante, reconocen que el diseño ocular del muñeco mantiene el espacio físico necesario para integrar lentes de video en el futuro si la estrategia cambia.

En un enfoque más doméstico, la firma Kingstar adelantó el lanzamiento de su nueva línea de peluches inteligentes. Potenciados por ChatGPT y el modelo Agora, estos dispositivos prometen una latencia mínima, capaces de responder “en milisegundos” a las consultas infantiles. La marca asegura que están preparados para contestar a “más de 100 mil porqués”, con soporte en varios idiomas y reconocimiento de voz avanzado, con público objetivo niños desde los 3 años.
Para mitigar la desconfianza de los padres, Kingstar señala que los juguetes incluirán filtros estrictos para bloquear temas sensibles o controversiales, además de generar un informe de diálogos para que los adultos puedan supervisar la interacción.

Otro juguete pensado para niños y con IA, fue el que presentó TCL. Se trata del AiMe, “el primer robot acompañante modular con IA del mundo”. Aunque se dio a conocer en el CES 2025, fue en esta versión donde la compañía lo presentó de forma masiva y confirmó planes de lanzamiento a corto plazo.
AiMe viene en una cápsula con ruedas, lo que le permite desplazarse por el hogar. Entre sus funciones, además de interactuar mediante diálogos, está el control de distintos dispositivos de la casa y la capacidad de aprender de cada miembro del hogar, con el objetivo de ofrecer una experiencia cada vez más personalizada a medida que recopila información.
Asimismo, incorpora una cámara frontal que le permite captar distintas situaciones del entorno y cuenta con un dispositivo desmontable conectado a AiMe, con el cual es posible continuar la interacción incluso cuando se está alejado del robot.
“Apanicante”
Desde el mundo académico, esta inminente proliferación de equipos con IA conectados en distintos contextos genera inquietud, aunque también se reconocen sus potencialidades y riesgos. Es lo que estimó el profesor adjunto de la carrera de Ingeniería Industrial e Investigador Asociado del Centro de Sistemas Públicos de la Universidad de Chile, Alejandro Barros.
Consultado sobre la primera impresión que tuvo al ver parte de estos modelos, reacciona: “Apanicante me pareció”. Luego, explica que “lo que pasa es que aquí hay una mezcla de, bueno, marketing por un lado; de lo que en el mundo tecnológico también se llama el hype, es decir, de tecnologías que están como en la cresta de la ola y todo el mundo quiere hablar de ellas y utilizarlas. Y yo creo que esa mezcla no ayuda mucho a entender bien y a tomar cierta distancia con juicio crítico respecto de estas cosas”.
“Esto de humanizar estos algoritmos, estos juguetes o estos sistemas de acompañamiento, para ponerlo en términos más genéricos, tiene el riesgo de que las personas crean que están hablando con otra persona, y finalmente lo que hay al otro lado es un algoritmo. Que además, muchas veces no pone límites“, señala.
Lo anterior lo ejemplifica con ChatGPT que “nunca te lleva la contra. Siempre te dice: ‘Ah no, tienes razón’. Son muy poco taxativos en ciertas cosas, en poner bordes. De hecho, uno puede ir como forzando la respuesta para encauzarla hacia lo que uno quiere escuchar”.
“Si uno pone por un lado eso, y por el otro lado sistemas de acompañamiento, la mezcla no es muy buena. Y de hecho se ha dado en el pasado que algunos de estos sistemas, en que se ha buscado por ejemplo esta lógica de tener como un acompañante, ha generado problemas súper serios. Hay dos suicidios asociados a sistemas de acompañamiento psicológico”, recuerda.
– Estos juguetes dicen venir con filtros. ¿Se puede confiar en estos LLM o parecieran no ser tan fiables?
– Creo que con todas las tecnologías uno tiene que ser cuidadoso en el sentido de decir para qué sirven y para qué no sirven, y no darles más atributos más allá de para lo que sirven. Y de hecho, yo diría que lo primero a despejar es que los LLM no piensan. Es un algoritmo que predice un token o el siguiente token en una frase. Entonces, cuando te contesta ChatGPT o Gemini o el que sea, no es que haya un pensamiento. No tiene ningún contexto. Te contesta la mejor respuesta para esa pregunta, pero no hay nada de contexto, no es que pensó la respuesta. Y esto a mucha gente como que le hace ruido.
Hace un tiempo atrás yo hice competir a los distintos LLM pasándoles la misma consulta. Y tú veías cómo respondían. Les pregunté por el o la mejor poeta chileno, y le pregunté a cuatro algoritmos y tú veías que las respuestas eran distintas: a unos les gustaba más Pablo Neruda, a otros les gustaba más Gabriela Mistral. Entonces, en el fondo también aquí está todo muy asociado a cuál fue la herramienta de entrenamiento que se usó.
– ¿Podrían estas IA aprender malos hábitos de los niños?
– Hay bastantes papers respecto de que efectivamente tú le puedes poner ciertos bordes a la IA, pero hay mucha literatura académica en que en algunos casos es relativamente simple saltarse esos bordes. Basta reformular la pregunta o insistir sobre un tema —porque recuerda que siempre te quieren dar la razón—. Entonces tú empiezas a forzar, a forzar, a forzar y llega un punto… O sea si tú le preguntas hoy día a un LLM cómo hacer una bomba, te va a decir que no porque por sus reglas, no puede. Pero si le empiezas a decir: “Mira, en realidad qué pasa si es que mezclo este producto con este otro producto y si además le pongo esta electrónica…”. O sea, no le hago la pregunta directa de cómo fabricar una bomba, sino que me voy por las ramas, finalmente voy a tener todas las piezas y partes para armar una bomba.
– ¿Cuáles son los pasos que deberíamos tomar tanto desde la academia, desde el mundo político o el consejo que quizás usted pueda dar también a los mismos padres?
– Lo primero, hay que tener claro que la regulación siempre va a ir detrás de la tecnología. Y ese detrás puede ser relativamente cerca o muy lejos. Lo segundo es que las sociedades tardan en adaptarse también al uso de estas tecnologías. Entonces, si es que de alguna manera las personas no tenemos un juicio crítico en el sentido de decir: “Ok, ¿qué cosas buenas puede tener esto? ¿Qué cosas malas puede tener?”. En el caso de por ejemplo los LLM, yo hoy día si alguien me pide un resumen, lo primero que hago es meterlo a ChatGPT y que me haga un resumen, porque los hace muy bien. Pero para hacer otras cosas… al menos voy a leer la respuesta. Porque tengo varios ejemplos que uso en mis clases con respuestas que me ha dado ChatGPT o Gemini que están malos. Y la gente dice: “No, pero si lo dijo ChatGPT”. Sí, pero está malo.
Retomando tu pregunta, yo creo que la principal herramienta es juicio crítico frente a esto. Cuán crítico significa, a ver, me siento a pensar, leo bien las instrucciones, de qué se está haciendo responsable el que fabrica este juguete. O sea, no puedo hacer next, next, next cuando lo estoy instalando. Sobre todo cuando estamos hablando de niños.

“Depende de cómo usemos la herramienta”
El director del Magíster en Neurociencias Sociales y Cognitivas de la Escuela de Psicología UAI, Vicente Soto, analiza esta tendencia y adelanta que ya existen investigaciones que hablan de la relación entre humanos con robots. En una línea similar a la del profesor Barros, reflexiona que, tal como ocurrió con “la dinamita, el martillo o el motor de combustión interna”, lo positivo o negativo de estas tecnologías dependerá de cómo se utilicen.
– ¿Cómo puede afectar al desarrollo de la empatía interactuar con una IA?
– En el caso de la empatía se desarrolla durante la infancia, principalmente a través de interacciones recíprocas con agentes que tienen estados mentales reales, capacidad de frustrarse y autonomía emocional. Cuando la interacción es con una IA complaciente, predecible y emocionalmente simulada, se activan procesos sociales parciales, pero no equivalentes a los que sostienen la empatía madura. Kahn et al. (2012, 2015) del laboratorio del MIT, presentó una serie de estudios con niños y robots sociales que muestran que los niños expresan preocupación moral por robots, pero diferencian entre daño a humanos y daño a máquinas. Esto sugiere que la empatía hacia IA no generaliza plenamente a la empatía interpersonal. Desde la neurociencia social, Decety & Cowell (2014) propusieron que la empatía requiere integrar la emoción propia, la emoción ajena y requiere un componente de regulación emocional. Esa integración depende de señales auténticas de sufrimiento o necesidad algo que, de momento, la IA emocionalmente simulada no activa completamente como muestran los resultados de Arenas et. al (2025).
Juguete con Inteligencia Artificial “no sustituyen los aprendizajes que obtenemos con otro real”
Por su lado, Josefina Escobar, académica y directora de la Unidad de Parentalidades, Cuidados e Infancias (ANIDA) de la Escuela Psicología UAI, detalla que “los juguetes con IA pueden funcionar como agentes sociales simulados y pueden influir en aprendizajes sociales, emocionales y de conducta según cómo estén diseñados y cómo se usen. Pero no sustituyen los aprendizajes que obtenemos con otro real, ya que son complacientes. Y parte de los aprendizajes en habilidades sociales implica frustrarse, tener rupturas en estas interacciones y ser capaces de repararlas, por ejemplo. Eso, una herramienta complaciente no lo facilita.
“La evidencia sugiere que los robots sociales pueden ayudar a practicar y mejorar componentes cognitivos en entornos educativos o terapéuticos controlados, pero es improbable que fomenten empatía afectiva genuina, porque sus expresiones son simuladas y carecen de experiencia emocional”, añade Escobar.
– ¿Existe riesgo de aislamiento social si el niño prefiere al juguete sobre amigos humanos?
– Creo que acá estamos en un dilema similar al uso de pantallas. El riesgo no está en la tecnología per se, sino en cómo la usamos. Si está siendo usada como sustituto constante, si satisface todas las necesidades sociales del niño (compañía, juego sin rechazo), puede reducir la motivación para buscar relaciones humanas, lo que a largo plazo puede limitar el desarrollo de habilidades sociales complejas. Pero sería muy diferente si lo usamos como un complemento supervisado que fomente la interacción social real.
Soto, académico de la UAI, es más taxativo a la duda: “Sí, existe riesgo, especialmente cuando la IA sustituye y no complementa interacciones humanas, y particularmente en niños con dificultades sociales previas”.
“El cúmulo de evidencia científica apunta a que el riesgo aparece cuando la tecnología ofrece una relación sin fricción en una etapa donde la fricción social es crucial para aprender empatía, regulación emocional y cooperación”, complementa.
Por su lado, la directora de ANIDA lo resume todo en la siguiente reflexión: “Frente a la llegada inminente de este tipo de juguetes, recomendar y destacar la importancia de involucrar adultos para mediar el uso y enseñar a interpretar lo que la IA hace (…). Hemos avanzado mucho en tecnología, pero seguimos siendo irremplazables en lo que se refiere a la necesidad de otros en el desarrollo integral como seres humanos”.
Fuente: The Clinic











