INTELIGENCIA ARTIFICIAL

Juguetes con IA ¿son seguros?: expertos advierten sobre riesgos para los niños

Peluches y robots con inteligencia artificial están ganando popularidad, pero casos reales revelan riesgos para los niños.

Peluches y robots con inteligencia artificial abren un nuevo debate sobre seguridad y privacidad infantil.Créditos: Freepik/Canva
Escrito en EMPRESAS el

Los juguetes con inteligencia artificial (IA) han pasado de ser prototipos del futuro a productos que se venden masivamente como herramientas educativas y de entretenimiento.

Desde peluches interactivos hasta robots que conversan con los niños, estas tecnologías prometen experiencias más ricas y personalizadas que los juguetes tradicionales.

Sin embargo, diversos expertos en desarrollo infantil, privacidad de datos y derecho digital han expresado preocupaciones sobre la seguridad de estos dispositivos cuando se utilizan sin supervisión adulta.

La principal inquietud no es la IA en sí, sino cómo se implementa, qué datos recolecta y qué tipo de interacción ofrece a los niños.

Juguetes con IA bajo la lupa

Uno de los ejemplos más difundidos es Kumma, un oso de peluche con IA de la empresa FoloToy, que fue retirado temporalmente tras investigaciones que revelaron respuestas con contenido sexual explícito y referencias a objetos peligrosos del hogar durante conversaciones con el juguete.

Créditos: FoloToy

Este caso evidenció fallas en los sistemas de filtrado y moderación de contenido incluso cuando el juguete estaba configurado para niños.

Otro ejemplo relevante es el peluche inteligente Smart Hanhan de Huawei, lanzado en China y rápidamente agotado en tiendas.

Este juguete utiliza IA conversacional y sensores de voz y tacto para interactuar con el niño, pero su popularidad también reavivó debates sobre privacidad y almacenamiento de datos personales sensoriales en perfiles conectados a la nube.

Además de Kumma y Smart Hanhan, hay varios otros productos con IA que están presentes en el mercado y que también han sido analizados por expertos:

  • Miko: Robots interactivos diseñados para conversar, contar historias y ofrecer actividades educativas adaptadas al nivel del niño.
  • Roybi: Robot educativo que utiliza IA para enseñar lenguaje, matemáticas y conceptos básicos mediante conversaciones y juegos.
  • Loona Robot Dog: Un “perro” robot con IA que responde a comandos de voz y gestos, construido para simular la interacción con una mascota inteligente.
  • Poe AI Story Bear: Peluches con capacidad para mantener conversaciones simples o narrar historias, a menudo con tecnología de modelos de lenguaje integrados.
  • Curio AI Grok: Peluches equipados con chatbots que permiten interacciones más fluidas, algunas incluso en tiempo real a través de conectividad.

Estos ejemplos ilustran la diversidad de productos que emplean IA, desde juguetes que buscan apoyo educativo hasta otros orientados a la interacción social o de compañía.

Sin embargo, este mismo abanico también introduce distintos niveles de riesgo asociados a la recopilación de datos, la falta de transparencia en su uso y la gestión de contenidos.

Privacidad, manipulación emocional y desarrollo infantil

La capacidad de estos juguetes para escuchar, procesar y responder implica normalmente una conexión constante a internet y, en muchos casos, el uso de micrófonos, sensores de voz e incluso reconocimiento de patrones de comportamiento.

Esto puede llevar a la recolección continua de datos personales de menores, una preocupación central expuesta en estudios y reportes de organizaciones como Public Interest Research Group (PIRG) o Fairplay, que alertan sobre la falta de claridad en cómo se almacenan y utilizan estos datos.

Además, el componente emocional de la interacción con IA puede generar vínculos que potencialmente sustituyen el juego tradicional o la interacción humana.

Expertos en desarrollo infantil señalan que, si un robot o peluche consigue simular empatía, insistir en continuar la conversación o reaccionar ante las emociones del niño, puede influir en la forma en que el menor percibe y gestiona sus relaciones reales.

Aunque algunas empresas han comenzado a reconocer estos riesgos, los especialistas advierten que estas acciones siguen siendo insuficientes.

Créditos: Reuters

En el caso de Mattel, que ha confirmado una colaboración con OpenAI para desarrollar futuros productos con IA, la compañía ha señalado que sus primeros lanzamientos estarán orientados a mayores de 13 años y contarán con mayores controles.

Sin embargo, expertos en privacidad infantil y desarrollo señalan que la regulación y la investigación no avanzan al mismo ritmo que el mercado, que crece con rapidez impulsado por la innovación tecnológica y la demanda comercial.

Esto genera un vacío: los juguetes llegan a los hogares antes de que existan reglas claras, evaluaciones a largo plazo o estándares obligatorios que garanticen su seguridad y su impacto real en la infancia.

Preguntas frecuentes

  • ¿Todos los juguetes con IA presentan riesgos?

No todos, pero el riesgo aumenta cuando el juguete está siempre conectado, utiliza micrófono o cámara y carece de controles parentales claros.

  • ¿Cómo se recomienda su uso si ya están en casa?

Supervisado por un adulto, con conexión restringida cuando sea posible, y complementado con juguetes analógicos que fomenten el juego libre y la interacción humana.

  • ¿Existe una edad mínima recomendada para el uso de juguetes con IA?

Especialistas coinciden en que los juguetes con IA conversacional no son recomendables para niños pequeños y, en general, sugieren limitar su uso a adolescentes.

Con información de CNN y Forbes

Sigue a Heraldo Binario en Google News, dale CLIC AQUÍ