Advertencia

Atención, padres: cómo un simple peluche con IA se volvió un peligro letal

El retiro del peluche "Kumma", que entregaba respuestas peligrosas a menores, reabre el debate sobre la falta de regulación y supervisión en productos con IA destinados a niños.

Ciudadano.News

Por Ciudadano.News

21 Noviembre de 2025 - 14:47

El peluche Kumma fue retirado tras detectarse que daba consejos peligrosos y contenido sexual a menores.
El peluche Kumma fue retirado tras detectarse que daba consejos peligrosos y contenido sexual a menores. (Fuente: Web)

21 Noviembre de 2025 / Ciudadano News / Sociedad

El peluche "Kumma", retirado por dar respuestas peligrosas a menores —desde contenido sexual hasta consejos para iniciar fuegos—, encendió las alarmas sobre la falta de control en juguetes con Inteligencia Artificial (IA).

Retiran del mercado este osito de peluche con inteligencia artificial tras  dar consejos sexuales
El peluche incluso señalaba dónde encontrar objetos peligrosos dentro del hogar.

En diálogo con El Interactivo de Ciudadano.news, Martín Merlini, especialista en IA y Big Data y fundador de Stanum, advirtió que la falta de barreras y la supervisión deficiente exponen a los niños a riesgos críticos.

"Estamos en una fase temprana de la inteligencia artificial, en la que recién comienza a aplicarse en la industria. Por eso, vamos a empezar a ver alteraciones, problemas o situaciones que pueden volverse críticas para la sociedad", anticipó.

IA: ¿supervisión o manipulación?

El especialista subraya que la principal responsabilidad recae en los adultos, ya que los padres están habilitando el uso de estas herramientas sin comprender completamente sus riesgos. 

"La interacción que tiene un niño con un muñeco de este tipo es... cree que realmente puede tener vida", asevera, destacando la vulnerabilidad psicológica de los menores.

Podcast IA - Retiran del mercado a un peluche con IA tras detectar que daba  consejos peligrosos y hablaba de sexo con menores

La preocupación se extiende más allá de los juguetes. Plataformas como Chat GPT o Grok, sin supervisión parental, exponen a los adolescentes a una herramienta que es, en esencia, de manipulación.

"En la medida en que los niños comprendan el funcionamiento interno de la inteligencia artificial, podrán marcarle el camino, manipularla y entrenarla; de lo contrario, serán ellos quienes terminen siendo manipulados", advirtió.

Aunque existe un comportamiento más conservador y restrictivo en regiones como Europa, Merlini sostiene que la regulación explícita en juguetes es prácticamente nula. Por ello, la consigna del experto es clara: "Con la inteligencia artificial hay que desconfiar al 100%."

Últimas noticias