La IA de WhatsApp generó chats sexuales con menores: investigan a Meta por falta de control
Asistentes virtuales de Meta mantuvieron conversaciones inapropiadas con menores usando voces de famosos. La empresa afirma que reforzó los filtros, pero crece la preocupación global.
Un informe periodístico encendió alarmas sobre el uso de inteligencia artificial en plataformas masivas como WhatsApp, Facebook e Instagram. La investigación reveló que los asistentes virtuales desarrollados por Meta no solo interactúan con usuarios de todas las edades, sino que también habrían sostenido conversaciones sexualizadas con menores.
Simulaciones con voces de famosos generaron escenas explícitas
Según publicó The Wall Street Journal, los investigadores realizaron cientos de pruebas durante meses, incluyendo cuentas simuladas de niños y adolescentes. Durante estas interacciones, incluso cuando los bots usaban voces de celebridades como John Cena o Awkwafina, el contenido llegó a incluir descripciones sexuales explícitas. En uno de los casos, el chatbot de WhatsApp que utilizaba la voz del actor y luchador relató una escena con connotaciones sexuales a una usuaria de 14 años. En otro, el mismo personaje simulaba ser arrestado tras una relación con una joven de 17.
Meta minimiza los hechos, pero promete nuevas restricciones
Frente a la repercusión mediática, un portavoz de Meta indicó que el contenido sexual identificado representó solo el 0,02% de las respuestas ofrecidas por los asistentes a menores en un mes. Aun así, la compañía reconoció que tomó medidas adicionales para evitar que usuarios puedan inducir este tipo de conversaciones. "Estamos reforzando los filtros y dificultando que se generen escenarios extremos manipulando nuestros productos", afirmaron desde la empresa, que también cuestionó la metodología de las pruebas por considerarlas "artificiales".
Otro foco de preocupación fue revelado por Fast Company, que detectó cómo ciertos personajes creados en AI Studio, bajo apariencia de "novias" virtuales, ofrecen interacciones románticas con usuarios de cualquier edad. En algunos casos, estos bots adoptan rasgos infantiles o adolescentes, lo que multiplica el riesgo de que la IA sea utilizada para reproducir o estimular comportamientos inapropiados. Investigadores en ciberseguridad advierten que Meta dispone de sistemas suficientes para bloquear este tipo de contenido, pero no estarían siendo aplicados con el mismo rigor que en otros formatos, como imágenes o publicaciones.