Alerta padres: los filtros de ChatGPT fallan y entregan "manuales" de suicidio y drogas a menores de edad
Una investigación reveló que la inteligencia artificial burla sus propios controles, ofrece instrucciones detalladas sobre conductas autodestructivas y demora horas en avisar a las familias ante situaciones de riesgo de vida.
Una contundente investigación periodística ha puesto en jaque la supuesta seguridad de la Inteligencia Artificial más utilizada del planeta. Un experimento realizado con perfiles ficticios de adolescentes demostró que ChatGPT, la herramienta estrella de OpenAI, falla estrepitosamente a la hora de proteger a los menores de edad.
A pesar de los recientes anuncios de la compañía sobre la implementación de nuevos filtros de seguridad, el sistema terminó entregando, ante la insistencia de los usuarios simulados, información detallada y potencialmente letal sobre métodos de suicidio, consumo de drogas y técnicas para ocultar trastornos de la conducta alimentaria.
El estudio, que recreó el comportamiento de tres adolescentes de entre 13 y 15 años, expuso que la barrera de contención digital es extremadamente frágil. Cuando los usuarios manipularon la conversación o desactivaron los controles parentales, una acción alarmantemente sencilla para cualquier nativo digital; la IA pasó de la negativa inicial a convertirse en un facilitador de conductas autodestructivas.
Aunque aporta muchos beneficios, expertos recomiendan limitar el uso de los menores a ambientes controlados.
En lugar de cortar la interacción y bloquear el contenido peligroso, el algoritmo ofreció "consejos" y validaciones que terminaron por instruir a los menores sobre cómo llevar a cabo sus planes sin ser detectados.
Alertas tardías y el mito de la "protección"
Uno de los hallazgos más preocupantes para los padres es la ineficacia del sistema de notificaciones. En los casos simulados de riesgo de vida inminente, como el anuncio explícito de un suicidio, la alerta de OpenAI llegó a los padres vía correo electrónico varias horas después de finalizada la conversación.
Los expertos en salud mental y psiquiatría advierten que este retraso es fatal. Se pierde lo que clínicamente se denomina periodo de rescatabilidad, ese lapso crítico de tiempo donde la intervención inmediata de un adulto puede evitar la tragedia. Para cuando el aviso llega a la bandeja de entrada, el daño ya podría ser irreversible.
Privacidad vs. Supervivencia
La polémica se agrava al analizar la política de privacidad de la empresa tecnológica. Incluso cuando se notifica una situación de riesgo extremo, OpenAI se niega a entregar el registro completo del chat a los padres, alegando la protección de la "privacidad" del menor.
La dependencia emocional y el reemplazo de la interacción humana que genera el uso incorrecto de la IA llega a niveles alarmantes.
Esto deja a las familias completamente a ciegas, sabiendo que su hijo está en peligro pero desconociendo qué instrucciones específicas recibió, qué sustancias se le recomendaron o qué plan manifestó ante la máquina. A su vez, psicólogos y especialistas alertan sobre la dependencia emocionalque genera esta tecnología.
Al utilizar un lenguaje programado para ser empático y validador, con expresiones como no te juzgo o estoy aquí para escucharte, la IA suplanta el rol de contención humana, reforzando el aislamiento del adolescente. Ante este escenario de desprotección, la recomendación profesional es drástica: el uso de estas plataformas debe limitarse estrictamente a espacios comunes del hogar o el aula, evitando que el asistente virtual actúe como un cómplice silencioso detrás de una puerta cerrada.