La Comisión Federal de Comercio de Estados Unidos (FTC) sancionó recientemente a la startup DoNotPay con una multa de 193.000 dólares. La empresa, fundada en 2015 por un tecnólogo británico, ganó notoriedad por lanzar una aplicación basada en inteligencia artificial (IA) que ofrecía servicios legales automatizados, como la defensa ante multas de tránsito o reclamos por vuelos cancelados.
Promocionada como "el primer abogado robot del mundo", la plataforma prometía democratizar el acceso a la justicia. Sin embargo, investigaciones posteriores demostraron que la app carecía de respaldo legal real y que su funcionamiento distaba de lo que prometía en sus campañas de marketing.
El problema de fondo: ¿puede la IA sustituir el criterio profesional?
Liliana Molina Soljan, abogada especializada en ciberdelitos, explicó en diálogo con El Interactivo (lunes a viernes, de 12 a 14, por FM 91.7 y Ciudadano_News en Twitch), que la controversia central no fue el uso de IA en sí, sino la manera en que se comunicó su alcance. "El chatbot no utilizaba terminología jurídica precisa, no ofrecía soluciones efectivas, y lo más grave: no había intervención profesional en el diseño de sus algoritmos", advirtió.
Según Molina Soljan, los reclamos de los usuarios crecieron tras constatar que los servicios ofrecidos no lograban resultados satisfactorios. "Se promovía como un abogado, pero no lo era. Fue una promoción engañosa que derivó en una estafa de consumo, más que en un ciberdelito en sentido técnico", aclaró.
Este caso pone sobre la mesa un tema recurrente: la diferencia entre automatización y reemplazo profesional. "La inteligencia artificial puede ser útil en tareas repetitivas o de soporte, pero no sustituye la capacidad humana de interpretar conflictos legales, construir defensas o aplicar criterios jurídicos razonados", agregó.
La ilusión de una justicia automatizada: riesgos y contradicciones
La app de DoNotPay llegó a recibir un premio en 2020 por su supuesto aporte al acceso igualitario a la justicia. Pero ese reconocimiento hoy parece un símbolo del entusiasmo desmedido con el que se adoptaron ciertas promesas tecnológicas. "Un contrasentido bastante grande", subrayó Molina Soljan.
A través de este caso, se evidencia un fenómeno conocido como alucinación de la IA: cuando los modelos generan respuestas plausibles pero incorrectas. Esta problemática se agravó en contextos legales. "Incluso se ha dado que abogados fundamentan escritos con jurisprudencia inventada por ChatGPT, o que jueces citan argumentos generados por IA que no son reales", señaló la especialista.
Estos errores no solo cuestionan la eficacia técnica de la IA, sino que abren un debate sobre su fiabilidad ética, jurídica y social en decisiones sensibles.
El vacío legal argentino frente a la inteligencia artificial
En Argentina, la situación normativa respecto a la inteligencia artificial sigue siendo difusa. "No contamos con una ley específica que regule la IA. El único marco aplicable es el Código Civil y Comercial, pero no es suficiente", afirmó Molina Soljan.
En 2023, se presentaron al menos 15 proyectos legislativos en la Cámara de Diputados y 4 en el Senado, pero ninguno prosperó. Lo más cercano a una posición estatal fue la adhesión a la Recomendación de Ética de la Inteligencia Artificial de UNESCO, que Argentina firmó como parte de una iniciativa global. Sin embargo, ese compromiso aún no se traduce en herramientas prácticas ni mecanismos de control efectivos.
IA, ciberdelito y nuevas formas de manipulación
La inteligencia artificial puede ser una aliada o una amenaza, dependiendo de su uso. "Hoy existen aplicaciones capaces de clonar voces humanas o generar imágenes falsas con gran realismo. Esto se utiliza para estafas telefónicas o para crear contenido falso con fines de acoso, especialmente entre adolescentes", alertó Molina Soljan.
Casos como el uso de fotos manipuladas para dañar la reputación de compañeras de escuela o llamados extorsivos con voces clonadas de familiares son ejemplos preocupantes. "La recomendación básica es desconfiar: cortar la llamada y verificar por otro canal. La educación digital ciudadana es clave para prevenir estos abusos", subrayó.
IA sí, pero con control humano
"El abogado robot no reemplaza al abogado de carne y hueso. La IA no es infalible y puede inducir al error si se la toma como fuente principal en temas legales", sostuvo Molina Soljan. Para ella, lo que está en juego es la credibilidad y la integridad del sistema jurídico, que requiere siempre de interpretación humana, empatía y responsabilidad profesional.
El desafío, entonces, no está en frenar el avance tecnológico, sino en regularlo con una mirada ética, humanista y legalmente robusta. Sin normas claras, la inteligencia artificial seguirá moviéndose en una zona gris, con potencial para facilitar soluciones... o para generar nuevos problemas.
Repasá la entrevista completa:

