El Interactivo

Avances, riesgos y leyes: así se redefine el rol humano frente a la inteligencia artificial

La IA autónoma avanza con fuerza en todos los ámbitos. Pero, ¿estamos realmente listos para convivir con sistemas que toman decisiones sin intervención humana?

Fernando García

Por Fernando García

16 Mayo de 2025 - 15:57

Cómo impacta la inteligencia artificial autónoma en el trabajo, la salud y la sociedad.
Cómo impacta la inteligencia artificial autónoma en el trabajo, la salud y la sociedad. -

16 Mayo de 2025 / Ciudadano News / Sociedad

¿Puede una inteligencia artificial escribir código sin intervención humana, emitir un diagnóstico médico más rápido que un profesional o incluso redactar leyes? Aunque suene a ciencia ficción, ya es una realidad en desarrollo. 

Mayra Morales, ingeniera de preventa en OCP Tech y experta en inteligencia artificial, analizó este fenómeno en una entrevista con El Interactivo (lunes a viernes, de 12 a 14, por FM 91.7 y Ciudadano_News en Twitch) y dejó claro que el futuro no es algo que se viene: es algo que ya estamos viviendo.

"La idea es que la IA pueda realizar tareas específicas con cada vez menos interacción humana. Uno le da una instrucción, y agentes autónomos se encargan del resto", explicó Morales. Pero el desafío no es menor: ¿qué pasa cuando esas decisiones tienen impacto real en personas? ¿Qué controles existen para evitar abusos, sesgos o errores?

Entre el potencial y el riesgo: la UE como ejemplo

Según Morales, la Unión Europea es una de las regiones que más activamente está regulando la materia. "Ya clasificaron los sistemas de IA por niveles de riesgo, y en los casos más críticos, exigen intervención humana. La idea es que no todo quede en manos de una máquina".

Esta clasificación busca asegurar que, por más autónomo que sea un sistema, las decisiones sensibles sigan teniendo un respaldo humano. Morales lo resume así: "Se busca que la IA sea un asistente en cada puesto, no un reemplazo".

El mito del reemplazo y el valor del criterio humano

Aunque algunos equipos —como los de desarrolladores— ven en la IA una amenaza directa, Morales llama a poner las cosas en contexto: "Una IA puede generar código, pero siempre se necesita reconocimiento, parametrización, criterios humanos. Incluso ChatGPT se alimenta de la información que nosotros le damos. Y esa información viene cargada de sesgos culturales, raciales o religiosos que hay que visibilizar y corregir".

IA en salud, seguridad y creatividad

Los avances no se limitan al área técnica. La experta señaló que hay mejoras significativas en ciberseguridad —gracias al monitoreo en tiempo real— y en medicina, donde modelos de IA pueden reducir errores de diagnóstico hasta en un 30%.

Pero no todo es eficiencia. En el terreno creativo, Morales marca una línea clara: "La IA puede generar contenido, pero muchas veces se nota que le falta humanidad, la firma personal. Se ve vacío, robotizado. No tiene autenticidad".

Avances globales, regulación desigual

Mientras países como Arabia Saudita ya evalúan el uso de IA para redactar leyes, en Latinoamérica el panorama es más disperso. "Nosotros vamos cada uno por su lado. Deberíamos unirnos, estudiar legislaciones como la de la UE y adaptarlas. Los datos personales, por ejemplo, siguen sin estar bien protegidos, aunque se trabaja en eso", apuntó Morales.

La entrevistada insistió en que el principal camino hacia un uso responsable de la inteligencia artificial es la concientización: tanto en empresas como entre usuarios. "La IA no tiene límites. Ya vemos imágenes falsas, avatares, clonaciones de voz... En Argentina, una señora fue estafada por 15 mil dólares por un avatar de George Clooney. Todo eso se podría evitar con información y educación".

¿El conocimiento en jaque?

Para Morales, el pensamiento crítico sigue siendo irremplazable. "Siempre vamos a tener sed de conocimiento. Algunos dependerán más de la IA, sí. Pero otros van a buscar mantener la autenticidad. La clave está en el equilibrio".

Repasá la entrevista completa:

Últimas noticias