La Inteligencia Artificial (IA) dejó de ser una promesa tecnológica futura para convertirse en una realidad presente que atraviesa múltiples aspectos de la vida cotidiana.
Desde el diagnóstico médico y la educación, hasta el trabajo creativo y la seguridad informática, la IA redefine procesos y plantea nuevas preguntas sobre su impacto. Para comprender mejor este fenómeno, el University College London (UCL) encuestó a más de 4.000 científicos de distintas partes del mundo, cuyos resultados quedaron plasmados en el informe Visions, Values, Voices.
Los datos obtenidos permitieron trazar un panorama completo del pensamiento científico actual: optimismo ante los beneficios potenciales, preocupación por los riesgos inminentes y un llamado claro a una gobernanza más ética y transparente.
Percepción científica versus percepción pública: ¿quién confía más en la IA?
Uno de los contrastes más marcados en el estudio es la diferencia entre cómo los expertos y el público general perciben los riesgos y oportunidades de la IA.
- El 87% de los científicos considera que los beneficios de la IA superan o se equilibran con sus riesgos.
- En cambio, solo el 57% del público británico comparte ese nivel de confianza.
- Apenas el 9% de los investigadores cree que los riesgos son mayores, frente al 28% de la población que sí lo cree.
¿Por qué es importante esta diferencia? Porque revela un desajuste entre quienes diseñan la tecnología y quienes la usan o la regulan. Esta brecha podría limitar el desarrollo responsable y generar resistencia social si no se aborda con comunicación transparente y participación pública.
Principales riesgos de la inteligencia artificial según científicos y ciudadanos
A pesar de las diferencias en el nivel de optimismo, existe un fuerte consenso en torno a los riesgos más preocupantes:
1. Desinformación y noticias falsas
77% de los científicos y 68% del público identifican a la IA como un factor que agrava la propagación de noticias falsas.
Los algoritmos generativos de texto e imagen facilitan la creación masiva de contenidos engañosos, que circulan rápidamente en redes sociales y pueden alterar procesos democráticos o generar pánico social.
2. Uso indebido de datos personales
65% de los científicos y 71% de la población manifiestan preocupación sobre cómo las empresas tecnológicas recolectan, procesan y utilizan datos personales sin consentimiento.
Esta inquietud se intensifica en el contexto del entrenamiento de modelos de IA, que muchas veces se realiza con grandes volúmenes de información extraída de internet sin autorización explícita.
3. Cibercrimen y seguridad digital
La capacidad de la IA para automatizar ataques, falsificar identidades y manipular sistemas representa una amenaza creciente para la seguridad digital de usuarios, empresas e instituciones públicas.
Ética en el entrenamiento de modelos de IA: ¿es legítimo usar datos públicos sin permiso?
Uno de los puntos más controvertidos del informe es la práctica de entrenar modelos de lenguaje con contenido disponible en línea —desde artículos científicos hasta obras protegidas por derechos de autor— sin consentimiento de los autores:
- Solo el 25% de los científicos cree aceptable utilizar datos públicos sin consentimiento para entrenar modelos.
- Casi el 50% considera que debe requerirse un permiso explícito.
Este dato refleja un cambio de paradigma en la comunidad científica, que comienza a cuestionar con mayor fuerza la legitimidad ética de prácticas ampliamente extendidas en el desarrollo de IA.
Como advierte el investigador Cian O'Donovan, permitir el uso de contenido protegido salvo que se exprese oposición explícita podría socavar los derechos de creadores y científicos.
¿Quién debe regular la Inteligencia Artificial?
El debate sobre la gobernanza de la IA también fue abordado en profundidad:
- Los científicos señalan a las empresas tecnológicas, los gobiernos y organismos internacionales como principales responsables.
- El público, en cambio, aboga por organismos reguladores independientes con participación ciudadana.
Esta diferencia sugiere una demanda social por transparencia y representatividad en la toma de decisiones, especialmente en lo que respecta al control sobre tecnologías que afectan derechos fundamentales.
¿Es inevitable una inteligencia artificial general (AGI)?
Pese al entusiasmo que suele rodear al desarrollo de una IA que iguale o supere las capacidades humanas (AGI), la mayoría de los científicos mantiene una postura prudente:
- Solo uno de cada cinco expertos cree firmemente que la AGI es inevitable.
- Apenas el 29% considera que la IA debería avanzar tan rápido como sea posible.
- El enfoque mayoritario es progresivo y basado en evaluación de riesgos, priorizando la sostenibilidad y el análisis ético antes que la aceleración sin control.
La clave del futuro: integración ética, regulación y diálogo público
La IA tiene el potencial de mejorar significativamente la vida humana: desde detectar enfermedades antes de que aparezcan síntomas, hasta optimizar sistemas de transporte o educación. Pero ese potencial solo será sostenible si su desarrollo se basa en principios éticos, regulaciones claras y participación democrática.
Una integración reflexiva de la IA requiere:
- Políticas públicas que regulen el uso de datos y limiten los abusos.
- Empresas que prioricen la seguridad y la transparencia en sus desarrollos.
- Una ciudadanía informada, capaz de exigir derechos y participar en las decisiones.
Como bien señala el informe, la palabra —como símbolo del diálogo humano— debe seguir siendo el puente entre tecnología y sociedad.

