Lo que para muchos es la gran promesa tecnológica del siglo XXI, para otros empieza a perfilarse como una amenaza silenciosa. La inteligencia artificial (IA) ha irrumpido en la vida cotidiana con fuerza: toma decisiones, analiza datos, automatiza procesos, diagnostica enfermedades e incluso escribe textos. Sin embargo, los riesgos que conlleva su uso sin control ético ni supervisión adecuada ya se están dejando ver. Así lo advierte la periodista Lourdes Gómez Martín en una reciente entrevista con Sabina Berman, dentro del programa Largo Aliento.
Con el título “Historias siniestras de la ”, la conversación pone sobre la mesa los impactos colaterales de una tecnología que avanza más rápido que su regulación. Lourdes Gómez, reconocida por su enfoque crítico y agudo, sostiene que lo preocupante no es únicamente el uso de la IA, sino su uso indiscriminado, opaco y sin límites éticos definidos.

Durante la entrevista, Gómez enumeró varios casos en los que los sistemas de IA han tomado decisiones erróneas con graves consecuencias: desde diagnósticos médicos equivocados hasta algoritmos de seguridad que discriminan por raza o género. “Estos no son fallos técnicos menores”, advirtió. “Son señales de alerta que nos dicen que estamos confiando demasiado en sistemas que aún no entendemos del todo”.
Uno de los puntos más críticos del diálogo fue la ausencia de responsabilidad clara: cuando una inteligencia artificial se equivoca, ¿quién responde? ¿La empresa que la diseñó? ¿El usuario que la aplicó? ¿O nadie? Esta laguna legal y ética convierte a la IA en un campo minado, donde los errores pueden costar vidas sin que nadie se haga cargo.

Pero el riesgo no es solo técnico. Lourdes Gómez también llama la atención sobre el impacto psicológico y social que esta dependencia tecnológica está generando. “Estamos dejando de confiar en los humanos para depositar nuestra fe en sistemas que ni siquiera podemos cuestionar”, comentó. Y ese fenómeno, según la periodista, no solo erosiona la transparencia, sino también la serenidad colectiva.
Frente a este panorama, tanto Gómez como Berman coinciden en que el camino no está en rechazar la tecnología, sino en regularla con urgencia. Exigen marcos normativos claros, mecanismos de supervisión ética y, sobre todo, una ciudadanía informada y crítica, capaz de entender cómo funcionan estas herramientas y de exigir que se usen con responsabilidad.
“La inteligencia artificial puede mejorar nuestras vidas, sí, pero también puede controlarlas si no ponemos límites desde ahora”, concluye Gómez.
Este llamado a la conciencia no busca frenar el avance tecnológico, sino acompañarlo de forma crítica, ética y humana. Porque, como recuerda la entrevista, el verdadero riesgo no es que las máquinas piensen como humanos… sino que los humanos dejen de hacerlo.