TecnologicAI

Vigilancia Predictiva en Prisiones: La Controversial IA que Genera Olas de Preocupación Global

Publicado el 02-12-2025

Una importante empresa de telecomunicaciones ha desarrollado un modelo de inteligencia artificial entrenado con miles de horas de llamadas de reclusos, con el objetivo de predecir y prevenir actividades delictivas. Esta iniciativa, que promete revolucionar la seguridad penitenciaria, ha encendido un acalorado debate sobre la privacidad, los derechos civiles y el alcance ético de la tecnología.

La intersección de la tecnología avanzada y el sistema de justicia penal siempre ha sido un terreno fértil para la innovación, pero también para profundas controversias. En el epicentro de un nuevo y complejo debate se encuentra Securus Technologies, una compañía de telecomunicaciones estadounidense que ha llevado la inteligencia artificial a un nivel sin precedentes dentro de las prisiones. La empresa ha implementado un modelo de IA diseñado para monitorear y analizar comunicaciones de reclusos con el fin de detectar planes criminales antes de que se materialicen. Esta ambiciosa aplicación de la IA, mientras promete mejorar la seguridad y la automatización en entornos penitenciarios, ha provocado una oleada de críticas por parte de defensores de los derechos civiles y expertos en ética tecnológica, quienes alertan sobre posibles violaciones a la privacidad y las libertades fundamentales de los individuos.

La Maquinaria de Vigilancia: ¿Cómo Funciona la IA en Prisiones?

Desde 2023, Securus Technologies ha estado invirtiendo significativamente en el desarrollo de herramientas de inteligencia artificial. Según Kevin Elder, presidente de la compañía, han utilizado su vasta base de datos de llamadas grabadas durante años para entrenar modelos de IA capaces de identificar actividades delictivas. Uno de estos modelos fue entrenado específicamente con siete años de grabaciones de llamadas de reclusos del sistema penitenciario de Texas, y la empresa está trabajando en la creación de modelos adicionales adaptados a las particularidades de otros estados o condados. Estos grandes modelos de lenguaje (LLM) son capaces de procesar y analizar volúmenes masivos de datos comunicacionales, incluyendo llamadas telefónicas, videollamadas, mensajes de texto y correos electrónicos.

La implementación piloto de estas herramientas de vigilancia por IA ya está en marcha, aunque Securus ha declinado especificar las ubicaciones exactas. Se sabe que sus clientes incluyen cárceles donde se retiene a personas en espera de juicio, prisiones para aquellos que cumplen condenas y centros de detención del Servicio de Inmigración y Control de Aduanas (ICE). El sistema funciona en tiempo real, escaneando las comunicaciones y utilizando algoritmos avanzados para señalar secciones que el modelo identifica como potencialmente sospechosas. Estas alertas son revisadas inicialmente por agentes humanos de la compañía, quienes luego las transmiten a los investigadores de las instalaciones para un seguimiento más profundo. El objetivo, según Elder, es detectar y comprender la intención criminal en una etapa temprana, permitiendo una intervención proactiva y potencialmente salvando vidas o previniendo delitos mayores, como el tráfico de personas o la actividad de pandillas organizada desde dentro de las cárceles.

Beneficios Alegados vs. Profundas Preocupaciones Éticas

Desde la perspectiva de Securus, la IA ofrece una solución eficiente a los desafíos de seguridad en prisiones, especialmente ante la escasez de personal. La compañía asegura que sus esfuerzos de monitoreo han sido cruciales para desmantelar redes de tráfico de personas y actividades de pandillas, así como para identificar a personal penitenciario que introduce contrabando. No obstante, hasta la fecha, Securus no ha proporcionado casos específicos que hayan sido descubiertos directamente por sus nuevos modelos de IA, lo que genera escepticismo entre los críticos.

El Dilema del Consentimiento Coercitivo y la Explotación de Datos

La preocupación más apremiante para las organizaciones de derechos de los presos, como Worth Rises, dirigida por Bianca Tylek, gira en torno al consentimiento de los reclusos. Aunque los presos y sus interlocutores son notificados de que sus conversaciones son grabadas, rara vez son conscientes de que dichas grabaciones podrían ser utilizadas para entrenar modelos de inteligencia artificial. Tylek describe esto como un «consentimiento coercitivo», dado que los reclusos prácticamente no tienen otra forma de comunicarse con sus familias. Además, en la gran mayoría de los estados, los reclusos deben pagar por estas llamadas, lo que significa que no solo no se les compensa por el uso de sus datos, sino que se les cobra mientras se recopila y explota esa información sensible.

Historial de Violaciones y la Amenaza a las Libertades Civiles

La ACLU (Unión Americana de Libertades Civiles), a través de su Proyecto Nacional de Prisiones, ha recordado que Securus tiene un historial problemático en la violación de las libertades civiles. Filtraciones anteriores de sus bases de datos de grabaciones han revelado que la compañía grabó de manera inapropiada miles de llamadas entre reclusos y sus abogados, violando el vital privilegio abogado-cliente. Corene Kendrick, subdirectora del proyecto, argumenta que este nuevo sistema de IA habilita una vigilancia invasiva, para la cual los tribunales han establecido pocos límites. «¿Vamos a detener el crimen antes de que ocurra porque estamos monitoreando cada expresión y pensamiento de las personas encarceladas?», cuestiona Kendrick, resaltando que la tecnología parece estar «muy por delante de la ley».

La Batalla Regulatoria: La FCC y la Financiación de la Vigilancia por IA

El desarrollo y la financiación de estas herramientas de IA no han estado exentos de una intensa batalla regulatoria. En 2024, la Comisión Federal de Comunicaciones (FCC) de EE. UU. implementó una reforma significativa, elogiada por defensores de los derechos de los presos, que prohibía a las empresas de telecomunicaciones repercutir los costos de grabación y vigilancia de llamadas a los reclusos. Si bien las compañías podían seguir cobrando una tarifa máxima por las llamadas, las prisiones y cárceles debían asumir la mayoría de los costos de seguridad con sus propios presupuestos.

Un Vuelco Polémico en la Política de la FCC

La reacción a esta reforma fue inmediata y negativa por parte de la industria y las asociaciones de alguaciles. Ante la presión, y mientras desarrollaba su herramienta de IA, Securus Technologies cabildeó activamente ante la FCC. Argumentaron que la reforma de 2024 era excesiva y solicitaron que se permitiera nuevamente a las empresas utilizar las tarifas cobradas a los reclusos para financiar los costos de seguridad. En un giro sorprendente, en junio, Brendan Carr, presidente de la FCC nombrado por el ex-presidente Trump, anunció la suspensión de todos los plazos para que las cárceles y prisiones adoptaran las reformas de 2024. Más aún, señaló la intención de la agencia de ayudar a las compañías de telecomunicaciones a financiar sus esfuerzos de vigilancia por IA con las tarifas pagadas por los reclusos. Carr justificó esta decisión argumentando que la reversión de las reformas conduciría a una «adopción más amplia de herramientas beneficiosas de seguridad pública que incluyen IA avanzada y aprendizaje automático».

El 28 de octubre, la FCC fue un paso más allá. Votó a favor de aprobar nuevas tarifas máximas más altas y permitir que empresas como Securus trasladen los costos de seguridad relacionados con la grabación y el monitoreo de llamadas —como el almacenamiento, la transcripción y el desarrollo de herramientas de IA para analizar dichas comunicaciones— directamente a los reclusos. La comisionada de la FCC, Anna Gomez, disintió enérgicamente, afirmando que «las fuerzas del orden deben pagar la factura de los costos de seguridad y protección no relacionados, no las familias de las personas encarceladas». Esta decisión es un golpe significativo para los defensores de los presos y sus familias, quienes ya enfrentan tarifas exorbitantes por comunicaciones que son esenciales para mantener los lazos familiares y facilitar la rehabilitación.

Implicaciones Futuras: Equilibrio entre Seguridad y Derechos en la Era Digital

El caso de Securus y la FCC destaca la creciente tensión entre la búsqueda de la seguridad penitenciaria a través de la tecnología y la protección de los derechos civiles fundamentales. La aplicación de la IA en la justicia penal abre una caja de Pandora de preguntas éticas y legales. ¿Hasta qué punto es aceptable la vigilancia predictiva? ¿Cómo se garantiza que los algoritmos no perpetúen o exacerben sesgos existentes en el sistema penal? ¿Qué salvaguardias se implementan para evitar que la «predicción de crímenes» se convierta en una persecución de pensamientos o intenciones, diluyendo la presunción de inocencia y el debido proceso?

El debate sobre esta tecnología de inteligencia artificial y privacidad es crucial. Por un lado, la promesa de prevenir delitos y mejorar la seguridad en entornos complejos como las prisiones es tentadora. Por otro lado, el riesgo de una vigilancia masiva, la erosión de la privacidad y la posible explotación económica de las familias de los reclusos son preocupaciones que no pueden ignorarse. La tendencia digital hacia la automatización y la IA en todos los sectores, incluida la justicia, exige un marco legal y ético robusto que avance al mismo ritmo que la innovación tecnológica. La sociedad debe preguntarse si el precio de una supuesta mayor seguridad justifica la pérdida de libertades y la consolidación de un sistema de vigilancia omnipresente sobre una población ya vulnerable.

Conclusión: El despliegue de la IA de Securus en las prisiones es un caso emblemático de cómo las innovaciones tecnológicas pueden desdibujar rápidamente las líneas entre la seguridad y la vigilancia invasiva. A medida que los modelos de lenguaje masivo se vuelven más sofisticados, la necesidad de un escrutinio ético y una regulación efectiva se vuelve más urgente que nunca. El futuro de la justicia penal y la tecnología y derecho dependerá de nuestra capacidad para encontrar un equilibrio que proteja tanto la seguridad pública como los derechos inalienables de cada individuo, incluso de aquellos tras las rejas.

Fuente original: An AI model trained on prison phone calls now looks for planned crimes in those calls