La llegada de la Inteligencia Artificial (IA) sigue dando de qué hablar. Sus distintos programas se han incluido en varias áreas que abarcan desde la publicidad, el cine y los empleos, hasta las investigaciones criminales.

En Estados Unidos, específicamente en Nueva York, un nuevo proceso para prevenir delitos sale a la luz y genera varias críticas sobre la privacidad de los cibernautas. Las autoridades están utilizando IA para análisis de rastreo en redes sociales.

El Proyecto de Supervisión de Tecnología de Vigilancia (Stop), reveló que la Policía de Nueva York ha destinado millones de dólares en la adquisición de productos y servicios de inteligencia artificial para ampliar sus capacidades de seguimiento y análisis de publicaciones en redes sociales.

Estos sistemas de inteligencia artificial se utilizan para analizar el comportamiento humano en línea y así, detectar y predecir fraudes y delitos. Según la organización mencionada, dedicada a combatir la vigilancia masiva y proteger la privacidad, la cifra asciende a 9 millones de dólares en contratos con Voyager Labs.

Voyager Labs se describe a sí misma como una empresa que produce “soluciones de investigación basadas en IA” y vende productos en diversas industrias, incluyendo las fuerzas del orden y la seguridad corporativa.

Si bien la policía de Nueva York ha confirmado que emplea tecnologías de análisis de redes sociales para vigilar a sospechosos de una variedad de delitos, la entidad ha aclarado que no usa las herramientas predictivas ofrecidas por Voyager Labs. Sin embargo, afirmaron que su objetivo es vigilar personas que puedan cometer violencia armada, terrorismo y trata de personas.

William Colston, vicepresidente de marketing global de Voyager Labs, afirmó que su empresa solo utiliza datos públicos disponibles y que su software no pretende reemplazar la supervisión y el análisis realizados por especialistas humanos.

“Voyager Labs usa un equipo de nivel mundial de investigadores en IA, científicos e ingenieros de datos, incluidos pioneros de aprendizaje automático y profundo, visión por computadora y comprensión del lenguaje natural (NLU)”, explican en su página web.

Sin embargo, el Proyecto de Supervisión de Tecnología de Vigilancia sugieren que la compañía ofrece herramientas que pueden predecir futuros delitos y asignar puntuaciones de riesgo a usuarios en redes sociales en función de sus vínculos o afinidades con el fundamentalismo islámico o el extremismo, según explica el Departamento de Policía de los Ángeles.

Aunque el análisis de redes sociales por parte de las fuerzas de seguridad no es una práctica nueva, expertos advierten que puede plantear cuestiones éticas y legales cuando se utiliza para acceder a información privada, hacer inferencias o predecir la delincuencia futura basándose en contenido publicado en redes sociales.

Meta, la empresa matriz de Facebook e Instagram, solicitó a la justicia, en enero de este año, que se le impida a Voyager Labs acceder a sus aplicaciones, argumentando que empresas como Voyager forman parte de una industria que recopila información de manera encubierta, lo que podría afectar los derechos civiles de las personas.

Señalan que la empresa tecnológica creó miles de cuentas falsas para extraer datos de más de 600,000 usuarios, con la intención de vender esta información a clientes interesados en realizar vigilancia en redes sociales sin ser detectados.

El uso creciente de la inteligencia artificial en la vigilancia en línea plantea importantes preguntas sobre la privacidad y la ética, y sigue siendo un tema de debate en Nueva York y en todo el mundo.