Noticas

Aplicaciones y programas de IA, cada vez más vinculada a la vigilancia masiva, según un estudio liderado por Stanford

La tecnología de visión por ordenador, piedra angular en el desarrollo de vehículos autónomos, reconocimiento facial o etiquetado automático en redes sociales, está siendo usada de forma creciente para fines de vigilancia masiva, lo que representa una amenaza para la privacidad, la libertad de expresión y la libre circulación de las personas.

Así lo concluye un estudio publicado en la revista Nature y encabezado por investigadores de la Universidad de Stanford, que advierte sobre los “amplios vínculos existentes entre la investigación sobre visión por ordenador y la vigilancia”, tanto a nivel académico como industrial.

El equipo revisó más de 40.000 artículos científicos y las patentes derivadas de estos estudios, hallando que la mayoría de las aplicaciones se centran en la detección de seres humanos. Tecnologías como el reconocimiento facial, la identificación de personas en espacios públicos o privados, o el análisis de comportamientos cotidianos, han sido normalizadas dentro del ecosistema de desarrollo tecnológico.

“Mientras que la narrativa general sostiene que solo una pequeña parte de la investigación es problemática, lo que encontramos es una vigilancia omnipresente y normalizada”, afirma Abeba Birhane, una de las autoras principales del estudio.

Entre la innovación y el riesgo
La visión por ordenador permite a las máquinas “ver” e interpretar el entorno, extrayendo estructuras de imágenes o vídeos para analizarlos en tiempo real. Si bien esta tecnología tiene aplicaciones beneficiosas —desde la robótica hasta la biomedicina—, el 90 % de los artículos analizados y el 86 % de las patentes aleatoriamente seleccionadas estaban enfocadas en actividades humanas.

Según el estudio, Estados Unidos y China lideran con amplio margen la producción de patentes vinculadas a estas tecnologías con aplicaciones de vigilancia. Además, los investigadores denuncian el uso de lenguaje ambiguo o eufemismos técnicos, que presentan a los seres humanos como “objetos” en los sistemas de análisis, ocultando o disimulando la verdadera finalidad de estos desarrollos.

Una advertencia ética
En un artículo que acompaña la publicación, Jathan Sadowski, investigador de la Universidad de Australia, advierte sobre la cercanía entre la academia, el sector privado y actores gubernamentales como el ejército o la policía, quienes se benefician directamente de estos avances.

“El mapa que elaboran los autores revela una relación íntima entre la investigación académica y las aplicaciones de vigilancia por parte del ejército, la policía y empresas con fines lucrativos”, escribe Sadowski.

Los autores del estudio llaman a replantear los límites éticos de la investigación en inteligencia artificial y visión artificial, subrayando la necesidad de mayor transparencia, regulación y responsabilidad institucional.

The post Aplicaciones y programas de IA, cada vez más vinculada a la vigilancia masiva, según un estudio liderado por Stanford appeared first on Puerto Plata Noticias.