Es importante reconocer que, además de la legislación obsoleta o inadecuada en Argentina en materia de TIC, surge un desafío completamente nuevo y complejo en relación con todas las implicancias posibles que presenta la inteligencia artificial (IA). Esta tecnología, con su capacidad de aprendizaje automático, puede evaluar una enorme cantidad y variedad de información acumulada, con gran capacidad de análisis y generación de predicciones y previsiones a alta velocidad, lo que permite identificar patrones y relaciones que las personas pueden pasar por alto. Todo esto le otorga la capacidad de manejar una visión integral de la realidad.
En respuesta a estas preocupaciones, la Unión Europea acaba de aprobar la Ley de Inteligencia Artificial, para limitar los posibles abusos de esta nueva tecnología, cuyas múltiples posibilidades son cada vez más poderosas.
Sin embargo, en nuestro país, sin garantizar claramente el cumplimiento de la Ley 25326 de protección de datos personales, ha surgido de manera automática el círculo azul, violeta y verde del programa de IA de Meta AI en las aplicaciones WhatsApp, Instagram y Facebook, integrando la inteligencia artificial como asistente en las aplicaciones de mensajería instantánea. Meta AI es el programa inteligente que puede dialogar con las personas mediante lenguaje escrito u oral (chatbot), compitiendo con ChatGPT de OpenAI o Gemini de Google. Por esta razón, ya se ha presentado una denuncia ante la Agencia de Acceso a la Información Pública (AAIP), argumentando, entre otras cosas, que Meta AI utiliza «los datos personales en el entrenamiento de la inteligencia artificial que nutre a ese asistente» sin autorización de las personas.
TIC, holocausto y Hitler
Edwin Black, en su libro «IBM y el Holocausto», sostiene que, debido a la ignorancia sobre la existencia y capacidad de una nueva tecnología de clasificación de datos, la gente participó y colaboró en los censos realizados por los nazis. La información obtenida mediante las tarjetas perforadas de IBM, con una velocidad desconocida en ese momento, permitió a Adolf Hitler ordenar y cruzar una enorme cantidad de información para identificar a judíos y organizar rápidamente la cruel persecución y asesinato de muchos de ellos, así como la confiscación de sus bienes.
A la luz de lo anterior, debe preocuparnos que sociedades como la argentina puedan ser colonizadas y ver violados sus derechos, al facilitar el uso de dinámicas de IA sin una regulación adecuada ni controles eficaces. Es fundamental asegurar el respeto a los derechos de libertad de expresión, privacidad y protección de datos personales, garantizados constitucionalmente (arts. 14, 18, 19, 43, 75 inc. 22 y concordantes de la Constitución Nacional).
Manipulación de pensamientos
También debe evitarse que, con el inmenso manejo de información personal, capacidad de almacenamiento y análisis que puede realizar la IA, se pretenda influir en las decisiones, pensamientos y comportamientos de las personas.
Es crucial diferenciar entre la tecnología que ayuda a elevar la calidad humana y técnica y aquella que, adoptada sin las debidas precauciones, puede convertirse en un verdadero caballo de Troya que degrada, subyuga, espía, manipula y controla a las personas, sociedades, pueblos o gobiernos de manera sutil y profunda.
Ciberpatrullaje
La ministra de Seguridad Patricia Bullrich, mediante una resolución del 28 de mayo pasado, reguló el ciberpatrullaje y dispuso, entre otros aspectos, que dicha actividad preventiva deberá «ajustarse a las facultades dispuestas por la Constitución Nacional, Pactos Internacionales de Derechos Humanos, Leyes Nacionales y sus reglamentaciones…» y agregó que «las Fuerzas Policiales y de Seguridad Federales no podrán acumular información recabada con motivo de las investigaciones previas realizadas y, una vez concluida la actividad preventiva o decidida la no judicialización, deberá destruirse el material y datos obtenidos» (artículo 3, incisos a y f).
A su vez, se autorizó el uso de la IA, pero el control solo queda reservado al propio Ministerio de Seguridad que, se dice, garantizará «la destrucción de la información obtenida y recabada cuando esta no fuera judicializada y la adopción de medidas de resguardo de la información obtenida y su protección frente a posibles filtraciones» (artículos 5 y 8, incisos e y f).
Resolución 710
El 29 de julio, la ministra Patricia Bullrich emitió la resolución 710, que dispuso la creación, dentro de la Secretaría de Inteligencia de Estado (SIDE), de la Unidad de Inteligencia Artificial Aplicada a la Seguridad (Uiaas). Entre las principales tareas de este organismo se incluyen: «Patrullar las redes sociales abiertas, aplicaciones y sitios de Internet. Analizar imágenes de cámaras de seguridad en tiempo real identificando mediante reconocimiento facial. Utilizar algoritmos de aprendizaje automático a fin de analizar datos históricos. Procesar grandes volúmenes de datos de diversas fuentes para extraer información útil y crear perfiles de sospechosos o identificar vínculos entre diferentes casos…» (artículo 4).
La disposición no aclara la manera en que se destruirá la información obtenida, si no es de utilidad, dado que la IA analiza todos los datos históricos y crea, con base en ello, perfiles de sospechosos, por lo que, en los hechos, no se destruirá la información obtenida. Gravemente, no existe una regulación adecuada de las políticas de retención y destrucción de datos en la IA.
Sin control independiente
El sistema implementado por esta medida tampoco prevé un control independiente del accionar del Ministerio de Seguridad y los servicios de inteligencia en el tema, por parte del Ministerio Fiscal o del Poder Judicial.
Sin embargo, por ejemplo, la Acordada 2/2016 de la Corte Suprema de Justicia de la Nación organizó la Dirección de Captaciones del Poder Judicial de la Nación, que tiene a su cargo dar cumplimiento a las medidas referentes a la interceptación y/o captación de comunicaciones privadas de cualquier tipo, que fueran requeridas por los operadores judiciales. No se ha dictado disposición similar respecto al uso de la IA.
Tema grave
Se trata de un tema muy grave, porque los servicios de inteligencia del Estado pueden usar la IA integrada al programa llamado Pegasus, comprado a Israel por Mauricio Macri. Ese sistema espía permite introducirse en aplicaciones de Internet y acceder a teléfonos celulares y extraer información sin que el usuario se percate de que le están utilizando la cámara y los micrófonos de su móvil. Todo esto puede ser también usado para la persecución de disidentes políticos y actuar como una policía del pensamiento y de una vigilancia omnipresente.
Es esencial garantizar la transparencia y confidencialidad tanto de la información como de los métodos de trabajo de los datos por la IA. El Congreso de la Nación debe legislar, con urgencia, la debida utilización de la IA en Argentina. (*) Abogado especialista en Derecho de la Comunicación.
Con información de InfoGei
Publicado en lanuevacomuna.com