«WhatsApp se paga con los datos personales»

«WhatsApp se paga con los datos personales»

Un fallo de la Cámara Civil y Comercial II le impide a la empresa poner en marcha su nueva política «Términos y Condiciones» que permitiría cruzar los datos personales con los de los usuarios de Facebook.

En 2014 Facebook compró WhatsApp por 19.000 millones de dólares. Su dueño, Mark Zuckerberg, logró así sumarlo a las otras plataformas que ya poseía Facebook: Instagram y Messenger. Esta integración reúne bajo el poder de una sola corporación a más de 2.900 millones de usuarios a nivel mundial, construye una posición dominante en el mercado y ahoga a la competencia.

“Hacia el año 2020, más del 75% de la población argentina utilizaba los servicios de mensajería de WhatsApp, plataforma que junto a Facebook e Instagram son las más empleadas en nuestro país”, afirma Joaquín Mingrone, integrante del Departamento Legal del Estudio de Abogados Berton Moreno, quien viene estudiando el caso.

 Se conformaba así un buen caldo de cultivo para lo que vendría más adelante.

En enero de 2021, quizá guiada por la sensación de impunidad que detenta el poder, WhatsApp anunció cambios en su política de privacidad. El 8 de febrero era la fecha tope para aceptar los “Nuevos Términos y Condiciones”. Al tener carácter de obligatoriedad, el usuario que no daba su consentimiento, no podría seguir usando la aplicación.

Los tres principales cambios advertidos a los usuarios en la pantalla de inicio de la mensajería se centraban en el tratamiento de datos: “El servicio de WhatsApp y cómo tratamos sus datos”, “Cómo las empresas pueden usar los servicios alojados de Facebook para almacenar y administrar los chats” y “Cómo nos asociamos con Facebook para ofrecer integraciones en los productos de las empresas de Facebook”. De esta manera, quedaba claro que se comenzaría a compartir todos los datos recopilados de sus usuarios entre las distintas empresas de la corporación y con terceros: cuenta, nombre, datos del dispositivo, transacciones, ubicación y los contactos e informaciones que proporcionen.

“En Argentina, cuando una plataforma digital te pide el consentimiento para el perfilado por parte de otras empresas, no te dicen quiénes son los terceros que van a tomar tu información. Es como si, en materia de locación de viviendas, un inquilino quisiera que le permitan subarrendar la casa que alquila, sin siquiera decirle al propietario a quién piensa darle la llave”, ironiza Juan Gustavo Corvalán, Director del Laboratorio de Innovación e Inteligencia Artificial de la Facultad de Derecho, deUniversidad de Buenos Aires.

Hasta acá

En mayo de 2021, la Comisión Nacional de Defensa de la Competencia, por pedido de la Secretaría de Comercio Interior, inició una investigación sobre los cambios en la política de privacidad de WhatsApp. Durante la investigación, comprobó  una conducta anticompetitiva de abuso de posición dominante, en términos de los Artículos 1 y 3 de la Ley Nº 27.442 de Defensa de la Competencia. La interpretación es que el cambio daba lugar a conductas explotativas por la irrazonable y excesiva recopilación de información y ausencia de opciones para el usuario.

Por otro lado, se analizó la “supuesta” gratuidad de los servicios. La información de los usuarios se traduce en ingresos económicos, por ende, la necesidad de controlar el tratamiento de la información recabada. “Lo gratuito se paga con nuestros datos y ese el meollo de la cuestión”, enfatiza Martín Becerra, investigador del Consejo Nacional de Investigaciones Científicas y Técnicas (CONICET).

El 14 de mayo de 2021 la Secretaría de Comercio Exterior, a través de la Resolución 492/2021, ordenó a Facebook y WhatsApp “a abstenerse de implementar y/o suspender la actualización de las condiciones de política y privacidad de la aplicación WhatsApp en Argentina por el término de 180 días”.

La plataforma apeló esta resolución, pero la impugnación fue desestimada nuevamente el 26 de abril del 2022 por la Cámara Civil y Comercial II.

Beatriz Busaniche trabaja en un proyecto de políticas públicas que garanticen la protección de datos.

En busca de las políticas públicas

Juan Gustavo Corvalán, en su libro Perfiles Digitales Humanos propone sentar las bases de una nueva ley que sostenga la autodeterminación informativa algorítmica de las personas y el derecho a ser olvidado: “Lo que tiene que ocurrir es que nadie pueda usar los datos de nadie que no haya expresado claramente su consentimiento, pero necesitamos un Estado que pueda hacer auditoría digital”.

Ante el estado de vulnerabilidad de los usuarios, que no leen en forma explícita los “Cambios y Condiciones”, ni toman conciencia de su alcance, Becerra explica que “el cambio no depende tanto de la acción de una persona sola, aislada, sino de políticas públicas. El Estado es el único que puede mover el amperímetro de estas empresas digitales multinacionales”.

Beatriz Busaniche, Doctora en Ciencias Sociales de la Facultad Latinoamericana de Ciencias Sociales (FLACSO), académica y activista argentina por los derechos humanos y la cultura libre, no se muestra muy optimista. Sostiene que las posibilidades de recomponer la autodeterminación informativa, son muy pocas. Para revertir esa situación trabaja en un proyecto de políticas públicas que garanticen la protección de datos.

En contraste, la Unión Europea está tomando medidas. El Reglamento General de Protección de Datos (RGPD) comenzó a aplicarse en forma efectiva en mayo de 2018. Destinó un presupuesto de 6 millones de dólares para financiar la creación de un “kit de herramientas digitales” para la protección de la privacidad.

La justicia argentina dio un primer paso. Se espera el contraataque de Facebook. ¿El Estado podrá amortiguarlo?  ¿Se podrá dejar de asignar un valor económico a cada uno de nuestros datos personales? O estaremos luchando contra molinos de viento?

Piden que Conectar Igualdad no distribuya software comercial

Piden que Conectar Igualdad no distribuya software comercial

Docentes, activistas e investigadores cuestionaron la decisión del Ministerio de Educación de incluir el sistema operativo Windows en las máquinas del programa.

El jefe de Gabinete, Juan Manzur, junto al ministro de Educación, Jaime Perczyk; entregan netbooks en 2021.

En el marco del regreso del Programa Conectar Igualdad, que tendrá como beneficiarios estudiantes y docentes de escuelas secundarias, investigadores universitarios, especialistas en educación y organizaciones sin fines de lucro ponen en tela de juicio la decisión del Ministerio de Educación de convocar a una licitación para que los dispositivos distribuidos dispongan de un sistema operativo privativo, el Windows, además de uno libre, el Huayra.

Estos especialistas consideran que esta medida es perjudicial para el desarrollo de los estudiantes, mientras que ponderan el rol del software libre para la educación: “Lo que hace el software privativo es cerrar puertas y establecer condiciones para su uso, mientras que el software libre es el único que ofrece las oportunidades pedagógicas para un real acceso para el desarrollo de tecnología”, afirma Beatriz Busaniche, docente, investigadora e integrante de la Fundación Vía Libre, organización que promueve, entre otras cosas, al uso software libre para fines educativos y culturales.

Los cuestionamientos comenzaron el 13 de enero, cuando se publicó en el Boletín Oficial la Licitación 137/2021. Allí, el Ministerio de Educación de la Nación incluyó el requisito de que las nuevas máquinas del plan tuvieran, además de Huayra, el sistema operativo de Microsoft. La respuesta del colectivo de activistas, docentes y organizaciones, que apoya el retorno del programa “Conectar igualdad”, se tradujo en una carta crítica a esta decisión en particular en la que solicitó que se revierta la medida. La misiva señala que esta decisión es un “despropósito” y destaca la función del Software  Libre que “ha probado y demostrado con creces su capacidad de ofrecer sistemas apropiados, funcionales, respetuosos de derechos y libres para todas las tareas educativas”.

En este sentido, la solicitud señala que la relación entre el Microsoft y el Estado Argentino no es algo nuevo, sino que se retrotrae al acuerdo firmado entre la cartera y la compañía norteamericana en el 2004 y afirma que “la inclusión arbitraria de un sistema operativo y un paquete de oficina privativo que solo servirá para promover el marketing de una empresa con larga trayectoria de abuso de posición dominante en el mercado”. 

“Es necesario que desde la educación se promueva el software libre porque hay diferentes motivos que más allá de la brecha tecnológica, tienen que ver con la inclusión”, afirma Maria Teresa Lugo, directora del Centro en Políticas Públicas, Tecnologías y Comunicación de la Universidad Nacional de Quilmes, y destaca el “rol” del software libre para el desarrollo de una comunidad para “aprender en conjunto”.

En tanto, Busaniche señala que entre las múltiples dificultades que conlleva el uso de software privativo se encuentran la “prohibición de estudiar el programa” y “establecer modificaciones o mejoras en los programas” y afirma que “esto desincentiva la investigación y genera un tipo de relación de mero usuario o consumidor”.

Otro de los planteos generados por este debate es el tema de la obsolescencia programada en varios dispositivos que son descartados al no poder “actualizarse” por motivos de capacidad de almacenamiento o porque el sistema operativo deja de funcionar.

“Normalmente, un parque informático que tiene dificultades con el sistema operativo Windows puede ser rescatado con distintas distribuciones de software libre”, aclara Busaniche, y añade que “las máquinas que usan ese sistema operativo en el mayor de los casos terminan llenas de virus o con actualizaciones pendientes por la poca capacidad de los dispositivos y eso redunda en que en muchas ocasiones se descarte equipo que puede ser reutilizado”.

Otro de los ejes del debate gira en torno a los perjuicios económicos que provoca esta medida en virtud del giro de dividendos al exterior por el pago de propiedad intelectual. En este sentido, Valeria Odetti, especialista en Educación y Nuevas Tecnologías, plantea que en un contexto de crisis económica, la decisión de adquirir los servicios de software comercial para fines educativos “no es necesario” y que generaría una pérdida económica para el Estado a causa del pago de “propiedad intelectual”, que según la especialista, es uno de los hechos que más divisas hace perder al país. “El software libre cumple perfectamente el rol para el uso educativo, además posibilita un mejor desarrollo de los estudiantes, quienes podrán investigar más y hasta tener un pensamiento más crítico sobre el uso de los sistemas”, afirma la especialista.

En tanto, Lugo plantea que otro de los temas a tener en cuenta se relaciona con el empleo de los datos personales y afirma que “es importante saber quiénes son los dueños de los datos de los estudiantes con esta medida”.

ANCCOM intentó establecer comunicación con funcionarios y colaboradores del Ministerio de Educación de la Nación al respecto de esta medida, pero no obtuvo respuesta oficial.

 “El funcionamiento del software libre para la educación es valioso porque permite dar a conocer otras opciones. El software libre permite que los estudiantes se transformen en protagonistas y no en meros espectadores”, afirmó un funcionario del Ministerio de Ciencias y Técnica de la Nación consultado por ANCCOM que prefirió no revelar su identidad, y agregó que “el software libre también posee programas más livianos, y esto es fundamental, porque posibilita que los recursos rindan más”.

Huayra

Las computadoras entregadas por el programa Conectar Igualdad disponen de un sistema operativo de software libre denominado Huayra Linux, que fue diseñado por el Estado Argentino. En tanto, los especialistas destacan el papel del software libre para generar innovación tecnológica y el rol del programa “Conectar Igualdad” para recortar la brecha digital. “El costo del sistema operativo Huayra tiene que ver con la inversión, el desarrollo , en formar capacidades, en actualizar, ofrecer soporte y generar trabajo genuino en el país”, aclara Busaniche y afirma que este software “plantea una serie de libertades que permite estudiarlo, de compartirlo libre y legalmente, de establecer una serie de proceso y tener una mirada pedagógica mucho más integral y basada en el derecho de las personas”.

Por último, los investigadores y especialistas en materia educativa esperan que el Ministerio de Educación retroceda con la licitación y que las computadoras dispongan solo de software libre. “El software libre tiene una dinámica y una capacidad de tener múltiples distribuciones, usos y además es un sistema que se adapta a  las capacidades de las personas, de la región, Estado o proyecto pedagógico” señala Busaniche. Mientras que Lugo plantea que “el debate que se está generando en este momento es muy oportuno porque apunta a que es una decisión que va más allá de lo técnico, sino que implica una reflexión colectiva acerca de que queremos que los chicos aprendas, como hacerlo y, por otra parte, vincularla con el desarrollo y la innovación del país”.

¿Cuál es la responsabilidad de las plataformas?

¿Cuál es la responsabilidad de las plataformas?

La demanda de la vicepresidenta Cristina Fernández contra Google por el agravio publicado en el buscador el último 17 de mayo, abrió un amplio debate que incluye aspectos como los límites de libertad de expresión, la vulneración del honor, la responsabilidad de los intermediarios en Internet, el rol de los Estados en materia regulatoria, el poder de las grandes corporaciones digitales y el lugar cada vez más determinante que ocupan los algoritmos en la vida de los usuarios.

Un panel de expertos reflexionó sobre estas cuestiones en el marco de un conversatorio organizado recientemente por Acces Now y Observacom, dos organizaciones interesadas en la protección de los derechos de los usuarios digitales. En diálogo con ANCCOM, Beatriz Busaniche, directora de la Fundación Vía Libre, sintetiza la idea principal que sobrevoló en el encuentro: “Sería interesante que haya más transparencia sobre cómo funcionan los algoritmos”, afirma.

La pericia informática pedida por los letrados de la vicepresidenta exige a Google revelar cómo su algoritmo selecciona y exhibe la información destacada en el panel de conocimiento. Según Busaniche, esta solicitud conduce a dos problemas: “El primero es que probablemente Google se localice jurídicamente en los Estados Unidos y diga que allá es donde funciona su algoritmo y entonces trate de correr la jurisdicción. La iniciativa de los abogados de Cristina de ponerlo bajo la Ley de Defensa del Consumidor es para tratar de que el conflicto legal quede radicado en la Argentina. La otra cuestión es que, si esto prospera, puede haber algún pleito vinculado con la propiedad intelectual. Porque las empresas, en general, guardan sus secretos industriales bajo siete llaves”.

La directora de Vía Libre señala que, aun “imaginando el mejor escenario” en el que Google muestre su algoritmo, no se tendría total claridad sobre cómo opera: “No es solo su funcionamiento lo que determina el resultado de las búsquedas o de las recomendaciones, sino lo que hace con el volumen de datos que manejan: qué sabe ese algoritmo de cada uno de nosotros cuando hacemos una búsqueda, qué le sirve para ajustar los resultados a muchas de las cuestiones que conoce de la persona que busca y que condicionan también esos resultados”, explica.

Por otra parte, el «recuadro de conocimiento» constituye un caso particular para la especialista: “No es el resultado de una búsqueda lo que está en cuestión, sino ese box donde Google hace una edición diferente. Hay una información destacada, una selección, una referencia a un tercero, Wikipedia en este caso, o como cuando ante una búsqueda de información médica se destacan fuentes médicas confiables. Hay una curaduría diferente de los resultados del buscador. Y por eso es que los abogados de Cristina están tratando de hacer cargo a Google como autor de la calumnia y de la injuria”.

Beatriz Busaniche. Archivo ANCCOM.

Para Busaniche, esto complejiza y simplifica el caso: “Lo complejiza porque hay que dirimir si Google es un simple expositor, curador, seleccionador, ordenador de información producida por terceros, con lo cual debería primar el régimen de responsabilidad de intermediarios, o si es autor de la calumnia y de la injuria. Si finalmente la Justicia resuelve que Google es responsable en tanto autor o editor de ese contenido, le caben las generalidades de la ley. Es decir, las mismas que podrían caberle a cualquier otro medio de comunicación que tenga una línea editorial y publique una calumnia o una injuria contra una funcionaria pública”.

Sin embargo, Busaniche se muestra escéptica respecto del éxito de la demanda. “Si la Justicia resuelve que hay una cuestión de autoría de Google, dudo que el caso prospere, porque sería un pleito por calumnias e injurias clásico, en el cual deberían probar real malicia. Y si prospera, sería una cuestión seria en términos de libertad de expresión atribuir una responsabilidad editorial a un medio de comunicación por tratar de ladrona a una funcionaria de alto nivel”, algo que también señaló Diego de Charras, actual presidente de la Red de Carreras de Comunicación Social y Periodismo durante el conversatorio.

Además, Busaniche asegura que los distintos tipos de responsabilidad atribuible serían de difícil implementación. “El régimen de responsabilidad de intermediarios, según se dictaminó en el caso Belén Rodríguez contra Google en 2014, establece responsabilidad subjetiva, y aquí Google actuó con celeridad, dando de baja el contenido injuriante, aun sin que la damnificada hubiera tenido que tomar cartas en el asunto. Atribuirle responsabilidad objetiva, por otro lado, marcaría un antecedente preocupante. Todas las relatorías de libertad de expresión, de Naciones Unidas, OEA, Unión Europea y demás, han planteado que no se les debe atribuir porque eso sería un incentivo muy fuerte para las empresas de ejercer un tipo de censura privada justamente para cuidar sus espaldas. Porque si ellos van a ser responsables de cada cosa que diga cualquier usuario de Internet, lo que vamos a tener son grandes máquinas de censura y de reducción drástica del espacio y de la esfera pública del debate”.

La disputa mediática fue uno de los elementos destacados durante la presidencia de Cristina Fernández. Las tapas agraviantes y las expresiones injuriosas se sucedieron a lo largo de toda su gestión. Basta con buscar, por ejemplo, algunas portadas de la revista Noticias. “Se trataba de acciones que podrían haberse catalogado como violencia simbólica contra una mujer –opina Busaniche–. Y ningún medio salió a pedir disculpas, ni a retirar algo que pudiera ser calumnioso. Al contrario, siempre ha escalado el nivel de agresión. Si uno analiza comparativamente la acción de Google, lo que se ve es que reaccionó rápido respecto a algo que se les escapó, la manipulación de los datos en Wikidata, y la información fue retirada de inmediato”. En otras palabras, para la especialista, “no podría demostrarse que la opinión de Google es que Cristina Fernández es una ladrona”. Pero el contenido fue difundido y amplificado por los medios de comunicación posteriormente.

Entonces, ¿por qué Cristina decidió ir contra Google? Busaniche arriesga una hipótesis: “Intuyo que quiere meter algún tipo de discusión pública sobre el rol de las grandes empresas de Internet, en línea con muchos grandes líderes políticos a nivel global que lo están haciendo. Es un tema que se está discutiendo en el mundo. Hay que mirar también lo que está pasando con Donald Trump en su pleito con Twitter, algunos proyectos de ley sobre fake news en Brasil, algunas cosas que han estado pasando en Francia con los discursos de odio, las regulaciones sobre discurso racista en Alemania. Hay una corriente de muchos líderes políticos que están tratando de subirse a esta discusión. Probablemente, Cristina haya tomado esta decisión de entrar en la disputa y tratar de dirimir cuál es la responsabilidad de las plataformas”.

El camino de la regulación

Hasta el momento, en nuestro país no existe una ley que indique qué responsabilidad poseen las plataformas virtuales a la hora de indexar contenidos, ni tampoco una que imponga penas a acciones editoriales como las que se les atribuye a Google en la construcción del espacio destacado. Los pasos a seguir, en materia judicial, están orientados de forma jurisprudencial, es decir, en base a fallos previos. Las demandas iniciadas por Belén Rodríguez y Natalia Denegri (a favor del derecho al olvido) fueron dirimidas mediante fallos de la Corte Suprema, y sentaron precedentes de utilidad para litigios subsiguientes.

“Una buena regulación protectora de la libertad de expresión, ante todo en materia de responsabilidad de intermediarios, debería ser una de las políticas a acompañar”, afirma Busaniche, quien también subraya la necesidad de proteger el discurso público de la fuerte incidencia que tienen estas plataformas debido a los niveles extremos de concentración: “Como señaló Martin Becerra durante el conversatorio, si algo no puede circular por Facebook, por las distintas áreas de negocio de Google o por Twitter, probablemente no logre permear el discurso público, entonces la baja de contenidos y la protección del discurso de las figuras más débiles en esta ecuación, como somos los usuarios de las redes, también podría ser parte de una regulación interesante en estos entornos de grandes empresas de tecnología de Internet”.

El avance de los procesos de automatización mediante inteligencia artificial y la injerencia creciente de los algoritmos en sistemas que seleccionan, categorizan y deciden en los más diversos ámbitos de nuestra vida, ha traído el debate sobre la necesidad de regularlos. En Nueva Zelanda, el Ministerio de Estadística ha impulsado, desde el mes pasado, un acta que dispone revisar los procesos estatales basados en algoritmos y transparentar estos mecanismos a la población, explicándolos en un lenguaje sencillo y comprensible.

Martín Becerra. Archivo ANCCOM.

¿Se puede tomar algo de esta regulación? La directora de Vía Libre opina que sí: “El de Nueva Zelanda es un modelo pensado más que nada para el sector público, pero me parece que va en el sentido apropiado: mecanismos que permitan dotar de transparencia a los distintos sistemas de regulaciones mediadas por sistemas automatizados”. Existen iniciativas similares, incluso privadas. Tal es el caso de TikTok, que en su batalla con la administración Trump hizo públicos algunos lineamientos de su algoritmo y empezó a trabajar en una política interna a partir de la cual el usuario puede disponer de qué tipo de selección y decisiones se toman de sus contenidos y del acceso a ellos. “En Estados Unidos, por ejemplo, muchas decisiones se toman de esta forma: hay mecanismos algorítmicos para evaluar la posibilidad de que una persona recupere la libertad bajo palabra en el sistema carcelario, hay otros que definen si aceptar o no a una persona como cliente en un seguro médico, hay sistemas que evalúan la perfomance de docentes en escuelas públicas, hay otros que evalúan el otorgamiento o no de ayuda social. Está lleno de mecanismos algorítmicos, tanto del sector público como del privado, que están tomando decisiones que impactan sobre la vida de las personas. Y en el caso de las redes sociales, estos algoritmos, a su vez, impactan sobre lo que se ha empezado a llamar nuestra ‘dieta informativa’, qué cosas nos llegan en este mar inmenso de información que circula por Internet minuto a minuto”.

Estos procesos automatizados nos han ayudado a encontrar consumos de nuestro interés, a que Netflix nos sugiera la próxima película que nos puede llegar a gustar, o que Spotify o YouTube nos recomienden una banda que nunca escuchamos pero que tiene similitudes con otras que sí. Pero cuando se los plantea desde el punto de vista del acceso a la información, dice Busaniche, se ven tendencias como la exposición permanente a contenido extremista, como el discurso del alt right (derecha alternativa estadounidense), que han fortalecido mucho su posición en la vida pública, “no solo a partir de la exposición en la calle, sino que todo eso tiene una expresión en las redes y se le ha dado una visibilidad allí, ese tipo de contenido cada vez más extremo se visibiliza a partir de estos algoritmos. Por eso sería interesante saber cómo funcionan, qué variables toman en cuenta, en función de qué datos se exhiben o no ese tipo de contenidos”. La respuesta está en tener mayor y mejor acceso y transparencia los algoritmos y saber cómo construyen los resultados a partir del volumen de datos. Una discusión que recién comienza.

El Gran Hermano porteño

El Gran Hermano porteño

La identificación permanente y en tiempo real de cualquier persona que pase delante de una cámara dejó de ser ciencia ficción. El jueves pasado entró en vigencia en la Ciudad de Buenos Aires el Sistema de Reconocimiento Facial de Prófugos (SRFP) que procesa las imágenes en forma rotativa de 300 de las 7.000 cámaras que hay en la vía pública y las estaciones de subtes.

El funcionamiento del software de inteligencia artificial consiste en cotejar el rostro filmado con la base de datos a nivel nacional de las personas con pedido de captura. Si hay coincidencia aparece una alerta en el centro de monitoreo y se pone en acción el operativo policial. Para obtener las imágenes de los prófugos se firmó un convenio con el Registro Nacional de las Personas (RENAPER).

Según el vicejefe de Gobierno porteño y ministro de Seguridad, Diego Santilli, en las primeras dos horas y media de implementado el sistema se detuvieron a diez personas y aseguró que «es sólo para aquellas personas que están buscadas por la Justicia. Nadie va a querer que haya 30.000 personas con pedido de captura y no las podamos agarrar. En febrero agarramos a un tipo que tenía 10 años de condena por secuestrar personas. Lo que quiere la sociedad es que los agarremos”.

Sin embargo, el software debe observar a toda la población para detectar a los prófugos. Para la presidenta de la Fundación Vía Libre y especialista en temas de derechos humanos en entornos tecnológicos, Beatriz Busaniche, el sistema avanza directamente sobre la privacidad y la presunción de inocencia de las personas: “Todos estamos siendo monitoreados permanentemente en búsqueda de criminales, pero somos inocentes. Si nos pidieran permanentemente el DNI en la calle lo veríamos con malos ojos, como un estado autoritario. También, entra en riesgo el derecho de reunión y de libre circulación. Todas las acciones del espacio público podrían verse de alguna forma desincentivadas, como la movilización en una protesta callejera”.

Aunque el SRFP comenzó el jueves último, hace cuatro meses que se están realizando pruebas con el objetivo de perfeccionar el software.  “Estas tecnologías tienen alto grado de inmadurez y fallan. Cuando se implementó en Gales, en un partido de la Champions League, hubo un 90% de falsos positivos”, explica Busaniche.

Cuando empezaron las primeras pruebas en enero, sin anuncios oficiales, la Defensoría del Pueblo de la Ciudad de Buenos Aires inició una actuación administrativa pidiendo informes al Gobierno, a Subterráneos de Buenos Aires (SBASE) y a la Comisión Nacional de Regulación del Transporte (CNRT). “No tuvimos respuestas más que de SBASE y CNRT. Dijeron que no estaban al tanto de la medida”, contó a ANCCOM María Julia Giorgelli, subcoordinadora del Centro de Protección de Datos Personales de la Defensoría.

“En la última Conferencia Internacional de Autoridades de Protección de Datos y Comisionados de Privacidad se alertó que el tratamiento de datos biométricos mediante sistemas de inteligencia artificial tiene que ser permanentemente auditado y se debe informar a todos los sujetos involucrados cómo se realiza. Hay en juego libertades individuales, no puede ser que uno no sepa cómo se manejan esos datos. El derecho a la información es uno de los primeros problemas que tenemos acá”, agregó Giorgelli.

Por otra parte, la Defensoría se pregunta por qué el SRFP no ha pasado por la Legislatura porteña cuando el artículo 80 de la Constitución de la Ciudad dice que le corresponde a ese órgano disponer en materia de seguridad pública. En esta misma línea, el bloque Unidad Ciudadana presentó un pedido de informe al Poder Ejecutivo solicitando detalles sobre la licitación de compra del sistema, las características técnicas, el área del Ministerio de Seguridad que será la encargada del funcionamiento y qué medidas se adoptarán para asegurar el derecho a la privacidad de los ciudadanos.  No obstante, en la sesión parlamentaria del 11 de abril la solicitud fue rechazada y regresó a la Comisión de Seguridad. La legisladora de Unión Ciudadana, Victoria Montenegro, expresó que esto es un problema porque “en lo que va del año, la Comisión nunca se reunió”.

“Estamos muy preocupados, parecen temas menores pero estamos hablando de nuestra seguridad. El índice de delitos en la ciudad aumentó y la cuestión no es la fuerza de seguridad, sino la política. Los objetivos no están claros. Hay más policías, más presupuesto y más tecnología, pero también más delitos”, concluyó Montenegro.  Habrá que esperar para saber si viviendo permanentemente monitoreados se tiene una ciudad segura.