June 5, 2022
De parte de ANRed
246 puntos de vista

Ilustraci贸n de Se帽ora Milton.

Algoritmos que regulan fronteras, salarios y hasta la educaci贸n de las criaturas. Cuidados, comunidad y software libre para combatirlos. La primera sesi贸n de las Jornadas Democracia, Algoritmos y Resistencias recogi贸 voces para entender y combatir el control que las multinacionales realizan a trav茅s de aplicaciones y recogida de datos. Por Teresa Villaverda (Pikara Magazine).


La propuesta de la presidenta de la Comunidad de Madrid, Isabel D铆az Ayuso, durante el confinamiento de 2020, de repartir comida de Telepizza entre ni帽as y ni帽os vulnerables, despert贸 las cr铆ticas de la sociedad: no se pod铆a admitir como medida p煤blica dar comida basura a las criaturas, y menos contratando a una multinacional que, al menos entonces, no pagaba el salario m铆nimo en el Estado espa帽ol, como ha reconocido una sanci贸n de Inspecci贸n de Trabajo en 2022. En aquellos d铆as de encierro en que todo se virtualiz贸, hubo otras medidas del estilo que no suscitaron el mismo debate social. Las empresas Samsung y Google regalaron tablets para facilitar la asistencia a las clases online. In茅s Binder, integrante de Labekka, un grupo hackfeminista deslocalizado, entiende que 鈥減ensar que la tecnolog铆a es neutral鈥 forma parte de 鈥渓a visi贸n tecnoc茅ntrica鈥.  鈥淕oogle y Microsoft, especialmente, est谩n perfilando a los menores de edad. Cuando ese ni帽o o ni帽a salga del colegio ya sabr谩 usar esas herramientas, las va a pedir en el mercado de trabajo. Est谩n fidelizando clientes desde los cinco a帽os鈥, explica. Y lo que considera una vulneraci贸n de los derechos de la infancia. As铆 lo explicaba para el reportaje 鈥楾ecnofeminismo m谩s all谩 del mito hacker鈥, publicado en el anuario 9 en papel de Pikara Magazine.

El regalo de las tablets no fue cuestionado, adem谩s de por la aparente neutralidad de la tecnolog铆a, porque est谩 envuelta en un misticismo que la dota de un halo de complejidad. Pensamos que no sabemos suficiente sobre tecnolog铆a, que su funcionamiento lo entienden solo profesionales de la programaci贸n y de la ingenier铆a. Pero no es as铆. Lo dec铆an las integrantes de LaBekka para el citado reportaje: para saber que queremos consumir lechugas org谩nicas y locales no necesitamos saber de agricultura. Es decir, es imprescindible aplicar una mirada multidisciplinar, desde disciplinas laborales, legales, activistas, period铆sticas y de derechos humanos, entre otras, que analice los abusos tecnol贸gicos a los que se ve sometida la sociedad. Y con las que pensar en otro mundo tecnol贸gico posible.

鈥淣uestras instituciones est谩n haciendo product placement de una empresa privada y con una digitalizaci贸n a la que no podemos acceder. Somos clientes cautivos. Supone una dejadez de funciones muy importante por parte de la instituci贸n. Impide, adem谩s, la libre empresa. Si no hay software libre que compita en usabilidad 鈥揳unque s铆 en caracter铆sticas鈥 y en agilidad [con los de las grandes empresas], es por la infrainversi贸n del sector p煤blico. Tenemos que ser  la sociedad civil quien lo haga鈥, ha dicho  Simona Levy, de XNET, en la mesa online del 26 de mayo que abr铆a las Jornadas Democracia, Algoritmos y Resistencias. El evento, organizado por AlgoraceAlgorightsLafede.cat y el Espai Societat Oberta, se complet贸 con otros dos d铆as presenciales, el 27 y 28, en Barcelona y Madrid. Levy estaba acompa帽ada por Alberto 脕lvarez, taxista de profesi贸n e integrante del Observatorio de Trabajo, Algoritmo y Sociedad; Youseff M. Ouled, de Fronteras Digitales.

Las dos mesas online de la primera parte de las jornadas versaron justamente sobre esto: c贸mo funcionan las tecnolog铆as con las que vivimos diariamente, qu茅 consecuencias sociales tienen y qu茅 alternativas tenemos a ellas. Se habl贸 de algoritmos, s铆, pero sobre todo de derechos y mundos futuros colectivos, mejorados.

Seg煤n Levy, las instituciones deber铆an velar por una digitalizaci贸n con base en los derechos humanos, con un c贸digo abierto 鈥渜ue todo el mundo pueda trabajar鈥 y que repercuta en las empresas m谩s peque帽as. 鈥淟a nube no es una nube en el cielo, sino el ordenador de otra persona, en este caso de una gran multinacional. Deber铆amos tener acceso a nubes en las que podamos entrar para ver si de verdad se ha borrado mi expediente psiqui谩trico de hace sesis a帽os, para que cuando busque trabajo no me digan 鈥榰sted ha sido bul铆mica, no la contratamos鈥. Es importante que haya financiaci贸n p煤blica鈥, repiti贸.

Derechos laborales y fronteras bajo el dominio algor铆tmico

鈥淓stamos en el mundo del fascismo digital鈥, afirm贸 Alberto 脕lvarez. Un ejemplo pr谩ctico. 脡l, junto con m谩s taxistas, han contratado a un programador que hizo un algoritmo para medir los precios de la ciudad de Madrid y c贸mo estos variaban dependiendo del poder adquisitivo que hubiera en unos barrios y otros. 鈥淗emos analizado m谩s de tres millones de peticiones de servicio y hemos visto cosas que son escandalosas, 驴c贸mo una administraci贸n p煤blica no hace esto y lo hacen cuatro taxistas o cuatro riders?鈥, se pregunta. Entre estas cosas 鈥渆scandalosas鈥, el algoritmo demostr贸 que los precios bajaban en los barrios con m谩s poder adquisitivo y sub铆an en los m谩s pobres. 鈥淓so son datos objetivos, nuestra interpretaci贸n es que es para seleccionar un tipo de cliente no problem谩tico鈥, concluye.

La tiran铆a algor铆tmica no solo se refleja en los precios, tambi茅n en las puntuaciones que la clientela puede dar a quienes conducen: 鈥淣o tenemos datos objetivos pero, en una sociedad totalmente polarizada como en la que vivimos, donde por razones de g茅nero o raza te miran de una manera u otra, podemos suponerlo鈥.

La puntuaci贸n que da la clientela, adem谩s, se puede manipular. La empresa puede bajar la puntuaci贸n y eso influye en las condiciones laborales de quien conduce, 鈥渆n cu谩ntas horas tienes que trabajar y en cu谩nto cobras鈥, explica. Esta problem谩tica coincide en gran medida con la que tienen los y las riders de empresas como Glovo. El colectivo Riders X Derechos lleva tiempo reclamando que los comit茅s de estas empresas de econom铆a de plataforma tengan acceso al algoritmo que organiza el trabajo.

Donde s铆 hay datos objetivos del sesgo racista de estas tecnolog铆as es en el control de fronteras y, de nuevo, la medida que ha venido a reforzarlas se tom贸 en plena pandemia, cuando el virus copaba titulares, pasando inadvertida. 鈥淓n 2020, los estados de la Uni贸n Europea firmaron para invertir m谩s de 300 millones de euros en el dise帽o e implementaci贸n del sistema de control biom茅trico [de fronteras]鈥, dice Yousef M. Ouled. Desde la organizaci贸n Fronteras Digitales, explica, denuncian estos usos tecnol贸gicos que refuerzan el racismo. 鈥淧edimos que se corrijan los sesgos. Estamos en contra de la l贸gica de la existencia de fronteras tal y como existen. Hay alternativas de acogida y las hemos visto con Ucrania. Adem谩s, un informe de la relatora de Naciones Unidas de 2019 sobre fronteras digitales muestra c贸mo hacen m谩s dif铆cil el tr谩nsito migratorio y aumentan la tasa de mortalidad. Lo estamos viendo en la ruta Canaria en el sur de Espa帽a鈥, asegura. Esta organizaci贸n impuls贸 un manifiesto denunciando la implantaci贸n de la inteligencia artificial en fronteras y la vulneraci贸n de derechos que realizan, firmado por m谩s de 80 organizaciones. El modelo, sin embargo, se afianzaba a帽os antes con el tratado Entry /Exit System, aprobado por el Parlamento Europeo en 2017, y que busca sustituir el control manual de pasaportes por uno digital, como explica Pablo Jim茅nez Aradia en un an谩lisis de Ctxt. Este sistema, seg煤n Ouled, se plantea 鈥渆xento de regulaci贸n, al margen de derechos que s铆 protege la ley de ciudadan铆a europea鈥.

El dinero que se invierte en esta inteligencia artificial, denuncia Ouled, supone 鈥渦n aumento de la vulneraci贸n de la libre circulaci贸n鈥, porque las personas ser谩n m谩s identificadas: 鈥淟a automatizaci贸n cada vez mayor de las fronteras supone un refuerzo de la l贸gica racial y colonial de la Uni贸n Europea鈥.

La privacidad, un derecho 鈥揻ranc茅s鈥 del siglo XVII

鈥淎hora usamos Gmail para todo, hemos retrocedido 300 a帽os鈥, dice Levy al mencionar el decreto de inviolabilidad de las comunicaciones. El reconocimiento jur铆dico de la privacidad de las comunicaciones de las personas fue aprobado en 1790 por la Asamblea Nacional francesa y  configuraba la correspondencia como inviolable. En Espa帽a, el reconocimiento llega con la Constituci贸nde 1869. En la actualidad, 鈥渓a FAC (Federaci贸n AMPAS de Catalu帽a), tiene que firmar una autorizaci贸n para la escolarizaci贸n digital con Google. Este provee de todo, gestiona toda la documentaci贸n. Todo se genera en unas nubes que no son soberanas鈥, cuenta.

As铆, Google sustituir铆a hoy a los cabinet noir prohibidos por aquel decreto franc茅s, oficinas que investigaban y controlaban de forma sistem谩tica y secreta la correspondencia, pr谩cticas puestas en marcha por el rey Luis XIII y el cardenal Richeleieu, seg煤n explica la web de informaci贸n jur铆dica VLex.

Esta noci贸n de privacidad, sin embargo, no es la imperante a escala global, sino que es un concepto m谩s bien occidental, como muestra su origen. 鈥淓n contextos desconectados, que son la mayor铆a en Am茅rica Latina, la noci贸n de privacidad en t茅rminos individuales no existe. Las familias comparten tel茅fono. Las tecnolog铆as hegem贸nicas imponen tambi茅n una narrativa sobre cu谩l debe ser nuestra relaci贸n con la tecnolog铆a. Hay que comenzar por desmontar estas narrativas鈥, advierte Paola Ricaurte, de Tierra Com煤n, en la segunda mesa de la ma帽ana, moderada por la analista de datos Oyidiya Oji Palino. La otra ponente de la mesa, Paula de la Hoz, de Interferencias, asiente: 鈥淗ablamos de consumidoras, pero no de constructoras de tecnolog铆a, y esto fomenta que no haya participaci贸n activa en lo digital. Por tanto, las empresas son c谩maras de eco donde hay grupos que siempre son marginales. Eso es la tecnolog铆a privativa, que fomenta la falta de derechos digitales porque faltan las voces de la privacidad, del anonimato鈥, para ver las necesidades de cada usuaria en vez de adaptarnos a las necesidades globales que se nos suponen. Por eso es necesaria una tecnolog铆a accesible鈥. Y remata diciendo que en la construcci贸n de estas tecnolog铆as 鈥渓os grupos feministas decoloniales son esenciales para que haya diversidad y se haga tecnolog铆a libre para todas. Si solo hacen software libre mujeres blancas, lo har谩n solo seg煤n sus necesidades. En los colectivos transfeministas, por ejemplo, se habla mucho de cuidados y de comunidad, en los de inform谩tica, no鈥.

El hecho de que estas tecnolog铆as se hagan desligadas de los cuerpos de todas, de los territorios y de los cuidados, implica que se obvien sus efectos en estos, como explica Ricaurte: 鈥淯n centro de datos, por ejemplo, quita el agua a toda la comunidad que vive donde est谩 instalado. Hay que consumir menos [tecnolog铆a] porque el impacto es brutal鈥.





Fuente: Anred.org