April 4, 2021
De parte de Nodo50
350 puntos de vista


Vivim envoltades d鈥檃lgorismes. Ginys tecnol貌gics abstractes que tanmateix tenen conseq眉猫ncies ben reals per a la classe treballadora, com ara maldar per identificar-nos a trav茅s d鈥檜nes futures c脿meres amb reconeixement facial al cor de Barcelona.

Malgrat els riscos de la tecnologia, assistim a una falsa narrativa que associa aven莽 tecnol貌gic i progr茅s social i que tracta de conv猫ncer-nos que un codi inform脿tic ser脿 m茅s objectiu resolent all貌 que abans es decidia per altres mitjans.

Tanmateix, des del Grup de Tecnologia del Seminari Taifa, dedicat a l鈥檈studi del capitalisme digital, defensem que all貌 que afecta la vida de les persones 茅s pol铆tica, tant si 茅s llei com si 茅s codi.

Tanmateix, qu猫 茅s un algorisme? Doncs un llistat d鈥檌nstruccions finit, estructurat, seq眉encial i altament espec铆fic. O com diu la met脿fora, una recepta, tamb茅 de naturalesa anal貌gica. En la nostra realitat pand猫mica, el triatge en unes urg猫ncies m猫diques segueix un protocol assimilable a un algorisme.

Matem脿ticament s贸n comuns en operacions com la multiplicaci贸 o la divisi贸, per貌 茅s amb la digitalitzaci贸 que han viscut una aut猫ntica edat d鈥檕r, gr脿cies a l鈥檃parici贸 dels algorismes d鈥檃prenentatge autom脿tic. Aquesta tecnologia, anomenada machine learning en angl猫s, no 茅s res m茅s que un sistema per optimitzar un determinat resultat en altres algorismes sense requerir supervisi贸 humana.

Qui decideix, per貌 el resultat a optimitzar i qui accepta les conseq眉猫ncies que l鈥檕btenci贸 d鈥檃quest resultat pugui generar en un sistema complex? 脡s inevitable analitzar aquesta tecnologia en termes de desigualtat. No tant com a causant sin贸 com a perpetuadora. L鈥檃lgorisme de Glovo, per exemple, est脿 dissenyat a favor de les plusv脿lues de l鈥檈mpresa i no dels riders. La versi贸 digital de l鈥檈xplotaci贸.

Segons afirmava Judith Membrives al debat Algoritmos sesgados del CVC i com tamb茅 sost茅 Adam Greenfield al seu llibre Radical Technologies, estem parlant que una part imposa les seves normes sobre l鈥檃ltra sense que la part dominada en sigui necess脿riament conscient. Un marc digital de dominaci贸 que, sota la ret貌rica de falsa objectivitat i optimitzaci贸, actua com un vel que amaga relacions socials d鈥檈xplotaci贸 (i que fins i tot en pot crear de noves, per貌 aix貌 ja 茅s un altre article), moltes vegades convertint-se en un boc expiatori perqu猫 els responsables de l鈥檈xplotaci贸 no hagin de retre comptes. Culpar l鈥檃lgorisme 茅s ideal: les esmenes s贸n dif铆cils de contrastar i l鈥檃lgorisme no 茅s f铆sic i per tant, no admet mesures de pressi贸.

Per貌 com crea exactament desigualtat un algorisme? Les seves decisions discriminat貌ries poden provenir dels possibles biaixos de g猫nere, ra莽a o classe inherents a qualsevol codi o qualsevol grup de dades emprat per entrenar-los. Tanmateix, sigui per desconeixement o inter猫s, el poder dominador dels algorismes comen莽a molt abans, quan es pren la decisi贸 d鈥檈mprar-los.

Segons Rachel Thomas citant al professor de Princeton Arvind Narayanan el programari que empra aprenentatge autom脿tic es pot classificar de forma matussera en tres grups.

  • Percepci贸: cerca inversa d鈥檌matges o d鈥櫭爑dio, diagn貌stic m猫dic, o els medi脿tics hipertrucatges, coneguts com a deepfakes en angl猫s (les potencialitats i les amenaces dels quals donen per un altre article). Aqu铆 hi ha aven莽os realistes, mesurables i reconeguts per l鈥檃cad猫mia.
  • Reconeixement i classificaci贸: Detecci贸 de missatges brossa, violacions de propietat intel路lectual, detecci贸 de discursos d鈥檕di. Aquesta 茅s una 脿rea grisa on hi ha algorismes efica莽os com els de la primera categoria. Per貌 on tamb茅 n鈥檋i ha molts d鈥檈sbiaixats perpetuant desigualtats.
  • Predicci贸 de desenvolupament social: aquesta 茅s la categoria m茅s dubtosa, obertament pseudocient铆fica, la que cerca detectar riscos terroristes, assenyalar persones conflictives, preveure comportament respecte a les finances o 猫xit professional. Aqu铆, 茅s clar, hi cauen molts algorismes que exclouen a moltes persones arreu del m贸n, sovint sense que aquestes entenguin com i per qu猫.

La creen莽a en l鈥檕bjectivitat postideol貌gica dels algorismes tamb茅 sol dur a afirmar que l鈥櫭簊 d鈥檃lgorismes no t茅 contrapartides, per貌 escollir aplicar algorismes d鈥檃quest tercer grup o no plenament desenvolupats 茅s perpetuar desigualats. Per exemple: l鈥檃lgorisme decideix que a alg煤 no se li concedeixi un cr猫dit o que no 茅s una bona candidata per a un lloc de treball. A Catalunya, molts permisos penitenciaris s鈥檃valuen amb el RisCanvi que avalua m茅s de 43 variables, amb la qual cosa la persona privada de llibertat no t茅 clar per qu猫 s鈥檋a pres una decisi贸 o una altra.

El fet de no comprendre el raonament de l鈥檃lgorisme s鈥檃nomena efecte de caixa negra i segons Frank Pasquale 茅s un el principal element de desigualtat. La judicatura est脿 obligada a argumentar veredictes, per貌 els algorismes, maquinalment objectius, s贸n blancs o negres, per貌 sempre inq眉estionables. Si sab茅ssim qu猫 prioritza l鈥檃lgorisme b茅 podr铆em fer valdre la llei de Goodhart i donar-li aquelles m猫triques que demana, fent-lo anar a favor nostre. Mentre no coneguem l鈥檃lgorisme, el poder 茅s en una sola banda.

Qu猫 cal doncs? Polititzar l鈥檃n脿lisi de l鈥檃lgorisme com es polititza la seva creaci贸. Cal analitzar les relacions socials rere l鈥檃lgorisme, igual que s鈥檃nalitzen les relacions socials rere la mercaderia. Quan una decisi贸 pol铆tica d鈥檜na empresa o una administraci贸 impactava sobre la classe treballadora o altres col路lectius, era viable llan莽ar una resposta o iniciar una negociaci贸. Per貌 aquesta via es complica quan hi ha un algorisme amb la seva falsa p脿tina d鈥檕bjectivitat i que es converteix en un enemic eteri i incomprensible.

El problema, entenem, no s贸n els algorismes, en tant que poden ser 煤tils en tasques m猫diques, cient铆fiques i poden esdevenir claus per aconseguir una aut猫ntica economia planificada, com apunten certs autors com Paul Cockshott i Maxi Nieto. El problema 茅s el capitalisme i el seu 煤s interessat d鈥檃questa tecnologia com una eina m茅s de dominaci贸. L鈥檃lgorisme no fa m茅s que reproduir desigualtats inherents al sistema i la prova 茅s que la patronal CEOE no considera que l鈥檕bligaci贸 del Ministerio de Trabajo de fer p煤blics els algorismes de les empreses de repartiment precaritzants (Uber Eats, Delivery, Glovo) sigui una amena莽a per a aquestes. A part del detall que la llei nom茅s obliga a publicar la part de l鈥檃lgorisme relacionada amb el dret laboral (com si la resta de l鈥檃lgorisme no hi influ铆s), ja s鈥檈st脿 comprovant que l鈥檈xplotaci贸 continua el pas d鈥檜na part substancial de la for莽a de treball a ETTs.

La pista 茅s clara: si nom茅s es q眉estiona l鈥檃lgorisme, no 茅s un problema per la patronal, ja que les relacions d鈥檈xplotaci贸 hi seguiran sent, siguin digitals o anal貌giques. A m茅s, l鈥檃dministraci贸 i els moviments socials estem a les beceroles de comprendre i contrarestar l鈥檌mpacte d鈥檃questa tecnologia en la desigualtat laboral. Fa uns anys periodistes com Austin Carr o Judith Duportail van desxifrar el funcionament de l鈥檃lgorisme de l鈥檃plicaci贸 de cites Tinder. Aquest va resultar ser profundament classista i tanmateix quasi no hi va haver reaccions adverses, ni tan sols entre les persones usu脿ries. Potser no se n鈥檈ntenien les conseq眉猫ncies.

Si els algorismes s贸n pol铆tica, cal fer-los canviar de banda i cercar m茅s experi猫ncies com la del Ministerio de Trabajo, que realitza inspeccions automatitzades per detectar falsos treballadors temporals o els BreadTubers que publiquen continguts d鈥檈squerra fent creure a l鈥檃lgorisme de YouTube que els seus v铆deos s贸n d鈥檜ltradreta. Si els algorismes havien de servir per dominar, b茅 hauran de servir tamb茅 per q眉estionar aquesta dominaci贸.

L鈥檃rticle 茅s fruit del treball col路lectiu del grup de tecnologia i capitalisme digital del Seminari Taifa




Fuente: Llibertat.cat