April 28, 2022
De parte de Briega
155 puntos de vista

驴Es la tecnolog铆a destructora de la vida, preservadora de la vida o s贸lo un mero instrumento neutral?

驴Es, por ejemplo, el IPhone la muestra de una tecnolog铆a que nos est谩 transformando en zombis o un instrumento vital que nos permite estar informados, entretenidos e, incluso, pol铆ticamente activos? La tecnolog铆a, y esto no es una sorpresa para nadie, siempre ha sido parte del desarrollo humano y sin ella no ser铆amos lo que somos.

Seg煤n pensadores tecnof贸bicos como Jacques Ellul, Martin Heidegger, Herber Marcuse, Lewis Mumford y Ted Kaczynski, el 鈥渋nfame鈥 Unabomber, la cuesti贸n no es 茅sta, sino que la cosa es si el progreso tecnol贸gico concuerda con el progreso humano, si la tecnolog铆a esta ayudando a lograr nuestros fines o, por el contrario, est谩 determinando nuestros fines. Pensemos por un momento s贸lo en 茅sto.

Compramos dispositivos para satisfacer nuestras necesidades, pero, una vez comprados, quedamos tan fascinados o dependientes de ellos que desarrollamos nuevas necesidades y nuevos dispositivos s贸lo para mantener su funcionamiento. Heidegger, en uno de sus 煤ltimos escritos, dec铆a que en todas partes permanecemos sin libertad y encadenados a la tecnolog铆a, ya sea que la afirmemos o la neguemos apasionadamente. Y la peor manera posible de entregarnos a ella, dice, es cuando la consideramos como algo neutral.

Es esta creencia, a la que hoy nos gusta rendirle homenaje, la que nos deja m谩s vulnerables y nos ciega por completo a la esencia de la tecnolog铆a. La caracter铆stica definitoria de la tecnolog铆a moderna, continua, es la reducci贸n de la naturaleza a una mera fuerza de energ铆a controlable que la tecnolog铆a extrae, cosecha y almacena y es esto lo que la hace ver como un mero medio al servicio de nuestros fines y necesidades.

Y es justamente esta idea la que nos ciega al hecho de que hemos ca铆do bajo el dominio de la instrumentalidad, de que nosotros mismos nos hemos convertidos en instrumentos para la tecnolog铆a. La actividad basada en datos es la expresi贸n contempor谩nea de nuestra creciente voluntad de permitir que las tecnolog铆as regulen y controlen nuestra vida diaria. Si en los tiempos pasados necesit谩bamos que otros humanos nos ordenaran y nos dieran tareas para ocuparnos, hoy hay una aplicaci贸n para eso.

Netflix puede decirnos que mirar, Amazon puede decirnos que comprar, Google nos puede decir que pensar y eHarmony puede decirnos a quien amar. En otras palabras, dice el escritor Nolen Gertz, hemos reemplazado la regularidad irreflexiva mecanicista con la regularidad irreflexiva algor铆tmica de las predicciones, las opciones y los comandos basados en datos. A pesar de que 茅stos pueden ser invasivos, el progreso tecnol贸gico pareciera medirse m谩s y m谩s, no por la protecci贸n de nuestra privacidad, sino por la precisi贸n de las predicciones de los algoritmos.

En lugar del 鈥淏ig Brother鈥 hoy tenemos el 鈥淏ig Data鈥 que voluntariamente invitamos a nuestras casas, a nuestros dispositivos y a nuestros cuerpos. El ejemplo m谩s com煤n de la obediencia ciega basada en datos es nuestra creciente dependencia de los algoritmos. Google no solo predice lo que estamos buscando, sino que nos dice cuando lo hemos encontrado. Los algoritmos de Amazon no solo predicen lo que queremos comprar, sino que nos dicen cuando debemos comprarlos. Facebook no solo predice con qui茅n queremos ser amigos, sino que nos dice cu茅ndo y con qui茅n debemos querer mantenernos en contacto.

Lo que est谩 en cuesti贸n aqu铆 no es que estos algoritmos afirmen conocernos, sino que les creemos. Ellos hacen recomendaciones que se supone son adecuadas a nosotros. Pero, la cosa es que no tenemos forma de saber y en qu茅 medida tales recomendaciones son verdaderas. Con frecuencia ni siquiera estamos conscientes de los algoritmos que act煤an detr谩s de las cortinas de la tecnolog铆a con las que interactuamos.

Un investigador que estudiaba c贸mo se comportan las personas en l铆nea debido a los algoritmos encontr贸 que los participantes de la investigaci贸n no sab铆an que su comportamiento estaba siendo influ铆do por algoritmos. El 60% de estas personas no sabia que Facebook estaba filtrando sus fuentes de noticias. Incluso si estamos conscientes de tales algoritmos, dice Gertz, todav铆a no estamos conscientes de qu茅 saben los algoritmos acerca de nosotros y de c贸mo se utilizan esos datos.

En buenas cuentas, los algoritmos pueden aprender sobre nosotros, pero nosotros no podemos aprender sobre ellos y este es un arreglo que no solo aceptamos, sino que activamente participamos en 茅l a diario, incluso cuando intentamos luchar en contra de ellos. Estos algoritmos son programas de computadoras que contienen una serie de instrucciones dise帽adas de tal modo que los programas inform谩ticos pueden clasificar cantidades masivas de datos para perfilar, juzgar y determinar, por ejemplo, lo que suele gustarle o no a la gente como t煤 o yo. 

驴C贸mo pueden los algoritmos predecir nuestras conductas? Es que nos hemos vueltos predecibles. Esto es algo que nos hacemos los unos a los otros a trav茅s de las costumbres, la moral y la civilidad que nos indican c贸mo comportarnos correctamente. El precio de esta predictibilidad es que no s贸lo nos hemos transformados en seres uniformes, regulares y calculables, sino tambi茅n en sujetos desindividualizados. La individualidad es peligrosa porque es impredecible y lo que la sociedad quiere es, por el contrario, la conformidad y la regularidad.

El reemplazo de la identidad personal por nuestro deseo de aceptaci贸n personal puede ayudar a explicar porqu茅 estamos tan dispuestos a vivir determinados por los algoritmos. Esta predictibilidad de las conductas humanas ciertamente no es nada nuevo. La manipulaci贸n, el adoctrinamiento, el condicionamiento y la tortura tienen una historia milenaria, pero, al menos, eran procesos humanos, algo que nos hac铆amos unos a otros. Lo que es nuevo ahora es que este trabajo realizado por el humano sobre s铆 mismo ya no est谩 siendo dirigido 煤nicamente por humanos.

Los algoritmos no s贸lo son medios con los que obtenemos nuestros datos, sino que ellos tambi茅n activamente est谩n moldeando nuestras conductas e identidades. Como nota Gertz con el reemplazo del 鈥淏ig Brother鈥 por el 鈥淏ig Data鈥 tal vez hemos perdido la 煤nica gota de esperanza a la que todav铆a pod铆amos aferrarnos, a la creencia de que incluso si la mayor铆a de los humanos hemos sido reducidos a meros t铆teres, todav铆a quedaban algunos humanos que no eran t铆teres y que eran los que tiraban los hilos.

驴Podr铆amos decir lo mismo hoy d铆a? Aunque los instrumentos y las creencias que cubren la manipulaci贸n y el adoctrinamiento de la poblaci贸n han cambado, lo que no ha cambiado es la idea de que el conocimiento se pueda convertir en poder. Alguien esta recopilando datos, escribiendo algoritmos y benefici谩ndose con ello. Pero, la gran mayor铆a de nosotros no sabemos qu茅 es lo que los algoritmos saben y c贸mo ellos funcionan debido al secreto, seg煤n la presunci贸n prevalente.

Si hay una 鈥渃aja negra鈥 que contiene la infraestructura algor铆tmica, es porque los dise帽adores construyeron tal 鈥渃aja鈥 a partir de una compleja mezcla matem谩tica, legal y burocr谩tica. Su conocimiento, entonces, es posible y si los que estamos siendo impulsados por lo que est谩a dentro de 鈥渓a caja鈥 no tenemos este conocimiento es porque no tenemos acceso a 茅l o, al menos, no todav铆a. En principio, podr铆amos acceder a 茅l si adquirimos esa especializaci贸n cognitiva.

Aqu铆 uno podr铆a preguntar si realmente es 茅ste el caso. Tal vez la suposici贸n de que siempre hay un ser humano en 鈥渆l circuito鈥 ya no corresponde a los hechos. Seg煤n Andrew Moore, ex vicepresidente de Google, los codificadores escriben algoritmos. Los algoritmos producen resultados. Pero la forma en que se produjeron estos resultados no est谩 clara, no s贸lo para aquellos de quienes se tratan los resultados, sino tambi茅n para los mismos autores de los c贸digos que producen los resultados.

Mientras las m谩quinas aprenden m谩s y m谩s acerca de nosotros, nosotros aprendemos menos y menos acerca de ellas. Y esto no porque las m谩quinas nos enga帽en, sino porque ellas, seg煤n Moore, no son tan inteligentes, ya que solo siguen las reglas. Y lo curioso es que cada vez m谩s se esta dando el caso de que nadie sabe c贸mo estas m谩quinas est谩n siguiendo las reglas o qu茅 informaci贸n se incluye o excluye.

驴Por qu茅, entonces, a pesar de que nadie sabe realmente c贸mo funcionan estos algoritmos, todav铆a confiamos en ellos? Nietzsche dir铆a que es porque nadie sabe c贸mo los algoritmos funcionan. Mientras mayor sea la opacidad, mayor el misterio y mayor la fe. Los humanos son falibles y cuanto menos sea el papel que ellos jueguen en los algoritmos, m谩s grande es el aura de infalibilidad que los rodea. Sabemos que los algoritmos cometen errores, pero 茅stos son atribuidos a errores humanos, no mec谩nicos.

Si una predicci贸n algor铆tmica, dice Gertz, recomienda incorrectamente un producto, si niega incorrectamente un pr茅stamo bancario o un dron apunta incorrectamente al objetivo deseado, se cree que 茅ste es el resultado de una parcialidad o prejuicio humano o a una falta de informaci贸n en el dise帽o del algoritmo. La primera excusa puede usarse para justificar el reemplazo de humanos por m谩quinas, en tanto que la segunda puede usarse para justificar a煤n m谩s el reemplazo de los valores humanos, como la privacidad, por los valores de la m谩quina, como la eficiencia, por ejemplo.

A medida que los algoritmos se vuelven m谩s complejos y m谩s integrados en la sociedad, es cada vez mas probable que nos quedemos sin otra alternativa que tratar de que los algoritmos 鈥渂uenos鈥 luchen contra los algoritmos 鈥渕alos鈥 . Al final terminamos de todas maneras con que las decisiones las hacen los algoritmos. Podemos cerrar nuestras aplicaciones y dispositivos con la ilusi贸n de que podemos escapar a su influencia, pero en 煤ltima instancia ellos no se desconectan de nosotros.

Las nuevas tecnolog铆as digitales son invasivas no solo en t茅rminos de nuestra privacidad, sino tambi茅n en t茅rminos de nuestra perceptividad. Podemos pasear en el parque sin tel茅fono con el fin de encontrar una experiencia sin intermediarios y, aun as铆, seguimos experimentando el mundo a trav茅s de nuestros dispositivos. Si vemos, por ejemplo, una rosa de un brillante amarillo la percibimos no solamente como hermosa, sino como digna de Instagram o cuando experimentamos un evento lo experimentamos no s贸lo como algo memorable sino tambi茅n como algo digno de Twitter.

Perfeccionar las tecnolog铆as, 驴ayuda o dificulta nuestros intentos de mejorarnos? Y, m谩s importante鈥 驴qu茅 significa 鈥渕ejorar鈥?

* Nieves y Miro Fuenzalida son profesores de Filosofia chilenos graduados en la Universidad de Chile. Residen en Ottawa, Canad谩, desde el 1975. Nieves estuvo 12 meses presa en uno de los campos de concentraci贸n durante la dictadura de Augusto Pinochet. Han publicado seis libros de ensayos y poes铆a. Colaboradores de surysur.net y del Centro Latinoamericano de An谩lisis Estrat茅gico (CLAE)




Fuente: Briega.org