Símbolo de no me gusta de Facebook

Facebook, Frances Haugen y los lamentos de Byung-Chul Han

Lo fundamental, radica en comprender que la tecnología es parte de un sistema social, de sus complejidades y su finalidad
Inicio

«Perdón por la interrupción de hoy. Sé cuánto confías en nuestros servicios para mantenerte conectado con las personas que te importan”

Mark Zuckerberg.

 

La perspectiva que arroja la coincidente caída de Facebook con el testimonio de Frances Haugen no deja de ser sorprendente. Es posible que incluso nos ofrezca una lección imprescindible en estos tiempos tan convulsos e inestables en los que vivimos.

De un lado se encuentran las revelaciones no tan nuevas ni tan sorprendentes al WSJ y luego ante el Congreso del peligro que representa Facebook para la democracia, la salud mental de niños, jóvenes y adultos. Del otro, la traición tecnológica y el abandono digital por cerca de seis horas de los principales servicios asociados a Facebook durante el lunes 4 de octubre.

Si bien muchos estarían inclinados a urdir un entramado conspirativo sobre cómo un hecho y otro están relacionados, en realidad, la única relación posible es esencialmente política y tiene dos aristas.

La primera, en relación con la dimensión ontológica de la política contemporánea: la esencial dependencia del ser humano -ya virtual- hacia la tecnología. La segunda dimensión es epistemológica. En este último sentido, es mayor el estado de orfandad en el que nos encontramos respecto a las revoluciones digitales que la supuesta consciencia que hemos alcanzado sobre el uso o desuso de esas nuevas herramientas.

Mientras varias generaciones ya testimonian que es difícil evitar un futuro poshumano; la realidad también dicta que es sabio y necesario un cambio de mirada respecto a cómo conocemos -y también usamos, producimos- la tecnología y los algoritmos relacionados con ella. Lamentablemente esa no es la situación hoy. Nos debatimos todavía entre los lamentos ambiguos de Heidegger y el tono lastimoso, casi inútil, aunque adecuado teóricamente de Byung-Chul Han. Ello significa que el uso de la tecnología y la inserción en ambientes algorítmicos, en esencia, siguen siendo completamente incomprensibles.

Los algoritmos no son más que el reflejo complejo y dialéctico de nuestra propia realidad y agencia. Si se quiere una frase más elaborada, los algoritmos son el reflejo de la actividad humana, como cualquier otra creación.

Pudiéramos pensar que se trata del no-saber propio del estudiante o aprendiz. Doy por descontada esa opción puesto que el conocimiento, en esos casos, es siempre una posibilidad por agotar. Me refiero más bien al desconocimiento propio de la crítica y de aquellos que representan la hipótesis negativa respecto a la tecnología. Para esta opción, aunque la tecnología tiene aspectos positivos, todavía hay un resto negativo que debe ser reprimido. Quizás en algunos contextos se hable de correcciones a los algoritmos, cambios en los dispositivos, o llamados de consciencia a los creadores; pero siempre con un tono predominantemente crítico contra la herramienta en sí.

Un momento clave en toda esta polémica y que refleja en alguna medida lo anterior, ha sido cuando la denunciante Frances Haugen señaló frente al Congreso: “Estoy aquí hoy porque creo que los productos de Facebook perjudican a los niños, avivan la división y debilitan nuestra democracia”.

Si bien es cierto e innegable que ha habido en el pasado escándalos y polémicas en relación al desuso de la tecnología en la política, ello implicaría un contrasentido irónico. Más o menos como culpar al fuego por las hogueras, o a la corriente alterna por la ejecución con silla eléctrica -como sucedió durante la guerra de corrientes en EE.UU. La tecnología necesitaría una corrección en el sentido adecuado, un cambio en su algoritmo. De hecho, Haugen tiene “mucha empatía por Mark [Zuckerberg]”. Incluso llegó a decir que “nunca emprendió este camino [Facebook] para acabar creando una plataforma de odio, pero ha permitido que se tomen decisiones cuyas consecuencias secundarias son que el contenido de odio llegue a más gente”. Así pues, contra el odio, bastaría una corrección en el algoritmo que permitiera apagar -por decirlo de una manera irónica- el componente negativo del contenido, y en sentido opuesto, “encendiera” aquello edificante para la personalidad humana.

Vistas las cosas como en este breve ejercicio mental, nos percatamos de que una vez más no se está entiendo para nada ni qué es el odio, ni su complejidad en la vida humana. Mucho menos se tiene en cuenta todo el proceso bioquímico implicado en la excesiva “atención” que le prestamos a los medios hoy en día.

Ya la neurociencia y la psicología saben muy bien cómo funciona el juego de nuestro cerebro con la dopamina, y cómo ello es usado por los anunciantes y las grandes corporaciones con ansias de captar la atención del usuario. En esa dirección estaría el verdadero daño que se le pudiera infringir a Facebook como compañía. Pero como bien hizo notar The Economist, la afirmación más dañina de toda esta ola de críticas es a la que menos atención se le ha prestado. Según Haugen, Facebook ocultó un descenso de sus usuarios jóvenes de EE.UU., lo cual podría llevar a una disminución general de los usuarios en ese país del 45% en los próximos dos años. Esto afectaría grandemente la reputación de la empresa frente a los anunciantes debido a la falta de transparencia y de divulgación.

Volviendo al inicio, pretender -como se viene repitiendo en varios medios- que el algoritmo de Facebook tiene agencia per se, y que muestra, obliga, adjudica o realiza cualquier otra acción es una situación bien alejada de la realidad. Los algoritmos no son más que el reflejo complejo y dialéctico de nuestra propia realidad y agencia. Si se quiere una frase más elaborada, los algoritmos son el reflejo de la actividad humana, como cualquier otra creación.

Incluso, un crítico de la inteligencia artificial como Stuart Russell, ha señalado recientemente que, más allá de la corrección que debemos aplicar a los algoritmos hay un componente humano detrás de todo esto. Por un lado, está la esencia misma de los algoritmos y su funcionamiento. El principal objetivo de estos es mejorar nuestra experiencia y eso se logra recabando información sobre nuestra actividad. Mientras más datos tenga el algoritmo, mejor sugerencias dará con el fin de solucionar un problema.

Del otro lado, está lo humano como necesidad. Según la interpretación de Russell, ante las adicciones y problemas sociales que crean las redes, el primer paso es conocerlos a fondo.

Por tanto, el problema no radica simplemente en un cambio o corrección, como tampoco en el lamento desproporcionado sobre el funcionamiento de las redes. Si las redes funcionan en un sentido u otro, es porque así entrenamos a los algoritmos y así reflejamos nuestros deseos. Las creaciones humanas no son objetos inertes, sino que conviven en relación dialéctica con nosotros.

En definitiva, el problema está un poco más acá de lo que pensamos y un cambio en el funcionamiento de las redes implica un cambio en la forma en que percibimos, consumidos, trabajamos y actuamos en nuestra vida total. Y todo cambio -como se podrá imaginar- radica en un cambio de la sustancia misma de la época y no solo en un algoritmo.

Byung-Chul Han tiene parte de razón cuando enfatiza, pensando todos estos problemas contemporáneos, que la presión por ser auténticos nos impulsa a autoexplotarnos. Incluso, se puede coquetear con la idea de que un cierto tipo de tecnología es perniciosa, sobre todo cuando el uso es desmedido. Sin embargo, el filósofo tampoco rebasa la simple descripción de los objetos como cosas inertes y aisladas de las mujeres y hombres que las consumen.

“El smartphone es hoy un lugar de trabajo digital o bien un confesionario digital. Todo dispositivo, toda técnica de dominación genera artículos de culto que son empleados para la subyugación. Así se afianza la dominación. El smartphone es el artículo de culto de la dominación digital”, dijo Han en su más reciente entrevista.

En oposición a este camino, un buen paso inicial, diría que inteligente y pragmático, radica en asumir la realidad que hemos creado hasta ahora y emprender el camino a partir de ahí. Lejos de identificarnos con el discurso y la hipótesis negativa sobre la tecnología, es momento de aprender a entrenar a nuestra inteligencia artificial. Esto es, ser conscientes de dónde damos clic, de las páginas que visitamos, de la información que compartimos y con quién. Estas y otra serie de acciones específicas sobre alfabetización tecnológica deben ser complementadas con acciones de incidencia más sistemática y de carácter ético.

Lo fundamental, radica en comprender que la tecnología es parte de un sistema social, de sus complejidades y su finalidad.

Boletín DK