Skip to content

José A. Estévez Araujo

La responsabilidad de las redes sociales en la polarización política

Facebook favorece la difusión de mensajes que provocan la división en el seno de la sociedad fomentando la polarización. Lo hace porque actuando así gana más dinero. Este es el mensaje que Frances Haugen, ha transmitido a todo aquél que ha querido escucharla.

Ante la Subcomisión para la Protección del Consumidor y la Seguridad de los datos del Senado de Estados Unidos afirmó que Facebook “aviva la división”, “amplifica el extremismo” y difunde “mensajes de odio”. Ante los representantes de la Unión Europea repitió el mensaje afirmando que Facebook “inflama la polarización y la división social actual” y que “genera odio”.

Formuló las mismas acusaciones en las otras etapas de su “gira europea” de 2021 que la llevó a Londres, Berlín, París o Lisboa. Afirmó también que Facebook ha sido responsable de la violencia étnica en Etiopía y del asalto al Congreso de los Estados Unidos tras las elecciones en las que Trump no aceptó su derrota.

Otro de los mensajes que ha repetido machaconamente es que Facebook conoce perfectamente el problema, pero que “antepone la obtención de mayores beneficios a cualquier otro tipo de consideración”. Insiste en que todo eso “tiene solución”, pero que la compañía no va a ser quien le ponga remedio. Por eso recalca la “necesidad de legislar” para que Facebook deje de poder campar a sus anchas, aunque es consciente de que Meta, la nueva compañía de Zuckerberg “teme la posible regulación” y utilizará todos los medios a su alcance para impedir que salga adelante.

La odisea de Haugen

La odisea de Haugen se desarrolló a lo largo del año pasado y fue uno de los pocos temas objeto continuado de noticias, que no tenía relación con la pandemia. La trama se inició con la filtración por parte de la exempleada de Facebook de miles de documentos internos de la empresa al periódico “The Wall Street Journal” (en adelante WSJ). Se trataba fundamentalmente de correos electrónicos y memorandos o notas escritos por los técnicos y ejecutivos de la compañía.

En base a la información contenida en esta documentación el WSJ ha publicado una colección de artículos en una serie titulada “Los archivos de Facebook”.

La filtración se hizo desde el más absoluto anonimato. Pero la “garganta profunda” de Facebook reveló posteriormente su identidad en un programa televisivo llamado 60 minutes. A partir de ese momento inició el periplo para difundir sus mensajes.

Uno de los artículos publicados en el WSJ está directamente relacionado con la polarización política y permite entender bastante bien qué es lo que ha sucedido con Facebook. Se titula algo así como “Facebook intentó hacer de su plataforma un lugar más sano. En lugar de ello, ésta se tornó más furibunda”. Fue escrito por Keach Hagey y Jeff Horwitz (https://www.wsj.com/articles/facebook-algorithm-change-zuckerberg-1163165 4215?mod=article_inline).

Todo empezó con un nuevo algoritmo que Facebook introdujo a principios de 2018. En él se incorporó un sistema de puntuación para calcular la intensidad de las reacciones, es decir, el grado de participación de los usuarios. Las puntuaciones obtenidas servían también para que el algoritmo posicionara mejor o peor los contenidos en el Feed de noticias de cada uno de ellos.

De acuerdo con esta escala, un like valía un punto, una reacción (como un emoticono) contaba 5 puntos y un comentario o un reenvío 30 puntos. En base a los datos obtenidos, el nuevo algoritmo empezó a privilegiar los contenidos que consideraba más probable que la gente compartiera o comentara.

Pero su funcionamiento tuvo una serie de efectos secundarios perniciosos. En lugar de convertir Facebook en un lugar más sano como dijo Zuckerberg que pretendía, se convirtió en una red social más tóxica. Propició la indignación y el sensacionalismo especialmente en los contenidos políticos y las noticias. De acuerdo con las notas filtradas al WSJ, los investigadores de la compañía señalaron que “La desinformación, la toxicidad y el contenido violento son excesivamente frecuentes entre los reenvíos».

El nuevo algoritmo recompensaba desproporcionadamente la división y el enfrentamiento y el debate político en la plataforma se volvió más desagradable. Los mensajes negativos que contenían ataques duros a los opositores políticos pasaron de ser el 50% a constituir el 80% del total. Proliferaron los insultos y las amenazas. Estaba claro que el nuevo algoritmo impulsaba la polarización política de acuerdo con los memorandos, notas y correos electrónicos que se intercambiaban dentro de la propia compañía.

El efecto polarizador se amplificó, porque muchos medios de comunicación utilizan Facebook como plataforma de distribución, algunos con carácter exclusivo. Irónicamente News Corp, propietaria de The Wall Street Journal, tiene un acuerdo comercial para suministrar noticias a través de Facebook. Algunos de estos medios se quejaron porque para obtener visibilidad en la plataforma tenían que generar contenidos que provocaran reacciones airadas. La misma queja la hicieron partidos políticos de diversos países. Se veían obligados a aumentar la agresividad y la negatividad de sus mensajes para que éstos llegaran a sus miembros y simpatizantes a través del Feed de noticias.

Los técnicos y managers de la compañía elaboraron varias propuestas para contrarrestar esos efectos secundarios del algoritmo. Pero Zuckerberg dijo que no quería implementarlas si eso reducía la participación de los usuarios. Las soluciones fueron, pues, descartadas.

Todas estas informaciones, obtenidas de documentos internos de la compañía, confirman punto por punto las declaraciones que hizo Frances Haugen en todos los foros en que tuvo la oportunidad de intervenir.

El capitalismo de la vigilancia

A pesar de que la particular odisea de Frances Haugen se inicia con un cambio en el algoritmo del Feed de noticias de Facebook, el problema de fondo no es ese hecho puntual y sus consecuencias. Es algo que forma parte de la esencia del negocio de las redes sociales y, en general, de todas las empresas del llamado “capitalismo de la vigilancia” (Zuboff, S., 2019. The age of surveillance capitalism: The fight for a human future at the new frontier of power. Profile books. Hay trad. castellana en Paidós)

La materia prima del capitalismo de la vigilancia son los datos acerca de la actividad de los usuarios en internet y en otros ciberespacios como las redes de telefonía digital. Para recolectar el mayor número de datos posible, las plataformas digitales precisan que sus usuarios estén permanentemente conectados y que interactúen constantemente con otros usuarios o con la propia plataforma. La incitación para conectarse e interactuar, así como el análisis de los datos que se recolectan, se llevan a cabo utilizando algoritmos cada vez más sofisticados.

El negocio de las empresas de este sector es un nuevo tipo de publicidad basado en ofertas personalizadas lo que explica la insaciable voracidad de datos de que hacen gala las plataformas digitales. La obtención de beneficios en ese sector ha sido el impulso económico fundamental que ha determinado el desarrollo de las tecnologías digitales.

Las actuales técnicas de análisis de datos permiten prever nuestras reacciones frente a determinados estímulos. Esta capacidad es la que se utiliza para ofrecernos productos o servicios acordes con los gustos e intereses que hemos ido manifestando por medio de nuestra interacción con la plataforma y, en general, a través de nuestra actividad en Internet. Permiten también predecir las circunstancias concretas en las que una oferta resultará más eficaz, incitándonos a consumir un determinado producto.

En un libro pionero, bastante más antiguo que el cambio del algoritmo de Facebook, pues se publicó en 2011, Eli Pariser analizó con encomiable claridad por qué el modelo de negocio de las empresas del capitalismo de la vigilancia fomenta la polarización política (Pariser, E., 2011. The filter bubble: How the new personalized web is changing what we read and how we think. Penguin. Hay traducción castellana. Yo he podido consultar únicamente la traducción portuguesa: Pariser, E., 2012, O filtro invisível: o que a internet está escondendo de você. Editora Schwarcz-Companhia das Letras).

Personalización y viralidad

En la primera década del siglo XXI se inició una carrera para la “oferta de relevancia personal” o personalización. La personalización de los contenidos que nos presenta una página web como la de Amazon, un motor de búsqueda como Google o una red social como Facebook consiste en que nos ofrecen prioritariamente aquellas informaciones que consideran que más se ajustan a nuestros intereses.

Una de las empresas pioneras en la personalización de contenidos fue Google. Desde el año 2009 ha dejado de haber un “Google único”. El enorme éxito inicial del buscador de Google se basó en el sistema llamado PageRank. La relevancia de las páginas web se medía por las “citas” que obtenían de los demás sites de la red. Un link para otra página “podía ser considerado un voto”. La personalización del buscador se llevó a cabo introduciendo otro indicador de relevancia basado en la conducta de los usuarios a la hora de seleccionar los resultados de la búsqueda en que clicaban: el “indicador de click”.

La personalización del buscador de Google tiene como consecuencia que la misma búsqueda realizada por dos usuarios distintos genera resultados diferentes. Así “(…) la búsqueda ‘células madre’ puede generar resultados diametralmente opuestos para los científicos que están a favor de la investigación con células madre y los activistas que se oponen a ella”. (p.6).

En el caso de Facebook, la personalización se realizó por medio del Feed de noticias, esto es, la página principal del site que nos muestra los nuevos contenidos. La selección de esos contenidos y la posición que ocupan en la lista viene establecida por el EdgeRank, un algoritmo que determina, en base a diversos criterios, qué contenidos nos van a interesar más.

La personalización de contenido es una estrategia imprescindible para las empresas del capitalismo de la vigilancia. Se encuentra en el núcleo de su negocio. Y explica también su ansia por obtener datos, pues para personalizar los contenidos para mí necesita “saber quién soy yo” con el mayor grado de detalle posible. Sólo así puede pretender alcanzar la “relevancia perfecta”.

Una de las tesis centrales de Pariser (la que da título a su libro) es que la personalización de contenidos que llevan a cabo las redes sociales nos encierra en una “burbuja” digital. Los contenidos creados por personas que se parecen a mí “ganan importancia”. La proporción de contenidos que reafirman nuestra manera de pensar “aumenta drásticamente” dentro de la burbuja. Todo eso provoca lo que los psicólogos denominan “sesgo de confirmación” o, dicho de modo más coloquial, que sólo veamos lo que deseamos ver.

El sesgo de confirmación es producto de la ruptura del delicado equilibrio entre “asimilación” y “acomodación” que debe darse en todo proceso de aprendizaje. Pariser lo explica así siguiendo a Piaget:

Jean Piaget, una de las principales figuras de la psicología del desarrollo, describe el aprendizaje como un proceso de asimilación y acomodación. La asimilación se produce cuando los niños adaptan los objetos a sus estructuras cognitivas existentes, como cuando un bebé identifica un objeto colocado en la cuna como algo para morder. La acomodación se produce cuando ajustamos nuestros esquemas a la nueva información: ‘¡ah, esto no es para morder, es para hacer ruido!’. Modificamos nuestros esquemas para que se acomoden al mundo y modificamos el mundo para que se acomode a los esquemas, y es a partir del equilibrio entre ambos procesos que se produce el crecimiento y la adquisición de conocimientos (p.70).

Obviamente la personalización nos incita a que adaptemos el mundo a nuestros esquemas de pensamiento, en detrimento de la adaptación de nuestros pre-juicios a las nuevas informaciones que recibimos del mundo. Además, puede afirmarse que en general nos resulta más “fácil y placentero”, ver contenidos que se adaptan a nuestras ideas que aquellos que nos cuestionan nuestros presupuestos. El efecto burbuja potencia esa tendencia que tenemos y que, según algunos, es “natural”.

En definitiva, la burbuja digital es una especie de esfera cuya superficie interna es como un espejo que nos impide ver el mundo exterior y únicamente nos refleja a nosotros mismos. Como dice Parisi, dentro de la burbuja “nos adoctrinamos con nuestras propias ideas” en un ejercicio de narcisismo destinado a inflar nuestro ego.

Otro criterio que utilizan los sites y las redes sociales para determinar los contenidos que nos ofrecen es lo que podríamos llamar su “popularidad” o el “tráfico” que generan en Internet. A este respecto Pariser señala irónicamente que: “lo único mejor que ofrecer artículos relevantes para una persona concreta es ofrecer artículos relevantes para todo el mundo”.

El criterio del potencial de viralidad de un contenido como filtro que determina las informaciones que se nos ofrecen tiene varias consecuencias perversas. Recordemos que los efectos secundarios del algoritmo de 2018 implantado por Facebook se debieron a que favorecía la difusión de los contenidos con más posibilidad de ser comentados o reenviados.

Este filtro prioriza los contenidos que generan emociones intensas. Un estudio de las noticias más reenviadas del New York Times mostró que las historias que despertaban sentimientos fuertes -deslumbramiento, ansiedad, ira, alegría- se compartían con mucha más frecuencia. Tenemos una predisposición a reaccionar “movidos por unos instintos muy básicos” o bajos Parisi señala que “si una noticia es sobre sexo, poder, cotilleo, violencia, famosos o humor, probablemente la leeremos primero”.

El filtro de la popularidad o de la disposición a reaccionar no sólo influye en los contenidos que se nos presentan, sino también en quienes generan esos contenidos, incluidos los medios de comunicación. La difusión del contenido, el número de usuarios que lo “clican” y que lo comparten son seguidos en tiempo real por los editores. La consecución del mayor volumen de tráfico posible es lo que determina crecientemente los contenidos que ofrecen los medios on line, los blogs y otros sites que generan información.

En la primera década de este siglo era frecuente escuchar la afirmación de que Internet había “desintermediado” la información. Es decir, que ya no dependíamos de los “medios” en la medida que podíamos acudir a las fuentes originales. Por ejemplo, no necesitábamos leer la información de El País sobre un comunicado de prensa de La Moncloa, porque podíamos acceder directamente al texto en la web del gobierno.

Pero en la segunda década del siglo se constató que la desintermediación era un mito. Internet no había eliminado los intermediarios, sino que los había sustituido. Los editores humanos profesionales habían sido reemplazados por “bits de código”, es decir por los algoritmos que utilizan las redes sociales y otras fuentes de producción y difusión de contenidos.

Efectos     combinados   de        los       filtros-burbuja           que     propician        la polarización

Debido a los efectos combinados de la personalización y la viralidad vivimos una “existencia filtrada”. El mundo filtrado que nos presentan las redes sociales ha trastocado la dinámica de la esfera pública, porque en los últimos años ha habido un aumento constante de las personas para las que las redes son la principal o única fuente de información. Este crecimiento se da sobre todo entre las generaciones más jóvenes.

Una idea en la que Pariser insiste mucho es que los efectos combinados de la personalización y la viralidad tienen consecuencias devastadoras para la “virtud” propia de la ciudadanía (o suponen un peligro para la democracia como ha declarado Haugen en diversas ocasiones. Algunos de los efectos más nocivos son los siguientes:

— El sesgo de confirmación que propicia el efecto burbuja tiende a convertir a los usuarios en personas más dogmáticas. Sólo ven lo que desean ver y eso las reafirma en sus creencias y presupuestos. El dogmatismo imposibilita que puedan dejarse convencer por el mejor argumento, una actitud imprescindible para que el debate racional sea posible. En caso de que discutan con alguien que no piensa como ellos, su objetivo será “ganar la discusión” como sea, ofuscando al adversario, ofendiéndole, manipulando la información y utilizando las demás estratagemas que ya fueron recogidas en el clásico libro de Schopenhauer “El arte de tener razón”.

— Como los contenidos cuya difusión propician los algoritmos van dirigidos a despertar fuertes emociones en el receptor se impide o dificulta enormemente también cualquier tipo de discusión racional sobre el tema de que se trate.

— El efecto burbuja que privilegia las cuestiones que me afectan directamente a mí o a mis amigos disminuye nuestra capacidad de empatía por los “otros” (los refugiados, los inmigrantes, las víctimas de guerras lejanas…). Y la facultad de empatizar con los problemas de personas a las que no conocemos es un fundamento esencial para sentirse implicado en los asuntos públicos.

— Uno de los efectos que también nos distancia de personas e intereses ajenos es la disminución de nuestro capital social, especialmente el capital que Parisi denomina “de puente”:

Putnam identificó dos tipos de capital social: está el capital «de vinculación», orientado al interior de grupos ya formados y creado, por ejemplo, cuando participamos en una reunión de ex alumnos de nuestro colegio, y también el capital «puente», generado en un evento como una asamblea de vecinos, en la que personas con distintas historias de vida se reúnen y se conocen (p. 18).

— El filtro de la popularidad nos aleja de las cuestiones complejas, pero importantes. Los contenidos virales no suelen ser los que nos proporcionan información relevante sobre los asuntos públicos. Es algo análogo a lo que ocurre en la televisión: que un programa tenga una gran audiencia no significa que “despierte al ciudadano” que hay en nosotros.

En conclusión, resulta innegable que las redes sociales incentivan la polarización política tal como se desprende de las declaraciones de Haugen, de los documentos que filtró de Facebook y del análisis de Parisi: la personalización propicia que recibamos únicamente contenidos que confirman nuestras creencias y potencian el sesgo de verificación, lo que nos vuelve más dogmáticos; la viralización propicia la difusión de los mensajes más radicales, ofensivos, demagógicos o sensacionalistas en la discusión política que tiene lugar en las redes, lo que da mayor visibilidad tanto a los extremistas de “nuestro lado” como del “otro lado”; traslada asimismo el intercambio de mensajes a un terreno eminentemente emocional relegando las posturas más ponderadas y sensatas.

Todos estos efectos polarizadores son consecuencia en última instancia, del modelo de negocio del capitalismo de la vigilancia que consigue mayores beneficios cuanta más atención logre atraer y cuantas más reacciones de los usuarios logre provocar.

¿RESignación o RESistencia?

No debemos aceptar esta situación como inevitable. Creo que la forma más efectiva de contrarrestar el efecto polarizador de las redes sociales es luchar por la salvaguarda de nuestra privacidad en Internet.

La defensa y protección de la privacidad en Internet es algo que choca frontalmente con la esencia del negocio del capitalismo de la vigilancia. Es un torpedo que alcanzará a las empresas en su línea de flotación. Les privaría de la materia prima de su negocio: la información sobre las actividades y características de las personas.

Hay numerosos expertos que atribuyen la responsabilidad de las violaciones de la privacidad a los propios usuarios. Estos se “resignan” a que las plataformas recopilen y procesen sus datos a cambio de poder utilizar “gratuitamente” los servicios que ofrecen. Se habla, en este sentido, de la “paradoja de la privacidad”, que consiste en lo siguiente: si preguntamos a las personas si valoran la protección de su privacidad responderán de manera inequívocamente afirmativa, pero si observamos cómo actúan vemos que ceden sus datos y no adoptan medidas para proteger eso que dicen valorar.

Hay un autor que eleva hasta el paroxismo esta tesis afirmando que los ciudadanos son “la principal amenaza” para la privacidad (DeBrabander, F., 2020. Life After Privacy: Reclaiming Democracy in a Surveillance Society. Cambridge University Press.)

Este tipo de razonamientos toman por causa lo que en realidad es el efecto. En realidad, lo que ocurre es que los ciudadanos se resignan, porque no disponen de mecanismos jurídicos eficaces que les protejan.

La relación entre las plataformas y los usuarios está regulada fundamentalmente por contratos. En este terreno, se aplica el principio de «notice and consent»: la empresa informa de las condiciones del servicio y si el usuario las acepta entonces se convierten en vinculantes. Y ese es el mecanismo dominante, incluso después de la entrada en vigor del Reglamento General de Protección de Datos de la Unión Europea.

Es fácil entender que los contratos son un mecanismo totalmente inadecuado para regular las relaciones jurídicas entre sujetos entre los que existen grandes asimetrías de poder. Más que constituir acuerdos de voluntades, son estipulaciones impuestas de manera unilateral. El usuario no tiene posibilidad de negociar las cláusulas del contrato con la plataforma. Sus opciones se reducen, en esencia, a “lo tomas o lo dejas”. Por otro lado, si yo mismo quisiera examinar las políticas de privacidad, permisos, política de cookies, etc. de todas las aplicaciones que utilizo o páginas que visito necesitaría dedicar cuatro meses al año a jornada completa. Y esa enorme inversión de tiempo no me asegura que las entienda.

Aquí nos encontramos en una situación análoga a la que dio nacimiento al derecho laboral. Es necesario establecer una regulación jurídica “fuerte” que establezca obligaciones que deben obedecer las empresas y que no pueden ser obviadas por ningún tipo de pacto en contrario entre éstas y los usuarios. Eso es lo que ha exigido repetidamente Haugen cuando exhorta a los órganos estadounidenses o europeos a “legislar”. Y también es una exigencia que plantean numerosos expertos, como Benjamin Garfield, que publicó un informe en 2020 titulado «Digital Society: Regulating privacy and content online», en el que exigía una “regulación más amplia” que “equilibrara la balanza” entre los usuarios y las plataformas y que comprendiera no sólo los datos que los usuarios entregan a las compañías, sino también los contenidos que reciben de éstas.

Otra cosa que no tiene en cuenta la tesis de la resignación es la enorme cantidad de personas y organizaciones que luchan en defensa de la privacidad en Internet en todo el mundo.

Existen muchas formas de acción directa que constituyen instrumentos de defensa propia de la privacidad. Estas actividades imposibilitan o dificultan enormemente las tareas de rastreo por la red. Proceden del movimiento hacker, que tiene una importante dimensión política y ética en el caso de los hacktivistas llamados “de sombrero blanco”. Los miembros de este movimiento han denunciado sistemáticamente que “la gobernanza de Internet se ha ido convirtiendo crecientemente en un dominio del sector privado” y que “todas las aplicaciones comerciales nos monitorizan y almacenan información sobre nosotros (destacado mío).” Webb, M., 2020. Coding Democracy: How Hackers are Disrupting Power, Surveillance, and Authoritarianism. MIT Press, p. 77)

La preferencia del movimiento hacker por la acción directa se pone de manifiesto en uno de sus documentos seminales, donde se dice:

Por una fracción de la inversión de tiempo, dinero y esfuerzo que me tomaría tratar de convencer al estado de que abrogue el espionaje y todas las formas de censura, puedo enseñarle a cada libertario que esté interesado en cómo usar la criptografía para abrogarlo unilateralmente» (La cita ha sido extraída de una conferencia pronunciada en 1987 por el matemático Chuck Hamill (Hammill, 1987), El texto de la conferencia ha sido consultado en https://nakamotoinstitute.org/static/docs/from-crossbows-to-cryptography.pdf)

El movimiento diseñó instrumentos criptográficos novedosos, como el sistema de doble llave y también recursos para poder moverse anónimamente por Internet, como el navegador Tor. La criptografía y Tor siguen utilizándose por muchímimos usuarios para defenderse de la cibervigilancia.

También se han desarrollado otras estrategias de acción directa que han recibido la denominación de tácticas de ofuscación y que permiten engañar o confundir a las plataformas o aplicaciones que nos vigilan:

En una frase: La ofuscación es la adición deliberada de información ambigua, confusa o engañosa para interferir en la vigilancia y la recopilación de datos (Brunton, F. and Nissenbaum, H., 2015. Obfuscation: A user’s guide for privacy and protest. Mitt Press, p.1)

Aparte de las formas de acción directa existe un gran número de organizaciones que llevan a cabo campañas en defensa de la privacidad.

En un estudio de 2020 se afirma que está en avanzado proceso de construcción un movimiento transnacional en defensa de la privacidad. Especialmente ha habido un incremento en las “conexiones trasatlánticas” (entre organizaciones de la UE y de Estados Unidos). Se ha producido un crecimiento de la “conciencia mutua”, es decir de los “asuntos trasatlánticos”: los europeos han prestado una creciente atención a los temas y campañas estadounidenses y los estadounidenses a los europeos (Lehoucq, E. and Tarrow, S., 2020. ‘The Rise of a Transnational Movement to Protect Privacy’, Mobilization, 25(2), pp. 161–184).

Esa transnacionalización ha sido producto de una serie de hechos de trascendencia internacional como las revelaciones de Snowden o el caso Scherm que acabó con la consideración de Estados Unidos como un “puerto seguro” por parte de la UE. A ello podemos añadir el escándalo que rodeó los manejos de Cambridge Analytica o las revelaciones de Frances Haugen.

En el estudio, se pone de manifiesto el crecimiento de dos organizaciones señeras en la defensa de la privacidad, una europea (Privacy International) y otra norteamericana (la Electronic Frontier Foundation). La investigación realizada lleva a los autores a concluir que se ha dado “una creciente concienciación sobre la privacidad no sólo entre los grupos sin ánimo de lucro, sino también por parte de los ciudadanos” (p.17) Otros autores han llegado a afirmar que las organizaciones de derechos digitales superan ya en número a las que se ocupan de los “derechos ecológicos o de los derechos de los animales”. (Isin, E. F. and Ruppert, E. S., 2020. Being digital citizens. Rowman & Littlefield Publishers, p. 154).

En este mismo libro dedicado a la ciudadanía digital los autores consideran que todas esas formas de acción directa y de campañas y organizaciones van dirigidas a “reclamar derechos digitales” y que constituyen “actos de ciudadanía”. Estas acciones (especialmente las medidas de autoprotección) logran “instaurar” de facto derechos que las personas no tienen. Lo hacen en el mismo sentido en que Brunton y Nissenbaum señalan respecto de los actos de ofuscación:

El objetivo de nuestra limitada revolución es mitigar y derrotar la vigilancia digital actual” (p.1).

El ciberespacio es un campo político en el que se dan relaciones de poder y dominación y actos de resistencia. Las acciones de los “innumerables activistas de Internet” pueden entenderse como contribuciones a la formación de una “figura emergente” que sería una “ciudadanía digital” que está todavía por llegar y que permitiría hacer efectivos derechos digitales como la privacidad e impedir o limitar drásticamente los efectos polarizadores de la actividad de las empresas del capitalismo de la vigilancia en general y de las redes sociales en particular. Es preciso que todos contribuyamos a esa tarea en la medida de nuestras posibilidades.

30 /

1 /

2022

La política electoral, si bien no debe desestimarse, no puede ubicarse en el centro de ninguna acción política radical seria, orientada a cambiar las instituciones que sustentan el sistema político, desmantelar las ideologías hegemónicas y fomentar el tipo de conciencia de masas en que habría de basarse un cambio social y político desesperadamente necesario.

Noam Chomsky
The Precipice (2021)

+