¿Qué viene después de la deplataforma?

Por Russell Brandom

Ilustraciones de Micha Huigen.

Es un hecho extraño de la historia que los críticos comenzaron a pedir en Twitter que prohibiera a Donald Trump poco después de que fuera elegido presidente y obtuviera lo que querían unos días antes del final de su mandato. Durante cuatro años, hablamos de una prohibición: por qué era necesaria, por qué era imposible; cómo negarse mostró que las plataformas tenían principios, cómo demostró que eran hipócritas , y justo cuando no había nada más que decir, sucedió. Hubo justificaciones detalladas para la prohibición cuando llegó (era un estado de emergencia, la mejor entre las malas opciones, etc.), pero el momento sugiere una lógica más simple. Mientras Trump fuera presidente, las plataformas no podían castigarlo. Una vez que perdió las elecciones, fue un juego limpio.

La decisión de Twitter de prohibir a Trump tuvo un efecto en cascada: Facebook emitió su propia prohibición, luego YouTube y luego todos los demás. La red social amigable con Trump, Parler, fue objeto de escrutinio, y el anfitrión de la plataforma, Amazon Web Services, examinó más de cerca las violentas amenazas que se habían extendido sobre Parler antes de los disturbios en el Capitolio, y finalmente decidió abandonar la red por completo. Trump se jactó de haber iniciado su propia red social solo para ofrecer una breve serie de comunicados de prensa en línea. Los periodistas que compartieron los comunicados con demasiado entusiasmo se sintieron avergonzados por ayudar al presidente caído en desgracia a evadir la prohibición, y las presiones sociales hicieron que las capturas de pantalla fueran menos comunes. Pronto, incluso los anuncios de Facebook que mostraban discursos de Trump generaron críticas como una posible evasión de la prohibición.

ES DIFÍCIL NO PREOCUPARSE POR SI LAS PLATAFORMAS PUEDEN SEGUIR ASÍ

Los meses transcurridos desde entonces han ilustrado a la perfección la eficacia del desmontaje. Una vez ineludible, el expresidente casi ha desaparecido del discurso diario. Continúa realizando mítines y haciendo declaraciones, pero la única forma de escuchar sobre ellos es ir a un mitin en persona o sintonizar redes marginales como OANN o NewsMax. Antes de la prohibición, existían verdaderas dudas sobre si la demolición de una figura política importante podría funcionar. Después de la prohibición, es innegable.

En su mayor parte, las plataformas han evitado un retroceso significativo por la decisión, aunque ha habido una creciente angustia al respecto por parte de la derecha estadounidense. Si pueden hacerle esto a Trump, se piensa, se lo pueden hacer a cualquiera. Es completamente cierto. Este es el sueño de la igualdad de justicia ante la ley: cualquiera que cometa un asesinato debería preocuparse de que vaya a la cárcel por ello. No debería haber nadie tan poderoso que no pueda ser expulsado de un restaurante si comienza a escupir en la comida de otras personas. En este caso difícil, Twitter pudo estar a la altura del ideal de justicia igualitaria. Pero cuando miramos a los próximos 10 años de moderación del discurso, es difícil no preocuparse por si las plataformas pueden seguir así.

Nosotros tendemos a hablar de la política de moderación como algo que sucede entre las plataformas y los usuarios (es decir, quién es prohibido y por qué), pero la debacle de Trump muestra que hay otro lado. Como todas las empresas, las plataformas sociales tienen que preocuparse por la política de los países en los que operan. Si las empresas terminan en el lado equivocado de esas políticas, podrían enfrentar un retroceso regulatorio o ser expulsadas del país por completo. Pero la moderación es políticamente tóxica: nunca hace amigos, solo enemigos, incluso cuando influye profundamente en la conversación política. Cada vez más, las plataformas están organizando sus sistemas de moderación para minimizar esas consecuencias políticas por encima de todo.

El problema es mucho más grande que solo Twitter y Trump. En India, Facebook ha pasado los últimos siete años en una relación cada vez más tensa con el primer ministro Narendra Modi, cultivando lazos estrechos con el líder del país mientras la violencia contra la minoría musulmana de India seguía aumentando. En Myanmar, un golpe de estado de febrero obligó a Facebook a dar la bienvenida a los grupos que previamente había contado como terroristas y reprimir a los grupos que se oponían militarmente al nuevo régimen.

DADA LA OPCIÓN, ZUCKERBERG ELIGIÓ LA SALIDA MÁS FÁCIL

No es sorprendente que ambos países hayan coqueteado con una prohibición total de Facebook, flexionando sus propios sistemas de moderación. Modi ha hablado abiertamente sobre una prohibición, e India tiene menos que perder con una prohibición que Facebook. La plataforma dejaría a 260 millones de usuarios de la noche a la mañana, y los mercados y los inversores no tardarían en darse cuenta de las implicaciones. Entonces, cuando una publicación supera los límites de lo que es aceptable, Facebook generalmente hará excepciones.

El ejemplo más claro de esta dinámica fue revelado por los Documentos de Facebook en octubre. En Vietnam, la compañía enfrentó una creciente presión del gobernante Partido Comunista para moderarse contra el contenido «anti-estatal», esencialmente construyendo los valores represivos del régimen en su propia estrategia de moderación. Pero cuando el problema llegó a un punto crítico, el director ejecutivo de Facebook (y ahora director ejecutivo de Meta), Mark Zuckerberg, ordenó personalmente a la empresa que cumpliera, diciendo que era más importante «garantizar que nuestros servicios sigan estando disponibles para millones de personas que confían en ellos todos los días». Dada la opción de proteger la independencia de su sistema de moderación o mantenerse en el lado bueno del gobierno, Zuckerberg eligió la salida más fácil.

ESTOS SON CAMBIOS POLÍTICOS DESAGRADABLES Y DIFÍCILES

Hubo un momento en que un bloqueo de Facebook en todo el país habría sido impensable. Los grupos de la sociedad civil como Access Now han pasado años tratando de establecer una norma contra los apagones de Internet, argumentando que brindan cobertura para los abusos de los derechos humanos. Pero Facebook es tan tóxico en la política estadounidense que es difícil imaginar a un presidente presionando a países extranjeros en su nombre. Cuando Myanmar instituyó un bloqueo temporal a raíz del golpe militar del país, hubo pocas objeciones.

Estos son cambios políticos desagradables y difíciles, y Facebook está jugando un papel activo en ellos, tanto como instituciones nacionales como la prensa o la guardia nacional. Facebook ya no pretende ser un árbitro neutral y, a pesar de la postura de la Junta de Supervisión de Facebook, un organismo pseudoindependiente con autoridad sobre las principales decisiones de moderación, no hay una lógica noble más grande para las elecciones de la plataforma. Solo están tratando de mantenerse en el lado correcto del partido gobernante.

Este tipo de realpolitik no es lo que los deportistas tenían en mente. El objetivo era presionar a Facebook y a los demás para que asumieran la responsabilidad de su impacto en el mundo. Pero en lugar de hacer que Facebook y las otras plataformas sean más responsables, las ha hecho menos disculpas por las realidades políticas. Estas son solo corporaciones que se protegen a sí mismas. Ya no hay razón para fingir lo contrario.

Nosotros a menudo hablamos de las empresas de tecnología como si no tuvieran precedentes, pero el mundo ha lidiado antes con este tipo de poder corporativo transnacional. Si quiere evitar que Coca-Cola o United Fruit Company maten a líderes sindicales, no es suficiente aprobar leyes en los EE. UU. Necesita un estándar internacional de conducta, que vaya más allá de los conceptos específicos de cada país, como causa probable o la primera enmienda.

Durante décadas, una constelación de activistas internacionales ha estado construyendo un sistema de este tipo, un cuerpo de acuerdos transnacionales voluntarios generalmente conocidos como «derecho internacional de los derechos humanos». El nombre es engañoso en algunos aspectos, ya que es menos un sistema judicial que una serie de tratados no vinculantes que acuerdan principios generales: los países no deben discriminar por motivos de raza o género, no deben utilizar a los niños como soldados, no debería torturar a la gente.

El lenguaje de los tratados es deliberadamente vago y la aplicación consiste principalmente en la vergüenza pública. (La Convención contra la Tortura de 1987 no impidió que Estados Unidos adoptara «técnicas mejoradas de interrogatorio», por ejemplo.) Pero se pueden ver los inicios de un consenso internacional allí, que nos empuja hacia un mundo menos opresivo y violento.

«NECESITAMOS PENSAR EN UN MECANISMO INTERNACIONAL PARA HACER QUE ESTAS EMPRESAS RINDAN CUENTAS A UN ESTÁNDAR».

Para los críticos más reflexivos de las redes sociales, este es el único sistema lo suficientemente amplio como para frenar verdaderamente a una empresa como Facebook. Jillian York, que profundiza en el problema de Facebook en su libro Silicon Values, me dijo que la única solución a largo plazo para los problemas que afectan a India y Estados Unidos sería algo de esa escala. “Necesitamos pensar en un mecanismo internacional para hacer que estas empresas rindan cuentas”, me dijo.

Los optimistas podrían ver el cambio hacia la desplantación y el alejamiento del extremismo de la libertad de expresión como un paso en la dirección correcta. El libertarismo del habla al estilo de Reddit es en gran medida un concepto estadounidense, que se basa en las protecciones relativamente inusuales de la Primera Enmienda. Pero en lugar de ir a la deriva hacia un consenso internacional, York ve las plataformas simplemente a la deriva, haciendo lo que se adapte a las necesidades de sus empleados y usuarios en un momento dado. En esta dispensación, hay pocos principios que anclen a empresas como Facebook y Twitter y pocas protecciones si se descarrían.

“Ahora estamos en una fase en la que actúan por su propia cuenta”, dice York. “No creo que el escenario actual sea viable por mucho más tiempo. No creo que la gente lo tolere «.

Nuestro mejor vistazo del futuro posterior a la demolición ha sido la Junta de Supervisión de Facebook, que ha hecho todo lo posible para cuadrar las realidades de una plataforma con algún tipo de principios de discurso superiores. Es el tipo de sistema de notificación y apelación que los defensores han estado pidiendo a las plataformas que adopten durante años. Frente a un flujo interminable de decisiones difíciles, Facebook invirtió decenas de millones de dólares en la construcción de un moderador maestro en el que todos puedan confiar. A pesar de todas las fallas del sistema, es lo mejor que nadie ha podido hacer.

En la práctica, la mayoría de los fallos de la Junta de Supervisión trazan la línea donde las diferencias de opinión dan paso a la violencia política. De las 18 decisiones de la junta hasta ahora, 13 están directamente relacionadas con conflictos raciales o sectarios, ya sea que se trate de separatistas kurdos, sentimiento anti-chino en Myanmar o un meme jocoso sobre el genocidio armenio. Los detalles del fallo podrían ser sobre un término ruso en particular para azerbaiyanos, pero el potencial de opresión masiva y genocidio acecha en el trasfondo de cada uno. Asumiendo el trabajo de moderar Facebook, la Junta de Supervisión ha terminado como árbitro de cuánto racismo es aceptable en los conflictos de todo el mundo.

YA NO PODEMOS FINGIR QUE ESTAS OPINIONES ESTÁN SEGURAS Y AISLADAS DEL MUNDO.

Pero a pesar de todas las deliberaciones públicas de la junta, no ha cambiado el problema básico de la política de plataformas. Siempre que los frágiles principios de la Junta de Supervisión para el discurso en línea entran en conflicto con los intereses corporativos de Facebook, la junta de supervisión sale perdiendo. El ejemplo más atroz hasta ahora es el sistema «Crosscheck» de Facebook que resultó en cuentas de alto perfil de indulgencia, que la Junta de Supervisión tuvo que averiguar en The Wall Street Jornal. Pero incluso cuando la empresa elude su propio panel de expertos, Facebook puede retirarse a lugares comunes sobre el libre intercambio de opiniones, como si cada elección estuviera guiada por un conjunto superior de principios.

Hemos estado usando la «libertad de opinión» para eludir este lío durante mucho tiempo. Jean-Paul Sartre describió una versión del mismo patrón en su obra de 1946 Antisemita y judío, que escribió poco después de la liberación aliada de París. En las primeras líneas del ensayo, se maravilla de la frecuencia con la que la retórica empapada de sangre de los nazis se minimizaba simplemente como una «opinión antisemita»:

Esta palabra opinión nos hace detenernos a pensar. Es la palabra que usa una anfitriona para poner fin a una discusión que amenaza con volverse amarga. Sugiere que todos los puntos de vista son iguales; nos tranquiliza, porque da una apariencia inofensiva a las ideas reduciéndolas al nivel de los gustos. Todos los gustos son naturales; todas las opiniones están permitidas … En nombre de la libertad de opinión, el antisemita afirma el derecho a predicar la cruzada antijudía en todas partes.

Este es el sueño del que las empresas de tecnología recién ahora están despertando. Empresas como Facebook desempeñan el papel de anfitrionas, esperando que la discusión sea lo suficientemente animada como para mantenernos en la habitación, pero no tan acalorada como para dañar los muebles. Pero ya no podemos fingir que estas opiniones están seguras y aisladas del mundo. Son parte de las mismas luchas de poder que dan forma a todos los demás escenarios políticos. Peor aún, están sujetos a los mismos peligros. Solo podemos esperar que, durante los próximos 10 años, las plataformas encuentren una mejor manera de lidiar con ellos.

Comentarios