Dos casos contra Google, Facebook y Twitter relacionados con el terrorismo pueden cambiar las reglas de la Red. Silicon Valley está en manos de nueve jueces que no saben nada de tecnología
NotMid 27/02/2023
USA en español
¿Cómo se regula internet? ¿Qué hay que hacer para que un salvaje que entra pegando tiros en un centro comercial no lo retransmita a toda la Tierra a través de una red social? ¿Para que otro bestia no cuelgue las imágenes en las que quema a un infiel vivo en una jaula? ¿Para que un imbécil no explique por qué la poligamia es buena para las mujeres? ¿Y, también, para que una adolescente se ahorque y el vídeo no permanezca en la red durante tres días?
Como si fuera una distopía de Hollywood, la respuesta a esas preguntas la tienen nueve personas. Cinco son hombres; cuatro, mujeres. Seis son de derechas; tres, de izquierdas. Hay seis católicos, dos protestantes, y una judía. Siete blancos, una hispana, y un negro. No dan explicaciones a nadie de sus decisiones, que son inapelables y solo pueden ser cambiadas por ellos mismos. Ni siquiera tienen un código ético.
Sus cargos son vitalicios. Aunque existe teóricamente la posibilidad de echarlos, de los más de cien que han ocupado esa posición en la Historia, solo uno lo hizo, hace 53 años, por irregularidades financieras. Son los jueces del Sanedrín más influyente del mundo: el Tribunal Supremo de Estados Unidos. Su misión es interpretar la Constitución de Estados Unidos, un texto que entre el 18% y el 55% de los habitantes adultos de ese país -las encuestas varían muchísimo según quién las haga- consideran que está inspirado directamente por Dios.
Y en los últimos días, el Supremo de Estados Unidos ha visto dos casos que, literalmente, deciden el futuro de internet, porque tratan de si las grandes plataformas online -empezando por Google y siguiendo por Facebook, Instagram, TikTok, YouTube y todas las demás- son responsables o no de los contenidos que hacen accesibles a sus usuarios. Porque, hasta la fecha, no lo son. Un periódico puede ser demandado por libelo. Eso también se aplica a su página web, evidentemente. Pero el buscador que da prioridad a esa página web y hace que salga más arriba en las búsquedas, o la red social en la que ese periódico cuelga esa noticia están completamente fuera del alcance de la ley.
Todo eso es consecuencia del Capítulo 230 de la Ley de Decencia de las Telecomunicaciones de Estados Unidos, establecido en 1996 y que, en la práctica, establece que, cuanto menos se modere una página web, menores posibilidades tiene de ser acusada por, por ejemplo, difamación. Para afirmar eso, le bastan menos caracteres que los que caben en un tuit: «Ningún proveedor o usuario de un servicio de ordenadores interactivo deberá ser tratado como el publicador de una información de otro proveedor de contenido informativo». Fue una disposición que se hizo para poder acusar a uno de los estafadores más famosos del mundo, Jordan Belfort, en cuya vida se basa la película El lobo de Wall Street, de 2013, dirigida por Martin Scorsese y protagonizada por Leonardo DiCaprio y Margot Robbie.
En este momento, hay tres casos que cuestionan el Capítulo 230. Uno afecta a Alphabet (o sea, Google y YouTube), otro a Twitter, y un tercero a Meta (Facebook, Instagram, y WhatsApp). Esta semana, el Supremo ha tenido la vista oral de los dos primeros. Y, aunque no dictará sentencia hasta junio o julio, la sensación generalizada es que el Tribunal se va a inhibir. Según la doctrina legal dominante en Estados Unidos y, también, a juzgar por las palabras de los jueces en las sesiones y por sentencias de tribunales inferiores, el Capítulo 230 posiblemente es excesivo a la hora de blindar a las grandes empresas de internet. Pero arreglar eso es cuestión del Congreso, no de los jueces. Y ahí ya se entra en otra disputa.
Los casos planteados ante el Supremo son escalofriantes. El martes, fue el de Gonzalez contra Google. Es una historia que recuerda una tragedia que Europa no ha olvidado. Fue en París, el viernes 13 de noviembre de 2015, por la noche. Un grupo de siete terroristas suicidas del Estado Islámico (IS) lanzó una oleada de atentados coordinados en la capital francesa en la que asesinaron a 130 personas desarmadas antes de morir ellos por la acción de las fuerzas de seguridad. Uno de los muertos se llamaba Nohemi Gonzalez, era californiana, y todo su delito fue estar cenando en un restaurante en el que los asesinos entraron pegando tiros. Gonzalez, que es la única víctima mortal estadounidense, estaba en París estudiando un semestre, como parte de un programa de intercambio de su universidad.
El argumento de la familia de la joven es que YouTube -que es de Alphabet, la dueña de Google- no cometió ningún delito al permitir a los asesinos del IS colgar los vídeos en los que glorificaban la muerte y captaban a nuevos terroristas, pero sí lo hizo, atención, al dar prioridad a esos vídeos. En otras palabras: no es que la plataforma no pueda colgar lo que quisiera, sino que, al menos, tenga la responsabilidad suficiente como para desarrollar algoritmos que no promocionen mensajes instando al asesinato en masa.
El miércoles, le tocó el turno a un segundo caso, que arranca de otra masacre terrorista. Esta tuvo lugar en la Nochevieja de 2016. A la una y cuarto de la madrugada, el terrorista uzbeco del IS Abdulkadir Masharipov entró en la discoteca Reina en Estambul, en la que había unas 600 personas celebrando el año nuevo. Asesinó a 39 antes de darse a la fuga. Fue detenido 15 días después y condenado a cadena perpetua.
Al igual que en el caso de Gonzalez, los demandantes son la familia de una de las víctimas, el jordano Nawras Alasaf, y su argumento es prácticamente el mismo que el de los Gonzalez: las grandes redes sociales no hicieron prácticamente nada para evitar la propagación de los mensajes del IS y evitar, así, que un fanático como Masharipov se radicalizara en su Uzbekistán natal mirando vídeos y leyendo mensajes en su teléfono móvil y acabara entrando ilegalmente en Rurquí para asesinar a gente cuyo único delito era celebrar la fiesta de Nochevieja en una discoteca.
La legislación actual se debe al ‘lobo de Wall Street’
Pero su caso presenta una diferencia sustancial: no afecta directamente al Capítulo 230, sino a la Ley Antiterrorista de 1996 de Estados Unidos. Y ese es un matiz importante. Algunos de los jueces del Supremo se extendieron en discusiones acerca de lo que significa «ayudar e incitar al terrorismo» y, sobre todo, en las competencias de la Ley, que, según Twitter -que es el que ha presentado el recurso, aunque con el apoyo de Alphabet y Meta- han sido expandidas más allá de lo razonable en las sentencias previas del caso.
Pero, más allá de esas cuestiones, lo que parece estar pesando más en el Supremo es una doble consideración. La más obvia es que ésta es una cuestión complejísima, en la que el avance de la tecnología va muy por delante del de la legislación. Y ahí el martes los nueve miembros del Supremo hicieron el ridículo, con algunas frases para la Historia de la comedia más que de la jurisprudencia. «Me temo que estoy totalmente confundido con el argumento que usted está haciendo en este momento» (Samuel Alito, conservador). «Creo que estoy totalmente confundida» (Ketanji Brown, de izquierdas). «Todavía no lo entiendo» (Clarence Thomas, conservador y famoso porque se pasa años sin hablar, así que su grado de confusión debía de ser, literalmente, de los que hacen época). Al final quien resumió mejor que no se había enterado de nada fue la demócrata Elena Kagan: «A ver, esto es un tribunal. No sabemos de estas cosas. Mire, aquí no están las nueve personas que más saben de la materia».
La reacción en la sala fue una carcajada. Pero también fue una señal de los problemas del Tribunal Supremo. Los jueces cuentan con una división de asistentes, tres meses de vacaciones, y tiempo suficiente como para, al menos, tratar de enterarse de lo que están juzgando. Las frases de Alito, Brown, Thomas, y Kagan recuerdan a la patética pregunta del senador republicano Orrin Hatch a Mark Zuckerberg, el dueño de Meta, en una sesión celebrada en el Senado sobre Facebook en 2018: «¿Pero cómo pueden ustedes tener un modelo de negocio ustedes si no cobran?». La respuesta de Zuckerberg fue muy simple: «Senador, publicamos anuncios». «Ah, ya veo…», fue lo único que acertó a decir el avergonzado político.
Con un debate tan denso, y con los poderes públicos -empezando por el Supremo- sin tiempo, o recursos, o ganas para conocer una industria que se basa en la innovación tecnológica, la regulación siempre irá por detrás de las empresas, y habrá una fricción permanente entre Silicon Valley y Washington (y, ahora, también, Bruselas). Porque la segunda consideración que subyace a todo el debate es que las tecnológicas dicen que es imposible controlar todo lo que cuelgan, por ejemplo, los 2.000 millones de usuarios de Facebook, con seres humanos. Hay que usar algoritmos.
Y los algoritmos se equivocan. Según las empresas, si las empresas son obligadas a realizar la supervisión a mano se acabó internet. Y, si se acabaron Facebook, Instagram, Google, YouTube, Twitter, o Snapchat ¿qué queda? La respuesta es muy fácil: TikTok, una empresa controlada por las Fuerzas Armadas chinas cuyo uso ha sido prohibido en los teléfonos oficiales de los funcionarios de las instituciones europeas esta semana.
Porque, nos pongamos como nos pongamos, las venerables telefónicas europeas no se van a convertir en gigantes de internet. Es, así, un debate que afecta a la vida de las personas, al sector tecnológicamente más puntero y con mayor impacto en la sociedad y, en último término, a la sociedad del futuro. Y el Sanedrín de los nueve hombres justos ha reconocido que, lisa y llanamente, no se entera.
Agencias