El Supremo de EE UU se inclina por mantener el blindaje de las redes sociales por su contenido
EL PAÍS .- Los jueces se resisten a responsabilizar a las plataformas por los mensajes y vídeos publicados en ellas por grupos terroristas La jueza Elena Kagan se sinceró el martes: “Somos un tribunal. Realmente no sabemos de estas cosas. Ya sabe, estos no son los nueve mayores expertos en Internet”. El Tribunal Supremo de Estados Unidos estaba analizando el alcance de “las 26 palabras que han creado el internet de hoy”, como las definió el abogado de Google (copiando una expresión usada muchas veces). Se trata del artículo que permite a las plataformas y redes sociales vetar contenido que consideren inapropiado y que al tiempo las blinda de responsabilidad frente a los contenidos que suban terceros. Tanto en esa vista del martes como en la celebrada este miércoles, los jueces parecieron inclinarse por mantener ese blindaje. Se debatían dos casos diferentes. En el del martes estaba en el punto de mira si las recomendaciones del algoritmo de YouTube (y por extensión de cualquier red social) están protegidas igual que los propios contenidos de terceros. Los familiares de Nohemi Gonzalez, una de las víctimas de los atentados del Estado Islámico que conmocionaron París el 13 de noviembre de 2015, en la sala de conciertos Bataclan y otros lugares de la capital francesa, demandaron a Google, dueño de YouTube, por la difusión de vídeos del Estado Islámico. En el caso cuya vista se celebró este miércoles, se analizaba si las redes sociales en general, y Twitter como primer demandado en particular, habían favorecido el desarrollo de ciertas organizaciones terroristas. En este caso la demanda la presentaban los familiares de una víctima del atentado terrorista contra la discoteca Reina de Estambul en el que murieron 39 personas en la fiesta de Nochevieja de 2016, año nuevo de 2017. La norma a debate, y de cuya interpretación depende el futuro de internet, es el famoso artículo 230 de la Ley de Decencia en las Comunicaciones de 1996, que establece: “Ningún proveedor o usuario de un servicio informático interactivo será tratado como editor o difusor de información facilitada por otro proveedor de contenidos informativos”. Los jueces del Supremo no serán los mayores expertos en internet, como reconocía Kagan, pero dejaron entrever su postura. El hecho de que hubiesen admitido los dos casos a la vez y las dudas expresadas en el pasado sobre esa descarga de responsabilidad llevaban a pensar en que abordaban los casos dispuestos a cambiar la interpretación de la norma. Sin embargo, de lo escuchado en estos dos últimos días se deduce que se inclinan por mantener ese blindaje. En el primer caso, Gonzalez contra Google, el abogado de los el de los familiares de Nohemi Gonzalez ha ido cambiando de argumentos. Al final, su queja se centraba en la forma en que el algoritmo de YouTube invita a quienes ven vídeos del Estado Islámico a ver otros similares. “En algunas circunstancias, la forma en que se organizan o presentan los contenidos de terceros podría transmitir otra información del propio demandado”, dijo, reduciendo su argumentación a las miniaturas que sugiere la plataforma mientras se ve otro vídeo. Los jueces mostraron enseguida su escepticismo. Clarence Thomas y otros jueces dijeron que les parecía normal que YouTube mostrase vídeos de gatos a quienes ven vídeos de gatos, o de cocina a los que ven vídeos de cocina o de carreras o del ISIS… “Creo que tiene que darnos un ejemplo más claro de lo que quiere decir exactamente”, le retó. John Roberts, presidente del tribunal, también manifestó que le costaba hacer responsable a Google si lo que hay es un algoritmo genérico, no uno destinado a promocionar el contenido terrorista. Elena Kagan se manifestó en esa misma línea: “Esta es una disposición prealgoritmo y todo el mundo está haciendo todo lo posible para averiguar cómo se aplica en un mundo post-algoritmo”, dijo, para luego concluir: “Los algoritmos son endémicos de Internet, que cada vez que alguien mira algo en Internet, hay un algoritmo involucrado”. La jueza Sonia Sotomayor reprochó al letrado que en su demanda, un párrafo tras otro, aseguraba que TouTube era responsable por no haber retirado el vídeo de su plataforma y, sin embargo, en la vista admitía ahora que no tenía por qué hacerlo y que el problema estaba en que su algoritmo lo recomendase verlo. “¿Los proveedores de Internet pueden ser responsables de qué? ¿De mostrarme el siguiente vídeo similar al que estoy viendo?”, preguntó escéptica. Aunque el abogado de la familia González insistió en que cuando la plataforma empieza a sugerir cosas que no has pedido expresamente ya no debería estar blindada, no parecía convencer a los jueces. “No entiendo cómo una sugerencia neutral sobre algo en lo que has expresado interés es complicidad [con el terrorismo]. Estoy intentando que nos explique cómo algo que es estándar en YouTube para prácticamente cualquier cosa en la que tengas interés de repente equivale a complicidad porque estás en la categoría Estado Islámico”, le dijo Thomas. El juez Samuel Alito también pareció rechazar esa argumentación: “Me temo que estoy completamente confundido con el argumento que está esgrimiendo. (…) ¿Está actuando [Youtube] como un editor solo por mostrar estas miniaturas de vídeos de ISIS después de una búsqueda de vídeos de ISIS?”, dijo, reduciendo al absurdo el argumento: “¿Así que si quieren que ese artículo les proteja, no deberían usar miniaturas?” Sonia Sotomayor y Elena Kagan dijeron que quizá haya un punto intermedio entre esa argumentación tan floja de las miniaturas y no poner límite alguno. Ante la necesidad de trazar esa línea divisoria, Kagan se preguntó: “¿No es eso algo que debe hacer el Congreso, no el Tribunal?” La norma se dictó en 1996, cuando no existía ni Google, ni Youtube, ni Facebook ni Twitter. Demócratas y republicanos han pedido modificarla, con diferentes argumentos. Y en esto, como señaló el juez Neil Gorsuch, el siguiente paso es la inteligencia artificial: “En un mundo post-algoritmo, la inteligencia artificial puede generar algunas formas de contenido. Genera poesía. Genera polémicas (…) Eso