Las grandes plataformas digitales han acumulado un poder geopolítico de importancia.
Ya no son solamente lugares de acceso a la cultura internet sino que se han convertido en árbitros sobre la circulación de la información, del entretenimiento, de la educación además de competir con las tiendas físicas en términos de descubrimiento, publicidad y venta de productos y servicios.
Por lo tanto lo que está pasando es que las sociedades y los gobiernos están discutiendo desde la visión de los usuarios. Aparecen los derechos tecnológicos y digitales de las personas que pasan casi 5 horas diarias en sus aplicaciones.
No hay semana en el mundo donde no haya una sanción, recomendación o nuevo marco administrativo jurídico sobre estas monstruos tecnológicos.
Ahora la Corte Suprema de EEUU también se suma a esta tendencia.
En la conferencia de septiembre del año pasado la Corte definió tratar dos causas en torno a las plataformas digitales. Los jueces normalmente consideran alrededor de 2,000 peticiones en esta conferencia.
Uno es sobre Google (más precisamente YouTube) y el otro sobre Twitter.
En González v. Google, el debate es sobre la Sección 230 de la Ley de Decencia de las Comunicaciones, que generalmente protege las plataformas de Internet de la responsabilidad por el contenido publicado por otros.
El Congreso de EEUU aprobó la ley en 1996, después de que un tribunal de Nueva York responsabilizara a un proveedor de servicios de Internet por una declaración difamatoria publicada en el tablero de mensajes del sitio web.
Pasaron 25 años y la potencia de las aplicaciones de Internet no es la misma. Noticias falsas, agresiones, campañas negativas y todo una cantidad de atrocidades comunicacionales se generan desde las plataformas.
La Sección 230 tiene dos disposiciones clave que rigen Internet:
1). Sección 230 ( c ) ( 1 ): “ Ningún proveedor o usuario de un servicio informático interactivo será tratado como el editor o orador de cualquier información proporcionada por otro proveedor de contenido de información. ”
Conocidas como las 26 palabras que crearon Internet, las plataformas en línea no se hacen responsables de las palabras y acciones de sus usuarios. Estas protecciones legales se crearon para proteger la innovación de Internet al evitar la afluencia de demandas por daños generados por los usuarios. Sin la Sección 230, las compañías de redes sociales podrían ser demandadas por cada mensaje y publicación realizada en sus servicios.
2). Sección 230 ( c ) ( 2 ): “ Ningún proveedor o usuario de un servicio informático interactivo será responsable a causa de…cualquier acción tomada voluntariamente de buena fe para restringir el acceso o la disponibilidad de material que el proveedor o usuario considere obsceno, lascivo, lascivo, sucio, excesivamente violento, acosador, o de otra manera objetable, ya sea que dicho material esté o no protegido constitucionalmente ... ”
Conocida como la disposición del buen samaritano, esta cláusula fue promulgada para proporcionar una amplia inmunidad a las plataformas cuando eligen moderar el contenido de buena fe. Los legisladores querían evitar una tierra de nadie sin ley en Internet y garantizar que las plataformas sean entornos en línea seguros – y que no sean penalizados en el esfuerzo por hacerlo.
La legislación es bastante obsoleta a lo que ahora se le suma un nuevo problema: los contenidos circulan por recomendación algorítmica.
Es decir, hemos pasado el tiempo donde el "gráfico social" compuesto por amigos, seguidos y seguidores funcionaba a modo de curador y organizador del contenido que miramos.
Entonces el poder pasa a manos del algoritmo.
Los dos casos que la Corte Suprema está tomando tienen que ver con esta situación.
El caso contra Google es un caso que "pone en tela de juicio las responsabilidades de los servicios en línea ’para amplificar el contenido de la organización terrorista, que supuestamente radicalizó a los simpatizantes del ISIS para llevar a cabo ataques terroristas coordinados alrededor de París en 2015 que mataron a la estadounidense Nohemi González".
La familia de Nohemi inició la demanda que tuvo un fallo en contra del Tribunal de Apelaciones del Noveno Circuito.
En un fallo dividido dictaminó que la Sección 230 protege tales recomendaciones, al menos si el algoritmo del proveedor trata el contenido en su sitio web de manera similar. La mayoría reconoció que la Sección 230 “ protege más actividad de la que el Congreso imaginó. ” Sin embargo, la mayoría concluyó que el Congreso – en lugar de los tribunales – debería aclarar cuán ampliamente se aplica la Sección 230.
Los argumentos de la familia radica en que los algoritmos son parte de la aplicación, son su sostén y como tal pueden ser objetos de legislación. Es decir si el algoritmo amplifica y potencia un posteo por ejemplo que es una mentira las personas que utilizan la plataforma serán dañadas en su derecho a la información por ejemplo.
La demanda fue presentada bajo la Ley Antiterrorista, argumentando que Google ( propietario de YouTube ) ayudó a la contratación de ISIS a través de videos de YouTube – específicamente, recomendando videos de ISIS a los usuarios a través de sus algoritmos.
El segundo caso tiene el mismo trasfondo.
Acá se está analizando y juzgando la responsabilidad en la muerte de Nawras Alassaf, ciudadano jordano, durante un ataque afiliado a ISIS en Estambul en 2017.
La familia demandó a Twitter, Google y Facebook, alegando que las compañías no pudieron controlar el contenido terrorista proliferado en sus sitios argumentando que las plataformas proporcionaban infraestructura en la que ISIS podría promover publicaciones, que a su vez apoyó sus operaciones; las empresas se beneficiaron obteniendo ingresos de estos anuncios dirigidos.
En este caso el mismo Tribunal de Apelación que el caso de Google (Noveno Circuito) sostuvo que Twitter, Facebook y Google podrían ser considerados responsables, independientemente de la Sección 230, por ayudar e incitar al terrorismo internacional al permitir que ISIS use sus plataformas.
La Corte Suprema ahora dio visto bueno a analizar una demanda revisión presentada por Twitter y deberá responder si 1 ) el servicio en línea que detecta y disuade regularmente a los terroristas de usar los servicios “ a sabiendas ” ayudó al terrorismo al no tomar medidas mayores para evitar dicho uso y 2 ) si el servicio debería ser considerado responsable de ayudar e incitar al terrorismo en virtud de la Ley Antiterrorista.
La Cámara de Comercio en su momento ha presentado un informe "amicus" en el Tribunal de Circuito, apoyando el argumento de Twitter de que esta decisión amplía el alcance de la Ley Antiterrorista más allá de la intención del Congreso ’ para la ley.
Afirma que las empresas no deben ser consideradas responsables de los actores no identificados que usan el producto para promover el terrorismo, “ de lo contrario, las empresas estarían cargadas con la tarea insuperable de vigilar activamente a toda su base de clientes, que en el caso de los Demandados, asciende a miles de millones"
Como sea, la definición de ambos casos sentará un nuevo y gran precedente para el mundo digital donde lo que va quedando en claro es que las empresas ya no podrán más mirar para otro lado.
Escrito por: Esteban Concia