YouTube dice que las eliminaciones de comentarios vinculados a China no fueron causadas por terceros

YouTube provocó especulaciones generalizadas sobre sus políticas de moderación esta semana después de admitir que eliminó accidentalmente comentarios que contenían frases críticas del Partido Comunista Chino (PCCh). Hoy, la compañía le dijo a The Verge que el problema no era el resultado de una interferencia externa: una explicación para el error surgió por muchos.

Las frases que desencadenaron la eliminación automática incluyeron "bandido comunista" y "partido de 50 centavos", un término de la jerga para los usuarios de Internet que pagan por defender al PCCh. Algunos especularon que un grupo externo, quizás conectado al PCCh, manipuló los filtros automáticos de YouTube al informar repetidamente estas frases, haciendo que el algoritmo las etiquetara como ofensivas.

En declaraciones a The Verge , el portavoz de YouTube Alex Joseph negó que esto sucediera y dijo que, contrariamente a la creencia popular, YouTube nunca elimina los comentarios solo en base a los informes de los usuarios.

"Esto no fue el resultado de una interferencia externa, y solo eliminamos el contenido cuando nuestro sistema de aplicación determina que viola nuestros Lineamientos de la comunidad, no solo porque está marcado por los usuarios", dijo Joseph. "Este fue un error con nuestros sistemas de aplicación y hemos implementado una solución".

El incidente es otro ejemplo de cómo las grandes compañías tecnológicas se han encontrado participantes poco dispuestos en un debate global sobre censura y libertad de expresión. ¿Cuándo YouTube terminó siendo el ejecutor de facto? de las reglas de censura chinas en internet del mundo?

Aunque los comentarios de YouTube de hoy ofrecen más detalles que los suministrados anteriormente, dejan preguntas importantes sin respuesta. ¿Cómo entró exactamente este error en el sistema? ¿Y por qué pasó desapercibido durante meses? Estos no son problemas triviales, ya que la falta de una explicación adecuada de YouTube ha permitido que las figuras políticas acusen a la compañía de parcialidad hacia el PCCh.

Esta semana, el senador Josh Hawley (R-MO) escribió al CEO de Google, Sundar Pichai, pidiéndole respuestas con respecto a "informes preocupantes de que su compañía ha reanudado su largo patrón de censura a instancias del Partido Comunista Chino". En un momento en que los republicanos son criticados por manejar mal una pandemia global, los puntos de discusión sobre Big Tech que supuestamente imponen la censura china son una distracción bienvenida.

El contexto faltante perdido

La gran pregunta es cómo exactamente estos términos con un significado anticomunista muy específico se convirtieron en ofensivos.

YouTube ha explicado que sus filtros de comentarios funcionan como un sistema de tres partes, uno que es ampliamente consistente con otros enfoques de moderación en la industria. Primero, los usuarios marcan el contenido que consideran ofensivo u objetable. Luego, este contenido se envía a revisores humanos que aprueban o rechazan estas afirmaciones. Finalmente, esta información se introduce en un algoritmo de aprendizaje automático que la usa para filtrar automáticamente los comentarios.

De manera crucial, dice YouTube, este sistema significa que el contenido siempre se considera dentro de su contexto original. No hay términos que se consideren ofensivos cada vez que aparecen, y no hay una "lista de prohibición" definitiva de frases malas. El objetivo es aproximar la capacidad humana de analizar el lenguaje, leer por tono, intención y contexto.

En este caso particular, dice YouTube, el contexto de estos términos fue de alguna manera mal leído. Eso está bien, pero lo que no está claro es si esto fue culpa de revisores humanos o filtros de máquina. YouTube dice que no puede responder esa pregunta, aunque presumiblemente está tratando de averiguarlo.

Si los humanos fueron responsables de este error es una pregunta interesante, ya que sugiere que es posible que los moderadores humanos sean engañados por los usuarios que marcan el contenido como ofensivo, a pesar de las protestas de YouTube de que este no era el caso.

Si suficientes usuarios amigables con el PCCh le dijeron a YouTube que la frase "bandido comunista" era imperdonablemente ofensiva, por ejemplo, ¿cómo reaccionarían los revisores humanos de la compañía? ¿Qué conocimiento cultural necesitarían para emitir un juicio? ¿Creerían lo que se les dice o se detendrían a considerar la imagen política más amplia? YouTube no censura la frase "libtard", por ejemplo, aunque algunas personas en los EE. UU. Podrían considerar esto un insulto político ofensivo.

Lo que es particularmente extraño es que uno de los términos que desencadenó la eliminación, "wu moa", un término despectivo para los usuarios a quienes se les paga para defender las políticas de PCC en línea, ni siquiera está censurado en China. Charlie Smith, de la organización sin fines de lucro GreatFire, que supervisa la censura china, dijo a The Verge que la frase realmente no se considera tan ofensiva. "En general, wu mao no necesita protección ni debe ser defendido", dice Smith. “Son wu mao y su trabajo es simplemente cortar, pegar y hacer clic. Nadie les hace caso.

Una vez más, simplemente no sabemos qué sucedió aquí, pero la explicación de Google no parece descartar por completo la posibilidad de algún tipo de campaña coordinada. Por lo menos, esto es una prueba más, si fuera necesario, de que la moderación de Internet es una tarea implacablemente difícil que es imposible de resolver a satisfacción de todos.

Transparencia sobre la censura

Este incidente puede ser olvidado, pero apunta a un problema mayor en cómo las empresas tecnológicas se involucran con el público con respecto a cómo las plataformas ocultan o resaltan el contenido.

Big Tech generalmente no ha estado dispuesto a ser demasiado explícito sobre este tipo de sistemas, y es una táctica que ha permitido acusaciones políticas, particularmente de figuras de derecha, sobre censura, sesgo y sombras.

Este silencio es a menudo una estrategia intencional, dice Sarah T. Roberts, profesora de la UCLA que investiga la moderación de contenido y las redes sociales. Ella dice que las empresas de tecnología no entienden cómo funcionan estos sistemas porque a menudo se ensamblan más apresuradamente de lo que la empresa quisiera admitir. "Creo que les gustaría que todos imaginemos que estos procesos son ininterrumpidos e infalibles", dice Roberts. Pero cuando no explican, dice, la gente ofrece sus propias interpretaciones.

Cuando estos sistemas están expuestos al escrutinio, puede revelar cualquier cosa, desde algoritmos sesgados hasta la miseria humana a gran escala. El ejemplo más obvio en los últimos años han sido las revelaciones sobre los moderadores humanos de Facebook, pagados para evaluar el contenido más espantoso e inquietante en la web sin el apoyo adecuado. En el caso de Facebook, la falta de transparencia finalmente llevó a la indignación pública y luego a multas del gobierno .

Esto no es realmente una buena motivación para ser más abierto, pero a la larga, esta oscuridad internacional puede generar problemas aún mayores. Carwyn Morris, investigadora de la London School of Economics and Political Science que se centra en China y el activismo digital, le dice a The Verge que la falta de transparencia crea una podredumbre generalizada en las plataformas: socava la confianza del usuario, permite que se multipliquen los errores y lo hace Difícil moderación de la auténtica censura.

"Creo que la moderación de contenido es una necesidad, pero debe ser transparente para evitar cualquier fuga autoritaria", dice Morris, "o para encontrar errores en el sistema, como en este caso". Sugiere que YouTube podría comenzar simplemente notificando a los usuarios cuando se eliminen sus comentarios porque violan sus términos, algo que la compañía solo hace actualmente para los videos. Si la compañía ya hubiera hecho esto, entonces podría haber notado este error en particular antes, ahorrándole muchos problemas.