Categorías
Noticias

YouTube censuró una frase crítica del gobierno chino debido a un «error de IA»

Durante las últimas semanas, los usuarios han notado que determinadas expresiones chinas se han eliminado automáticamente de los comentarios de YouTube. Después de la especulación desenfrenada sobre por qué Google querría que se prohibieran estas frases, que critican al gobierno chino, ahora afirma que fue un error de su software de aprendizaje automático.

Los usuarios notaron que cualquier comentario de YouTube que contenga la frase «共匪» o «五毛» se eliminaría unos segundos después de ser enviado. Uno de mis colegas probó esto y descubrió que era cierto. El primero es un insulto dirigido al gobierno comunista chino (se traduce como «bandido comunista», según la activista Jennifer Zeng). Este último es un término de la jerga para los ciudadanos en línea a quienes se les ha pagado para desviar las críticas al partido comunista.

Como era de esperar, los usuarios sospecharon de inmediato que podría haber un motivo oculto para que Google prohibiera la frase. YouTube está prohibido en China, entonces, ¿por qué a su empresa matriz le importaría que alguien criticara al PCCh? Esta frase en particular había desencadenado esta reacción durante meses, que es un tiempo terriblemente largo para que persista un error.

Tal vez se le solicitó a Google que investigara el asunto cuando el fundador de Oculus, Palmer Luckey, señaló la misteriosa prohibición de la frase. De cualquier manera, finalmente se habla de eso. Y afirma que no está prohibiendo la frase por alguna simpatía oculta por el gobierno chino, sino por un error.

Según una declaración a TechCrunch, YouTube dice que la frase prohibida se agregó a sus filtros de discurso de odio, que eliminan automáticamente los comentarios que contienen contenido ofensivo. Eso explicaría por qué usar la frase, incluso de manera positiva, derribó el martillo al instante.

La pregunta ahora es por qué esa frase se agregó a los filtros. Todo lo que Google diría es que la compañía depende más de la moderación basada en IA ya que sus empleados están fuera de la oficina gracias a la pandemia de coronavirus. Una publicación de blog de YouTube de marzo presagia el problema:

El aprendizaje automático ayuda a detectar contenido potencialmente dañino y luego lo envía a revisores humanos para su evaluación. Como resultado de las nuevas medidas que estamos tomando, comenzaremos temporalmente a depender más de la tecnología para ayudar con parte del trabajo que normalmente realizan los revisores. Esto significa que los sistemas automatizados comenzarán a eliminar parte del contenido sin revisión humana, por lo que podemos continuar actuando rápidamente para eliminar contenido violatorio y proteger nuestro ecosistema, mientras tenemos protecciones en el lugar de trabajo.

No sería la primera vez que una importante empresa tecnológica se enfrenta a problemas con la moderación del aprendizaje automático gracias al coronavirus. Facebook tuvo un problema similar cuando su IA bloqueó publicaciones sobre hacer máscaras faciales.

YouTube afirma que todavía está investigando el error. Invita a cualquiera a «informar problemas sospechosos para solucionar errores y ayudarnos a realizar mejoras en los productos».