Los problemas de Facebook que moderan los deepfakes solo empeorarán en 2020

El verano pasado, un video de Mark Zuckerberg circuló en Instagram en el que el CEO de Facebook parecía afirmar que tenía "control total de los datos robados de miles de millones de personas, todos sus secretos, sus vidas, su futuro". Resultó ser un proyecto de arte en lugar de un intento deliberado de desinformación, pero Facebook permitió que permaneciera en la plataforma . Según la compañía, no violó ninguna de sus políticas.

Para algunos, esto mostró cómo las grandes compañías tecnológicas no están preparadas para lidiar con la avalancha de medios falsos generados por IA conocidos como deepfakes. Pero no es necesariamente culpa de Facebook. Los deepfakes son increíblemente difíciles de moderar, no porque sean difíciles de detectar (aunque pueden serlo), sino porque la categoría es tan amplia que cualquier intento de "reprimir" las fotos y videos editados por AI terminaría afectando a un todo franja de contenido inofensivo.

Prohibir por completo las falsificaciones significaría eliminar bromas populares como selfies de Snapchat intercambiados por género y caras envejecidas artificialmente. Prohibir las falsificaciones profundas políticamente engañosas solo conduce de nuevo a los mismos problemas de moderación política que las empresas tecnológicas han enfrentado durante años. Y dado que no existe un algoritmo simple que pueda detectar automáticamente contenido editado por IA, cualquier prohibición que promulgue significaría crear aún más trabajo para los asediados moderadores humanos. Para empresas como Facebook, simplemente no hay una opción fácil.

"Si toma 'deepfake' para referirse a cualquier video o imagen editado por aprendizaje automático, entonces se aplica a una categoría tan enorme de cosas que no está claro si significa algo en absoluto", Tim Hwang, director de Harvard-MIT Ethics y Gobierno de la Iniciativa AI, le dice a The Verge . “Si tuviera mis habilidades, lo cual no estoy seguro de tener, diría que la forma en que deberíamos pensar en las falsificaciones es como una cuestión de intención. ¿Qué estás tratando de lograr en el tipo de medios que estás creando?

En particular, esta parece ser la dirección que están tomando las grandes plataformas. Facebook y Reddit anunciaron políticas de moderación que cubrieron las falsificaciones profundas la semana pasada, y en lugar de tratar de eliminar el formato por completo, se enfocaron más.

Facebook dijo que eliminará los "medios engañosos manipulados" que han sido "editados o sintetizados" usando inteligencia artificial o aprendizaje automático "de maneras que no son evidentes para una persona promedio y que probablemente inducirán a error a alguien a pensar que un sujeto del video dijo palabras que en realidad no dijeron ". Pero la compañía notó que esto no cubre" parodia o sátira " o ediciones engañosas hechas con medios tradicionales, como el video viral del año pasado de la presidenta de la Cámara de Representantes, Nancy Pelosi, supuestamente arrastrando las palabras.

Las nuevas aplicaciones como Doublicat (en la foto) harán que los deepfakes sean más fáciles y divertidos.
Crédito: Doublicat

Mientras tanto, Reddit no mencionó la IA, pero dijo que eliminará los medios que "suplanten a individuos o entidades de manera engañosa o engañosa". También creó una exención para "sátira y parodia", y agregó que lo hará "Siempre tenga en cuenta el contexto de cualquier contenido en particular", una advertencia general que le da a sus mods mucha libertad de acción.

Como muchos han señalado, estas políticas están llenas de lagunas . Escribiendo en OneZero , Will Oremus señala que Facebook solo cubre medios editados que incluyen discursos, por ejemplo. Esto significa que "un video falso que hace que parezca que un político quemó el

La bandera estadounidense, participó en una manifestación nacionalista blanca o estrechó la mano de un terrorista "no estaría prohibido, algo que Facebook confirmó a Oremus.

Estas son omisiones evidentes, pero resaltan la dificultad de separar las falsificaciones profundas de los problemas subyacentes de la moderación de la plataforma. Aunque muchos informes en los últimos años han tratado a "deepfake" como sinónimo de "desinformación política", la definición real es mucho más amplia. Y el problema solo empeorará en 2020.

Mientras que las versiones anteriores del software deepfake requerían algo de paciencia y habilidad técnica para usar, la próxima generación hará que crear deepfake sea tan fácil como publicar. Las aplicaciones que usan inteligencia artificial para editar videos (la definición estándar de un deepfake) se convertirán en algo común y, a medida que se difundan, se usan para bromas, tweets de marca, intimidación, acoso y todo lo demás, la idea del deepfake como algo único La amenaza a la verdad en línea se desvanecerá.

Esta semana, se lanzó una aplicación llamada Doublicat en iOS y Android que utiliza el aprendizaje automático para pegar las caras de los usuarios en los GIF de reacción populares. En este momento solo funciona con GIF preseleccionados, pero el CEO de la compañía le dijo a The Verge que permitirá a los usuarios insertar caras en cualquier contenido que les guste en el futuro, impulsado por un tipo de método de aprendizaje automático conocido como GAN.

¿Todo esto hace que Doublicat sea una aplicación falsa? Sí. ¿Y va a socavar la democracia? Probablemente no.

Solo mire la calidad de su salida, como lo demuestra el GIF a continuación, que muestra mi rostro pegado en Chris Pratt's en Parks and Recreation. Tecnológicamente, es impresionante. La aplicación creó el GIF en pocos segundos a partir de una sola foto. Pero nunca se va a confundir con lo real. Mientras tanto, el creador de TikTok, ByteDance, ha estado experimentando con características profundas (aunque dice que no se incorporarán a su aplicación muy popular) y Snapchat introdujo recientemente sus propias herramientas de intercambio de caras .

El autor como Chris Pratt .

Hwang argumenta que la dilución del término deepfakes en realidad podría tener beneficios a largo plazo. "Creo que la gran ironía de las personas que dicen que todas estas características de los consumidores también son falsas, es que de alguna manera mercantiliza lo que significa deepfake", dice Hwang. Si los « deepfakes '' se vuelven comunes y poco comunes, la gente "se sentirá cómoda con la noción de lo que puede hacer esta tecnología", dice. Entonces, con suerte, podemos entenderlo mejor y centrarnos en los problemas subyacentes de la desinformación y la propaganda política.

Es posible argumentar que el problema de moderar las falsificaciones profundas en las redes sociales ha sido principalmente una distracción desde el principio. La propaganda política editada por AI no ha logrado materializarse de manera significativa, y los estudios muestran que la gran mayoría de los falsos profundos son porno no consensuales (que representan el 96 por ciento de los videos falsos en línea).

Las plataformas de redes sociales se han involucrado felizmente en el debate sobre la moderación profunda, pero como muestran los recientes anuncios de Facebook y Reddit, estos esfuerzos son en su mayoría un espectáculo secundario. Los problemas centrales no han cambiado: ¿quién puede mentir en Internet y quién decide si está mintiendo? Una vez que los deepfakes dejen de ser creíbles como una amenaza existencial a la verdad, nos quedaremos con las mismas preguntas inmutables, más apremiantes que nunca.