Según los informes, Facebook ignoró su propia investigación que muestra algoritmos que dividieron a los usuarios

Un informe interno de Facebook presentado a los ejecutivos en 2018 descubrió que la compañía sabía muy bien que su producto, específicamente su motor de recomendación, avivaba la división y la polarización, según un nuevo informe del The Wall Street Journal .

Sin embargo, a pesar de las advertencias sobre el efecto que esto podría tener en la sociedad, el liderazgo de Facebook ignoró los hallazgos y ha tratado en gran medida de absolverse de la responsabilidad con respecto a las divisiones partidistas y otras formas de polarización a las que contribuyó directamente, afirma el informe. ¿La razón? Los cambios podrían afectar desproporcionadamente a los conservadores y podrían afectar el compromiso, según el informe.

"Nuestros algoritmos explotan la atracción del cerebro humano hacia la división", decía una diapositiva de la presentación. El grupo descubrió que si este elemento central de su motor de recomendaciones no se controlara, continuaría sirviendo a los usuarios de Facebook "contenido cada vez más divisivo en un esfuerzo por atraer la atención del usuario y aumentar el tiempo en la plataforma". Un informe interno separado, elaborado en 2016, dijo que el 64 por ciento de las personas que se unieron a un grupo extremista en Facebook solo lo hicieron porque el algoritmo de la compañía se lo recomendó, informa el WSJ .

Joel Kaplan, vicepresidente de política pública global de Facebook y ex jefe de gabinete del presidente George W. Bush, lideró el esfuerzo para minimizar estas preocupaciones y alejar el enfoque de Facebook de la polarización. Kaplan es una figura controvertida en parte debido a su acérrima política de derecha ( apoyó al juez de la Corte Suprema Brett Kavanaugh a lo largo de su nominación ) y su aparente capacidad para influir en el CEO Mark Zuckerberg en asuntos importantes de política. Kaplan ha asumido un papel más importante dentro de Facebook desde las elecciones de 2016, y los críticos dicen que su enfoque de política y moderación está diseñado para apaciguar a los conservadores y evitar acusaciones de parcialidad.

Se cree que Kaplan, por ejemplo, es en parte responsable de la controvertida política de publicidad política de Facebook , en la que la compañía dijo que no regularía la información errónea presentada en los anuncios de campaña al verificarlos. También ha influido en el enfoque más indirecto de Facebook para el discurso y la moderación en los últimos años al argumentar que la compañía no quiere parecer parcial contra los conservadores.

El Wall Street Journal dice que Kaplan fue instrumental en debilitar o matar por completo las propuestas para cambiar la plataforma para promover el bien social y reducir la influencia de los llamados "superparticipantes", que tendían a ser agresivamente partidistas y, en algunos casos, tan hiperactivos. – se comprometió a que se les pagara por usar Facebook o podrían ser un bot. Sin embargo, Kaplan rechazó algunos de los cambios propuestos, muchos de los cuales fueron diseñados por Carlos Gomez Uribe, líder de integridad de News Feed, por temor a que afecten desproporcionadamente a páginas de derecha, políticos y otras partes de la base de usuarios que impulsaron el compromiso. .

Un proyecto notable que Kaplan socavaba se llamaba Common Ground , que buscaba promover contenido políticamente neutral en la plataforma que pudiera unir a las personas en torno a intereses compartidos como pasatiempos. Pero el equipo que lo construyó dijo que podría requerir que Facebook adopte una "postura moral" en algunos casos al elegir no promover ciertos tipos de contenido polarizante y que el esfuerzo podría dañar el compromiso general con el tiempo, informa el WSJ . El equipo ha sido disuelto desde entonces.