Facebook ha sido acusada unas veces de favorecer la desinformación por dejar publicar bulos y otras de ejercer la censura por retirar contenidos. La plataforma se ha defendido diciendo que su postura es “neutra y abierta” y que no le corresponde a ella filtrar lo que la gente pone. Pero ahora ha anunciado la creación de un “comité de supervisión”, formado por personalidades externas, que actuará como tribunal de apelación en casos espinosos de retirada de contenidos en Facebook e Instagram.
Precisamente en estos días cien expertos sanitarios de distintos países han publicado una carta en la que denuncian la proliferación de bulos en las redes sociales sobre la epidemia de Covid-19, lo que pone, a su juicio, en riesgo la salud de muchas personas. Los firmantes reconocen que las plataformas tecnológicas han eliminado ciertos contenidos, cuando han sido señalados como falsos. Pero los expertos piensan que la responsabilidad de las compañías debería ir más allá. Entre otras cosas, estos expertos creen que “las plataformas deberían desintoxicar los algoritmos que deciden lo que la gente ve”, de modo que “las mentiras dañinas y las páginas y los grupos que las comparten se vuelvan menos visibles en las páginas personales de los usuarios, en vez de ser amplificadas”.
Otras voces, en cambio, critican que Facebook y YouTube hayan eliminado contenidos que, simplemente, criticaban las medidas de cuarentena decididas por las autoridades o alentaban protestas contra ellas, o que discutían la estrategia de la Organización Mundial de la Salud ante la pandemia. El ejército de moderadores de la red social estaría actuando en connivencia con las autoridades para acallar protestas consideradas perjudiciales para la salud. Los gobiernos estarían así subcontratando la censura al sector privado, sin que los usuarios tengan la posibilidad de recurrir a los tribunales.
Facebook siempre ha defendido que es una compañía tecnológica, no un medio de comunicación
![]()
Este nuevo caso refleja el difícil equilibrio en el que se encuentran Facebook y otras redes sociales cuando entra en juego la libertad de expresión y quién decide lo que es verdadero o falso.
Responsabilidad editorial
Lo primero que se plantea es la responsabilidad editorial de Facebook respecto a lo que publican sus usuarios. Facebook siempre ha defendido que se trata de una compañía tecnológica, no un medio de comunicación como la CNN o The Times. Aunque muchos de sus 2.400 millones de usuarios la utilicen para informarse a través de los contenidos que suben sus amigos, la red social sostiene que su misión se reduce a dar voz a la gente y a mantenerlos en contacto. Lo que compartan es cosa suya.
Pero también es verdad que hoy día el debate público se desarrolla en gran parte en estas plataformas. Los grandes medios de comunicación no ocupan más que una parte de un espacio público mucho más amplio, en el que Facebook ocupa un puesto central. Y lo que los medios le reprochan –aparte de que la red social absorba la publicidad que ellos necesitan– es que Facebook no acepte la responsabilidad editorial propia de los medios de comunicación en una sociedad democrática. Reglas que llevan a responsabilizarse de lo que se publica, ofrecer diversas perspectivas, equilibrio en los temas que se abordan, evitar mensajes que atenten contra derechos de otros… Ciertamente, nadie piensa que los medios de comunicación estén desprovistos de sesgos ideológicos y de manipulaciones. Pero un tratamiento profesional de la información puede advertir y descartar los contenidos más fantasiosos o ilegales. En cualquier caso, Facebook se define como “una plataforma neutra y abierta, agnóstica ante los contenidos”.
El temor a la libertad de expresión
Para comprender la postura de Facebook, y su decisión de crear un Comité de Supervisión externo, es significativo atender a lo que dijo su CEO Mark Zuckerberg en la conferencia que pronunció en la Universidad de Georgetown el 17 de octubre de 2019.
La falta de filtros profesionales que algunos le reprochan a Facebook es para Zuckerberg una de las ventajas de la red: “La gente ya no tiene que pasar por los tradicionales guardianes de la política o de los medios para hacer oír su voz, lo que tiene importantes consecuencias”, dijo entonces Zuckerberg. “Comprendo las preocupaciones sobre el poder que se ha concentrado en las plataformas, pero creo que es mucho más importante el modo en que las plataformas han descentralizado el poder al ponerlo directamente en manos de la gente”.
Frente a este nuevo acceso a la libertad de expresión, hay voces que reclaman más restricciones. “Estamos viendo cada vez más gente que califica de peligrosos los discursos de otros porque pueden tener consecuencias políticas que ellos consideran inaceptables”, advierte Zuckerberg. Pero él piensa que las restricciones “son más peligrosas a largo plazo para la democracia que cualquier discurso”.
A Facebook se le achaca que a veces convierta en viral la desinformación, y en otras que ejerza la censura
Igual que en los años 60 amplias capas de la sociedad querían acallar la protesta del movimiento por los derechos civiles o contra la guerra de Vietnam, ahora hay otros temas debatidos ante los que también se pide censurar la libertad de expresión. Zuckerberg reconoce que la libertad de expresión nunca es absoluta, y por eso Facebook elimina contenidos como la apología del terrorismo, el acoso o la pornografía. Pero lo difícil es dónde trazar la línea.
La compañía no se lava las manos en estos casos. Su CEO dice que han creado “sistemas específicos para detectar cada tipo de contenidos dañinos –desde la incitación a la violencia a la explotación infantil o la violación de la propiedad intelectual–, unas 20 categorías en total”. Esta labor de supervisión es realizada con métodos de inteligencia artificial junto con los más de 35.000 empleados que trabajan en seguridad, siempre con el objetivo de “hacer cumplir las normas existentes, no para ampliar la definición de lo que es peligroso”.
Verdadero o falso
A Facebook se le achaca que a veces tolere y convierta en viral la desinformación. Zuckerberg replica que Facebook trabaja con fact checkers independientes para evitar que los engaños se difundan. Pero no es fácil trazar las fronteras entre la falsedad, el sesgo ideológico y la opinión. Mucha gente, dice Zuckerberg, ama la sátira, que no es necesariamente verdad, o expresa sus experiencias con historias exageradas o, como pasa en la prensa, hace hincapié en determinados ángulos de una historia.
Esto se acentúa en EE.UU. con los anuncios políticos, que han dado lugar a protestas por su sectarismo. Zuckerberg piensa que “no corresponde a una empresa privada censurar a los políticos o las noticias en una democracia”. “Como principio, creo que en una democracia es la gente la que tiene que decidir lo que es creíble, no las empresas tecnológicas”.
Un árbitro externo
Para que la empresa mantenga una postura neutral respecto a contenidos polémicos, Zuckerberg anunció en Georgetown la creación de un Comité de Supervisión independiente, ante el que se podrán apelar las decisiones tomadas por los moderadores de contenidos de la red. Tal como se ha anunciado ahora, será una estructura externa a la empresa, formada por personalidades de distintas profesiones y culturas. Facebook ha logrado convencer a veinte personalidades, que en los próximos meses se ampliarán a cuarenta, entre las que hay juristas, periodistas, expertos en libertad expresión… de distintas culturas. Su misión es decidir en apelación casos discutidos sobre retirada de contenidos.
Ante el Comité de Supervisión se podrán apelar las decisiones tomadas por los moderadores de contenidos de la red
Si el Comité decide escuchar un caso, un panel de cinco miembros (anónimo por razones de seguridad) lo estudiará y decidirá en un plazo de 90 días. Facebook se compromete a aceptar sus decisiones. El Comité no espera resolver más que algunas docenas de casos al año, los que puedan tener repercusión sobre un mayor número de usuarios o ser susceptibles de cambiar la política de moderación de la red. También Facebook puede proponer “consultas de emergencia”, si tiene dudas. Las decisiones no se basarán en leyes, sino en los “estándares de la comunidad” de la red. El Comité puede hacer recomendaciones sobre estos estándares, pero estas sugerencias no son vinculantes para Facebook.
Según ha explicado Jamal Greene, copresidente del Comité y profesor de Derecho en la Universidad de Columbia, “la novedad es que la estructura es independiente, no podemos ser revocados por Facebook, y algunos de nosotros hemos sido ya críticos con la red”. Este Comité de Supervisión podría convertirse en una jurisdicción de alcance mundial, que podría entrar en concurrencia con las regulaciones nacionales sobre redes sociales.
Los amigos cuentan más que los algoritmos
Aunque Facebook se presenta como una plataforma neutra, sus críticos señalan que de hecho ejerce una forma de selección de contenidos, a través de su algoritmo. La sección “Últimas noticias”(“News Feed”), ese flujo de contenidos escogidos por un algoritmo cuando uno se conecta a la red, está en función de lo que se supone puede interesar al usuario. Las noticias que se muestran, explica una página de ayuda de la red, “vienen determinadas por tus conexiones y tu actividad en Facebook”. “Si crees que te estás perdiendo publicaciones que te gustaría ver o que estás viendo publicaciones en la sección de noticias que no te interesan, puedes modificar la configuración”, agrega.
El hecho de que las informaciones que se ofrecen dependan de la actividad anterior y de lo que comparten los amigos favorece el “filtro burbuja”, la tendencia a moverse en espacios de la misma opinión sin atender a otros puntos de vista. Todas las plataformas que utilizan algoritmos tienen este mismo efecto. Pero puede acentuarse más en Facebook, al ser una red social que une a amigos que te aceptan a su vez como amigos, mientras que en Twitter uno puede seguir a gente de diferentes ideas que no te sigue a ti. El verdadero filtro sería la elección de los amigos más que el algoritmo de Facebook.
En cualquier caso, Zuckerberg responde que también en los medios tradicionales de información uno suele leer o ver los más afines con su pensamiento, sin atender a los otros. En cambio, en Facebook “aunque la mayoría de tus amigos online tenga opiniones similares, por lo general uno tiene también algunos amigos de otras ideas, a través de los cuales uno se abre a perspectivas diferentes”.
Al buscar ahora un árbitro externo para las polémicas sobre contenidos espinosos, Facebook quiere mostrar que asume su responsabilidad social sin abandonar su neutralidad.