La desinformación ha traspasado los límites de lo marginal y se ha convertido en un fenómeno generalizado. Ya no se limita a colectivos bien delimitados como el de los negacionistas del Holocausto o los conspiranoicos del 11-S. Ahora se ramifica a todas las facetas de la sociedad y se propaga con una velocidad abrumadora. Y parece que ningún tema se le resiste. Con frecuencia, hemos visto desinformación incluso en las noticias de última hora. Cada vez que se produce un suceso trágico, como puede ser un atentado, en pocos segundos surgen teorías sobre todo lo que lo rodea, desde la identidad de los autores hasta sus motivaciones. En momentos como esos, lo que sucede en el mundo sucede también en YouTube. YouTube refleja la realidad, pero somos conscientes de que también podemos contribuir a darle forma. Por eso nos hemos impuesto el firme compromiso de luchar contra la desinformación.
Sin embargo, es posible que la solución no sea la primera que nos viene a la cabeza: que tenemos que ser más eficientes eliminando contenidos de nuestros sitios, y hacerlo más deprisa. La verdad es que ese enfoque existe desde nuestros comienzos y está presente en las Normas de la comunidad de YouTube. En la actualidad, eliminamos cerca de 10 millones de vídeos cada trimestre, la mayoría antes de que lleguen a tener 10 visualizaciones. Si vamos a eliminar vídeos es importante, hoy y en futuro, hacerlo rápido. Pero sabemos que con eso no basta. La mejor estrategia es el tratamiento que damos al conjunto de los contenidos que existen en YouTube.
Dicho de otro modo, lo más importante que podemos hacer es aumentar lo “bueno” y reducir lo “malo”. Por eso, en YouTube estamos intensificando la información que procede de fuentes fiables y reduciendo la difusión de vídeos con desinformación perjudicial. Así, cuando el público busca noticias o información, obtiene resultados optimizados según criterios de calidad, no por el sensacionalismo de los contenidos. Hay varias razones por la que hemos hecho de esta estrategia la base de nuestro enfoque.
En primer lugar, si solo nos centramos en qué cosas deben eliminarse, perdemos la perspectiva de la enorme cantidad de contenidos que ve el público. Los contenidos “malos” representan un porcentaje minúsculo de los miles de millones de vídeos que hay en YouTube. Del total de visualizaciones, solo incumplen nuestras políticas entre el 0,16 y el 0,18% de los contenidos. El objetivo de nuestras políticas es eliminar cualquier vídeo que pueda provocar directamente un daño flagrante en el mundo real. Por ejemplo, desde el pasado mes de febrero hemos eliminado más de un millón de vídeos que contenían información peligrosa sobre la COVID-19, como curas falsas o la afirmación de que la pandemia es un bulo. En la situación actual de pandemia mundial, todos debemos tener a nuestra disposición la mejor información posible para tomar las mejores decisiones sanitarias, para nosotros y para nuestras familias.
Ahora bien, para identificar con claridad lo que es un contenido “malo”, necesitamos una referencia clara. En el caso de la COVID-19, esa referencia es el consenso de los expertos de organizaciones sanitarias como los CDC y la OMS, que llevan un seguimiento de los progresos de la investigación científica. Por desgracia, en la mayoría de los demás casos, está mucho menos claro qué es “desinformación”. Por su propia naturaleza, la información evoluciona constantemente y, muy habitualmente, no existe una fuente principal que nos pueda decir con exactitud quién tiene razón y quién no. Por ejemplo, cuando se produce un atentado, aparece información contradictoria de distintas procedencias. A veces, los linchamientos públicos se equivocan a la hora de identificar a culpables y a víctimas, y las consecuencias de esos errores son terribles. Y, si no tenemos certezas, ¿debemos las empresas tecnológicas decidir cuándo y dónde poner límites en un territorio tan nebuloso como es el de la desinformación? Yo creo firmemente que no.
Pudimos verlo en la práctica en los días que siguieron a las elecciones presidenciales de Estados Unidos en 2020. Mientras no hubo una certificación electoral oficial que tomar como referencia, dejamos oír todas las voces del espectro político. No obstante, nuestros sistemas presentaron al público los contenidos más fiables. Durante aquella primera semana, algunos de los canales y vídeos más vistos sobre la cobertura de las elecciones correspondieron a medios de comunicación fiables. Una vez que los estados certificaron sus resultados electorales a principios de diciembre, comenzamos a eliminar los contenidos que denunciaban fraude en los resultados de las elecciones. Desde entonces, hemos retirado miles de vídeos que incumplían nuestras políticas relativas a las elecciones. Más del 77% de esos vídeos se han eliminado antes de llegar a 100 visitas.
Por otro lado, una política de eliminación de contenidos excesivamente agresiva podría coartar la libertad de expresión. Retirar vídeos es un instrumento contundente. Si se utiliza de manera demasiado pródiga, da la sensación de que las ideas controvertidas son inaceptables. Ahora mismo, estamos viendo cómo distintos gobiernos, de forma creciente, ordenan la retirada de contenidos con fines políticos. Personalmente creo que somos una sociedad mejor cuando puede existir un debate abierto. Lo que para una persona es desinformación, para otra son firmes convicciones, y eso incluye puntos de vista provocadores, potencialmente ofensivos e incluso, en algunos casos, información que no pasaría una verificación de datos. No obstante, nuestro apoyo a una plataforma abierta nos impone la responsabilidad de conectar al público con información de calidad. Para ello, seguiremos invirtiendo e innovando en todos nuestros productos en busca de un equilibrio razonable entre libertad de expresión y libertad de difusión.
Hay voces críticas que nos acusan de mantener contenidos polémicos porque nos beneficiamos económicamente de ellos. Hemos comprobado que, por un lado, este tipo de contenidos no funcionan bien en YouTube, sobre todo en comparación con otros contenidos populares como música o la comedia. Por otro lado, también erosionan la confianza de los usuarios... y de los anunciantes. Hemos dedicado mucho tiempo y dinero a resolver este problema. Y ese esfuerzo ha sido beneficioso para nuestra empresa y para nuestra economía, basada en la creación de contenidos. En pocas palabras, ser responsables es bueno para nuestro negocio.
Seguramente habrá personas a las que no les parecerá bien nuestro criterio y les gustaría que retirásemos o que mantuviésemos más contenidos. A mí me parece que los resultados de estas primeras inversiones son alentadores. Nuestros equipos trabajan cada día para mejorar nuestros sistemas y seguir ampliando esa base que nos ayuda a combatir la desinformación. Volveré a retomar esta cuestión; entretanto, confío en que estas líneas hayan servido para dar un poco más de claridad al modo en que abordamos el enorme desafío de la desinformación en YouTube.