Acceder al contenido
Blog España

Desinformación

Trabajo en curso contra la desinformación en Internet

Ilustración de 3 contenidos online con íconos de eliminar, tilde, lupa, advertencia y pregunta en colores del logotipo de Google.

En Google, buscamos siempre un equilibrio entre el libre acceso a la información y la protección de los usuarios y del conjunto de la sociedad. Porque, para que la información sea útil, también tiene que ser segura. 

Por eso nos tomamos muy en serio nuestra responsabilidad de facilitar el acceso a información y contenidos de confianza, cosa que exige proteger a los usuarios frente a cualquier daño, ofreciendo información fiable y colaborando con expertos para que internet sea un lugar más seguro. 

Nuestras decisiones sobre productos, políticas y aplicación de medidas se guían por unos principios que tienen en cuenta la accesibilidad y la naturaleza abierta de nuestras plataformas, la libertad de elección personal y la diversidad de nuestros usuarios. Nuestra prioridad es preservar esa libertad de expresión que internet pone al alcance de todos de una manera tan poderosa, pero también tenemos que frenar la difusión de contenidos perjudiciales para los usuarios y la sociedad.

Proteger a los usuarios de daños y abuso

Trabajamos constantemente en herramientas, políticas y técnicas para detectar contenidos abusivos. 

Por ejemplo, hemos construido un prototipo que incorpora los últimos avances en grandes modelos lingüísticos (LLM) como una ayuda para identificar contenidos ofensivos a gran escala. Los grandes modelos lingüísticos son una forma de inteligencia artificial capaz de generar y comprender el lenguaje humano. 

Con la ayuda de los LLM, queremos ser capaces de crear y entrenar modelos con rapidez en cuestión de días –en lugar de semanas o meses–, para detectar diferentes tipos de contenidos abusivos en nuestros productos. Estos modelos resultan especialmente útiles en áreas de abuso nuevas o en alza. La idea es crear rápidamente un prototipo de un modelo que sea un experto en detectar una clase muy concreta de contenidos abusivos. Y que, de forma automática, los ponga en conocimiento de nuestros equipos, para que tomen las medidas oportunas. Todavía estamos haciendo pruebas con estas nuevas técnicas, pero los resultados que hemos obtenido hasta ahora han sido impresionantes. Esto significaría además un avance importante en nuestro esfuerzo por proteger proactivamente a nuestros usuarios, sobre todo frente a riesgos nuevos y emergentes.

Ayudar a los usuarios a evaluar la información que encuentran en línea

Hoy también hablaremos de algunas de las medidas que estamos adoptando para reducir la amenaza de la desinformación y promover información confiable en los productos de IA generativa: ya sea desde el lanzamiento de nuevas herramientas hasta la adaptación de nuestras políticas, muchas de ellas con el objetivo compartido de garantizar que los usuarios tengan un contexto adicional sobre lo que ven en línea.

Colaboración para crear una web más segura

Por otro lado, a la vista de la magnitud de este problema, somos conscientes de que necesitamos asociarnos con otras partes interesadas. En la lucha por tener información de calidad es necesaria la colaboración para fortalecer la veracidad de los hechos, la alfabetización mediática y la investigación en materia de desinformación.

Ayer conocí a 40 personas que forman parte de algunas de las organizaciones en materia de alfabetización mediática y responsabilidad digital que respalda Google.org y que conecta organizaciones sin fines de lucros con financiación y recursos adicionales. Ejemplo de ello es Bibliotheques Sans Frontieres, una ONG con sede en Bruselas, que utilizará su subvención para ayudar a los adolescentes a formular preguntas críticas sobre lo que leen en línea.

El año pasado anunciamos la iniciativa Global Fact Checking Fund, a la que se sumó un compromiso de 10 millones de dólares para luchar contra la desinformación sobre la guerra en Ucrania. Esto ha supuesto nuevas asociaciones con think tanks y organizaciones de la sociedad civil, y ha aportado financiación a redes de verificación de datos y a distintas organizaciones sin fines de lucro.

Tengo muchas ganas de escuchar a algunas de las voces líderes en materia de verificación de datos, moderación de contenido, políticas y periodismo de hoy en día, y ver qué podemos lograr cada uno cuando trabajemos juntos.