Acceder al contenido
Blog España

AI

Nuestras diez grandes aportaciones a la IA hasta hoy

Ilustración de festejo de los 25 años de Google con el nombre de la marca y el número 25 que reemplaza las letras o.

Por si alguien todavía no lo sabe, la Inteligencia Artificial es un asunto importante últimamente. En Google siempre lo ha sido porque puede hacer más fáciles las tareas cotidianas y ayudar a resolver los grandes problemas de la sociedad. Con motivo de nuestro 25 Aniversario, queremos echar la vista atrás y repasar algunos de nuestrosgrandes momentos de la IA en Google hasta ahora. Esperamos que vengan hitos aún mayores en el futuro.

2001: Aprendizaje automático para corregir la ortografía en el Buscador 

Larry Page, cofundador de Google, dijo una vez: "El motor de búsqueda perfecto debería entender exactamente lo que quieres decir y darte exactamente lo que necesitas". Dimos un gran paso adelante hacia esa visión, cuando empezamos a utilizar un sistema muy sencillo de aprendizaje automático para sugerir correcciones ortográficas en las búsquedas en internet. Incluso aunque no esté del todo correcto escrito, podemos entender lo que quieres decir y darte lo que necesitas. 

Animación de una búsqueda mal escrita de "gobbledygook".

Animación de una búsqueda mal escrita de "gobbledygook"

2006: El lanzamiento del Traductor de Google 

Cinco años después, lanzamos el Traductor de Google, que aplicaba el aprendizaje automático a la traducción de idiomas. Empezamos con traducciones del árabe al inglés y viceversa. A día de hoy el Traductor de Google soporta 133 idiomas, que hablan millones de personas en todo el mundo. Esta tecnología puede traducir textos, imágenes e incluso una conversación en tiempo real; derribando así las barreras del lenguaje y ayudando a la gente a comunicarse y ampliar el acceso a la información de una forma nunca vista. 

2015:  Democratización de la IA con TensorFlow

La introducción de TensorFlow, un nuevo marco de aprendizaje automático de código abierto, hizo que la IA fuera más accesible, escalable y eficiente. También ayudó a acelerar el ritmo de la investigación y el desarrollo de la IA en todo el mundo. TensorFlow es ahora uno de los marcos de aprendizaje automático más populares y se ha utilizado para desarrollar una amplia gama de aplicaciones de inteligencia artificial, desde el reconocimiento de imágenes hasta el procesamiento del lenguaje natural y la traducción automática.

2016: AlphaGo derrota al campeón mundial de “Go”

Como parte del Google DeepMind Challenge Match, más de 200 millones de personas vieron online cómo AlphaGo se convertía en el primer programa de inteligencia artificial en derrotar a un campeón mundial humano en “Go”, un complejo juego de mesa que se pensaba que estaba fuera del alcance de las máquinas. Esta victoria histórica demostró el potencial del aprendizaje profundo para resolver problemas complejos que antes se consideraban imposibles para las computadoras. La victoria de AlphaGo sobre Lee Sedol, uno de los mejores jugadores de Go del mundo, desató una conversación global sobre el futuro de la IA y demostró que los sistemas de IA podían aprender a dominar juegos complejos que requieren pensamiento estratégico y creatividad.

2016: Las TPU permiten implementar la IA de más rápida y eficiente

Las Unidades de Procesamiento Tensor, o TPU, son chips de silicio diseñados específicamente para el aprendizaje automático y optimizados para el TensorFlow. Pueden entrenar y ejecutar modelos de IA mucho más rápido que los chips tradicionales, lo que los hace ideales para aplicaciones de IA a gran escala. La versión v5e, anunciada en agosto, es la Cloud TPU más rentable, versátil y escalable hasta la fecha.

Placa de Unidad de Procesamiento Tensorial.

Imagen de una placa de Unidad de Procesamiento Tensorial

2017: Google Research presenta el Transformer

El artículo de Google Research “Attention Is All You Need” introdujo  el Transformer, una nueva arquitectura de redes neuronales pensada para ayudar a comprender el lenguaje. Antes del Transformer, las máquinas no entendían bien el significado de las frases largas porque no eran capaces de ver las relaciones entre palabras muy separadas entre sí. Transformer mejoró este problema y se ha convertido en la base de los sistemas de IA generativa y de comprensión del lenguaje más impresionantes de la actualidad. Ha evolucionado los resultados de la traducción automática, los resúmenes de textos, los sistemas de respuesta a preguntas e incluso generación de imágenes y robótica.

2019: El Buscador de Google entiende mejor las preguntas gracias a BERT 

Nuestra investigación sobre el Transformer llevó a la introducción de Representaciones de Codificador Bidireccional de Transformers – BERT, para abreviar – que ayudaron a nuestro buscador a entender las consultas de los usuarios mejor que nunca. En lugar de intentar comprender las palabras individualmente, nuestros algoritmos BERT ayudaron a Google a comprender las palabras en contexto. Esto generó una gran mejora en la calidad de la búsqueda y facilitó que las personas hicieran preguntas como lo harían de una forma natural, en lugar de encadenar palabras clave.

Cuadro de búsqueda que contiene la consulta "¿Se pueden conseguir medicamentos para alguien en la farmacia?" e imágenes una al lado de la otra de los resultados antes y después de BERT.

Cuadro de búsqueda que contiene la consulta "¿Se pueden conseguir medicamentos para alguien en la farmacia?" e imágenes una al lado de la otra de los resultados antes y después de BERT, y después se refleja que "para alguien" es una parte importante de esta consulta.

Imagen de un cuadro de búsqueda que contiene la consulta "¿Se pueden conseguir medicamentos para alguien en la farmacia?" e imágenes una al lado de la otra de los resultados antes y después de BERT, y después se refleja que "para alguien" es una parte importante de esta consulta.

2020: AlphaFold resuelve el problema del plegamiento de las proteínas

En 2020  DeepMind dio otro paso de gigante en el campo de la IA,  AlphaFold, reconocido como una solución al "problema del plegamiento de las proteínas". Las proteínas son los bloques de construcción de la vida y la forma en que se pliega la estructura de cada una de ellas determina su función. Una proteína con un plegamiento incorrecto puede ser la causa de una enfermedad. Desde hace 50 años los científicos tratan de predecir la estructura de las proteínas, con el fin de entender mejor determinadas enfermedades y desarrollar tratamientos. Eso es justo lo que hizo AlphaFold. En 2022 compartimos 200 millones de estructuras proteicas de AlphaFold – que cubren casi todos los organismos del planeta a los que se les ha secuenciado el genoma – con la comunidad científica a través de la base de datos de estructuras de proteínas de AlpaFold. Más de un millón de investigadores ya lo han utilizado para trabajar, por ejemplo, en el aceleramiento de nuevas vacunas contra la malaria en un tiempo récord, avanzar en el descubrimiento de fármacos contra el cáncer o desarrollar enzimas que comen plástico. 

2023: La IA generativa de Bard facilita la colaboración

LaMDA, un gran modelo de lenguaje conversacional, lanzado por Google Research en 2021 allanó el camino para muchos sistemas de inteligencia artificial generativa que han capturado la imaginación del mundo, incluido Bard. Anunciado en marzo, Bard ahora está disponible en la mayor parte del mundo y en más de 40 idiomas, por lo que más personas que nunca pueden usarlo para aumentar la productividad, acelerar ideas y alimentar la curiosidad. Hemos combinado el modelo más inteligente y capaz de Bard hasta el momento con los servicios de Google que se usan todos los días, como Gmail, Docs, Drive, Vuelos, Mapas y YouTube, para que resulten aún más útiles en tareas como la planificación de viajes y la doble verificación de respuestas, y resumir correos electrónicos o documentos.

Alguien usa Bard para planificar un viaje al Gran Cañón. Bard responde con fechas de un hilo de correo electrónico, información de hoteles y vuelos, y más.

Alguien usando Bard para planificar un viaje al Gran Cañón. Bard responde con fechas de un hilo de correo electrónico, información de hoteles y vuelos, y más.

2023: PaLM 2 avanza hacía el futuro de la IA

En mayo de este año presentamos PaLM 2, un gran modelo de lenguaje de nueva generación, que incorpora mejoras en las capacidades multilingües, de razonamiento y de escritura de código de programación. Es más capaz, más rápido y más eficiente que sus predecesores, y ya está presente en más de 25 productos y funciones de Google, desde Bard hasta las funciones de IA generativa de Gmail y Workspace, y SGE, nuestro experimento para integrar profundamente la IA generativa en la Búsqueda de Google.  También estamos utilizando PaLM 2 en todas nuestras líneas internas de investigación, desde la atención sanitaria hasta la ciberseguridad. 

Todo esto son solo algunas de las aportaciones de Google en el campo de la inteligencia artificial que ya forman parte de muchos productos que miles de millones de personas utilizan cada día. Con nuestros Principios de la IA como guía y base para adoptar un enfoque responsable y audaz, ya estamos trabajando en Gemini, el que será nuestro próximo modelo que abrirá la puerta a futuras innovaciones de cara a nuestros próximos 25 años.