Aprovechando su conferencia anual para desarrolladores, la compañía anunció una serie de innovaciones impulsadas por inteligencia artificial, desde cambios en su buscador, hasta nuevos modelos de IA generativa para los usuarios de la nube.
Google celebró este martes 14 de mayo su tan esperada conferencia anual para desarrolladores Google I/O 2024, en la que la compañía presentó una amplia gama de nuevos productos, servicios y actualizaciones impulsadas por la familia de modelos de inteligencia artificial de Gemini, las cuales sin duda vale la pena conocer.
El buscador de Google ahora estará impulsado por IA
Para empezar, Google anunció que está realizando el mayor cambio en su motor de búsqueda desde su lanzamiento hace más de 20 años. Ahora, en lugar de mostrar enlaces a otros sitios web acompañados de fragmentos de información en la parte superior de los resultados, la empresa utilizará la IA de Gemini para resumir información de distintas páginas y proporcionar respuestas completas de varios párrafos a las consultas de los usuarios, como actualmente lo hace Bing.
Los cambios estuvieron a prueba durante el año pasado, pero durante el evento Google anunció que incorporará esta misma semana las respuestas generadas por IA en los resultados de las búsquedas realizadas en los Estados Unidos y las llevará a sus más de mil millones de usuarios en todo el mundo, de forma paulatina antes de que finalice el 2024.
Google presenta Proyecto Astra, un prototipo de su nuevo asistente de IA
Uno de los anuncios más destacados del Google I/O sin duda fue la presentación del Proyecto Astra, un asistente virtual de inteligencia artificial multimodal que reacciona a entradas de audio y puede contextualizar sus respuestas por medio de lo que ve a través de la cámara del dispositivo, muy similar al nuevo GPT-4o que OpenAI lanzó apenas ayer.
Actualmente, continúa siendo perfeccionado por los ingenieros de Google DeepMind y es solo un prototipo, sin embargo, durante el Google I/O, la compañía demostró en tiempo real cómo a través de entradas en video y audio, en lugar de una interfaz de chatbot tradicional en texto, esta tecnología fue capaz de ayudar a un usuario a encontrar distintos objetos en el escenario después de escanearlo utilizando visión computarizada a través de la cámara de su celular.
El director ejecutivo de DeepMind, Demis Hassabis, señaló que un chatbot verdaderamente útil debe permitir a los usuarios “hablar con éste de forma natural y sin retrasos ni demoras”.
Adicionalmente, mencionó que espera que el Proyecto Astra esté disponible en la plataforma de Google que permite a los desarrolladores entrenar y desarrollar sus propias aplicaciones de IA generativa, Vertex AI, a finales de este año.
Nuevo hardware avanzado para cuestiones de IA
La compañía aprovechó el Google I/O para presentar el nuevo Trillium, la sexta generación de su Unidad de Procesamiento de Tensor o TPU, por sus siglas en inglés, una pieza de hardware que permite ejecutar operaciones complejas de inteligencia artificial sin problemas, la cual estará disponible para los usuarios de la nube a fines de 2024.
Los nuevos chips de Google están diseñados específicamente para el entrenamiento y ejecución de modelos de IA complejos. Pichai, subrayó que Trillium ofrece un rendimiento 4.7 veces superior que su antecesor, “consolidando la infraestructura de Google como la más potente para la investigación y el desarrollo de IA en el mundo” según el CEO de la compañía.
El director ejecutivo enfatizó en que los nuevos TPU no están destinados a competir con otros chips de IA o unidades de procesamiento de gráficos, como el de Nvidia. De hecho, durante la presentación Pichai destacó la “gran asociación” de Google con Nvidia”, señalando que las empresas han estado trabajando juntas durante más de una década y espera que sigan haciéndolo muchos años más.
Las soluciones creativas presentadas en el Google I/O 2024
El CEO de Google, Sundar Pichai, presentó el nuevo modelo de inteligencia artificial para la creación de videos de alta definición llamado Veo, a través del cual la compañía pretende competir con Sora de OpenAI. La nueva herramienta tiene la capacidad de generar videos de gran calidad con una duración mayor a un minuto únicamente siguiendo indicaciones textuales.
Posteriormente, Doug Eck, vicepresidente de Google Research, presentó la última generación de su solución de inteligencia artificial para la generación de imágenes llamada Imagen 3, la cual la compañía asegura que puede crear representaciones visuales mucho más claras, realistas y con menos errores que sus modelos anteriores, debido a que ahora es respaldado por las “capacidades multimodales” de Gemini.
Por su parte, Demis Hassabis, presentó MusicLM, una suite de herramientas de IA para músicos profesionales que permite crear nuevas secciones instrumentales, transferir estilos entre canciones y experimentar con la composición musical de formas innovadoras. El ejecutivo presumió que algunos artistas de renombre como Dan Deacon, Donald Glover y Anitta ya están utilizando esta herramienta para impulsar su creatividad musical.
Las herramientas creativas respaldadas por Gemini estarán disponibles inicialmente para socios y usuarios seleccionados a partir del próximo lunes 20 de mayo a través de Vertex AI.
Algunas de las nuevas funciones o herramientas que Google presentó durante su conferencia anual aún se encuentran en fase de prueba o están limitadas para uso exclusivo de los desarrolladores, pero sin duda, demuestran cómo el gigante tecnológico está aprovechando la inteligencia para revolucionar todos los servicios de la compañía, motivados por el compromiso de facilitar la vida de las personas a través de sus innovaciones tecnológicas.
Finalmente, cabe destacar que el evento de Google I/O 2024 se llevó a cabo tan solo un día después de que OpenAI sorprendió al mundo con el lanzamiento de GPT-4o, un hecho que deja bien claro que el gigante tecnológico no pretende quedarse atrás en la carrera de la inteligencia artificial y al mismo tiempo refleja claramente cómo se está intensificando cada vez más esta contienda.