La lucha entre los NVIDIA A100 vs los Google Tensor por ser los reyes del IA

La inteligencia artificial (IA) se ha convertido en una de las tecnologías más prometedoras, pero también preocupantes, de los últimos tiempos. Bill Gates ha hablado de una “nueva era” y Elon Musk ha pedido una pausa en el desarrollo de los sistemas más potentes. En este contexto, NVIDIA y Google se han destacado como dos de las principales compañías en el sector de la IA.

NVIDIA es conocida por ofrecer chips de alta densidad de cálculo y escalabilidad, que se han utilizado para entrenar algunos de los modelos de IA más famosos como DALL·E y GPT-4. Google, por su parte, presentó en 2016 sus propias unidades de procesamiento, las Google TPU, diseñadas para centros de datos de IA. Estas unidades han mejorado con el tiempo y se utilizan en el 90% de las tareas de aprendizaje automático de la compañía.

Además, Google Cloud permite que empresas y organizaciones externas puedan entrenar sus modelos de IA utilizando su infraestructura en la nube, lo que evita el elevado costo y la dificultad de conseguir hardware para montar sus propios centros de datos. De hecho, el popular generador de imágenes Midjourney ha sido entrenado utilizando la infraestructura de Google Cloud.

Según un artículo científico publicado por Google, sus TPUv4 lanzados en 2021 son hasta 1,7 veces más rápidos y 1,9 veces más eficientes en consumo energético que los NVIDIA A100 lanzados en 2020, en tareas de entrenamiento de modelos de IA del mismo tamaño. Cabe señalar que las compañías están migrando a los NVIDIA H100, que mejoran el rendimiento de su predecesor.

La IA se encuentra en una etapa de rápida evolución y las compañías líderes en el sector están constantemente desarrollando nuevas soluciones para mantenerse a la vanguardia. NVIDIA y Google son dos de los principales actores en este campo, y la competencia entre ellas y otras empresas continuará impulsando la innovación en el ámbito de la inteligencia artificial.

Entradas relacionadas