Los chips de IA de Nvidia avanzan más rápido que la Ley de Moore y abaratarán los costes de uso de los modelos
El consejero delegado de Nvidia, Jensen Huang, ha asegurado que sus chips de inteligencia artificial (IA) evolucionan y mejoran su rendimiento más rápido que lo contemplado en la Ley de Moore, lo que permitirá reducir los costes del uso de los modelos de IA, al tiempo que ha abogado por un futuro basado en la IA superinteligente para llevar a cabo todo tipo de tareas e impulsar la robótica.
La Ley de Moore, ideada por el cofundador de Intel, Gordon Moore, en el año 1965, pronostica la evolución del poder computacional cada dos años. En concreto, se trata de una ley que, basada en los avances en el sector tecnológico, predijo que el número de transistores utilizados en un chip se duplicaría aproximadamente cada dos años, con un aumento mínimo en el costo.
Es decir, según explica la propia Intel en su web, cuantos más transistores o componentes hay en un dispositivo, el coste por dispositivo se reduce, al tiempo que el rendimiento aumenta. Así, se trata de un planteamiento relevante para el avance del sector tecnológico, ya que ha impulsado múltiples mejoras en la capacidad de los dispositivos informáticos, así como una reducción en su coste.
Teniendo esto en cuenta, el CEO de Nvidia se ha pronunciado haciendo referencia a la Ley de Moore y ha asegurado que los chips de IA de Nvidia están «progresando mucho más rápido» que dicha predicción y, que por tanto, los sistemas de IA avanzan a un ritmo propio.
Así se ha pronunciado Huang en declaraciones a TechCrunch en el marco de la feria tecnológica CES 2025, quien ha señalado que, por ejemplo, su último procesador diseñado para centros de datos, el superchip GB200 NVL72, permite obtener 30 veces más rendimiento para cargas de trabajo de inferencia de LLM, en comparación con la capacidad que proporcionaría el chip de generación anterior H100.
Según ha explicado Huang, esto se debe a que, actualmente, Nvidia puede construir al mismo tiempo la arquitectura, el chip, el sistema, las bibliotecas y los algoritmos. «Si hacemos eso, podemos avanzar más rápido que la Ley de Moore, porque podemos innovar en todo el conjunto», ha sentenciado.
En este marco, el director ejecutivo apuesta por una ley dedicada para el avance de los sistemas de IA, que se base en tres puntos de escalamiento, como son el preentrenamiento, el posentrenamiento y el cómputo en tiempo de prueba.
El preentrenamiento hace referencia a la fase inicial donde los modelos de IA aprenden patrones derivados de grandes cantidades de datos. Por su parte, el posentrenamiento se relaciona con el refinamiento de las respuestas del modelo mediante la retroalimentación humana. En cuanto al cómputo en tiempo de prueba, es el razonamiento del modelo, la fase de inferencia con la que toma la decisión sobre cuál es la respuesta que debe devolver a los usuarios.
Este último permite que el modelo de IA pueda pensar más detalladamente la respuesta para cada pregunta de los usuarios, sin embargo, también es la parte más costosa a la hora de utilizar los modelos de IA.
Según Huang, al igual que la Ley de Moore «fue muy importante en la historia de la informática porque redujo costes de computación», la evolución en la inferencia tendrá el mismo efecto, donde Nvidia aumenta el rendimiento con sus procesadores. «Lo mismo sucederá con la inferencia, donde aumentamos el rendimiento y, como resultado, el costo de la inferencia será menor», ha manifestado el directivo.
Con este planteamiento, modelos como el presentado recientemente por OpenAI o3, que utiliza más capacidad de cómputo durante la inferencia para pensar más sus respuestas, podrá ser menos costoso con el tiempo, gracias a chips como el mencionado anteriormente de Nvidia, GB200 NVL72.
Es decir, el objetivo de Nvidia es continuar desarrollando chips de mayor rendimiento para impulsar tareas de IA, de cara a generar precios más asequibles a la hora de utilizar esta tecnología en el día a día y en las innovaciones tecnológicas. «La solución directa e inmediata para la computación en tiempo de prueba, tanto en términos de rendimiento como de asequibilidad, es aumentar nuestra capacidad de computación», ha señalado.
UN FUTURO CON IA SUPERINTELIGENTE
Además de todo ello, durante un encuentro con la prensa en el CES, al que ha tenido acceso Engadget, el CEO de Nvidia también ha augurado un futuro con «IA superinteligente» a la hora de llevar a cabo diversas tareas en el día a día.
En concreto, Huang ha adelantado que los usuarios dispondrán de servicios de IA superinteligente que permitirán escribir, analizar problemas, gestionar la planificación de la cadena de suministro, escribir software o diseñar chips. Además también ha señalado que impulsará la industria de la robótica con avances como los recientemente anunciados en Omniverse y su nueva plataforma Cosmos World Foundation.
Al respecto, preguntado por si los robots inteligentes pueden acabar perjudicando a los humanos ante dichos avances, Huang ha subrayado que esta tecnología «se puede utilizar de muchas maneras» y que no tiene porqué ser perjudicial, si no que «son los humanos» los que pueden utilizarla de forma dañina.
«Creo que las máquinas son máquinas», ha sentenciado mientras ha señalado que la IA y los robots inteligentes estarán del lado de los humanos porque «se van a construir de dicha manera».
The post Los chips de IA de Nvidia avanzan más rápido que la Ley de Moore y abaratarán los costes de uso de los modelos first appeared on Crónica de Cantabria.
Source: Europapress