Aceleración digital, cotizaciones y desarrollo de software
Febrero de 2025Durante los últimos dÃas hemos asistido a un aluvión de reacciones, tanto en los mercados bursátiles como en otros ámbitos, tras la presentación de DeepSeek. De entre todas ellas, la que más me ha sorprendido es la bajada en la cotización de Nvidia. Resulta paradójico, dado que el modelo de negocio de la compañÃa no se basa en ofrecer servicios, sino en proporcionar capacidad de procesamiento. Por lo tanto, independientemente de si hablamos de código abierto o de servicios propietarios, la premisa de que mejores modelos requieren mayor capacidad de procesamiento deberÃa seguir intacta.
Un antiguo dicho en la industria rezaba: "What Intel giveth, Microsoft taketh away." En el contexto actual, parece que algo similar está ocurriendo entre Nvidia y los proveedores de servicios y modelos de inteligencia artificial. Por ello, me voy a detener un momento en analizar qué está sucediendo con la famosa Ley de Moore, la cual sustenta la valoración de Nvidia y su capacidad para continuar liderando el mercado del hardware que alimenta ¿y retroalimenta¿ la expansión de la IA.
Cabe recordar que la Ley de Moore establece que aproximadamente cada dos años se duplica la densidad de transistores en una capa de silicio, manteniéndose el coste. Sin embargo, el ritmo de miniaturización se ha ralentizado debido a limitaciones fÃsicas: los "cables" de los microchips, que en el mejor de los casos alcanzan los 2 nanómetros, tienen un lÃmite en el tamaño de un átomo (alrededor de medio nanómetro). Por tanto, reducir el tamaño es cada vez más complejo y costoso, lo que ha llevado a afirmar que, desde hace unos ocho años, la Ley de Moore no se cumple.
No obstante, la densidad de los transistores no es el único factor determinante en la capacidad de cómputo. La mayor revolución esperada es la computación cuántica, aunque aún está por verse cuándo (o si) alcanzará una aplicación práctica a gran escala. Mientras tanto, el verdadero avance de Nvidia radica en su capacidad para ejecutar procesamiento masivo en paralelo, lo que ha resultado crucial para tareas especÃficas de entrenamiento de modelos de IA y otras aplicaciones de alto rendimiento.
Viendo el asunto con perspectiva, lo que se ha mantenido vigente es el hecho de que la industria del software y, en particular, los programadores, tienden a malgastar la abundancia que genera la aceleración digital del hardware. La diferencia entre un código optimizado y uno que no lo está puede suponer órdenes de magnitud en términos de mejora en eficiencia.
En definitiva, y mientras se concretan promesas como la computación cuántica o el desarrollo de nuevos materiales y arquitecturas experimentales, el futuro inmediato de la programación y la ingenierÃa de software premiará a quienes, al igual que está haciendo el hardware en el caso de Nvidia, logren especializarse. Aquellos capaces de exprimir al máximo todo lo que existe entre su código y los transistores que lo ejecutan serán los grandes beneficiados en esta nueva era tecnológica.