Aunque a veces parezca que la revolución de la IA se ha producido en los dos últimos años, en lo que se considera el "mundo post-ChatGPT", los modelos y teorías sobre lo que podría funcionar tanto en la IA, como machine learning llevan décadas siendo objeto de estudio. No hay que olvidar que hace poco tiempo que disponemos de las actuales tasas de almacenamiento de datos, velocidad de transmisión y capacidad de procesamiento que permiten operar a esta escala en la que estamos empezando a ver cosas interesantes.

Uno de los impactos de esto se ve en la Gráfica 1:

  • ChatGPT se lanzó en noviembre de 2022. En el cuarto trimestre de 2022, unas 100 empresas integrantes del índice Russell 1000 mencionaron la IA en los comentarios preparados para sus presentaciones de resultados de beneficios. 
  • Para 2024, el número de empresas que mencionaban la inteligencia artificial se triplicaba cada trimestre.
  • La introducción de ChatGPT no significó que estas empresas adoptaran y utilizaran inmediatamente la IA, sino que simplemente les hizo reparar en su potencial. Los datos siguen siendo el combustible fundamental con el que funcionan todos estos modelos, por lo que la mayoría de las empresas tendrán que desarrollar importantes sistemas de organización de datos para extraer valor de la IA. 

gráfico 1 IA

Semiconductores: herramientas básicas

La expresión "picos y palas" referencia la fiebre del oro en California en el siglo XIX. Los buscadores de oro llegaban a California con la idea de encontrar oro en sus tierras. Muchos lo intentaron, pero la mayoría no se hizo rico. Sin embargo, para tener la posibilidad de encontrar oro, necesitaban comprar ciertas herramientas: los picos y palas. 

¿Qué opinión merecen las perspectivas de empresas que venden picos y palas, en lugar de las proyecciones de aquellas empresas basadas en la propia posibilidad de encontrar oro?

La IA se encuentra en un punto similar. Puede que estos modelos lingüísticos de gran tamaño aporten un gran valor en el futuro, pero por ahora, aunque tengamos la oportunidad de entrenarlos y ejecutarlos, se necesita un gran número de unidades de procesamiento gráfico (GPU).  Para muestra, la opinión de algunos de los directores generales de grandes compañías sobre la necesidad de desarrollar esta capacidad:

"En este momento, prefiero arriesgarme a crear capacidad antes de que sea necesario que demasiado tarde". - Mark Zuckerberg, CEO de Meta Platforms. 

"Aunque estamos invirtiendo una cantidad significativa en el ámbito de la IA y en infraestructura, nos gustaría tener más capacidad de la que ya tenemos hoy". - Andy Jassy, CEO de Amazon.

"Cuando se atraviesa una curva como esta, el riesgo de invertir poco es dramáticamente mayor que el de invertir demasiado". - Sundar Pichai, CEO de Alphabet. 

Para crear esta infraestructura y realizar las inversiones de las que hablan estos y otros CEOs en la segunda mitad de 2024, se está destinando mucho gasto a los centros de datos, que engloban a una gran cantidad de empresas de semiconductores, no solo a Nvidia. Puede que, cuando echemos la vista atrás, Nvidia se haya llevado la mayor parte del pastel de ventas de "picos y palas" en términos globales. Aun así, para que la IA se extienda a toda la economía, serán necesarios muchos tipos diferentes de chips de muchas empresas. 

En la Gráfica 2, se compara el rendimiento del software con el de los semiconductores. Muchos en el mercado creen que la IA contribuirá enormemente al crecimiento de la economía mundial en las próximas décadas. Sin embargo, al pensar en lo que hemos visto durante 2024:

  • Las empresas de semiconductores han obtenido resultados relativamente buenos, incluyendo y excluyendo a Nvidia.
  • En términos de rendimiento relativo, las empresas de software han tenido peor comportamiento. 

Es interesante ver cómo el mercado termina descontando algunos elementos en este sentido, como se muestra en la gráfica 2:

  • Una de las cosas más fáciles de observar en la segunda mitad de 2024 es el gasto de los hiperescaladores (empresas como Amazon, Alphabet, Microsoft, Meta Platforms y Oracle). Gran parte de ese gasto alimenta los ingresos y beneficios de las empresas de semiconductores. 
  • Una de las cosas más difíciles de ver, al menos en la segunda mitad de 2024, es exactamente cómo el software hoy relevante generará un rendimiento lo suficientemente significativo como para que una inversión base superior a un 1 billón de dólares tenga sentido en un plazo de tiempo razonable. 

Del iPhone a Uber

El iPhone - es importante tener en cuenta el contexto histórico en el que Steve Jobs subió al escenario para presentar este dispositivo y dar el pistoletazo de salida a la revolución de los teléfonos inteligentes en 2007 - se convirtió en una plataforma increíble en la que se apoyaron innumerables innovaciones futuras.  Siendo sinceros, a la mayoría de nosotros no se nos vinieron a la cabeza estas innovaciones en 2007, 2008 o 2009 En su lugar, estábamos pensando si necesitábamos o no un teclado, o si tenía sentido saltar del mundo Blackberry al de iPhone. 

Uber es un buen ejemplo de una aplicación que no podría existir sin los smartphones, pero que desde entonces ha desatado el desarrollo de otros recursos, como coches y conductores, disponibles en base a un precio ajustado a la demanda. Muchas ciudades tuvieron que aceptar este formato, aunque fuera a regañadientes, pero ahora el concepto de taxis y entregas a domicilio a petición ha llegado para quedarse. 

Llevó tiempo pasar del iPhone (la plataforma) a una aplicación que ha cambiado el mundo, de la que Uber es sin duda un ejemplo. No obstante, hay que destacar que el primer año rentable de Uber fue 2023. 

Si pensamos en los centros de datos masivos que los hiperescaladores están construyendo como plataforma, una visión realista quizá sea que no es seguro saber qué aplicaciones serán las grandes ganadoras, ni si esas aplicaciones serán rentables de inmediato o tardarán años en conseguirlo, como hizo Uber. 

En la Gráfica 3, vemos uno de los beneficios de obligarnos a pensar en el ecosistema de la IA de forma diversificada. A la derecha, vemos un ejemplo de las previsiones de McKinsey sobre el gasto en centros de datos. Esto se está teniendo claramente en cuenta en las proyecciones de los analistas que comparan el precio de las acciones y los fundamentales de Nvidia. 

Sin embargo, también hay que tener en cuenta lo que se muestra a la izquierda, el concepto de que todos nuestros dispositivos, en los próximos años, probablemente incluyan la capacidad de ejecutar al menos algunas funciones de IA. Esto significa que necesitaremos chips más avanzados de distintas empresas, y las GPU de Nvidia, que acaparan toda la atención en los centros de datos, son completamente distintas de los chips que hacen funcionar dispositivos como teléfonos inteligentes, tabletas y portátiles. Pasamos mucho tiempo pensando en Qualcomm y sus procesadores SnapDragon que están presentes en muchos dispositivos nuevos, como los Copilot+ de Microsoft, pero también vemos cómo Apple aún no ha sido capaz de diseñar Qualcomm fuera del iPhone. Para aquellos que vislumbren la creación de nuevos dispositivos, es muy probable que haya al menos contengan un chip de Qualcomm. 

Conclusión: un amplio conjunto de ganadores en IA a largo plazo

Nuestra tesis en WisdomTree sigue siendo que, con el tiempo, podría haber un amplio conjunto de ganadores de la IA. Los beneficios de Nvidia en los dos últimos años probablemente han malacostumbrado al inversor. Nuestra hipótesis de base es que el caso de Nvidia, con un aumento tan increíble de su valor de mercado, no se repetirá fácilmente, sobre todo en un periodo tan corto. 
Será interesante ver si la ampliación que creemos que debería producirse, acaba dando sus frutos en forma de retornos reales.