Se calcula que el cerebro humano contiene unas 100.000 millones de neuronas, cada una forma conexiones con unas 1.000 neuronas mediante sinapsis, lo que suma más de 100 billones de sinapsis.
Se dice que ChatGPT-4 tiene alrededor de 1,8 billones de parámetros ("sinapsis"). Esta cifra multiplica por diez la de ChatGPT-3.5, que utiliza 175.000 millones. Los principales investigadores de IA prevén que los modelos sigan creciendo en tamaño y capacidad. Ilya Sutskever, ex jefe de OpenAI, sugiere incluso que la arquitectura actual de la IA no tiene límites en cuanto a capacidades.
Sin embargo, el número de parámetros no es el único factor que determina el rendimiento de un modelo de inteligencia artificial. Los avances en la arquitectura de los modelos y el acceso a datos de entrenamiento más amplios pueden potenciar significativamente el rendimiento.
Esto es evidente en el último modelo Llama 3 de META, que, a pesar de tener menos parámetros, logra puntuaciones impresionantes en las pruebas de referencia de IA. En particular, durante el entrenamiento de Llama 3, el uso de más datos de formación superó las expectativas de mejora del modelo. Análogamente, la inteligencia humana no es fija; con más y mejor entrenamiento, los individuos se vuelven más inteligentes.
Sam Altman, CEO y cofundador de OpenAI, afirma que existe un alto grado de certeza científica de que ChatGPT-5 será mucho más inteligente que ChatGPT-4, y ChatGPT-6 va a ser mucho más inteligente que ChatGPT-5. Subraya que estamos lejos de alcanzar la cima y que poseemos los conocimientos necesarios para seguir avanzando. Se rumorea que ChatGPT-5 saldrá después del verano.
Es probable que los próximos avances en las capacidades de los modelos de IA surjan en ventanas de contexto más largas (la longitud de la entrada), latencia reducida (la velocidad de las respuestas), inferencia más barata (coste de uso del modelo), mejor razonamiento, planificación y memoria (que el modelo recuerde interacciones pasadas). Estos avances deberían allanar el camino a la creación de superasistentes virtuales personalizados que aumenten la productividad de todos.
El modelo de Inteligencia Artificial líder en términos de ventana contextual es Gemini 1.5 de Google, que tiene una enorme ventana contextual de 1 millón de tokens, equivalente a una hora de vídeo, 11 horas de audio, 30.000 líneas de código o 700.000 palabras (es decir, 8 libros). Cuanto mayor sea la ventana de contexto, más información podrá extraer el modelo de IA de una consulta, lo que hará que su resultado sea más útil.
El concepto de redes neuronales no es nuevo; de hecho, existe desde hace casi un siglo. Solo gracias a los notables avances en las capacidades de hardware y a la disponibilidad de grandes cantidades de datos hemos podido entrenar los enormes modelos de IA que se ven hoy en día.
Los escépticos señalan que pronto podríamos llegar a limitaciones en cuanto a los datos disponibles para seguir mejorando los modelos de IA. Sin embargo, parece que los datos no serán un factor limitante. Dichos modelos pueden generar datos, conocidos como datos sintéticos, que luego pueden utilizarse para entrenar otros modelos de IA.
De hecho, prácticamente todo puede "tokenizarse" y servir como entrada o salida de un modelo de IA: desde el habla y el vídeo hasta el movimiento y la detección. Esto resulta especialmente importante para aplicaciones de formación como los coches autónomos o los robots humanoides, que están experimentando rápidos avances gracias a la aplicación de modelos de IA.
Otra objeción que se oye con frecuencia es que conseguir avances en el hardware será cada vez más difícil. Sin embargo, Nvidia ha presentado su visión de las futuras mejoras informáticas de la IA basándose en un enfoque a nivel de sistemas. En este enfoque, las mejoras en la capacidad de cálculo no dependen únicamente de la Ley de Moore -que se centra en el aumento de la densidad de transistores de los chips, sino de la conexión de los chips en una red en la que funcionan como una entidad unificada. Este innovador enfoque sistémico de la arquitectura informática abre una nueva vía para seguir mejorando la eficiencia de la computación.
La expansión del tamaño de los modelos se traduce en un aumento exponencial de los costes de formación de la IA. Se dice que el entrenamiento de ChatGPT4 ha costado más de 100 millones de dólares. Recientemente, OpenAI y Microsoft desvelaron sus planes para un mega-centro de datos de IA de 100.000 millones de dólares llamado Stargate.
Es muy probable que los modelos de IA sigan avanzando considerablemente en inteligencia. Aunque los casos actuales de uso de la IA ya demuestran un incremento de la productividad impresionante, es probable que sólo estemos arañando la superficie de su potencial. Si la IA puede crear, razonar e interactuar de forma similar a la humana, tiene el potencial de realizar tareas de las que el software tradicional nunca ha sido capaz.
Por lo tanto, sería incorrecto evaluar el mercado total accesible (TAM) de la IA basándose únicamente en el tamaño actual del mercado de software, que es de aproximadamente 600 000 millones de euros. Un TAM más adecuado englobaría los actuales mercados de servicios y fabricación, que suman varias decenas de billones.
Captar tan solo una pequeña parte de esa enorme TAM, ya sea mediante la reducción de los costes operativos (gracias a trabajadores más productivos) o la creación de nuevas fuentes de ingresos, justificaría económicamente una oleada masiva de inversiones en infraestructuras de IA. El futuro de la IA es inmensamente prometedor, con el potencial de revolucionar las industrias y redefinir los límites de lo que la tecnología puede lograr.
TE INTERESA
Si quiere aprender a invertir y gestionar su patrimonio, descubra la nueva sección de cursos gratuitos