Cuando pensamos en el poder transformador de la tecnología, es fácil centrarse en los propios inventos: la máquina de vapor, el ordenador personal, Internet o el reciente auge de la inteligencia artificial (IA). Pero bajo estas revoluciones se esconde una historia recurrente de mercantilización, la rápida y exponencial disminución del costo de un recurso crítico que hace que la tecnología sea escalable, accesible y, en última instancia, revolucionaria.
La revolución industrial fue posiblemente el primer gran cambio de paradigma tecnológico moderno. Su núcleo fue la máquina de vapor, que impulsó fábricas, trenes y barcos, permitiendo una producción y un transporte sin precedentes. Pero lo que hizo escalable la revolución fue el carbón. El costo de extracción, transporte y utilización del carbón se redujo drásticamente durante décadas, convirtiéndolo en la materia prima clave que impulsó la industrialización.
El costo decreciente del carbón impulsó un crecimiento exponencial de la disponibilidad de energía, lo que a su vez impulsó un aumento masivo de la productividad en todas las industrias. Las fábricas podían producir bienes más rápido y más barato, mientras que los ferrocarriles y los barcos de vapor conectaban los mercados de todo el mundo. El efecto dominó transformó las economías, las sociedades y la geopolítica.
En el siglo XX se produjo otra revolución: la aparición del ordenador personal. En este caso, el producto clave no era un recurso físico como el carbón, sino tecnológico: la densidad de los transistores, impulsada por el escalado de Dennard.
El escalado de Dennard, llamado así por el investigador de IBM Robert Dennard, describe cómo a medida que los transistores disminuyen de tamaño, su consumo de energía y su costo se reducen proporcionalmente. Este principio fue la base de la Ley de Moore, según la cual el número de transistores en un chip se duplicaba aproximadamente cada dos años.
¿Cuál es el resultado? La potencia de cálculo se hizo exponencialmente más barata y eficiente. Esta comoditización de la computación permitió el desarrollo de computadoras personales asequibles, haciéndolas accesibles a empresas, escuelas y hogares. El efecto dominó incluyó el surgimiento de industrias de software, herramientas de productividad y, finalmente, la propia Internet.
La revolución de las puntocom de los años 90 y principios de los 2000 también se vio impulsada por un recurso básico: el ancho de banda para la transmisión de datos. Se regía por la Ley de Edholm, que preveía aumentos exponenciales del ancho de banda con el tiempo, gracias a los avances en fibra óptica, tecnologías inalámbricas y algoritmos de compresión.
Al reducirse el costo de la transmisión de datos, Internet se convirtió en un fenómeno mundial. Florecieron los sitios web, los motores de búsqueda, el comercio electrónico y las herramientas de comunicación en línea. Surgieron empresas como Amazon, Google y Facebook, que reconfiguraron la economía mundial. El rápido descenso de los costos del ancho de banda hizo posible conectar a personas y empresas a una escala nunca antes imaginada.
Hoy asistimos a otro cambio de paradigma: la revolución de la IA, impulsada por los grandes modelos lingüísticos (LLM). Estos modelos, como GPT-4 y LLaMA de Meta, están transformando sectores que van desde la atención al cliente hasta la creación de contenidos, pasando por la programación.
Pero, ¿cuál es la materia prima que impulsa esta revolución? El costo de formación y utilización de los LLM, que ha descendido a un ritmo extraordinario. Las estimaciones del sector apuntan a un descenso anual de 10 veces en el costo de formación de modelos con una puntuación mínima en el benchmark MMLU (Comprensión Lingüística Multitarea Masiva). Esto significa que las tareas que requieren capacidades de IA de vanguardia se abaratan drásticamente cada año.
Por ejemplo, entrenar un LLM de última generación en 2020 costaba decenas de millones de dólares. Hoy en día, se pueden conseguir capacidades similares por una fracción de ese costo, y están surgiendo modelos de código abierto que rivalizan con los propietarios. Esta rápida mercantilización está poniendo los LLM al alcance de más organizaciones y personas, democratizando las capacidades de IA.
Pero ahora nos enfrentamos a un nuevo reto. Históricamente, el aumento de la potencia de cálculo, añadiendo más GPU, servidores y recursos en la nube, ha ampliado la inteligencia de la IA. Pero nos encontramos con un problema: la escasez de datos.
Los LLM necesitan grandes cantidades de datos de alta calidad para entrenarse. Internet, aunque masivo, tiene datos de entrenamiento finitos y de gran valor. A medida que nos quedamos sin nuevos datos con los que entrenar, el simple aumento de la capacidad de cálculo ya no produce ganancias proporcionales en el rendimiento del modelo. En este contexto, la computación en tiempo de prueba se perfila como la próxima frontera.
La computación en tiempo de prueba se refiere a los recursos que utiliza un modelo durante la inferencia (cuando genera resultados o predicciones). En lugar de basarse únicamente en conocimientos preformados, los modelos pueden realizar cálculos adicionales, recuperar información externa o iterar sobre sus resultados en tiempo real.
Este cambio es especialmente importante para los LLM de código abierto, cuyo desarrollo y uso son cada vez más baratos. Con la computación en tiempo de prueba, incluso los modelos relativamente pequeños pueden alcanzar un alto rendimiento adaptándose dinámicamente a las tareas o integrando datos externos.
La mercantilización de los LLM está poniendo en entredicho el modelo tradicional SaaS (software como servicio). Las plataformas de IA patentadas, como la GPT-4 de OpenAI, que se basan en cuotas de suscripción, se enfrentan a la creciente competencia de las alternativas de código abierto. A medida que disminuye el costo de implantación y puesta a punto de estos modelos, las empresas pueden optar por utilizar sus propios modelos o recurrir a soluciones de terceros más baratas.
Para hiperescaladores como Amazon Web Services (AWS), Microsoft Azure y Google Cloud, la historia es buena. Estas empresas se benefician de la mercantilización de los LLM porque impulsa la demanda de su infraestructura en la nube. La formación y el despliegue de modelos de IA requieren recursos informáticos masivos, y los hiperescaladores están bien posicionados para proporcionarlos.
Los hiperescaladores tienen que invertir mucho en centros de datos, GPU y hardware especializado. La caída del costo de los LLM aumenta la rentabilidad de estos gastos de capital al impulsar la demanda de cargas de trabajo de IA. Por cada dólar invertido en infraestructura, los hiperescaladores pueden captar más ingresos a medida que los clientes escalan sus aplicaciones de IA.
Como mayor hiperescalador, Amazon tiene mucho que ganar. AWS ya ofrece herramientas para desplegar LLM, incluidas integraciones con LLaMA de Meta. Al proporcionar una infraestructura escalable y rentable para modelos de código abierto, AWS puede atraer a las empresas que buscan aprovechar la IA sin los altos costos de las soluciones propietarias.
El enfoque de código abierto de Meta hacia los LLM, ejemplificado por LLaMA, la posiciona como un actor clave en el ecosistema de la IA. Al poner sus modelos a libre disposición, Meta fomenta la adopción y la innovación, al tiempo que se beneficia indirectamente del crecimiento del ecosistema.
En la actualidad, el rápido descenso de los costos de los LLM está democratizando la IA, desafiando a los operadores tradicionales en áreas como SaaS y creando nuevas oportunidades para los hiperescaladores y los innovadores. Como empresas e individuos, comprender esta dinámica es clave para navegar por la revolución de la IA y aprovechar sus oportunidades.
Disclaimer: The views expressed in this article are those of the author at the date of publication and not necessarily those of Dominion Capital Strategies Limited or its related companies. The content of this article is not intended as investment advice and will not be updated after publication. Images, video, quotations from literature and any such material which may be subject to copyright is reproduced in whole or in part in this article on the basis of Fair use as applied to news reporting and journalistic comment on events.