Quando pensamos no poder transformador da tecnologia, é fácil nos concentrarmos nas próprias invenções: a máquina a vapor, o computador pessoal, a Internet ou o recente aumento da inteligência artificial (IA). Mas, por trás dessas revoluções, há uma história recorrente de comoditização, o declínio rápido e exponencial do custo de um recurso essencial que torna a tecnologia escalável, acessível e, por fim, revolucionária.

A revolução industrial foi, sem dúvida, a primeira grande mudança de paradigma tecnológico moderno. Em seu centro estava o motor a vapor, que movia fábricas, trens e navios, possibilitando produção e transporte sem precedentes. Mas o que tornou a revolução escalável foi o carvão. O custo de extração, transporte e utilização do carvão caiu drasticamente ao longo de décadas, tornando-o a principal commodity que impulsionou a industrialização.

O custo decrescente do carvão alimentou o crescimento exponencial da disponibilidade de energia, o que, por sua vez, gerou enormes ganhos de produtividade em todos os setores. As fábricas podiam produzir bens de forma mais rápida e barata, enquanto as ferrovias e os navios a vapor conectavam mercados em todo o mundo. Os efeitos em cascata transformaram as economias, as sociedades e a geopolítica.

Avançando rapidamente para o século XX, outra revolução estava em andamento: o surgimento do computador pessoal. Nesse caso, a principal mercadoria não era um recurso físico como o carvão, mas um recurso tecnológico: a densidade do transistor, impulsionada pelo escalonamento de Dennard.

O escalonamento de Dennard, nomeado em homenagem ao pesquisador da IBM Robert Dennard, descreve como, à medida que os transistores diminuem de tamanho, o consumo de energia e o custo são reduzidos proporcionalmente. Esse princípio sustentou a Lei de Moore, que viu o número de transistores em um chip dobrar aproximadamente a cada dois anos.

O resultado? A capacidade de computação tornou-se exponencialmente mais barata e mais eficiente. Essa comoditização da computação possibilitou o desenvolvimento de computadores pessoais econômicos, tornando-os acessíveis a empresas, escolas e residências. Os efeitos em cascata incluíram o surgimento de setores de software, ferramentas de produtividade e, por fim, a própria Internet.

A revolução pontocom da década de 1990 e do início dos anos 2000 foi igualmente alimentada por um recurso comoditizado: a largura de banda de transmissão de dados. Isso foi regido pela Lei de Edholm, que previa aumentos exponenciais na largura de banda ao longo do tempo, graças aos avanços em fibra óptica, tecnologias sem fio e algoritmos de compressão.

Como o custo de transmissão de dados caiu, a Internet tornou-se um fenômeno global. Sites, mecanismos de pesquisa, comércio eletrônico e ferramentas de comunicação on-line floresceram. Empresas como Amazon, Google e Facebook surgiram, remodelando a economia global. A rápida queda nos custos de largura de banda possibilitou a conexão de pessoas e empresas em uma escala nunca antes imaginada.

Hoje, estamos testemunhando outra mudança de paradigma: a revolução da IA, impulsionada por grandes modelos de linguagem (LLMs). Esses modelos, como o GPT-4 e o LLaMA da Meta, estão transformando os setores, desde o atendimento ao cliente até a criação de conteúdo, programação e muito mais.

Mas qual é a commodity que está alimentando essa revolução? É o custo do treinamento e da utilização de LLMs, que vem caindo em um ritmo extraordinário. As estimativas do setor sugerem uma redução anual de 10 vezes no custo de treinamento de modelos com uma pontuação mínima no benchmark MMLU (Compreensão de Linguagem Multitarefa Massiva). Isso significa que as tarefas que exigem recursos de IA de ponta estão se tornando muito mais baratas a cada ano.

Por exemplo, o treinamento de um LLM de última geração em 2020 custava dezenas de milhões de dólares. Hoje, recursos semelhantes podem ser obtidos por uma fração desse custo, e estão surgindo modelos de código aberto que rivalizam com os proprietários. Essa rápida comoditização está tornando os LLMs acessíveis a mais organizações e indivíduos, democratizando os recursos de IA.

Porém, agora estamos enfrentando um novo desafio. Historicamente, o aumento da capacidade de computação, com a adição de mais GPUs, servidores e recursos de nuvem, tem ampliado a inteligência de IA. Porém, estamos nos deparando com um obstáculo: a escassez de dados.

Os LLMs exigem grandes quantidades de dados de alta qualidade para serem treinados. A Internet, embora maciça, tem um número limitado de dados de treinamento de alto valor. À medida que ficamos sem novos dados para treinar, o simples dimensionamento da computação não produz mais ganhos proporcionais no desempenho do modelo. Nesse contexto, a computação em tempo de teste está surgindo como a próxima fronteira.

A computação em tempo de teste refere-se aos recursos que um modelo usa durante a inferência (quando está gerando resultados ou previsões). Em vez de depender exclusivamente do conhecimento pré-treinado, os modelos podem realizar cálculos adicionais, recuperar informações externas ou iterar em seus resultados em tempo real.

Essa mudança é particularmente impactante para LLMs de código aberto, que estão se tornando mais baratos para desenvolver e usar. Com a computação em tempo de teste, até mesmo modelos relativamente pequenos podem alcançar alto desempenho adaptando-se dinamicamente às tarefas ou integrando dados externos.

A comoditização dos LLMs está desafiando o modelo tradicional de SaaS (Software as a Service). Plataformas proprietárias de IA, como o GPT-4 da OpenAI, que dependem de taxas de assinatura, enfrentam a concorrência crescente de alternativas de código aberto. À medida que o custo de implementação e ajuste fino desses modelos diminui, as empresas podem optar por executar seus próprios modelos ou aproveitar soluções de terceiros mais baratas.

Para hiperescaladores como Amazon Web Services (AWS), Microsoft Azure e Google Cloud, a história aqui é boa. Essas empresas se beneficiam da comoditização dos LLMs porque isso impulsiona a demanda por sua infraestrutura de nuvem. O treinamento e a implementação de modelos de IA exigem recursos de computação maciços, e os hiperescaladores estão bem posicionados para fornecê-los.

Os hiperescaladores precisam investir muito em data centers, GPUs e hardware especializado. A queda no custo dos LLMs aumenta o retorno sobre esses gastos de capital ao impulsionar a demanda por cargas de trabalho de IA. Para cada dólar investido em infraestrutura, os hiperescaladores podem obter mais receita à medida que os clientes dimensionam seus aplicativos de IA.

Como o maior hiperescalador, a Amazon tem a ganhar significativamente. A AWS já oferece ferramentas para a implementação de LLMs, incluindo integrações com o LLaMA da Meta. Ao fornecer uma infraestrutura escalável e econômica para modelos de código aberto, a AWS pode atrair empresas que buscam aproveitar a IA sem os altos custos das soluções proprietárias.

A abordagem de código aberto da Meta em relação aos LLMs, exemplificada pelo LLaMA, a posiciona como um participante importante no ecossistema de IA. Ao disponibilizar seus modelos gratuitamente, a Meta incentiva a adoção e a inovação e, ao mesmo tempo, se beneficia indiretamente com o crescimento do ecossistema.

Hoje, o rápido declínio nos custos de LLM está democratizando a IA, desafiando os operadores históricos em áreas como SaaS e criando novas oportunidades para hiperescaladores e inovadores. Como empresas e indivíduos, entender essa dinâmica é fundamental para navegar pela revolução da IA e aproveitar suas oportunidades.

Links: Post | Image

Disclaimer: The views expressed in this article are those of the author at the date of publication and not necessarily those of Dominion Capital Strategies Limited or its related companies. The content of this article is not intended as investment advice and will not be updated after publication. Images, video, quotations from literature and any such material which may be subject to copyright is reproduced in whole or in part in this article on the basis of Fair use as applied to news reporting and journalistic comment on events.

0 Shares:
Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

VOCÊ PODE GOSTAR