O enorme custo de execução dos grandes modelos de linguagem de hoje, que sustentam chatbots como ChatGPT (OpenAI) e Bard (Google), limita sua qualidade e ameaça estrangular o boom global de IA (inteligência artificial) que eles provocaram.
Para quem tem pressa:
Suas despesas e a disponibilidade limitada dos chips de computador que eles exigem também estão restringindo quais empresas podem arcar com eles e pressionando até mesmo as empresas mais ricas do mundo a transformar chatbots em geradores de dinheiro antes do que eles podem estar prontos.
Os modelos que estão sendo implantados agora, por mais impressionantes que pareçam, não são realmente os melhores modelos disponíveis. Portanto, como resultado, os modelos que você pode usar têm muitos pontos fracos.
Tom Goldstein, professor de ciência da computação da Universidade de Maryland (EUA), em entrevista ao The Washington Post
Esses pontos fracos – por exemplo: propensão a entregar resultados tendenciosos de prompts ou mentiras – poderiam ser evitados se o custo não fosse um problema.
Prejuízos dos chatbots
As gigantes da tecnologia que apostam seu futuro na IA raramente discutem o custo da tecnologia. Inclusive, a OpenAI, a Microsoft e o Google negaram o pedido do jornal para comentarem sobre o assunto. Mas os especialistas dizem que é o obstáculo mais crítico para a visão das big techs de IA generativa abrindo caminho em todos os setores, cortando o número de funcionários e aumentando a eficiência.
A computação intensiva que a IA exige é o motivo pelo qual a OpenAI reteve seu poderoso novo modelo de linguagem, GPT-4, da versão gratuita do ChatGPT, que ainda está executando um modelo GPT-3.5 mais fraco.
O conjunto de dados subjacentes do ChatGPT foi atualizado pela última vez em setembro de 2021, tornando-o inútil para pesquisar ou discutir eventos recentes. E mesmo aqueles que pagam US$ 20 (aproximadamente R$ 100 em conversão direta, na cotação atual) por mês pelo GPT-4 podem enviar apenas 25 mensagens a cada três horas porque é muito caro executá-lo – e ele é muito mais lento para responder.
Esses custos também podem ser um dos motivos pelos quais o Google ainda não construiu um chatbot de IA em seu principal mecanismo de pesquisa, que responde a bilhões de consultas todos os dias.
Quando o Google lançou seu chatbot Bard, em março de 2023, optou por não usar seu maior modelo de linguagem. Dylan Patel, analista-chefe da empresa de pesquisa de semicondutores SemiAnalysis, estimou que um único bate-papo com o ChatGPT pode custar até mil vezes mais do que uma simples pesquisa no Google.
Em um relatório recente sobre inteligência artificial, o governo Biden identificou os custos computacionais da IA generativa como uma preocupação nacional. A Casa Branca escreveu que espera-se que a tecnologia “aumente drasticamente as demandas computacionais e os impactos ambientais associados” e que há uma “necessidade urgente” de projetar sistemas mais sustentáveis.
Custos secretos da IA
Ainda mais do que outras formas de aprendizado de máquina, a IA generativa requer quantidades vertiginosas de poder computacional e chips de computador especializados, conhecidos como GPUs, que apenas as empresas mais ricas podem pagar.
A intensificação da batalha pelo acesso a esses chips ajudou a transformar seus principais fornecedores em gigantes da tecnologia por direito próprio, detendo as chaves do que se tornou o ativo mais valioso do setor de tecnologia.
O Vale do Silício passou a dominar a economia da internet em parte ao oferecer gratuitamente serviços como busca online, e-mail e mídia social para o mundo, perdendo dinheiro inicialmente, mas eventualmente gerando grandes lucros em publicidade personalizada.
Por isso, os anúncios provavelmente estão chegando aos chatbots de IA. Mas os analistas dizem que os anúncios sozinhos provavelmente não serão suficientes para tornar as ferramentas de IA lucrativas tão cedo.
Enquanto isso, as empresas que oferecem modelos de IA para uso do consumidor devem equilibrar seu desejo de ganhar participação de mercado com as perdas financeiras que estão acumulando.
Caminhos para lucrar
A busca por IA mais confiável também deve gerar lucros principalmente para os fabricantes de chips e gigantes da computação em nuvem que já controlam grande parte do espaço digital – junto com os fabricantes de chips cujo hardware eles precisam para executar os modelos.
Não é por acaso que as empresas que constroem os principais modelos de linguagem de IA estão entre os maiores provedores de computação em nuvem, como o Google e a Microsoft, ou têm parcerias estreitas com eles, como a OpenAI faz com a Microsoft.
As companhias que compram as ferramentas de IA dessas empresas não percebem que estão presas a um serviço altamente subsidiado que custa muito mais do que pagam atualmente, disse Clem Delangue, CEO da Hugging Face, uma empresa de IA de código aberto.
O CEO da OpenAI, Sam Altman, reconheceu indiretamente o problema numa audiência no Senado dos EUA, realizada em maio, quando o senador Jon Ossoff alertou que se a OpenAI tentasse tornar o ChatGPT viciante de uma forma que prejudique as crianças, o Congresso “será muito severo ” nele. Altman disse que Ossoff não precisa se preocupar:
Tentamos projetar sistemas que não maximizam o engajamento. Na verdade, estamos com poucas GPUs. Então, quanto menos pessoas usarem nossos produtos, melhor.
Sam Altman, CEO da OpenAI e “pai” do ChatGPT, em audiência no Senado dos EUA
Com informações de The Washington Post
Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!
Fonte: Olhar Digital
Comentários