O Elo musk falou que o grock 3 é a ia mais inteligente do mundo hoje mas ele não disse quanto custou eu já adianto para ti é 535 vezes mais caro do que o preço do DPS que aquele preço alegado pela ia chinesa nesse vídeo eu vou te mostrar ã o super computador o Colossus que foi aqui criado e instalado pelo Elon musk seu time e como que ele fez isso gente em apenas 19 dias um feito considerado superhumano pelo CEO da NVidia o jamen Hang ele falou que foi um efeito superhumano fazer tudo isso em apenas 19 dias eu tenho a tabela comparativa com o custo de cada Inteligência Artificial pelo menos em chips NVIDIA e em estrutura e vou te mostrar tudo nesse vídeo eu sou o Lucas Bernardes sou o fundador da copify e eu falo de Inteligência Artificial tecnologia e marketing principalmente como usar ia para fazer mais vendas online eu tenho um curso gratuito que tá acontecendo nessa terça quarta e quinta agora de fevereiro então te inscreve no comentário fixado vamos lá vamos começar pessoal o ilon musk tá aqui o nosso amigo willo musk Ele montou um super computador que eu vou te dizer que foi bem as pressas por quê Porque ele estava atrás e vamos ver se ele vai conseguir vencer agora ou pelo menos ser um competidor na corrida das ias Porque hoje o grande diferencial competitivo do grock é a liberdade de expressão ele faz tudo o que tu pede para ele mas o em inteligência Em capacidade o grock 3 estava muito atrás do chat GPT e de várias outras ias até do DI psique então ele investiu muito pesado o computador do grock do Twitter do Elon musk é mais potente que o do chat GPT atualmente pelo menos mais potente que o da ia chinesa mais potente que qualquer outro computador hoje no mundo é o computador mais avançado hoje pelo menos no quesito de ia Então como por que que ele é tão avançado o que que ele tem de diferente cara esse computador é o computador Colossus o Colossus né ele foi o computador usado para treinar o grock 3 para isso ele usou 100. 000 chips né gpus NVIDIA H1 Quanto custa um NVIDIA H1 primeiro não é assim para comprar tá o um um um H1 não é assim para comprar tu tem que tem muita demanda hoje não é só chegar no site aqui e-commerce apertar comprar comoos uma placa de vídeo uma rtx aí e comprar tu vai ter que né competir vai vai ter que buscar demanda por isso que pode até aumentar o preço do que eu vou te mostrar aqui cadê o preço do do Ó aqui em reais o preço de um H1 em Reais está R 260. 000 é o que custa um chip e o Lula quer fazer ainda uma ya brasileira né o modelo próprio em português treinado em português Vai vendo um chip né 1/4 de milha beleza e e ele tem 100.
000 chips isso hoje o Colossus já está sendo expandido para 200. 000 chips então ele custou de arrancada de 3 A 4 bilhões de dólares para efeito de comparação o Twitter quando ele foi comprado custou 44 Bilhões de Dólares então só para treinar o grock 3 para fazer esse cluster e claro esse cluster ele é usado pro grock 3 mas ele vai pode e vai ser usado para outras avanços de A tá bom não é só usado só para fazer o modelo mas vamos lá se custou aqui 3 Bi tá e o e o vamos ver 44 di por 3 cara ele gastou aqui 3 por 44 ele gastou 7% do que ele gastou no Twitter só em computador só em chip se for pegar todo o custo de estrutura incluo Network dat Center etc vai gastar de 4 a 6 bilhões Foi o que ele gastou e ele captou isso aqui com investimento tá segundo aqui o business insider o número de parâmetros que o grock 3 é o tamanho do modelo em si é 2 trilhão 2 trilhões de parâmetros é muita coisa cara é um modelo muito grande por isso tem que ter muita computação e eu vou te mostrar rapidamente aqui o lá por dentro do do Colossus né Tem um vídeo inteiro aqui do usuário AJ tourville ele mostra aqui tudo por dentro do maior cluster de a do mundo esse aqui é o prédio onde foi treinado o groc n 100000 gpus ele falou cara é muito grande Olha quantas gpus cada cada plaquinha que tu tá vendo aqui cinzinha é 1/4 de milha quatro plaquinhas R 1 milhão deais e tu olha corredores e corredores e corredores de placas infinitas imagina minerar um Bitcoin lá eu já vou te falar por que o jeeps foi mais barato e conseguiu fazer mais com menos já vou te falar né aqui ele mostra tudo por dentro aqui ó ó um GPU H1 como que ele é aqui ó gigantesco né aqui muita coisa de refrigeração né ó é muito é muita coisa cara é muito cabo é muita coisa e fazer isso daqui né a instalação ele instalou só a instalação das placas tá foi 19 dias ao todo para fazer o prédio inteiro terminar tudo tudo tudo tudo sabe quanto tempo foi meu mano sabe quanto tempo foi foram 122 dias é muito pouco tempo para instalar basicamente uma uma estrutura enorme imagina construir uma casa às vezes leva um ano uma casa de dois pisos aí um pouquinho maior leva um ano às vezes né aqui ele levou 122 dias do zero até a a a conclusão e claro instalar ali botar as placas no lugar instalar Ligar elas ali demorou 19 dias que foi o que o o CEO da NVidia falou né E aí tu consegue entender Por que a Nvidia tá valorizando tanto né cara cada empresa que vai lançar um super cluster com 100. 000 gpus 1 milhão de gpus né o bolso da NVidia vai ficando mais gordinho né e um cara perguntou pode roda crises né Crisis que é um jogo do de de Playstation né que era um jogo de PC que era muito pesado perigo de rodar travando ainda que aqui é Pou é pouco otimizado esse jogo Então vamos lá deixa eu te mostrar aqui algumas curiosidades sobre o o Colossus né que é o nosso super computador do Elon musk ã todo o sistema foi construído em 122 dias o supercomputador emprega um sistema avançado de refrigeração líquida e ele custa aqui 150 isso aqui é megaw né de eletricidade e gasta o 1 milhão de galão de águas por dia para resfriamento né ã vamos traduzir isso daqui bonitinho para nós aqui ó tá aqui ó baterias Tesla megapack como um buffer de energia entra rede elétrica super computador beleza Vamos ver quanto que dá isso daqui vamos pesquisar isso daqui vamos botar aqui no GPT chat GPT para fazer conta eu prefiro o A3 mini High e eu boto aqui ó quanto isso custa em energia usando o custo da conta de luz de Porto Alegre Rio Grande do Sul c s su TR cor vamos ver enquanto ele pensa vamos vendo ali o resto do post do cara aqui tá mostrando aqui o vídeo do do cluster também vamos voltar aqui e ó o ele fez um cluster de 100.
000 ele está nesse momento dobrando para 200. 000 chips vai dobrar o custo do do mais que dobrar o custo do desse cluster e ele quer no em quanto tempo aqui ele quer chegar em 1 milhão de gpus 1 Milhão que é 10 vezes mais do que ele tem hoje cara isso é muita coisa isso daqui para para tu entender é mais computação de a do que a Open ai Google meta e Microsoft combinados então o elow musk ele não chegou para abrir brincar nesse mercado Na minha opinião ele vai ser um concorrente eu acho que ele vai ser o maior concorrente da Open ai ainda mais que ele tem a questão de liberdade de expressão e o grock vai continuar trabalhando Sem Limites é pedi a imagem que tu quiser de quem tu quiser como tu quiser e ele vai trabalhar para ti porque hoje meu a minha grande crítica ao chat GPT que ele é bastante limitado no dia a dia muita coisa ele se nega a fazer né loucura então ele tá chegando muito muito muito forte aqui para essa corrida tá vamos ver aqui se tem mais alguma coisinha ó aqui a foto do time que terminou né em 122 dias a construção do do Colossos e bora ver minha gente quanto que custou outras ias o grock 2 que é a versão mais antiga foi usado 20. 000 gpus e foi treinado no na Oracle tá foi um treinamento dos servidores da da Oracle orac Cloud custou aqui R 600 milhões deais esses 20.
000 H1 né e o custo total estimado né foi de um B mas aqui foi mais alugado n ele alugou os servidores e tem aqui ó um tá estimado em 175 bilhões de parâmetros similar ao GPT 3. 5 e agora o GPT 4 ele foi treinado nos computadores da Microsoft o azu super computador e foi usado 25. 000 gpus NVIDIA a 100 que é o modelo que é mais avançado custou aqui 250 eh milhões de dólares e 1.
7 trilhão ao todo de parâmetros que ele tem tá bom Stargate que é aquele cluster que a que o trump anunciou que vai ajudar vai fazer o meio de campo para para ter o financiamento disso para fazer o próximo modelo que é o GPT 5 dizem que vai ter milhões de gpus sim aí quando chegar o Stargate vai basicamente ã tem que ver da onde que o lomans vai tirar dinheiro para competir porque são milhões de gpus gente milhões então isso aqui dá de 30 a 60 bilhões estimado dentro do orçamento de 100 B só para esse só para comprar chipe aqui então 100 B é o que deve custar e é planejado para acontecer até 2028 n então para tu ver para montar milhões de chips é diferente de montar o até o sun altimo ele postou um vídeo né botar aqui ó sun eh sun altim sun timan builds ele postou um videozinho do do dos galpões cara é muito grande é um parque buildings é assim que escreve vamos ver ele postou aqui o a o vídeo dos galpões cara é muito grande né Não tô encontrando agora aqui mas tem aqui no perfil do sã cara muito muito muito grande são muitos galpões ó e o custo de energia né para fazer o grock 3 aqui daria quanto o custo de á de energia daria 2000 não D dá mais que isso mais que isso ah não R 2 milhões de reais por dia beleza então só de energia Se fosse pagar a conta de luz aqui para ce no Rio Grande do Sul e lomus pagaria R mil 300. 000 por dia de água daria R 21000 daria R 2. 4 milhões deais por dia né tá bom que é mais é uma continha né é uma continha Então vamos lá o dsic aqui vai chegar a o NV a ele é ele é menos potente que o h6 Vamos lá por que que o custou tão pouco o rumor é que o highly tinha 10 chips a 100 e aqui diz que ele tem 50.
000 gpus H 100 então em valor de gpus a empresa highflyer que é dona que é que é uma que é que pertence ao co do gsic diz que tem 1. 5 bilhão em em chips então ele não se for pegar só em Estrutura né E para ter isso instalado custou 2 bilhões então eles alegaram que custou 5.