O ritmo acelerado da inovação tecnológica cria um cenário onde o acesso a lançamentos se torna um privilégio, muitas vezes alimentado pela vaidade de indivíduos e empresas dispostos a pagar altos preços pela exclusividade. Essa dinâmica, embora natural em certa medida, evidencia como a tecnologia, apesar de seu avanço constante, pode acentuar desigualdades. Assim como um Opala 1977 foi símbolo de status em sua época, os lançamentos tecnológicos de hoje também refletem uma corrida por distinção, na qual nem todos conseguem participar. No entanto, a própria velocidade da inovação sugere que aquilo que hoje é inacessível se tornará ultrapassado em breve, relativizando o valor da exclusividade e indicando que a espera pode não ser tão longa assim.
Fale sobre LLM routing. Pra muitos, quem tem um martelo, qualquer problema vira prego. Não cabe usar o1 ou o3 pra qualquer coisa. Demandas simples podem ser executadas por modelos menores, ou até mesmo pelo gpt4o-mini.
Não teremos uma AGI enquanto não tivermos uma IA com aprendizado continuo. Esse o3 pode ser top no raciocínio porém ele sempre irá fazer toda a linha de racionio para a mesma questão, vamos supor que uma equação para ele resolver, ele vai e resolve certo mas levou 30 minutos e gastou 2 mil dólares, se eu for e pedir para ele resolver a mesma equação depois ele fará todo o trabalho como se nunca tivesse resolvido antes, traria provavelmente o mesmo tempo e custo de algo que ele já fez antes. Outra coisa é resolver errado, você mostrar onde ele errou e ele entender e refazer certo, mas depois você pede novamente e ele vai errar de novo como se você nunca tivesse explicado antes. Se o modelo tivesse capacidade de ir aprendendo conforme o que fosse fazendo e usar isso em outras tarefas o custo e tempo cairiam a cada uso, teríamos um modelo que ficaria cada vez mais inteligente, rápido e barato.
@@JoaoCarlos-uo1jk Uso pouco, a demora dele é muito grande comparado ao o1, comprei pro mais por limite de mensagem, mas o que mais uso é o1 mesmo, se a principal motivação de upgrade for para usar o o1 pro, não vejo muita vantagem, mas se for para usar o1 ilimitado vale muito. ( trabalho com código, e na minha area não vi grande diferença do o1 para o1 pro )
@@thiagodepaulla2994 depende muito do teu uso, se usou as 50 mensagem e sentiu que ajudou, vale muito a pena, meu principal motivo de migrar foi, testei o1 e gastei tudo em 1 dia, sentir que melhorei 40% com uso dele, então por isto fiz o upgrade. ( uso para códigos )
Fala meu amigo bom dia. Vejo que você entende muito Desses assuntos de tecnologia, Gostaria de te pedir um Conselho. Estou criando um codigo para calculo de adubaçao na agricultura. Estou usando o chat gpt Para criar o código em Python, Mas não sei se é a melhor opção. Meu objetivo é que esse código Se torne um software(APP) Mas não sei se é possível fazer isso com o python. Você poderia me Dar algumas dicas para esse projeto?
O3 é insustentável... Ele faz milhares de cadeias de pensamento CoT... Isso é pura força bruta, deselegante. Foi oq disse no video de ontem Bob, pode ser q a AGI fique privada pra poucas pessoas e é isso que parece que vai acontecer... Simplesmente pelo preço ... Mas tenho certeza também que esse não é o caminho pra AGI
Fazendo uma analogia, isso me lembra do começo das llms quando eles começavam a entupir a LLM de parâmetros e botavam trilhões de parâmetros... Ao longo do tempo foram desenvolvendo soluções mais eficazes com menos parâmetros... O caminho nunca é por força bruta e sempre por técnica... Foi oq ocorreu mais recentemente com deepseek v3, onde eles mostraram que ter milhares de GPUs não é tudo .
Imagina que temos uma função f(x) e que essa função modelasse o funcionamento dos modelos agora imagine essa função composta f(f(x))... Pra mim essa arquitetura do o3 é a mesma do o1 mas só foi composta mais uma vez em cima dela mesma É como se o o1 tivesse vários GPT-4o-mini rodando por trás numa arquitetura MoE e o o3 fosse um monte de o1 rodando por trás... E por ai vai , cada vez que você compõe essa função em cima dela mesma aumenta a acurácia do modelo mas também aumenta os custos exponencialmente...
kkkkk expectativa: fazer o doutorado só com um prompt, realidade: ficar trocando de chat gratuito e ficar juntando os pedaços das respostas de diferentes iAs!
A acessibilidade às tecnologias de inteligência artificial vai ser uma realidade, e a gente pode agradecer principalmente à nossa mamãe Google e aos nossos papais da China. De um lado, o Google já tá na corrida pra dominar o mercado no longo prazo, criando soluções cada vez mais populares e acessíveis - afinal, mamãe sempre quer que todo mundo use o que ela faz, né? Do outro, temos a China, que não perde tempo e deve entrar pesado no jogo com suas versões made in China. E a gente sabe como eles são bons nisso: produtos mais baratos, eficientes e capazes de quebrar qualquer monopólio. A competição entre essas duas forças vai acabar sendo ótima pra gente, porque vai fazer com que a tecnologia chegue mais rápido e mais barata pra todo mundo. No final das contas, é o mercado correndo atrás do lucro e a gente colhendo os benefícios!
O ritmo acelerado da inovação tecnológica cria um cenário onde o acesso a lançamentos se torna um privilégio, muitas vezes alimentado pela vaidade de indivíduos e empresas dispostos a pagar altos preços pela exclusividade. Essa dinâmica, embora natural em certa medida, evidencia como a tecnologia, apesar de seu avanço constante, pode acentuar desigualdades. Assim como um Opala 1977 foi símbolo de status em sua época, os lançamentos tecnológicos de hoje também refletem uma corrida por distinção, na qual nem todos conseguem participar. No entanto, a própria velocidade da inovação sugere que aquilo que hoje é inacessível se tornará ultrapassado em breve, relativizando o valor da exclusividade e indicando que a espera pode não ser tão longa assim.
Fale sobre LLM routing.
Pra muitos, quem tem um martelo, qualquer problema vira prego.
Não cabe usar o1 ou o3 pra qualquer coisa. Demandas simples podem ser executadas por modelos menores, ou até mesmo pelo gpt4o-mini.
Lembrando, Bob, foi $6000 por tarefa e nao pra resolver o teste todo, ai multiplica 6k pelo número de tarefas...
É absurdamente caro...
Esse vídeo vc usou avatar de ia seu? Está parecendo
Não teremos uma AGI enquanto não tivermos uma IA com aprendizado continuo. Esse o3 pode ser top no raciocínio porém ele sempre irá fazer toda a linha de racionio para a mesma questão, vamos supor que uma equação para ele resolver, ele vai e resolve certo mas levou 30 minutos e gastou 2 mil dólares, se eu for e pedir para ele resolver a mesma equação depois ele fará todo o trabalho como se nunca tivesse resolvido antes, traria provavelmente o mesmo tempo e custo de algo que ele já fez antes. Outra coisa é resolver errado, você mostrar onde ele errou e ele entender e refazer certo, mas depois você pede novamente e ele vai errar de novo como se você nunca tivesse explicado antes. Se o modelo tivesse capacidade de ir aprendendo conforme o que fosse fazendo e usar isso em outras tarefas o custo e tempo cairiam a cada uso, teríamos um modelo que ficaria cada vez mais inteligente, rápido e barato.
Olá. Bom dia. Quero ser membro do canal, porém não possuo cartão de crédito. Qual é a saída?
ué eu pensei que o nosso o1 pra quem paga o plus só iria atualizar pra o3 e não que ambos iriam coexistir juntos, igual o chatgpt 3.5 evoluiu pro 4o.
Será que o Chatgpt o3 vai funcionar bem como decompilador, ou junto com um decompilador?
Sou assinante do pro, pela Apple ficou 990 mensal
Tu usa o O1 pro? Ele é muito bom?
@@JoaoCarlos-uo1jk Uso pouco, a demora dele é muito grande comparado ao o1, comprei pro mais por limite de mensagem, mas o que mais uso é o1 mesmo, se a principal motivação de upgrade for para usar o o1 pro, não vejo muita vantagem, mas se for para usar o1 ilimitado vale muito.
( trabalho com código, e na minha area não vi grande diferença do o1 para o1 pro )
vale a pena ?
@@thiagodepaulla2994 depende muito do teu uso, se usou as 50 mensagem e sentiu que ajudou, vale muito a pena, meu principal motivo de migrar foi, testei o1 e gastei tudo em 1 dia, sentir que melhorei 40% com uso dele, então por isto fiz o upgrade.
( uso para códigos )
@@JoaoCarlos-uo1jk Chegou a resposta ai?
o Bob Robô kkkkkk
Fala meu amigo bom dia. Vejo que você entende muito Desses assuntos de tecnologia, Gostaria de te pedir um Conselho. Estou criando um codigo para calculo de adubaçao na agricultura. Estou usando o chat gpt Para criar o código em Python, Mas não sei se é a melhor opção. Meu objetivo é que esse código Se torne um software(APP) Mas não sei se é possível fazer isso com o python. Você poderia me Dar algumas dicas para esse projeto?
Use windsurf será mais fácil de montar!
O3 é insustentável...
Ele faz milhares de cadeias de pensamento CoT...
Isso é pura força bruta, deselegante.
Foi oq disse no video de ontem Bob, pode ser q a AGI fique privada pra poucas pessoas e é isso que parece que vai acontecer... Simplesmente pelo preço ...
Mas tenho certeza também que esse não é o caminho pra AGI
Fazendo uma analogia, isso me lembra do começo das llms quando eles começavam a entupir a LLM de parâmetros e botavam trilhões de parâmetros... Ao longo do tempo foram desenvolvendo soluções mais eficazes com menos parâmetros...
O caminho nunca é por força bruta e sempre por técnica...
Foi oq ocorreu mais recentemente com deepseek v3, onde eles mostraram que ter milhares de GPUs não é tudo .
Imagina que temos uma função f(x) e que essa função modelasse o funcionamento dos modelos agora imagine essa função composta f(f(x))...
Pra mim essa arquitetura do o3 é a mesma do o1 mas só foi composta mais uma vez em cima dela mesma
É como se o o1 tivesse vários GPT-4o-mini rodando por trás numa arquitetura MoE e o o3 fosse um monte de o1 rodando por trás...
E por ai vai , cada vez que você compõe essa função em cima dela mesma aumenta a acurácia do modelo mas também aumenta os custos exponencialmente...
@@raphaelchristi6424muito interessante o seu comentário "o caminho nunca é por força bruta e sim por técnica"
Nós, meros mortais, não teremos condições de pagar. O o3 só as grandes empresas terão condições de pagar o valor que OpenAI estabelecer.
Vem aí o o3-micro ¯\_(ツ)_/¯
kkkkk expectativa: fazer o doutorado só com um prompt, realidade: ficar trocando de chat gratuito e ficar juntando os pedaços das respostas de diferentes iAs!
A acessibilidade às tecnologias de inteligência artificial vai ser uma realidade, e a gente pode agradecer principalmente à nossa mamãe Google e aos nossos papais da China. De um lado, o Google já tá na corrida pra dominar o mercado no longo prazo, criando soluções cada vez mais populares e acessíveis - afinal, mamãe sempre quer que todo mundo use o que ela faz, né?
Do outro, temos a China, que não perde tempo e deve entrar pesado no jogo com suas versões made in China. E a gente sabe como eles são bons nisso: produtos mais baratos, eficientes e capazes de quebrar qualquer monopólio. A competição entre essas duas forças vai acabar sendo ótima pra gente, porque vai fazer com que a tecnologia chegue mais rápido e mais barata pra todo mundo. No final das contas, é o mercado correndo atrás do lucro e a gente colhendo os benefícios!
peguem meu cartao,imoveis e carro nao importa
Uhuuuuuuuuuuu, é só parcelar tudo em 36 vezes e tá top! rsrs