Acho que o "concierge" pode ser traduzido, de modo grosseiro, como "mordomo", já que o concierge tradicional é como um zelador, uma camareira, etc. (Ref. Esqueceram de Mim 2 em Inglês: "This is the concierge, sir!").
Não existe confiabilidade para chatbot respondendo a qualquer domínio. Pode aumentar confiabilidade se começarem a fazer ChatGPT específico para uma área e que se negue a responder fora do domínio. Por ex, uma IA de consultas sobre nutrição. Vai responder só perguntas de nutrição e se negar a responder o resto.
Imagine quem conseguir resolver esse problema da consistencia e das alucinações da IA, será mesmo que precissmos ficar esperando eles resolverem, por que não colocarmos a mão na massa? uma simples ideia que duncione com um modelo pequeno pode ser escalado para Modelos maiores !
10:00 AI do tipo LLM não tem como ser consistente. Ela gera coisas úteis. Simplesmente vários engenheiros de software estão tratando inteligência artificial LLM como se fosse um outro produto. Ela só gera resultados bons. Mas ela não é capaz de saber se está dando bons resultados. Não tem metacognição. AI LLM não tem conhecimento, ela expele dados. A qualidade das respostas é extremamente dependente da qualidade dos dados de treinamento. É tudo um resultado estatístico. Por melhor que os resultados sejam, a inteligência LLM não sabe e não entende, só cospe resultados. A arquitetura é assim. Pode ser que inventem outra arquitetura no futuro, mas hoje é assim. Estão criando falsas expectativas nas pessoas.
Sobre a Microsoft o Nadella está falando do azure ai studio e como resolver problemas com ele. Muita gente da área de IA ainda faz muitas coisas do modo antigo, sendo que tem muitas coisas prontas. É bem simples deixar uma api que vai executar um workflow que debaixo dos panos vai passar por vários agentes provendo uma solução de forma melhor e mais fácil.
Complementando para todos os outros produtos existe um ou mais conectors. A ideia não é só mais usar com um DataLake e sim como parte de uma solução de produto.
Meu Deus, a Amazon quer que a LLM execute comandos? No máximo a LLM tem que passar relatórios do que aconteceu baseado em logs, informar falhas e olhe lá. É a mesma coisa que dar uma armar e deixar a LLM decidir o que fazer, eu não confio, kkkkk
@@rafaelluiz5792 sim amigão, como se a LLM nunca alucinasse, uma coisa é ela alucinar respondendo chats, outra coisa é ela acionando motores, ligando alarmes, trancando e abrindo portas e janelas. Vai ficar show, kkkkk
Se for a definição nova de agi do sam altman, sai no maximo ate 2029. Se for a definição antiga, onde a ia atinge a capacidade da mente humana, deve levar mais de 1 decada. Segundo andrew ng, uma strong ai, nao chegaria antes de 2060. E segundo o diretor de ia do google gemini, deve levar em torno de 10 anos
AGI é um conceito muito amplo e que dá margem a muita subjetividade. O que as big techs estão cravando é que se chegue no nível de uma AGI ainda em 2025 e a partir de então já se iniciará a corrida tecnológica para a ASI. Mas até que essas tecnologias cheguem ao usurário comum e sejam amplamente escaláveis e adotadas em todas as áreas ainda vai demorar uns 2 a 3 anos. Tem que refinar a tecnologia e garantir a confiabilidade dos modelos, principalmente em áreas críticas como medicina e finanças.
uma. máquina com cognição humana atualmente é impossível, pegue 100b de neurônios, eleve esse. valor a 10 e mesmo assim não chegará ao número de conexão que o cérebro é capaz. De. realizar
Os LLMs são treinados para responder com confiança e em tom professoral. Na arquitetura deles não há um flag "nível de confiança". Se tivesse seria mais interessante, pois você iria ficar mais receoso em usar certas respostas como verdadeiras. É meio cansativo checar cada resposta.
não existe algo que dá para identificar como "alucinação" do ponto de vista da arquitetura. Alucinação é uma antropomorfização da IA. Quem usa esse termo Parece que está dizendo que ela "perdeu a razão".Toda resposta é só geração de texto. LLM nunca teve razão. São textos gerados com base em estatística.
Bob, esses dias tem um pessoal falando sobre Vertical IA e estão baseando neste vídeo de investidores do Vale do silício: th-cam.com/video/ASABxNenD_U/w-d-xo.htmlsi=kr5F356MXPsPHy5e
Gostaria de mais vídeos desse tipo
Achei impressionante os engenheiros lidando com Alexa sem entender o que é inteligência artificial LLM.
Poderia dizer que site de notícias é esse?
Acho que o "concierge" pode ser traduzido, de modo grosseiro, como "mordomo", já que o concierge tradicional é como um zelador, uma camareira, etc. (Ref. Esqueceram de Mim 2 em Inglês: "This is the concierge, sir!").
Fala sobre o Transformer² da SakanaAi que saiu para treinar as novas LLMS
Não existe confiabilidade para chatbot respondendo a qualquer domínio. Pode aumentar confiabilidade se começarem a fazer ChatGPT específico para uma área e que se negue a responder fora do domínio. Por ex, uma IA de consultas sobre nutrição. Vai responder só perguntas de nutrição e se negar a responder o resto.
Imagine quem conseguir resolver esse problema da consistencia e das alucinações da IA, será mesmo que precissmos ficar esperando eles resolverem, por que não colocarmos a mão na massa? uma simples ideia que duncione com um modelo pequeno pode ser escalado para Modelos maiores !
É Pessoal....
Já viciei neste bordão se ele não falar fico chateado kkkk
Faça um vídeo comentando a última publicação do Toby Ord, “The Scaling Paradox”.
10:00 AI do tipo LLM não tem como ser consistente. Ela gera coisas úteis. Simplesmente vários engenheiros de software estão tratando inteligência artificial LLM como se fosse um outro produto. Ela só gera resultados bons. Mas ela não é capaz de saber se está dando bons resultados. Não tem metacognição. AI LLM não tem conhecimento, ela expele dados. A qualidade das respostas é extremamente dependente da qualidade dos dados de treinamento. É tudo um resultado estatístico. Por melhor que os resultados sejam, a inteligência LLM não sabe e não entende, só cospe resultados. A arquitetura é assim. Pode ser que inventem outra arquitetura no futuro, mas hoje é assim. Estão criando falsas expectativas nas pessoas.
Sobre a Microsoft o Nadella está falando do azure ai studio e como resolver problemas com ele. Muita gente da área de IA ainda faz muitas coisas do modo antigo, sendo que tem muitas coisas prontas.
É bem simples deixar uma api que vai executar um workflow que debaixo dos panos vai passar por vários agentes provendo uma solução de forma melhor e mais fácil.
Complementando para todos os outros produtos existe um ou mais conectors.
A ideia não é só mais usar com um DataLake e sim como parte de uma solução de produto.
Meu Deus, a Amazon quer que a LLM execute comandos? No máximo a LLM tem que passar relatórios do que aconteceu baseado em logs, informar falhas e olhe lá. É a mesma coisa que dar uma armar e deixar a LLM decidir o que fazer, eu não confio, kkkkk
Começaremos a ver isso bastante já em 2025
@@rafaelluiz5792 sim amigão, como se a LLM nunca alucinasse, uma coisa é ela alucinar respondendo chats, outra coisa é ela acionando motores, ligando alarmes, trancando e abrindo portas e janelas. Vai ficar show, kkkkk
Sim. Estão sendo inconsequentes. E só de tentar mostra que Amazon não entende a tecnologia. Pelo menos essa arquitetura atual.
Na verdade quando a agi sai?
Se for a definição nova de agi do sam altman, sai no maximo ate 2029. Se for a definição antiga, onde a ia atinge a capacidade da mente humana, deve levar mais de 1 decada. Segundo andrew ng, uma strong ai, nao chegaria antes de 2060. E segundo o diretor de ia do google gemini, deve levar em torno de 10 anos
AGI é um conceito muito amplo e que dá margem a muita subjetividade. O que as big techs estão cravando é que se chegue no nível de uma AGI ainda em 2025 e a partir de então já se iniciará a corrida tecnológica para a ASI. Mas até que essas tecnologias cheguem ao usurário comum e sejam amplamente escaláveis e adotadas em todas as áreas ainda vai demorar uns 2 a 3 anos. Tem que refinar a tecnologia e garantir a confiabilidade dos modelos, principalmente em áreas críticas como medicina e finanças.
uma. máquina com cognição humana atualmente é impossível, pegue 100b de neurônios, eleve esse. valor a 10 e mesmo assim não chegará ao número de conexão que o cérebro é capaz. De. realizar
Os LLMs são treinados para responder com confiança e em tom professoral. Na arquitetura deles não há um flag "nível de confiança". Se tivesse seria mais interessante, pois você iria ficar mais receoso em usar certas respostas como verdadeiras. É meio cansativo checar cada resposta.
não existe algo que dá para identificar como "alucinação" do ponto de vista da arquitetura.
Alucinação é uma antropomorfização da IA.
Quem usa esse termo Parece que está dizendo que ela "perdeu a razão".Toda resposta é só geração de texto. LLM nunca teve razão. São textos gerados com base em estatística.
Bob, esses dias tem um pessoal falando sobre Vertical IA e estão baseando neste vídeo de investidores do Vale do silício:
th-cam.com/video/ASABxNenD_U/w-d-xo.htmlsi=kr5F356MXPsPHy5e
E a AGI nada ainda!!!!!
KKKKKK é zueira eu sei que é difícil