CEO da Microsoft Quer Fazer 30 anos em 3, NOVA Alexa Atrasa Por Questões de Confiabilidade

แชร์
ฝัง
  • เผยแพร่เมื่อ 16 ม.ค. 2025

ความคิดเห็น • 25

  • @leopsybm
    @leopsybm วันที่ผ่านมา +1

    Gostaria de mais vídeos desse tipo

  • @AIVideos-dy8ob
    @AIVideos-dy8ob 23 ชั่วโมงที่ผ่านมา +1

    Achei impressionante os engenheiros lidando com Alexa sem entender o que é inteligência artificial LLM.

  • @Never.Ending.Stories1
    @Never.Ending.Stories1 19 ชั่วโมงที่ผ่านมา

    Poderia dizer que site de notícias é esse?

  • @supermalavox
    @supermalavox วันที่ผ่านมา +1

    Acho que o "concierge" pode ser traduzido, de modo grosseiro, como "mordomo", já que o concierge tradicional é como um zelador, uma camareira, etc. (Ref. Esqueceram de Mim 2 em Inglês: "This is the concierge, sir!").

  • @joaovitorpereiraconstantin2459
    @joaovitorpereiraconstantin2459 12 ชั่วโมงที่ผ่านมา

    Fala sobre o Transformer² da SakanaAi que saiu para treinar as novas LLMS

  • @AIVideos-dy8ob
    @AIVideos-dy8ob วันที่ผ่านมา

    Não existe confiabilidade para chatbot respondendo a qualquer domínio. Pode aumentar confiabilidade se começarem a fazer ChatGPT específico para uma área e que se negue a responder fora do domínio. Por ex, uma IA de consultas sobre nutrição. Vai responder só perguntas de nutrição e se negar a responder o resto.

  • @luisferreira920
    @luisferreira920 วันที่ผ่านมา

    Imagine quem conseguir resolver esse problema da consistencia e das alucinações da IA, será mesmo que precissmos ficar esperando eles resolverem, por que não colocarmos a mão na massa? uma simples ideia que duncione com um modelo pequeno pode ser escalado para Modelos maiores !

  • @marvinfiori2541
    @marvinfiori2541 วันที่ผ่านมา +4

    É Pessoal....

    • @clublinker
      @clublinker 9 ชั่วโมงที่ผ่านมา +1

      Já viciei neste bordão se ele não falar fico chateado kkkk

  • @dionatandiego11
    @dionatandiego11 วันที่ผ่านมา

    Faça um vídeo comentando a última publicação do Toby Ord, “The Scaling Paradox”.

  • @AIVideos-dy8ob
    @AIVideos-dy8ob วันที่ผ่านมา

    10:00 AI do tipo LLM não tem como ser consistente. Ela gera coisas úteis. Simplesmente vários engenheiros de software estão tratando inteligência artificial LLM como se fosse um outro produto. Ela só gera resultados bons. Mas ela não é capaz de saber se está dando bons resultados. Não tem metacognição. AI LLM não tem conhecimento, ela expele dados. A qualidade das respostas é extremamente dependente da qualidade dos dados de treinamento. É tudo um resultado estatístico. Por melhor que os resultados sejam, a inteligência LLM não sabe e não entende, só cospe resultados. A arquitetura é assim. Pode ser que inventem outra arquitetura no futuro, mas hoje é assim. Estão criando falsas expectativas nas pessoas.

  • @darlanluzo
    @darlanluzo วันที่ผ่านมา

    Sobre a Microsoft o Nadella está falando do azure ai studio e como resolver problemas com ele. Muita gente da área de IA ainda faz muitas coisas do modo antigo, sendo que tem muitas coisas prontas.
    É bem simples deixar uma api que vai executar um workflow que debaixo dos panos vai passar por vários agentes provendo uma solução de forma melhor e mais fácil.

    • @darlanluzo
      @darlanluzo วันที่ผ่านมา

      Complementando para todos os outros produtos existe um ou mais conectors.
      A ideia não é só mais usar com um DataLake e sim como parte de uma solução de produto.

  • @cybersoul_
    @cybersoul_ วันที่ผ่านมา +1

    Meu Deus, a Amazon quer que a LLM execute comandos? No máximo a LLM tem que passar relatórios do que aconteceu baseado em logs, informar falhas e olhe lá. É a mesma coisa que dar uma armar e deixar a LLM decidir o que fazer, eu não confio, kkkkk

    • @renatonascimento9306
      @renatonascimento9306 วันที่ผ่านมา +1

      Começaremos a ver isso bastante já em 2025

    • @cybersoul_
      @cybersoul_ วันที่ผ่านมา

      @@rafaelluiz5792 sim amigão, como se a LLM nunca alucinasse, uma coisa é ela alucinar respondendo chats, outra coisa é ela acionando motores, ligando alarmes, trancando e abrindo portas e janelas. Vai ficar show, kkkkk

    • @AIVideos-dy8ob
      @AIVideos-dy8ob 23 ชั่วโมงที่ผ่านมา +1

      Sim. Estão sendo inconsequentes. E só de tentar mostra que Amazon não entende a tecnologia. Pelo menos essa arquitetura atual.

  • @Marcio-b5u
    @Marcio-b5u วันที่ผ่านมา

    Na verdade quando a agi sai?

    • @henriquefern67
      @henriquefern67 วันที่ผ่านมา

      Se for a definição nova de agi do sam altman, sai no maximo ate 2029. Se for a definição antiga, onde a ia atinge a capacidade da mente humana, deve levar mais de 1 decada. Segundo andrew ng, uma strong ai, nao chegaria antes de 2060. E segundo o diretor de ia do google gemini, deve levar em torno de 10 anos

    • @augustomarchand
      @augustomarchand วันที่ผ่านมา

      AGI é um conceito muito amplo e que dá margem a muita subjetividade. O que as big techs estão cravando é que se chegue no nível de uma AGI ainda em 2025 e a partir de então já se iniciará a corrida tecnológica para a ASI. Mas até que essas tecnologias cheguem ao usurário comum e sejam amplamente escaláveis e adotadas em todas as áreas ainda vai demorar uns 2 a 3 anos. Tem que refinar a tecnologia e garantir a confiabilidade dos modelos, principalmente em áreas críticas como medicina e finanças.

    • @NokaNakamoto
      @NokaNakamoto วันที่ผ่านมา

      uma. máquina com cognição humana atualmente é impossível, pegue 100b de neurônios, eleve esse. valor a 10 e mesmo assim não chegará ao número de conexão que o cérebro é capaz. De. realizar

  • @AIVideos-dy8ob
    @AIVideos-dy8ob 23 ชั่วโมงที่ผ่านมา

    Os LLMs são treinados para responder com confiança e em tom professoral. Na arquitetura deles não há um flag "nível de confiança". Se tivesse seria mais interessante, pois você iria ficar mais receoso em usar certas respostas como verdadeiras. É meio cansativo checar cada resposta.

  • @AIVideos-dy8ob
    @AIVideos-dy8ob 23 ชั่วโมงที่ผ่านมา

    não existe algo que dá para identificar como "alucinação" do ponto de vista da arquitetura.
    Alucinação é uma antropomorfização da IA.
    Quem usa esse termo Parece que está dizendo que ela "perdeu a razão".Toda resposta é só geração de texto. LLM nunca teve razão. São textos gerados com base em estatística.

  • @fschincariol
    @fschincariol วันที่ผ่านมา

    Bob, esses dias tem um pessoal falando sobre Vertical IA e estão baseando neste vídeo de investidores do Vale do silício:
    th-cam.com/video/ASABxNenD_U/w-d-xo.htmlsi=kr5F356MXPsPHy5e

  • @Geraluzando
    @Geraluzando 22 ชั่วโมงที่ผ่านมา

    E a AGI nada ainda!!!!!
    KKKKKK é zueira eu sei que é difícil