Bringing Generative AI to Life with NVIDIA Jetson

แชร์
ฝัง
  • เผยแพร่เมื่อ 6 ต.ค. 2024
  • Learn about generative AI at the edge with this NVIDIA Jetson webinar.
    Unlock the full potential of edge computing with accelerated inference on NVIDIA Jetson Orin devices.
    Experience next-generation applications emerging in robotics and computer vision by deploying foundational LLMs and vision transformers into real-world embedded systems at the edge.
    Explore optimization techniques and practical tips for building interactive AI agents with advanced reasoning and cognitive abilities.
    Visit the NVIDIA Jetson Generative AI Lab to get started: www.jetson-ai-l...
    Join the NVIDIA Developer Program: nvda.ws/3OhiXfl
    Read and subscribe to the NVIDIA Technical Blog: nvda.ws/3XHae9F
    Jetson, Gen AI, generative AI, edge computing, large language models, LLM, Vision Transformer

ความคิดเห็น • 22

  • @PoffinScientist
    @PoffinScientist 10 หลายเดือนก่อน +8

    Big kudos to Dustin for his brilliant communicative skills! You're special, man!

  • @kerseyfabs
    @kerseyfabs 10 หลายเดือนก่อน +9

    What a fantastic overview of what's possible! This tracks a lot of components I've been working on and I can't wait to merge in some of these modules.

  • @moalimus
    @moalimus 10 หลายเดือนก่อน +2

    that's incredible! amazing presentation thank you

  • @kiaranr
    @kiaranr 7 หลายเดือนก่อน

    This is incredible. Absolutely futuristic.

  • @Wm200
    @Wm200 10 หลายเดือนก่อน

    I have a jetson yet when LLMs hit the market I stopped playing around with it over night as LLMs changed the way AI is thought of. I would love to have a new version of Jetson that had a smaller LLM locally!! Jetbot version 2? I can't wait!

  • @robottinkeracademy
    @robottinkeracademy 10 หลายเดือนก่อน +1

    Awesome job Dusty!

  • @stevenwhiting2452
    @stevenwhiting2452 10 หลายเดือนก่อน +3

    Would be far more impressive if jetpack 6 also supported the jetson nano platform as well.

  • @baratbushan8230
    @baratbushan8230 6 หลายเดือนก่อน

    Nice post with regards By Adv T E Barat Bushan Senior Advocate Member of MHAA Chennai

  • @ScenegraphStudios
    @ScenegraphStudios 10 หลายเดือนก่อน +2

    This is awesome! thanks for the information and great examples!!!!

  • @hartmut-a9dt
    @hartmut-a9dt 5 หลายเดือนก่อน

    A great talk.

  • @chandrachoodR
    @chandrachoodR 7 หลายเดือนก่อน

    This is amazing, I think its really wonderful and If we could talke to videos too this could be of great help

  • @t-lm
    @t-lm 10 หลายเดือนก่อน +1

    video object detection comparison between nvidia T4 16GB (320 Tensor Cores) vs Orin 64GB (64 Tensor cores) would be really good, as T4 is also low power consumption GPU

  • @aerohk
    @aerohk 10 หลายเดือนก่อน +2

    Does jetpack 6 support the older Xavier platform?

  • @iamsiddhantsahu
    @iamsiddhantsahu 4 หลายเดือนก่อน

    Amazing, great video, love the demo. Can I also run these demos on my Jetson Orin?

  • @zaxrok
    @zaxrok 10 หลายเดือนก่อน

    Wow, that's impressive!

  • @toastrecon
    @toastrecon 10 หลายเดือนก่อน

    What would it even mean to use an LLM with motion sensors? That's pretty interesting - like could you feed it IMU data and tell the LLM that you wanted it to be alerted if it was dropped or if someone was running vs walking with the device?

  • @ysiegel5544
    @ysiegel5544 8 หลายเดือนก่อน

    Thanks for the video, great developments! Is it possible to run those on Xavier NX ? Has anyone tried?

  • @kzawada1674
    @kzawada1674 8 หลายเดือนก่อน

    Will all the examples he showed run on Jetson Orin Nano Developer Kit?

  • @TeslaElonSpaceXFan
    @TeslaElonSpaceXFan 10 หลายเดือนก่อน +1

    😍

  • @erobusblack4856
    @erobusblack4856 10 หลายเดือนก่อน

    cool, im interested in autonomous virtual humans 🤔

  • @rickt1866
    @rickt1866 8 หลายเดือนก่อน +2

    How in the hell do you expect to do any real development without conda support ? I picked one in hopes to this is depressing.

    • @AaronSmith1101
      @AaronSmith1101 7 หลายเดือนก่อน

      There’s always virtualenv.