机器不想学习
机器不想学习
  • 162
  • 54 924
Monolith 字节跳动推出的AI推荐系统
参考来源:
Arxiv:arxiv.org/abs/2209.07663
GitHub: github.com/bytedance/monolith
Telegram (交流群):t.me/+eLAjoE8peqNhZjg9
MoBoard (制作视频App):moboard.netlify.app
มุมมอง: 72

วีดีโอ

OpenAI O3模型在ARC AGI测试中取得突破性进展
มุมมอง 1104 ชั่วโมงที่ผ่านมา
参考来源: Blog:arcprize.org/blog/oai-o3-pub-breakthrough Author:fchollet.com/ Telegram (交流群):t.me/ eLAjoE8peqNhZjg9 MoBoard (制作视频App):moboard.netlify.app
AI推理能力更上一层楼,OpenAI O3 系列模型详细介绍
มุมมอง 1697 ชั่วโมงที่ผ่านมา
参考来源: Blog:openai.com/index/deliberative-alignment/ Video:th-cam.com/video/SKBG1sqdyIU/w-d-xo.html Telegram (交流群):t.me/ eLAjoE8peqNhZjg9 MoBoard (制作视频App):moboard.netlify.app
构建高效智能体Agent系统,分享Anthropic公司博客
มุมมอง 51812 ชั่วโมงที่ผ่านมา
参考来源: Blog: www.anthropic.com/research/building-effective-agents Telegram (交流群):t.me/ eLAjoE8peqNhZjg9 MoBoard (制作视频App):moboard.netlify.app
Nvidia Jetson Orin Nano: 生成式AI计算机 (小巧又强大)
มุมมอง 3.6K14 ชั่วโมงที่ผ่านมา
参考来源: blogs.nvidia.com/blog/jetson-generative-ai-supercomputer/ Telegram (交流群):t.me/ eLAjoE8peqNhZjg9 MoBoard (制作视频App):moboard.netlify.app
BLT: 字节级语言模型的创新进展分享(Meta)
มุมมอง 43019 ชั่วโมงที่ผ่านมา
参考: Arxiv: arxiv.org/abs/2412.09871 GitHub: github.com/facebookresearch/blt Telegram (交流群):t.me/ eLAjoE8peqNhZjg9 MoBoard (制作视频App):moboard.netlify.app
从Seq2Seq到超级智能,分享Ilya Sutskever的NIPS演讲
มุมมอง 20921 ชั่วโมงที่ผ่านมา
Ilya Sutskever: "Sequence to sequence learning with neural networks: what a decade" 参考视频:www.youtube.com/watch/1yvBqasHLZs Telegram (交流群):t.me/ eLAjoE8peqNhZjg9 MoBoard (制作视频App):moboard.netlify.app
Phi-4: 微软的最新AI模型,在小型化道路上的进展介绍
มุมมอง 1.1Kวันที่ผ่านมา
Blog: techcommunity.microsoft.com/blog/aiplatformblog/introducing-phi-4-microsoft’s-newest-small-language-model-specializing-in-comple/4357090 Tech Report: www.microsoft.com/en-us/research/uploads/prod/2024/12/P4TechReport.pdf
Gemini 2.0 Flash 发布:迈向智能体时代的重要一步
มุมมอง 930วันที่ผ่านมา
参考 Blog:blog.google/technology/google-deepmind/google-gemini-ai-update-december-2024/
Meta最新发布的Llama 3.3 70B:性能接近GPT-4o,成本却只有它的二十分之一
มุมมอง 1.3K14 วันที่ผ่านมา
GitHub: github.com/meta-llama/llama-models/blob/main/models/llama3_3/MODEL_CARD.md Hugging Face: huggingface.co/meta-llama/Llama-3.3-70B-Instruct
OpenAI的o1模型真的会数学推理吗? 最新研究OpenAI o1 AB Testing
มุมมอง 33614 วันที่ผ่านมา
Arxiv:arxiv.org/abs/2411.06198
显性推理 和 隐形推理 有区别吗?探究大模型的推理机制
มุมมอง 44214 วันที่ผ่านมา
Paper: arxiv.org/pdf/2411.15862
LLMOps实战经验分享:从理论到实践,解析AWS金融问答助手案例
มุมมอง 17714 วันที่ผ่านมา
LLMOps 数据库 (ZenML):www.zenml.io/llmops-database ZenML 数据库介绍:www.zenml.io/blog/demystifying-llmops-a-practical-database-of-real-world-generative-ai-implementations AWS Finance blog: aws.amazon.com/cn/blogs/machine-learning/how-amazon-finance-automation-built-a-generative-ai-qa-chat-assistant-using-amazon-bedrock/?tag=soumet-20
/dev/agents:打造AI智能体的操作系统
มุมมอง 30221 วันที่ผ่านมา
Blog:techcrunch.com/2024/11/28/ai-agent-startup-dev-agents-has-raised-a-massive-56m-seed-round-at-a-500m-valuation/ /dev/agents: sdsa.ai/
Plan×RAG 新的研究思路 “先计划后检索”
มุมมอง 14121 วันที่ผ่านมา
Paper: arxiv.org/pdf/2410.20753
QwQ 32B Preview:基于深度反思机制的大语言模型介绍
มุมมอง 61821 วันที่ผ่านมา
QwQ 32B Preview:基于深度反思机制的大语言模型介绍
AI背后的数学解题机制到底是什么?研究发现”启发式规则包“
มุมมอง 19521 วันที่ผ่านมา
AI背后的数学解题机制到底是什么?研究发现”启发式规则包“
连接AI助手与数据系统 Anthropic公司发布 Model Context Protocol (MCP)
มุมมอง 9521 วันที่ผ่านมา
连接AI助手与数据系统 Anthropic公司发布 Model Context Protocol (MCP)
Marco o1:阿里发布新一代AI推理模型
มุมมอง 42021 วันที่ผ่านมา
Marco o1:阿里发布新一代AI推理模型
如何判断AI模型的真实实力?五个统计学方法带你深入了解
มุมมอง 453หลายเดือนก่อน
如何判断AI模型的真实实力?五个统计学方法带你深入了解
从实验到规模化部署的转折点 2024企业AI应用现状解读
มุมมอง 298หลายเดือนก่อน
从实验到规模化部署的转折点 2024企业AI应用现状解读
多步骤推理的训练框架 解析视觉语言模型LLaVA - o1
มุมมอง 222หลายเดือนก่อน
多步骤推理的训练框架 解析视觉语言模型LLaVA - o1
Pixtral Large:解析Mistral AI的多模态新标杆
มุมมอง 135หลายเดือนก่อน
Pixtral Large:解析Mistral AI的多模态新标杆
AI偏见“调音师”:特征引导技术如何消除模型偏见
มุมมอง 114หลายเดือนก่อน
AI偏见“调音师”:特征引导技术如何消除模型偏见
基于上下文引擎的AI办公助手 Context Autopilot
มุมมอง 132หลายเดือนก่อน
基于上下文引擎的AI办公助手 Context Autopilot
AI也能现学现用?麻省理工最新研究带来新发现
มุมมอง 276หลายเดือนก่อน
AI也能现学现用?麻省理工最新研究带来新发现
Qwen2.5-Coder超越GPT-4o?最强开源AI编程助手登场
มุมมอง 516หลายเดือนก่อน
Qwen2.5-Coder超越GPT-4o?最强开源AI编程助手登场
考验AI数学能力的极限 数学家们推出FrontierMath测试
มุมมอง 2.1Kหลายเดือนก่อน
考验AI数学能力的极限 数学家们推出FrontierMath测试
AI革新材料科学研究:效率与挑战并存
มุมมอง 168หลายเดือนก่อน
AI革新材料科学研究:效率与挑战并存
最强开源MoE架构:腾讯混元大模型解析
มุมมอง 324หลายเดือนก่อน
最强开源MoE架构:腾讯混元大模型解析

ความคิดเห็น

  • @DylanLee4012
    @DylanLee4012 5 ชั่วโมงที่ผ่านมา

    请问这些AI不是都说要很多RAM才能运行起来吗,怎么这个小小的东西,只有8GB的RAM就能运行了? 为什么我家大大的电脑,却不能运行?

  • @angelaangela8536
    @angelaangela8536 14 ชั่วโมงที่ผ่านมา

    非常感謝您也標示了出處

  • @ddg929ya
    @ddg929ya วันที่ผ่านมา

    這可以實現動漫裡的(阿斯拉)AI電腦😂⋯⋯私人AI女友要出世了😅

  • @waffenss1234567
    @waffenss1234567 2 วันที่ผ่านมา

    其實沒有很強,但確實小巧實惠,適合研發產品或工業用. int8幾十Tops ,其實沒比普通Win PC 的TOPS強多少 而且完全不可能跟強力獨顯相比 但你要研發個機器狗 AI機器工具,無人機....不可能扛一台獨顯PC吧. nano的意義就是讓堪用的AI算力下放到手掌大,幾十Watt, 這才能研發出堪用的商業產品. 重點是這麼小還相容於Cuda生態系 下代用新製程也許能更小,用被動散熱,就可能讓更小的手持設備也擁有相容cuda AI算力

  • @高吉米-p1b
    @高吉米-p1b 2 วันที่ผ่านมา

    有字幕檔案嗎? 謝謝

    • @ML_tired
      @ML_tired 2 วันที่ผ่านมา

      有视频文稿,需要的话发到carsonrundb@gmail.com 最好能加上用途说明,后面会回复文稿的

  • @Murphy-e3r
    @Murphy-e3r 2 วันที่ผ่านมา

    平民化普及化,聽黃仁勳放屁

  • @geliangzhu9146
    @geliangzhu9146 3 วันที่ผ่านมา

    现在在AI配音太泛滥了

  • @stan-kk2sf
    @stan-kk2sf 8 วันที่ผ่านมา

    我觉得分词确实是问题和障碍,但是不是主要问题 llm模型主要的问题在于context,下一代llm至少得是无限上下文

  • @3a146
    @3a146 8 วันที่ผ่านมา

    这些问题, seq2seq不都说的挺清楚的么?

  • @tomjamescn
    @tomjamescn 11 วันที่ผ่านมา

    弱弱的问一句,up主这个视频使用的什么工具生成的了?

    • @ML_tired
      @ML_tired 11 วันที่ผ่านมา

      moboard.netlify.app/

  • @zhengli2506
    @zhengli2506 12 วันที่ผ่านมา

    AI知道答案或大致方向,但是无法给出具体步骤,这不就像现在人类一样,在很多领域用新技术做出新应用,但是为什么这个技术可以work要么很难解释,要么是后面根据应用反推出来的。比如神经网络现在应用这么广,可解释性还是有限。数学猜想不也是先有猜想,再费很多时间去证明的嘛。

  • @Elon66688
    @Elon66688 12 วันที่ผ่านมา

    good

  • @ayii-it
    @ayii-it 17 วันที่ผ่านมา

    我看隱式推理根本就是憑他訓練數據所形成的概率,瞬間得到答案⋯ 隱式推理不是推理啊...就是死背一長串推理的問題頭跟答案尾 你只能用更多記憶去記憶...一般而言就像一個領域專家可以瞬間得到某些推理答案(因為他們有捷徑思考) 你要模型不用推理就只能給他更大的腦容量,因為真正逐步推理是可以用最少的記憶去處理最多樣化的問題的

  • @stan-kk2sf
    @stan-kk2sf 18 วันที่ผ่านมา

    我觉得,即使写出来推理步骤也不是真的在推理,而只是将"搜索答案"的任务转化为了更加难以量化的"搜索中间步骤"子任务,本质还是在做随机模式匹配,甚至我估计中间步骤正确与否对模型测评都没有影响 就像六度分隔理论,你靠自己无法联系上的人,但是靠更多的人就可以找到,类似的cot的原理就类似于在其中插入了更多的中转子查询,本质还是在搜索和向量匹配,而能力提升只是因为我们通过这种方法探测出了模型真正内化的知识(数据)

  • @timidlove
    @timidlove 24 วันที่ผ่านมา

    这个AI语音还是破绽百出

    • @ML_tired
      @ML_tired 24 วันที่ผ่านมา

      是还要改进的,你觉得是不爽的是,有的名词念错,还是节奏不对,还是其他

  • @stormacme8052
    @stormacme8052 24 วันที่ผ่านมา

    我信他个鬼,推理能力全是骗人的。

  • @1110-d3r
    @1110-d3r 25 วันที่ผ่านมา

    🎉🎉🎉❤❤❤

  • @yuanshanren1923
    @yuanshanren1923 หลายเดือนก่อน

    有没有网页自动化的工具推荐下,发布或者采集的,能集成ai 的更好

  • @不死鸟-r1l
    @不死鸟-r1l หลายเดือนก่อน

    这是模型解释的重要进展。

  • @1110-d3r
    @1110-d3r หลายเดือนก่อน

    🎉🎉🎉❤❤❤

  • @tonypang1577
    @tonypang1577 หลายเดือนก่อน

    人有更多未知领域。

  • @1110-d3r
    @1110-d3r หลายเดือนก่อน

    Bravo ! 🎉🎉🎉❤❤❤

  • @MrJohnsonhsu
    @MrJohnsonhsu หลายเดือนก่อน

    是不使用矩陣乘法 而不是不用矩陣吧!

    • @ML_tired
      @ML_tired หลายเดือนก่อน

      是的

  • @dig84128
    @dig84128 หลายเดือนก่อน

    這樣還需要YOLO嗎

    • @ML_tired
      @ML_tired หลายเดือนก่อน

      SAM更通用些,但是需要运行在服务器上。YOLO可以实时的运行在边缘设备上,甚至是手机上

  • @dylanlee5935
    @dylanlee5935 หลายเดือนก่อน

    感觉没Qwen2.5好吧

  • @flashlin1
    @flashlin1 หลายเดือนก่อน

    請問這需要多少 VRAM 才能運作?

    • @ML_tired
      @ML_tired หลายเดือนก่อน

      这个挺大的。按照GitHub文档原文:“BF16 requires 16 H800 or H20 GPUs for deployment”, 大概1.28T。

  • @LajuanaBryand
    @LajuanaBryand หลายเดือนก่อน

    一如既往的好内容! 只是一个简单的题外话问题: 我有一个SafePal钱包,里面有USDT,并且我有恢复短语. (alarm fetch churn bridge exercise tape speak race clerk couch crater letter). 将它们转移到Binance的最佳方法是什么?

    • @ML_tired
      @ML_tired หลายเดือนก่อน

      这里是AI频道内容,加密货币不太懂哈😅

    • @easonchan5012
      @easonchan5012 หลายเดือนก่อน

      @@ML_tired 这种都是机器人群发的,而且是一个诈骗方法,一旦你按照他的方法去操作,你的加密货币钱包里面的财产就会被转走

    • @ML_tired
      @ML_tired หลายเดือนก่อน

      谢谢提醒

  • @bruceb1331
    @bruceb1331 หลายเดือนก่อน

    目前聽到都是優點 有啥已知的缺點嗎?

    • @ML_tired
      @ML_tired หลายเดือนก่อน

      这个应该还属于研究项目,主要实验的模型还比较小。

  • @1110-d3r
    @1110-d3r หลายเดือนก่อน

    🎉🎉🎉❤❤❤

  • @1110-d3r
    @1110-d3r หลายเดือนก่อน

    🎉🎉🎉❤❤❤

  • @1110-d3r
    @1110-d3r หลายเดือนก่อน

    🎉🎉🎉❤❤❤

  • @jackyang442
    @jackyang442 หลายเดือนก่อน

    牛逼,大大降低transformer需要的算力资源,让小公司和个人训练大语言模型成为可能!

  • @1110-d3r
    @1110-d3r หลายเดือนก่อน

    🎉🎉🎉❤❤❤

  • @1110-d3r
    @1110-d3r หลายเดือนก่อน

    🎉🎉🎉❤❤❤

  • @rogerroan7583
    @rogerroan7583 หลายเดือนก่อน

    不要講這麼多,怎麼把llama 3的模型跑起來

  • @terencetse4902
    @terencetse4902 2 หลายเดือนก่อน

    其實machine learning本來就唔係純computer science,係computer science同statistics既cross discipline學科,有個舊名叫statistical learning。physics入面又有門學問叫statistical physics,主要係用統計學方法描述微觀粒子既狀態同結構點樣影響果d粒子as a whole既物理狀態。當年Hopfield同Hinton為NN奠基果陣就用左唔少統計力學既概念同數學模型。將大腦入面既神經元比喻為粒子,將學習類比做微觀粒子由高溫走向低溫形成結構(科普成日講既超導體lol)其實真正人工智能嘅先驅奠基者應係圖靈Alan Mathison Turing。

  • @1110-d3r
    @1110-d3r 2 หลายเดือนก่อน

    BRAVO! 🎉🎉🎉❤❤❤

  • @1110-d3r
    @1110-d3r 2 หลายเดือนก่อน

    Bravo ! 🎉🎉🎉❤❤❤

  • @chengcheli3171
    @chengcheli3171 2 หลายเดือนก่อน

    能力水平=答對的層級, 意識水平=答錯的層級,

  • @1110-d3r
    @1110-d3r 2 หลายเดือนก่อน

    🎉🎉🎉❤❤❤

  • @傑家豪-l7i
    @傑家豪-l7i 2 หลายเดือนก่อน

    什么屎音频,真以为随便找个ai语音就能做vlog呢

  • @jackwang1234
    @jackwang1234 2 หลายเดือนก่อน

    你用的AI语音感觉像便秘,听得难受

  • @MarkLOWO
    @MarkLOWO 3 หลายเดือนก่อน

    我大概是從觀看零次就進來觀看的,天知道youtube 怎麼會推這個影片給我 😂 哈哈

  • @雨魚-y1h
    @雨魚-y1h 3 หลายเดือนก่อน

    sin cos cosplay

  • @李博凱
    @李博凱 4 หลายเดือนก่อน

    請問你是靠甚麼軟體進行剪輯呢?

    • @ML_tired
      @ML_tired 4 หลายเดือนก่อน

      moboard.netlify.app/product

    • @李博凱
      @李博凱 4 หลายเดือนก่อน

      @@ML_tired 那請問你做一隻這樣的影片在使用這個軟體後大概平均花費了多少時間呢

    • @ML_tired
      @ML_tired 4 หลายเดือนก่อน

      除掉写文稿的时间,单纯做视频画面的是大概3小时。但这个前提是很熟练的情况下。

    • @ML_tired
      @ML_tired 4 วันที่ผ่านมา

      几个月后再来回答,软件借助AI的力量,做视频(除去写文稿的时间)缩减为1个多小时

  • @3a146
    @3a146 5 หลายเดือนก่อน

    OpenAI有不少人是玩分析哲学的吧?

  • @hankdonald7812
    @hankdonald7812 5 หลายเดือนก่อน

    LLM的反思能力从哪里来的?

    • @ML_tired
      @ML_tired 5 หลายเดือนก่อน

      LLM对自己生成的内容,重新输入修改,效果会有所提高。不过,不是很清楚为什么会提高

  • @hankdonald7812
    @hankdonald7812 5 หลายเดือนก่อน

    RAG的资料,是用户直接输入给LLM,还是开发LLM的公司提前存储起来以供LLM随时调用

    • @ML_tired
      @ML_tired 5 หลายเดือนก่อน

      两者都需要提前把资料变成数据库,包含embedding (key)和文本片段 (value)。前者可以是用户自己的私人资料,后者比如 Perplexity搜索引擎

  • @hankdonald7812
    @hankdonald7812 5 หลายเดือนก่อน

    不同的输入模态编码器,就相当于人类的鼻子,耳朵,眼睛,为什么要统一为一个编码器?

    • @ML_tired
      @ML_tired 5 หลายเดือนก่อน

      不同的感受器官主要负责接收信号,编码器就是神经网络在处理信号了

  • @hankdonald7812
    @hankdonald7812 5 หลายเดือนก่อน

    现在的LLM已经这么大了,怎么我还是觉得LLM的输出错误百出,各种Hallucination

    • @ML_tired
      @ML_tired 5 หลายเดือนก่อน

      感觉现有LLM对应于人脑的直觉(比较底层),其实已经远超人类这部分智能了。但,人脑应该还有更高层的智能设计,来应对rarely happened events