- 221
- 143 947
人话说公式
United States
เข้าร่วมเมื่อ 6 ต.ค. 2011
Build a LLM from scratch, Ch7, 完结, 针对指令的Finetune
Build a LLM from scratch, Ch7, 完结, 针对指令的Finetune
มุมมอง: 67
วีดีโอ
Build a LLM from scratch, Ch6, 针对分类任务的Finetune
มุมมอง 59หลายเดือนก่อน
Build a LLM from scratch, Ch6, 针对分类 务的Finetune
Build a LLM from scratch, Ch5 p2, AdamW, 训练过程, 温度, 结果输出策略
มุมมอง 64หลายเดือนก่อน
Build a LLM from scratch, Ch5 p2, AdamW, 训练过程, 温度, 结果输出策略
Build a LLM from scratch, Ch5 p1, GPT训练, Loss函数, Perplexity
มุมมอง 38หลายเดือนก่อน
Build a LLM from scratch, Ch5 p1, GPT训练, Loss函数, Perplexity
Build a LLM from scratch, Ch4 p3, GPT模型实现(3), 整体结构完成
มุมมอง 372 หลายเดือนก่อน
Build a LLM from scratch, Ch4 p3, GPT模型实现(3), 整体结构完成
Build a LLM from scratch, Ch4 p2, GPT模型实现(2), GELU, Shortcut Connection
มุมมอง 402 หลายเดือนก่อน
Build a LLM from scratch, Ch4 p2, GPT模型实现(2), GELU, Shortcut Connection
Build a LLM from scratch, Ch4 p1, GPT模型实现(1), Layer Normalization
มุมมอง 462 หลายเดือนก่อน
Build a LLM from scratch, Ch4 p1, GPT模型实现(1), Layer Normalization
Build a LLM from scratch, Ch3 p3, 自注意力机制(3): 多头Attention的细节
มุมมอง 342 หลายเดือนก่อน
Build a LLM from scratch, Ch3 p3, 自注意力机制(3): 多头Attention的细节
Build a LLM from scratch, Ch3 p2, 自注意力机制(2): 可训练权重, Causal Attention
มุมมอง 613 หลายเดือนก่อน
Build a LLM from scratch, Ch3 p2, 自注意力机制(2): 可训练权重, Causal Attention
Build a LLM from scratch, Ch3 p1, 自注意力机制(1): 三个角色
มุมมอง 573 หลายเดือนก่อน
Build a LLM from scratch, Ch3 p1, 自注意力机制(1): 三个角色
Build a LLM from scratch, Ch2 p3, Token Embedding, 位置Embedding
มุมมอง 323 หลายเดือนก่อน
Build a LLM from scratch, Ch2 p3, Token Embedding, 位置Embedding
Build a LLM from scratch, Ch2 p2, Tokenization, Dataloader
มุมมอง 693 หลายเดือนก่อน
Build a LLM from scratch, Ch2 p2, Tokenization, Dataloader
Build a LLM from scratch, Ch2 p1, Tokenization (1)
มุมมอง 773 หลายเดือนก่อน
Github: github.com/rasbt/LLMs-from-scratch 最后那个SimpleTokenizerV1 class没说清楚,下期开头重说哈
Everyday Data Visualization 第四章 “颜色” 快速回顾
มุมมอง 626 หลายเดือนก่อน
Everyday Data Visualization 第四章 “颜色” 快速回顾
Everyday Data Visualization ch6 p2, 柱状图平替,等值区域图
มุมมอง 556 หลายเดือนก่อน
Everyday Data Visualization ch6 p2, 柱状图平替,等值区域图
Everyday Data Visualization ch6 p1, 用可视化传递感觉
มุมมอง 866 หลายเดือนก่อน
Everyday Data Visualization ch6 p1, 用可视化传递感觉
Everyday Data Visualization ch5 p2, 关于创造氛围,表达分层的内容,阅读障碍的字体知识
มุมมอง 526 หลายเดือนก่อน
Everyday Data Visualization ch5 p2, 关于创造氛围,表达分层的内容,阅读障碍的字体知识
Everyday Data Visualization ch5 p1, 字体的基本
มุมมอง 377 หลายเดือนก่อน
Everyday Data Visualization ch5 p1, 字体的基本
Everyday Data Visualization ch4 p2, 调色板的生成, WCAG "网页内容无障碍指南"
มุมมอง 377 หลายเดือนก่อน
Everyday Data Visualization ch4 p2, 调色板的生成, WCAG "网页内容无障碍指南"
Everyday Data Visualization ch4 p1, 色彩模型和色彩空间
มุมมอง 777 หลายเดือนก่อน
Everyday Data Visualization ch4 p1, 色彩模型和色彩空间
PyTorch深度学习 Deep Learning with PyTorch ch.4, p1 读取2D图像,图像张量的基本操作
มุมมอง 877 หลายเดือนก่อน
PyTorch深度学习 Deep Learning with PyTorch ch.4, p1 读取2D图像,图像张量的基本操作
Everyday Data Visualization ch1-2, 数据可视化的几个原则
มุมมอง 1797 หลายเดือนก่อน
Everyday Data Visualization ch1-2, 数据可视化的几个原则
Bayesian Optimization in Action 贝叶斯优化实战 ch.13 结束, 神经网络+高斯过程, CNN, MINIST
มุมมอง 1718 หลายเดือนก่อน
Bayesian Optimization in Action 贝叶斯优化实战 ch.13 结束, 神经网络 高斯过程, CNN, MINIST
Bayesian Optimization in Action 贝叶斯优化实战 ch.12 e2, 变分高斯过程(2)
มุมมอง 739 หลายเดือนก่อน
Bayesian Optimization in Action 贝叶斯优化实战 ch.12 e2, 变分高斯过程(2)
Bayesian Optimization in Action 贝叶斯优化实战 ch.12 e1, 贝叶斯优化的规模化,变分高斯过程
มุมมอง 1659 หลายเดือนก่อน
Bayesian Optimization in Action 贝叶斯优化实战 ch.12 e1, 贝叶斯优化的规模化,变分高斯过程
AI辅助编程 (GitHub Copilot) ch.10 e2(完结), 做一个德州扑克游戏(基本功能)
มุมมอง 1389 หลายเดือนก่อน
AI辅助编程 (GitHub Copilot) ch.10 e2(完结), 做一个德州扑克游戏(基本功能)
跟着博主听完这本书了,非常感谢!同在MN, 希望有机会可以多跟您交流呀!
@@TalkOfWang谢谢!有机会多多交流!
感谢大佬救我
有视频中的pdf文件吗 博主
@@jinlf 没有,不过GitHub能找到代码
完全听不懂 说人话好吗
# 这行报错,需要将t变成数组,下面类似一行同理 # print([f'{tokenizer.convert_tokens_to_string(t)}' for t, _ in tokens[:8]]); print([f'{tokenizer.convert_tokens_to_string([t])}' for t, _ in tokens[:8]]);
# 这句bug,需要注释掉 data_collator.return_tensors = "np"
compute_loss按照书中执行没有报错,反而TrainingArguments有个参数小BUG # 原书这行报错 # student_training_args.log_level = 40 student_training_args.log_level = 'info'
谢谢。。之前这本书的视频因为版本更新的原因,code已经有很多问题了。明天开始开新书Build a LLM (from scratch),希望能有用
學到了:1.有些證據證明力強,有些證據證明力弱 2.笨蛋會把證明力弱的證據當成鐵證 3.有些證據難以拿來證明但可以拿來證偽 4.數量決定概率大小
现在最近2.4版本,功能大改,书中代码很多用不了,最近调试的头皮发麻,争取有机会多跑几行 #!pip install haystack-ai #!pip install elasticsearch-haystack from haystack_integrations.document_stores.elasticsearch import ElasticsearchDocumentStore from haystack import Document
@@cocoandy-ek7tv 唉,是啊
说的太好了,内容很棒,节奏很好,感觉可以加上一点轻度的背景音 终于感受到演算法的魅力了,你这个视频刚好解开了我看th-cam.com/video/Dwv60z_XeaE/w-d-xo.htmlsi=8XyGlxpOG04ciWyc 的疑惑
dataset_samsum = load_dataset("samsum") 这个数据集现在好像用不了,使用如下: dataset_samsum = load_dataset("knkarthick/samsum") 其中有6054条数据为None,会导致后续代码报错,验证code如下。 dataset_samsum["train"]["dialogue"][6054] 使用dataset.filter删除掉None值, dataset_samsum = dataset_samsum.filter(lambda x: x["dialogue"] is not None)
讲的非常棒
把熵讲得如此透彻,我未见出其右者。果断关注
@@huiwang9001 谢谢
马云这个例子神了,终于知道鸡汤的根源在哪了
两个半月看完了,炒鸡棒,加油!
大佬,这章练习题总共6题,视频中只看到前2题,是不是少视频忘上传了?
看了13p,才发现是战术性选择
利用线性代数一些概念探讨几何问题,走到这里,局限性就来了。
加个书签 没搞懂 十分钟的公式
内容是好东西,但是博主的慵懒且不紧不慢徐徐道来的语气之催眠效果太过强悍!
好!
人话老师,看了你4年前的deep learning with pytorch学到了很多干货,真正的带我入门了deeplearning。我希望人话老师能一直更新无限进步。!也希望人话老师能出期视频分享自己是怎么学习的,怎么进步的,谈谈个人经验与方法论,然后再多出几期图书分享!!
16:00 replace用正则简洁点,import re re.sub(r'[^a-zA-Z0-9]', ' ', input_str)
感谢! 太棒了!
少了ch.4,p1
刚补上了,谢谢!
@@reaverlee 给力!
一直迷迷糊糊,这次有感觉了。谢谢老师
是不是概率论研究的太多了,思维就会被禁锢在规则之内。我理解的概率论是研究一定规则内的最求效率的极限。(由于概率论本身是数学游戏,所以它本身的产出就是极限的,而现实操作只是让这个极限模型更贴合真实生活)而那些改革开放初的草莽企业家,玩的就是我赌规则追不上我。随着社会的完善,草莽企业家也纷纷落马,新青年不会概率论就没有一碗饭吃。 我的想法是,是不是新一代的年轻人没有勇气,没有能力去突破规则,或者根本不知道规则在哪里。就好像韩国一样,韩国国内卷的肉都吃不起了,也不愿意去经济不发达的地方找机会。因为他们的视野已经禁锢在韩国国内了,而韩国的发展空间已经上不去了,政府也不敢拼命去挑战美国,国内的大财阀只能零和博弈本国的穷人。火烧眉毛的韩国国民还不逃离这个国家,纷纷在一定规则内追求极限。这是不是相似的故事。
謝謝久等了
成功學?忽悠學
好ㄛ
安倍晉三遇刺,國民黨需要降半旗致哀嗎 ? 日本軍閥殺死了多少中國軍民,朱主席難道你不知道嗎 ?
大哥这和剪映啥区别
这是自动生成的啊,剪映应该还没有吧?我不太清楚。剪映要是有了我也不意外,不过起码要有几个条件,大语言模型,还有足够优质的素材库
剪映只可以生成汉语,英语的玩不转啊
福尔摩斯这个例子不太好,让人感觉从结果往原因倒推
這段算式令我發現自身存在很多思維漏洞。
留言都說講得很好,但我認為文案還有很大程度的可進步空間,很像是沒有擬稿直接講,代詞很多有其他更明確表達方式的句子也很多,然後純白字幕在某些情況會和背景融合,這是剪輯的基本常識
谢谢!
很好的视频,加油
每集视频都好棒,不知道能不能搬到b站,想分享
谢谢,实不敢当。我在B站是PhilLee18这个号。之前这几个您想搬就搬吧,不过请注明我b站的号就行了
@@reaverlee 了解,已关注,感谢。
感謝主播,希望以後可以多分享這類工具,非常實用!
我觉得解释P(B|A)为什么可以证伪那段讲的不是很好。我认为狗叫和生熟人的例子不是很贴切。 回到程序员的例子。 假如程序员一定爱穿格子衫( P(B|A) = 1 ),那么即便穿格子衫的人很多,一个穿格子衫的人也有可能是程序员。 但假如程序员一定不爱穿格子衫( P(B|A) = 0 ), 那么这个公式求出来的值就是0。也就是说在程序员一定不爱穿格子衫的情况下,穿格子衫就可以证伪一个人不是程序员。 换句话说,在同样是很多人都穿格子衫的固定前提下:假设1)程序员一定穿格子衫,那么穿格子衫的人不一定但有可能是程序员。假设2)程序员一定不爱穿格子衫,那么穿格子衫的人一定不是程序员。
装B
但是福尔摩斯的推论都是虚构嘛
福尔摩斯系列经久不衰,也是因为有所夸大但不离谱
怎么才能联系博主啊
这样就可以
只有我發現 引用的頻道應該是3Blue1Brown?
先验正确解释,应该是指天生就懂得的东西,是人类出产就具备的知识,农民和图书管理员的存在比例,不是先验
完美解释了小马云那个长相比坚持20年4点起床有用多了
真正的码农会告诉你 PHP 才是最好的编程语言
太牛逼了,但是貌似说的不是人话