百万“电脑”该怎么玩?自己造个GPT!
ฝัง
- เผยแพร่เมื่อ 20 เม.ย. 2023
- 前阵子想跟朋友借个EPYC的96核处理器,9654玩一下,没想到这小子门路挺广,直接寄了台离谱级的《新华三服务器R5350 G6》,这台电脑所有零件加一起价格接近100万!我带你看!
nanoGPT项目链接:
github.com/karpathy/nanoGPT
nanoGPT跑起来的命令:
进入 nanoGPT 目录
cd d:/nanoGPT
获取训练数据 input.txt,并转换为 train.bin 训练集和 val.bin 验证集
python data/shakespeare_char/prepare.py
使用 train_shakespeare_char 参数训练,--device=cpu(使用CPU处理) --compile=False 关闭 PyTroch 2.0 编译(仅限Windows) --block_size=64 (默认256)
python train.py config/train_shakespeare_char.py --compile=False --block_size=64
让训练好的模型续写文字
python sample.py --out_dir=out-shakespeare-char --num_samples=1 --start=悟空看着唐僧肉
小明的解说轻松幽默,和一般的科技宅男的影片差很多。继续加油,点赞并订阅了。
給個讚,從B站回來再刷一次,小明也開始入大老行列
太精采了~感謝版主帶我開眼界TAT
09:50
支持一下
PCIe的还是有瓶颈,HGX架构才是王道
這套方案讓我知道我可以用多路平台完成低配高算力高帶寬的做法,算是4090有效的用法(沒有直連口😅)
躺了两天,怕不是抬它引起的,应该是嫂子的结果😂
機器價格倒是其次
2:46
我本身是在销售这些企业级别伺服器的公司上班的
非常離譜還是無法 train GPT 😂,不考慮 train train 看 LLAMA 嗎
9:26
押韵押的牛啊,感觉要赶上AK给校长弄的家庭网络了
要专业对上才能发挥价值的电脑
牛滴
看著就爽
既然走高端不如进行到底/doge,可以跑个llama模型给大家演示一下,gpt2太弱了😀
加速卡是什么型号?不是禁运了嘛
這押韻.....牛!