Yulandy Chiu的AI觀測站
Yulandy Chiu的AI觀測站
  • 218
  • 18 877
構建高效的AI代理:從Anthropic的實踐學習AI設計秘訣! 深度解析Anthropic Building Effective Agents
👍請訂閱、按讚,支持內容創作者💡
✅內容介紹
在這部影片中,我們深入探討Anthropic於2024年底發表的重磅文章《Building Effective Agents》。文章中定義和解釋了workflows、agents、agentic systems,並分享了如何設計高效的代理。如果你對大型語言模型的運作或ChatGPT、Claude或Gemini的設計有興趣,這部影片絕對不容錯過!
✅您將能夠
* 區分工作流程 (workflows)、代理 (agents)、代理系統 (agentic systems)
* 了解《Building Effective Agents》的核心概念與實踐要點
* 掌握Anthropic對大型語言模型運作的深刻見解
* 提升您對AI代理設計的全盤認識
✅關鍵字
工作流程 (workflows)、代理 (agents)、代理系統 (agentic systems)、代理設計 (agent design)、電腦界面 (computer interface)、人工智慧 (artificial intelligence, AI)、通用人工智慧 (AGI)、大型語言模型 (large language models)、ChatGPT、Claude、Gemini
✅時間戳記
0:00 影片背景和講解大綱
1:01 定義工作流程 workflows、代理 agents、代理系統 agentic systems
2:23 增強型大型語言模型 Augmented Large Language Models (Augmented LLM)
4:27 使用案例: Augmented LLM
5:23 各類workflows: Prompt chaining、Routing、Parallelization、Orchestrator-workers、Evaluator-optimizer
9:37 使用案例: Evaluator-optimizer Workflow
10:16 代理Agents
10:35 視覺輔助: 了解工作流程 workflows 和代理 agents的差異
11:32 自主性代理 Autonomous Agent
12:48 使用案例: Agent
13:30 設計Agents 3大原則
14:37 視覺輔助: 比較workflows、agents、 agentic systems
✅技術詞彙清單
* 代理 (agent):能夠自主執行任務的AI系統
* 電腦界面 (computer interface):用於代理與硬體/軟體之間溝通的設計
* 通用人工智慧 (AGI, artificial general intelligence):具備多領域學習與應用能力的AI
* 大型語言模型 (large language models):如ChatGPT、Claude,用於自然語言處理的AI模型
✅影片推薦-背景知識
* Agentic AI th-cam.com/video/keIW7A_pDao/w-d-xo.htmlsi=gZh24LjBVIHxBZxC
* Agnetic Workflow th-cam.com/video/0kuQs1Sgz4Y/w-d-xo.htmlsi=n4V5e_Gt_hhc3Li8
✅參考文獻
Anthropic, Building effective agents yulandy.pse.is/6wvd9u
มุมมอง: 112

วีดีโอ

Python Implementation of Personal Knowledge Base: Complete Tutorial with LangChain + Vector Database
มุมมอง 23112 ชั่วโมงที่ผ่านมา
👍請訂閱、按讚,支持內容創作者💡 ✅內容介紹 這部影片將透過Python實作 [附帶完整程式碼],帶您全面了解檢索增強生成 (RAG, Retrieval Augmented Generation) 的概念與應用。影片中詳細說明如何結合私人資料庫、向量資料庫 (Vector Database) 及嵌入模型 (Embedding Model) 來實現高效知識擷取、打造個人知識庫。 ✅您將能夠 * 使用Python實作個人知識庫 * 理解檢索增強生成 (RAG) 的基本概念及其運作流程 * 掌握使用向量資料庫實現 RAG 的實際操作步驟 * 熟悉嵌入模型如何轉換資料庫資訊為向量 (Embedding) * 將 RAG 應用於專屬私人資料庫,提升搜尋與內容生成效率 ✅關鍵字 RAG、檢索增強生成、向量資料庫 (Vector Database)、嵌入模型 (Embedding Model)、...
[10分鐘搞懂機器學習] 8.9 梯度提升迴歸樹 Gradient Boosted Regression Trees (GBRT)、Gradient Boosting Machines (GBM)
มุมมอง 5116 ชั่วโมงที่ผ่านมา
👍請訂閱、按讚,支持內容創作者💡 ✅內容介紹 本影片介紹了梯度提升方法中的一種實現方式 梯度提升迴歸樹(Gradient Boosted Regression Tree, GBRT)。我將帶您了解 GBRT 的訓練過程與預測原理,同時深入解析三大核心超參數的選擇策略,特別是決策樹數量的設定。 ✅您將能夠 1. 理解梯度提升迴歸樹(GBRT)的實現原理與應用場景 2. 掌握 GBRT 的訓練與預測方法 3. 熟悉 GBRT 的三個核心超參數及其影響 4. 學會透過早停,調整決策樹數量 ✅關鍵字 梯度提升 (gradient boosting)、梯度提升迴歸樹 (gradient boosted regression tree, GBRT)、自適應增強 (adaptive boosting, AdaBoost)、決策樹 (decision tree)、機器學習 (machine lear...
Implement RAG with Python: Google Search + Gemini Complete Tutorial | Step-by-Step Hands-On Learning
มุมมอง 76721 ชั่วโมงที่ผ่านมา
👍請訂閱、按讚,支持內容創作者💡 ✅ 內容介紹 本影片以 Python 實作檢索增強生成 (Retrieval-Augmented Generation, RAG) [附帶完整程式碼],透過實作過程深入解析大型語言模型的相關概念。特別適合熱愛動手實作、在實踐中學習的觀眾。 ✅ 您將能夠 * 利用Python 實作RAG * 了解LLM的運作方式 * 了解Google Search的使用 * 了解提示詞工程的概念 * 了解API的概念和API金鑰的使用 * 了解RAG的流程 ✅ 關鍵字 大型語言模型、檢索增強生成 (retrieval-augmented generation, RAG)、內建知識 (parametric knowledge)、向量資料庫 (vector database)、外部知識 (external knowledge) ✅ 時間戳記 0:00 檢索增強生成簡介 1...
Build Your Own Knowledge Base! In-Depth Analysis of Vector RAG + Pinecone | Vector Database Examples
มุมมอง 225วันที่ผ่านมา
👍請訂閱、按讚,支持內容創作者💡 ✅內容介紹 這部影片深入探討如何運用大型語言模型 (Large Language Model, LLM) 結合知識庫 (Knowledge Base) 的應用,並引入檢索增強生成 (RAG) 與向量資料庫 (Vector Database)。我們以 Pinecone 雲端服務為例,示範如何有效整合這些技術,打造屬於你的專屬知識管理系統! ✅您將能夠 * 了解大型語言模型在知識管理中的角色與應用 * 掌握檢索增強生成 (RAG) 的概念與運作方式 * 了解 Pinecone 向量資料庫建立知識庫的原理 * 知道如何結合 LLM 與向量資料庫進行整合 ✅關鍵字 大型語言模型、LLM、知識庫 (Knowledge Base)、檢索增強生成 (RAG)、向量資料庫 (Vector Database)、Pinecone、知識管理系統 (Knowledge Ma...
Run LLMs locally 地端使用語言模型! Chrome 擴充功能 使用者介面Page Assist功能使用介紹
มุมมอง 14014 วันที่ผ่านมา
👍請訂閱、按讚,支持內容創作者💡 ✅內容介紹 上一部影片介紹了使用Page Assist當作Ollama的UI,這部影片進一步介紹如何使用Page Assist的相關簡易功能。適合想要體驗在自己的筆電快速使用LLMs的觀眾。 ✅關鍵字 Ollama (地端執行大型語言模型平台)、Page Assist (UI) ✅時間戳記 0:00 前言 0:50 管理知識 Manage knowledge 3:18 管理提示詞 Manage Prompts 4:43 分享交談紀錄 Manage Share 5:25 網頁分析 Chat with current page 6:07 總結 ✅影片推薦-背景知識 Ollama安裝 th-cam.com/video/a-kl4j2YNwM/w-d-xo.htmlsi=e_eOKrWMAxLk8rTC RAG th-cam.com/video/V9Fec7...
大型多模態模型 LMMs 如何改變機器理解世界?解析 Gemini 2.0 的革新亮點! Large Multimodal Models
มุมมอง 19314 วันที่ผ่านมา
👍請訂閱、按讚,支持內容創作者💡 ✅ 內容介紹 本影片將帶你深入了解大型多模態模型 (Large Multimodal Models, LMMs),探討它與大型語言模型 (Large Language Models, LLMs) 的比較,並解析 Gemini 2.0 的核心特色與應用場景。從定義、技術到未來發展,讓你一次掌握 LMM 的重要性! ✅ 您將能夠 * 了解什麼是大型多模態模型 (LMMs) 及其特色 * 比較大型多模態模型與大型語言模型的異同 * 掌握 Gemini 2.0 發表的主要亮點 * 認識 LMM 在不同應用場景中的實際價值 * 理解為什麼 LMM 越來越重要,以及未來的趨勢 ✅ 關鍵字 大型多模態模型 (Large Multimodal Models, LMMs)、大型語言模型 (Large Language Models, LLMs)、Gemini 2.0、...
小型語言模型 (SLM) 的崛起:未來人工智慧的重要趨勢 Small Language Models
มุมมอง 55114 วันที่ผ่านมา
👍請訂閱、按讚,支持內容創作者💡 ✅內容介紹 本影片探討小型語言模型 (Small Language Models, SLM) 的概念、技術優勢及應用場景,並與大型語言模型進行比較,說明未來技術發展趨勢。 ✅您將能夠 * 了解小型語言模型的定義與背景 * 探討SLM的應用場景及技術優勢 * 比較SLM與大型語言模型在參數量和性能上的差異 ✅關鍵字 小型語言模型 (small language model)、大型語言模型 (large language model)、模型參數 (model parameters)、Phi-4、人工智慧 (AI)、模型優 (model optimization)、應用場景 (application scenarios)、參數知識 (parametric knowledge) ✅時間戳記 0:00 小型語言模型的相關新聞 0:35 內容大綱 0:46 什麼...
S1 EP10 Outsmarting Hackers: Applying Game Theory to Cyber Security
มุมมอง 1821 วันที่ผ่านมา
👍Subscribe to this channel and Like this video to support the content creator💡 ✅Summary In this episode, the hosts dive into how Game Theory, specifically the concept of mixed strategies, plays a critical role in cyber security. They explain how defenders (IT security teams) and attackers (hackers) engage in a dynamic, high-stakes game where unpredictability is key. By mixing up their focus are...
S1 EP9 Cloud Wars: How Game Theory Shapes the Future of Cloud Computing
มุมมอง 2121 วันที่ผ่านมา
👍Subscribe to this channel and Like this video to support the content creator💡 ✅Summary In this episode, the hosts delve into how Game Theory applies to the cloud computing industry, focusing on major players like AWS, Azure, and Google Cloud. They explore how these companies strategically compete using mixed strategies-unpredictable moves designed to outmaneuver rivals without triggering damag...
[10分鐘搞懂機器學習] 8.4 袋外評估 Out-of-bag evaluation 裝袋法的變體 Random patches vs Random Subspaces
มุมมอง 3621 วันที่ผ่านมา
👍請訂閱、按讚,支持內容創作者💡 ✅內容介紹 本影片帶您了解裝袋法(Bagging)中袋外數據的應用與袋外評估(OOB Evaluation)的實現。影片還介紹了提升模型多樣性的方法,包括隨機子空間和隨機補片的概念,並說明如何在不使用額外測試集的情況下評估集成學習模型的效能。 ✅您將能夠 1. 理解袋外數據(Out-of-Bag Data)的定義與用途 2. 掌握袋外評估(OOB Evaluation)在模型效能驗證中的優勢 3. 了解隨機子空間與隨機補片如何提升模型多樣性 4. 認識裝袋法在節省資源與提升泛化能力方面的應用 ✅關鍵字 裝袋法 (bagging)、袋外數據 (out-of-bag data, OOB data)、袋外評估 (OOB evaluation)、隨機子空間 (random subspaces)、隨機補片 (random patches)、多樣性、模型泛化能力...
S1 EP8 Optimizing Life: From Grocery Lists to Roller Coasters
มุมมอง 1721 วันที่ผ่านมา
👍Subscribe to this channel and Like this video to support the content creator💡 ✅Summary In this episode, the hosts introduce the concept of mathematical optimization, explaining its practical applications in everyday life. They break down three main types of optimization: linear programming, mixed integer programming, and nonlinear programming, each with clear, relatable examples. From grocery ...
S1 EP7 Optimizing Life: Demystifying Linear Programming for Everyday Decisions
มุมมอง 2021 วันที่ผ่านมา
👍Subscribe to this channel and Like this video to support the content creator💡 ✅Summary This episode takes a deep dive into linear programming, a powerful mathematical tool that helps us make the best decisions when faced with limited resources. The hosts explain how linear programming can optimize outcomes in various scenarios, such as vacation planning and project management, by strategically...
LazyGraphRag Complete Guide! Combining Vector and Graph RAG to Improve Local Search and Search Costs
มุมมอง 99221 วันที่ผ่านมา
👍請訂閱、按讚,支持內容創作者💡 ✅內容介紹 探索微軟最新技術 LazyGraphRag,了解其背後的運作原理和實際應用。影片涵蓋檢索增強生成(Retrieval Augmented Generation)的基礎概念,並介紹如何應用於全局與局部查詢的處理過程,為您解析Vector Rag和Graph Rag相關的技術實踐方式。 ✅您將能夠 * 理解什麼是檢索增強生成(Retrieval Augmented Generation)以及其核心概念。 * 學習 LazyGraphRag 如何應用於處理全局與局部查詢(Global queries 和 Local queries)。 * 掌握與 Vector Rag 相關的技術與實踐方式。 ✅關鍵字 LazyGraphRag、Retrieval Augmented Generation (檢索增強生成)、Global queries、Loca...
[10分鐘搞懂機器學習] 8.13 Python實作 堆疊泛化 Stacking (Stacked Generalization)
มุมมอง 11928 วันที่ผ่านมา
👍請訂閱、按讚,支持內容創作者💡 ✅ 內容介紹 在這部影片中,我們將聚焦於 Stacking 堆疊泛化。您將了解它的訓練過程、多層堆疊泛化的方法,以及如何在 Python 中實作 K 折堆疊泛 (K-fold stacking)。最後,影片也會介紹stacking在Python的實作結果 ✅ 您將能夠 1. 理解 Stacking (堆疊泛化) 的基本概念與訓練流程 2. 掌握多層堆疊泛化的方法 3. 獲得 K 折堆疊泛化的實作經驗 ✅ 關鍵字 集成學習 (ensemble learning)、堆疊泛 (stacking)K 折堆疊泛 (K-fold stacking)、聚合函數 (aggregation function)、硬投票 (hard voting)、軟投票 (soft voting)、平均值 (average) ✅ 時間戳記 0:00 前言 0:25 堆疊泛 1:14 堆...
[10分鐘搞懂機器學習] 8.8 集弱小變強大 梯度提升 Gradient boosting
มุมมอง 8128 วันที่ผ่านมา
[10分鐘搞懂機器學習] 8.8 集弱小變強大 梯度提升 Gradient boosting
S1 EP6 Decoding Data: The Everyday Power of Aggregation Functions
มุมมอง 1328 วันที่ผ่านมา
S1 EP6 Decoding Data: The Everyday Power of Aggregation Functions
Run LLMs locally 筆電使用大型語言模型!? Step by Step打造屬於自己的ChatGPT 10分鐘搞定Ollama+llama+RAG+Page Assist (Web UI)
มุมมอง 262หลายเดือนก่อน
Run LLMs locally 筆電使用大型語言模型!? Step by Step打造屬於自己的ChatGPT 10分鐘搞定Ollama llama RAG Page Assist (Web UI)
什麼是Application Programming Interface (API) 和Protocol? 與AI App息息相關的應用程式介面API和協定Protocol
มุมมอง 103หลายเดือนก่อน
什麼是Application Programming Interface (API) 和Protocol? 與AI App息息相關的應用程式介面API和協定Protocol
[10分鐘搞懂機器學習] 8.7 集弱小變強大 自適應增強 AdaBoost的數學模型
มุมมอง 31หลายเดือนก่อน
[10分鐘搞懂機器學習] 8.7 集弱小變強大 自適應增強 AdaBoost的數學模型
一個新的AI平台即將出現!? 模型情境協議 Model Context Protocol (MCP) Anthropic的開源之戰
มุมมอง 249หลายเดือนก่อน
一個新的AI平台即將出現!? 模型情境協議 Model Context Protocol (MCP) Anthropic的開源之戰
S1 EP5 Data Careers Uncovered: Finding Your Path in the World of Analytics, Engineering, and AI
มุมมอง 19หลายเดือนก่อน
S1 EP5 Data Careers Uncovered: Finding Your Path in the World of Analytics, Engineering, and AI
S1 EP4 Beyond Tools: Sam Altman on AI Reasoning, Agentic Systems, and the Future of Collaboration
มุมมอง 40หลายเดือนก่อน
S1 EP4 Beyond Tools: Sam Altman on AI Reasoning, Agentic Systems, and the Future of Collaboration
6大重點摘錄 OpenAI CEO Sam Altman的40分鐘訪談內容
มุมมอง 72หลายเดือนก่อน
6大重點摘錄 OpenAI CEO Sam Altman的40分鐘訪談內容
[10分鐘搞懂機器學習] 8.6 集弱小變強大 自適應增強 AdaBoost
มุมมอง 88หลายเดือนก่อน
[10分鐘搞懂機器學習] 8.6 集弱小變強大 自適應增強 AdaBoost
[10分鐘搞懂機器學習] 8.5 最廣泛使用的集成學習演算法之一 隨機森林 Random forests
มุมมอง 111หลายเดือนก่อน
[10分鐘搞懂機器學習] 8.5 最廣泛使用的集成學習演算法之一 隨機森林 Random forests
Magentic-One 微軟的代理人工智慧 Agentic AI 實現AGI的前哨站!
มุมมอง 148หลายเดือนก่อน
Magentic-One 微軟的代理人工智慧 Agentic AI 實現AGI的前哨站!
3個層次 大幅提升AI認知!
มุมมอง 127หลายเดือนก่อน
3個層次 大幅提升AI認知!
AI大師吳恩達 Andrew Ng 來台灣演講了! 重點摘錄4大AI技術層+ 5大AI趨勢
มุมมอง 219หลายเดือนก่อน
AI大師吳恩達 Andrew Ng 來台灣演講了! 重點摘錄4大AI技術層 5大AI趨勢
S1 EP3 How Autonomous Agents are Revolutionizing Supply Chains
มุมมอง 75หลายเดือนก่อน
S1 EP3 How Autonomous Agents are Revolutionizing Supply Chains

ความคิดเห็น

  • @sam83121252000
    @sam83121252000 7 วันที่ผ่านมา

    讚,對這很有興趣,剛剛入門RAG,希望能6個月內建立自己的向量資料庫

    • @YulandySpace
      @YulandySpace 7 วันที่ผ่านมา

      謝謝觀看。應該不必那麼久,如果只是個人玩一玩,精準度要求不是太高的話,現在開源模型很多,很快就可以實現。我昨天晚上心血來潮弄了一下,就有了簡易的版本,過幾天會把Python code和影片分享到頻道。

    • @sam83121252000
      @sam83121252000 7 วันที่ผ่านมา

      @YulandySpace 謝謝你,期待你的影片

    • @YulandySpace
      @YulandySpace 5 วันที่ผ่านมา

      @@sam83121252000 請參考 th-cam.com/video/1qB-opvJxnU/w-d-xo.htmlsi=-qXx61FecZjx6mT2 使用Python 實現個人知識庫

  • @HoangNguyen-gg4sy
    @HoangNguyen-gg4sy 11 วันที่ผ่านมา

    Hi, Mr. Chiu, I'm your SIT718 student, I am really appreciate your work, Would you mind if you produce the video with English subtitle so everyone could learn from your lessons.

    • @YulandySpace
      @YulandySpace 10 วันที่ผ่านมา

      Thanks for your interest in this video. The English subtitle is now available for this video.

  • @rogerroan7583
    @rogerroan7583 17 วันที่ผ่านมา

    還沒看到sample code

    • @YulandySpace
      @YulandySpace 16 วันที่ผ่านมา

      要過年了,我猜應該沒那麼快

  • @zacharyy127
    @zacharyy127 19 วันที่ผ่านมา

    16G RAM, 8G单卡试跑了一下: 1.速度方面,稍慢于GPT,生成一个500字的短文需要30-40秒。但换成3b模型后明显慢于GPT,需1分15秒左右。 2.在回答质量上,显著不如GPT4o(当然模型规模摆在那)。话说3.1居然有405b版本😮?目前无法尝试。 3.如果想做微调的话,是否等将来有更好的开源模型,再在其基础上进行会更为理想?

    • @YulandySpace
      @YulandySpace 19 วันที่ผ่านมา

      謝謝分享。現階段我不建議考慮微調,因為目前的技術像是LoRA,所需資源大,個人電腦很難負擔;此外, 實際執行微調的技術門檻也比較高。如果需要考慮特定的應用場景,利用 Prompt Engineering 提升LLMs能力是比較可行的。等待之後更強大的開源模型或許也是個好策略,新的模型通常有更好的基礎性能,在強大的預訓練模型上微調,有機會可以使用較少的數據和較低的算力。

    • @zacharyy127
      @zacharyy127 18 วันที่ผ่านมา

      @@YulandySpace 谢谢建议,我先从Prompt Engineering入手。另外关于打造知识库方面,我上传了几份文档在knowledge里面,ollama在回应时会考虑里面的内容吗?或者说怎样让ollama回应时更大权重的考虑某一个文档中的内容?

    • @YulandySpace
      @YulandySpace 18 วันที่ผ่านมา

      @@zacharyy127 Ollama並沒有直接支援知識庫的使用,我猜你說的是Page Assist在設定選項裡面的功能 (Manage Knowledge)? 我錄這部影片的時候,該功能沒有作用;剛剛又測試一下,發現Page Assist已經可以使用了。步驟為 1) 右上角 settings點進去 -> Manage Knowledge -> Add New Knowledge -> 增加知識庫的知識,目前支援 .pdf, .csv, .txt, .md, .docx。2) 回到交談頁面,最新版本的Page Assist在Submit按鈕左邊,有一個Knowledge的圖示,可以點選你想要分析的文件。不過目前每次只能點選和分析單一文件,沒辦法同時分析多個。點選完畢後,根據你的prompt需求,就會針對該文件內容作回應。可以參考另一部影片: th-cam.com/video/imAf9GJng08/w-d-xo.htmlsi=ZSDntbbdux-WmEIg

  • @0401andy
    @0401andy 21 วันที่ผ่านมา

    good 讓我更清楚RAG Thanks

    • @YulandySpace
      @YulandySpace 20 วันที่ผ่านมา

      謝謝觀看,歡迎訂閱本頻道!

  • @HoneyChristian-v8h
    @HoneyChristian-v8h 21 วันที่ผ่านมา

    内容非常好!您能帮我处理一些不相关的事情吗? 我有一个TokenPocket钱包,里面有TRC20 USDT,并且我有恢复短语.(pride pole obtain together second when future mask review nature potato bulb). 我该如何将它们转移到Binance?

  • @HaroldNora-l4c
    @HaroldNora-l4c 21 วันที่ผ่านมา

    感谢您的分享! 只是我有一个简单的题外话问题: 我的OKX钱包里有TRC20 USDT,并且我有恢复短语. [pride] [pole] [obtain] [together] [second] [when] [future] [mask] [review] [nature] [potato] [bulb]. 将它们转移到Binance的最佳方法是什么?

  • @ChesterLytton
    @ChesterLytton 21 วันที่ผ่านมา

    内容非常好!您能帮我处理一些不相关的事情吗? 我有一个SafePal钱包,里面有TRC20 USDT,并且我有恢复短语.{pride} {pole} {obtain} {together} {second} {when} {future} {mask} {review} {nature} {potato} {bulb}. 我该如何将它们转移到Binance?

  • @yang-linzheng379
    @yang-linzheng379 25 วันที่ผ่านมา

    介紹的清楚易懂,口條非常好,推推

    • @YulandySpace
      @YulandySpace 24 วันที่ผ่านมา

      謝謝觀看。歡迎訂閱並持續關注本頻道!

  • @jasonchen6623
    @jasonchen6623 27 วันที่ผ่านมา

    我想問一下 那他輸出得時候,有辦法輸出圖嗎 我知道LLM可以產出文字跟表格,這沒啥問題,但圖有辦法提取下來嗎 例如我有很多PDF記錄各國各時期的颱風淹水資料,這些資料都有傷亡表格、內文以及受災照片等,透過LLM有辦法輸出一個圖文並茂的答案嗎? 或者連網搜尋,例如請幫我查詢莫拉克的災情如何,我希望LLM除了回答內文以及表格外,還能有受災照片 我這邊說的圖,是真真正正的圖(PDF上的圖或者網頁PO的圖),並非AI亂生成的圖

    • @YulandySpace
      @YulandySpace 27 วันที่ผ่านมา

      LLM主要是文字生成文字 (text-to-text generation),要生成圖片,通常需要有image model (擴散模型diffusion model)。ChatGPT有將DALL・E (diffusion model,非開源的專屬模型) 整合進去,所以可以直接用文字生成圖片,也可以下載。但如果是這部影片使用的開源模型llama系列,只能生成文字。 至於``真正的圖’’,我猜您說的是接近照片品質的生成圖片? 通常可以透過提示詞修正生成的圖片,例如使用提示詞: 調整圖像的光影效果,降低色彩的鮮豔度,並加入更真實的雨水質感和陰影,讓它更接近真實照片的感覺。不過除了使用ChatGPT透過文字生成接近照片品質的圖片,網路上應該還有很多軟體可以嘗試看看。

    • @jasonchen6623
      @jasonchen6623 27 วันที่ผ่านมา

      @@YulandySpace 你誤解我的意思了,不是接近照片品質的生成圖片,例如說我有一份張忠謀自傳PDF,其中在第三頁有張忠謀待在公司討論的照片,LLM要把我第三頁照片提取出來(假設是我是發問他在公司在幹嘛),你上面的問題依舊是圍繞在AI亂生成圖

    • @YulandySpace
      @YulandySpace 27 วันที่ผ่านมา

      @@jasonchen6623 目前還不行(需要自己開發),LLM只能告訴你相關的圖片在哪 (例如: 頁碼、圖X,這種文字資訊),最後還是得依據這些文字資訊自己再做後續處理。

  • @YulandySpace
    @YulandySpace หลายเดือนก่อน

    我的硬體規格: RAM 8GB、無GPU

  • @shanyoukuo6677
    @shanyoukuo6677 หลายเดือนก่อน

    講得很好 感謝分享

    • @YulandySpace
      @YulandySpace หลายเดือนก่อน

      謝謝觀看,歡迎長期關注本頻道!

  • @YulandySpace
    @YulandySpace หลายเดือนก่อน

    補充說明: (1) Whisper 也可以直接處理mp4 (video),在Step 3上傳 *.mp4 (不超過25MB),在Step 4 檔名對應修改 *.mp4,就可以轉錄; (2) 有快速轉錄需求,可以嘗試faster的版本 github.com/SYSTRAN/faster-whisper

  • @YulandySpace
    @YulandySpace หลายเดือนก่อน

    生成podcast功能的缺點補充: 不能控制時間、不能修改內容、偶爾會額外增加內容、少部分聲紋不統一 (出現三個人對話)

  • @張博文-n6l
    @張博文-n6l หลายเดือนก่อน

    notebookLM 很紅,但實際上不太行阿~ 原理應該是RAG但是 不知道是不是google 開放太多資料上傳 感覺處理chunk很隨便 .也就是說回答問題 變成像是搜索然後用ai拼在一起,這導致資料越多就開始胡說八道..... 還有到底是用什麼ai model 感覺就不像是Gemini Pro,感覺是弱化版 總而言之建議一個notebook不要丟太多pdf或是 連結 ,承受力有限

    • @YulandySpace
      @YulandySpace หลายเดือนก่อน

      主要還是Gemini不夠強。Google的ideas一直跑在前面,像是transformer、CoT、multimodality,可惜最後商品化後都輸其他家的LLM。

    • @張博文-n6l
      @張博文-n6l หลายเดือนก่อน

      ​@@YulandySpace 感覺是故意的省錢 Gemini Pro ai model 明明排名很前面 因為是免費工具使用量大 ,懷疑根本是用弱的ai model 回答起來像8B model的笨ai 這其實有個矛盾點 懂得東西就不用問他,不懂又怕他唬爛~~

  • @Judy-xn2ry
    @Judy-xn2ry 2 หลายเดือนก่อน

    免費仔的福音~

  • @YulandySpace
    @YulandySpace 2 หลายเดือนก่อน

    AI讀書會入群,請填寫表單 forms.gle/wnTfu31a2f8MSbAE8 AI讀書會資訊 facebook.com/yulandychiu

  • @YulandySpace
    @YulandySpace 2 หลายเดือนก่อน

    AI讀書會入群,請填寫表單 forms.gle/wnTfu31a2f8MSbAE8 AI讀書會資訊 facebook.com/yulandychiu

  • @YulandySpace
    @YulandySpace 2 หลายเดือนก่อน

    AI讀書會入群,請填寫表單 forms.gle/wnTfu31a2f8MSbAE8 AI讀書會資訊 facebook.com/yulandychiu

  • @YulandySpace
    @YulandySpace 2 หลายเดือนก่อน

    AI讀書會入群,請填寫表單 forms.gle/wnTfu31a2f8MSbAE8 AI讀書會資訊 facebook.com/yulandychiu

  • @YulandySpace
    @YulandySpace 2 หลายเดือนก่อน

    AI讀書會入群,請填寫表單 forms.gle/wnTfu31a2f8MSbAE8 AI讀書會資訊 facebook.com/yulandychiu

  • @YulandySpace
    @YulandySpace 2 หลายเดือนก่อน

    AI讀書會入群,請填寫表單 forms.gle/wnTfu31a2f8MSbAE8 AI讀書會資訊 facebook.com/yulandychiu

  • @zacharyy127
    @zacharyy127 2 หลายเดือนก่อน

    可不可以以这么理解,AI加持的HFT能够在人类尚未察觉的情况下识别出某种规律或趋势并做出反应。然而,这也带来了一个问题:在像股票涨跌这样复杂的模型中,AI是否会更容易过拟合,强行发现规律,从而导致交易损失?不知有没有研究表明AI加持的HFT的收益是否有在统计学意义上优于传统算法?

    • @YulandySpace
      @YulandySpace 2 หลายเดือนก่อน

      AI加持的HFT的確可以在極短時間辨識出人類難以察覺的趨勢,最簡單的方法就是利用AI決定事件觸發的threshold。金融市場中,數據複雜、noise多,過度依賴歷史資訊,的確也有可能發現不存在的規律,過度擬合資料,在新數據表現不佳。有學術研究指出,AI驅動的HFT在某些市場條件下,能夠超越傳統演算法,但長期的統計數據其實不易取得,只有大型金融機構像JP Morgan,有可能做深入的統計分析,只不過通常是營業秘密,外人無法使用。或許比較客觀的理解是,AI-based HFT在短期有機會比傳統演算法帶來更好利潤,該優勢取決於數據質量、市場條件、適當的風險管理。

  • @zacharyy127
    @zacharyy127 2 หลายเดือนก่อน

    关于第二步推理者(Reasoners),是说AI真的能够像人类一样理解因果关系吗?当前的ChatGPT用关联性,而非理解背后的因果逻辑,因而时常出错。“推理者” 是要克服这一不足吗?

    • @YulandySpace
      @YulandySpace 2 หลายเดือนก่อน

      要讓AI真的像人類一樣理解因果,當然是很偉大的目標,但是目前還很遙遠。 根據Forbes的報導,Level 2的定義是,可以像具有博士學位教育的人一樣執行基本的問題解決任務,所以不是您說的``像人類一樣理解因果''。報導裡的這種定義的好處是,比較方便利用benchmarks提供較客觀的效能評比。事實上,OpenAI o1的版本也做了相關技術分析,在某些問題上 (GPQA diamond),o1的確可以超過具有博士學位的專家。但這些結果並不意味著 o1 在所有方面都比博士更有能力,只能說該模型更擅長解決``一些''博士應該能解決的問題。OpenAI o1的討論,可參考 th-cam.com/video/K34ejqPB-cQ/w-d-xo.htmlsi=z1ZqO4viHHYh2o-R

    • @YulandySpace
      @YulandySpace 2 หลายเดือนก่อน

      為了實現``具有博士學位教育的人一樣執行基本的問題解決任務'',OpenAI目前是使用思考鏈的方法 (Chain of Thought, CoT) th-cam.com/video/dldo5jDNfJg/w-d-xo.htmlsi=wtilh4YVgf7dHIzm

  • @YulandySpace
    @YulandySpace 3 หลายเดือนก่อน

    AI線上讀書會資訊 forms.gle/wnTfu31a2f8MSbAE8

  • @YulandySpace
    @YulandySpace 3 หลายเดือนก่อน

    AI線上讀書會資訊 forms.gle/wnTfu31a2f8MSbAE8

  • @YulandySpace
    @YulandySpace 3 หลายเดือนก่อน

    AI線上讀書會資訊 forms.gle/wnTfu31a2f8MSbAE8

  • @張博文-n6l
    @張博文-n6l 3 หลายเดือนก่อน

    ChatGPT新模型chatgpt-4o1- 不就是推理特強嗎? 這樣來說其實推理也能用暴力解(沒換模型一樣是transform)

    • @YulandySpace
      @YulandySpace 3 หลายเดือนก่อน

      OpenAI最近推出了o1版本,根據資料顯示,推力能力與4o相比有大幅度的提升。雖然仍是使用LLM模型,但新增加了chain of thought機制,利用時間換取效能。值得一提的是,o1推理能力的大幅提升,僅限於在目前benchmarks上的評估,在實現human-level intelligence/AGI還差距甚遠。以人類為例,隨著年齡增長,通常各項能力也會進步,但是LLM在某些能力的提升,可能會造成其他能力的下降 (e.g., 與4o相比,o1在programming能力提升,但在personal writing 能力下降)。另一個常見的例子是,人類的學習,相較於LLM,需要的樣本、消耗的能量少很多。所以即便o1能力有大幅提升,目前還看不出來LLM有機會實現human-level intelligence/AGI。我的看法是,每一種架構都有其擅長之處,要用一種架構(e.g., LLM)實現human-level intelligence/AGI 不太可能。

    • @張博文-n6l
      @張博文-n6l 3 หลายเดือนก่อน

      了解.謝謝 我也不覺得會變成agi 不過不用到agi也夠取代人類工作了....

  • @YulandySpace
    @YulandySpace 4 หลายเดือนก่อน

    AI讀書會參加資訊 forms.gle/wnTfu31a2f8MSbAE8

  • @YulandySpace
    @YulandySpace 4 หลายเดือนก่อน

    AI讀書會參加資訊 forms.gle/wnTfu31a2f8MSbAE8

  • @YulandySpace
    @YulandySpace 4 หลายเดือนก่อน

    AI讀書會參加資訊 forms.gle/wnTfu31a2f8MSbAE8

  • @YulandySpace
    @YulandySpace 5 หลายเดือนก่อน

    AI讀書會參加資訊 forms.gle/wnTfu31a2f8MSbAE8

  • @YulandySpace
    @YulandySpace 5 หลายเดือนก่อน

    AI讀書會參加資訊 forms.gle/wnTfu31a2f8MSbAE8

  • @YulandySpace
    @YulandySpace 5 หลายเดือนก่อน

    AI讀書會參加資訊 forms.gle/wnTfu31a2f8MSbAE8

  • @YulandySpace
    @YulandySpace 5 หลายเดือนก่อน

    AI讀書會參加資訊 forms.gle/wnTfu31a2f8MSbAE8

  • @YulandySpace
    @YulandySpace 5 หลายเดือนก่อน

    AI讀書會參加資訊 forms.gle/wnTfu31a2f8MSbAE8

  • @Kriss-studios
    @Kriss-studios 5 หลายเดือนก่อน

    Agentic Coding awesome!❤

  • @YulandySpace
    @YulandySpace 6 หลายเดือนก่อน

    7/19 線上讀書會指定影片

  • @YulandySpace
    @YulandySpace 6 หลายเดือนก่อน

    7/19 線上讀書會指定影片

  • @YulandySpace
    @YulandySpace 6 หลายเดือนก่อน

    更正: 2:57 紅字手寫部分應為 X^⊤ y (矩陣X加上轉置符號)

  • @YulandySpace
    @YulandySpace 6 หลายเดือนก่อน

    Page 4: 為了方便在page 5計算 epoch對應的iteration數量,刻意將batch size設定成10。常用的 batch size範圍在 32 ~512,太小的 batch size可能無法充分利用硬體算力,太大的 batch size可能導致記憶體空間不足,減慢計算速度。有些人會根據硬體能力和模型訓練中的表現,將batch size從較小開始逐漸增加。

  • @niauwu
    @niauwu 6 หลายเดือนก่อน

    所以 m=100 SGD,batch_size=1,m~小,梯度向量大,修正幅度大,iteration=m次=多次,用比較少的epoch就可以收斂到接近0的loss。 Mini-batch GD,1<batch_size<=m,m~中,梯度向量中,修正幅度中,iteration=m/batch_size次=中次,用中次的epoch就可以收斂到接近0的loss。 Batch GD,batch_size=m,m~大,梯度向量小,修正幅度小,iteration=1次=少次,要用多次的epoch才可以收斂到接近0的loss。 而不是batch_size越小,loss越小,accuracy越大;batch_size越大,loss越大,accracy越小。 但是我有問題,為甚麼Mini-batch GD是1<batch_size<=m,不是Mini-batch GD,1<batch_size<m,如果Mini-batch GD,1<batch_size<=m,這樣batch_size=m時,是算Mini-batch GD還是Batch GD

    • @YulandySpace
      @YulandySpace 6 หลายเดือนก่อน

      1. 通常我們對超參數的設定和效能影響,只能提供一個guideline (就是影片中我的用語``一般來說'' or ``通常''),不能說在某個設定下,就一定會達到怎麼樣的效果,因為影響實驗結果的因素很多。舉例來說,``SGD… 用比較少的epoch就可以收斂到接近0的loss’’,這也取決於learning rate的使用。在某些情況下,較大的learning rate會造成SGD的參數搜尋跳動太大 (疊代的參數數值會在最佳解附近跳來跳去),反而需要花更多的時間來收斂,甚至有可能會發散 (loss趨近於無限大)。相較之下,因為batch GD比較穩定,較大的learning rate有助於收斂速度。我的建議是,利用程式來調整若干超參數,實際體驗超參數對演算法收斂的影響。 2. Mini-batch GD對應1<batch_size<m,意思是我們將 Mini-batch GD 看成 batch GD和 SGD之間的方法;Mini-batch GD對應1<=batch_size<=m,意思是我們將 Mini-batch GD 看成一個general method,透過m的調正,我們可以在spectrum上選擇趨近batch GD或 SGD的行為模式。因此,影片中的數學表示比較不好,我建議用1<batch_size<m或1<=batch_size<=m的表示方式比較精確。

  • @niauwu
    @niauwu 6 หลายเดือนก่อน

    感謝分享,講的挺好的。 我有幾個問題 1. 第一頁投影片。為甚麼批量梯度下降的英文縮寫不是(batch gradient descent, BGB),小批量梯度下降的英文縮寫不是(mini-batch gradient descent, MBGB) 2. 第二頁投影片。為甚麼是batch_size = m,而不是batch_size = n 3. 第四頁投影片。 線上學習:當有資料隨著時間一直餵進來的時候,要一直做更新。隨機梯度下降就非常適合 請問線上學習是否改成流水線學習,在語意上會更清晰? 線上學習(Online learning) 流水線學習(Pipeline learning / Stream learning) 4. 不知道以下想法是否正確 批量梯度下降是用整個資料集去一次訓練模型更新權重,所以不管訓練幾次模型,每次訓練出來的模型權重都是一樣的。 隨機剃度下降是隨機抽取1個資料去m次訓練模型更新權重,因為是隨機的,所以每次訓練出來的模型權重是不一樣的。 小批量梯度下降是用小批量去m/mini-batch次訓練模型更新權重,在不同的批次下訓練出來的模型權重是不一樣的。而且mini-batch越小訓練速度越慢,但是準確率(Accuracy)越高,mini-batch越大訓練速度越快,但是準確率越低。 還是其實不管哪一種梯度下降,初始化權重都是隨機的,所以不管訓練幾次模型,每次訓練出來的模型權重都是不一樣的。只是相同的梯度下降,最後模型權重會相似。

    • @YulandySpace
      @YulandySpace 6 หลายเดือนก่อน

      1. 學術上,縮寫使用以方便為主,全文統一即可,無對錯之分。隨機梯度下降SGD為大部分書籍、文章會使用的縮寫,BGB和MBGB則不一定會使用。 2. 此為系列主題,請見3.1 影片的符號使用。m是樣本數目(訓練集大小)、n是特徵數目,批量梯度下降使用所有樣本,所以batch_size = m。 3. Correct! 根據我影片裡面的口述解釋,應稱作stream learning比較精準。 4. 影響最後獲得的模型參數因素包含: 參數初始值、損失函數的圖形、隨機種子使用。假設損失函數 (cost function) 有多個區域最小值,即便使用批量梯度下降,在不同的參數初始值,最後的模型參數可能會不一樣。有時候為了確保reproducibility,我們會在程式中把參數初始值、隨機種子設定好,此時即便使用隨機梯度下降,每次也會得到相同的模型參數。不過如果是處理linear/polynomial regression,因為損失函數是convex,上述幾個因素影響不大,只要iterations數目足夠,都會非常接近最佳參數 (應該是你所謂的準確率?) 我的建議是,實作上使用mini-batch GD,可以在收斂速度和穩定性之間達到不錯的平衡。

    • @niauwu
      @niauwu 6 หลายเดือนก่อน

      @@YulandySpace 了解了 1. 全文統一即可,其他人怎麼縮寫,就跟著縮寫,比較統一,大家都知道在講甚麼。 2. 系列主題,特徵數量縮寫n,所以樣本數量縮寫m 3. 果然如此 4. 有多種因素影響,可以固定參數初始值、隨機種子,就算使用隨機梯度下降,每次也會得到相同的參數模型。 我又有幾個問題 1. 為甚麼處理linear/polynomial regression,因為損失函數是convex,上述幾個因素影響不大? 2. batch_size設定多少比較適合?batch_size=1, 2, 4, 8, 16, 32, 64, 128,epoch設定多少比較適合?epoch=1, 2, 3... 不知道以下想法是否正確 batch_size先設定越大越好,只要GPU VRAM裝得下,batch_size越大,iteration會越小,epoch要越多,才會接近最佳參數,監控loss,loss不再下降或反而上升時,就early stop

    • @YulandySpace
      @YulandySpace 6 หลายเดือนก่อน

      1. linear/polynomial regression的損失函是quadratic function (convex function)。Convex function有一個很好的特性,區域最小值就是全域最小值;不管從哪個初始參數值開始,很容易收斂到最佳值(全域最小值)。 2. 常用的 batch size範圍在 32 ~512,太小的 batch size可能無法充分利用硬體算力,太大的 batch size可能導致記憶體空間不足,減慢計算速度。有些人會根據硬體能力和模型訓練中的表現,將batch size從較小開始逐漸增加。關於epoch,可以選擇一個較大的數量,例如100 或 200,並使用early stopping來自動調整。 3. "batch_size先設定越大越好,只要GPU VRAM裝得下" 設定較大的 batch size,可以更有效利用 GPU 的算力。但如果損失函數有多個區域極值 (multimodal function),演算法需要足夠的隨機性幫助模型跳出區域最小值,從而找到全域最小值;過大的 batch size 會降低隨機性,不利於找到模型最佳參數。 "batch_size越大,iteration會越小" Correct,可參考th-cam.com/video/vBg6huGvJTc/w-d-xo.html "監控loss,loss不再下降或反而上升時,就early stop" 這是常見的使用策略,沒問題

  • @YulandySpace
    @YulandySpace 6 หลายเดือนก่อน

    7/3 AI/ML讀書會討論題目: 台灣是否適合發展人形機器人? 歡迎下方留言分享您的經驗、想法。

  • @YulandySpace
    @YulandySpace 6 หลายเดือนก่อน

    7/3 AI/ML讀書會討論題目: (1) GenAI 在未來會不會取代您的工作? (2)為什麼日本在AI技術發展上相對落後? (3) AI是否有機會在解決競賽級數學任務上超越人類? 歡迎下方留言分享您的經驗、想法。

  • @haojiang4882
    @haojiang4882 6 หลายเดือนก่อน

    感謝分享!

  • @陳為方
    @陳為方 7 หลายเดือนก่อน

    recall rate的公式是不是寫錯了

    • @YulandySpace
      @YulandySpace 7 หลายเดือนก่อน

      謝謝更正,應該是TP/(FN+TP)

  • @chenj91041
    @chenj91041 7 หลายเดือนก่อน

    您的台很讚! 非常適合學生補充知識!👍🏻

  • @chengpaklim
    @chengpaklim ปีที่แล้ว

    説的不錯😀