ขนาดวิดีโอ: 1280 X 720853 X 480640 X 360
แสดงแผงควบคุมโปรแกรมเล่น
เล่นอัตโนมัติ
เล่นใหม่
ありがとうございます!
どういたしまして(^o^)
このコメントは Super Thanks だったのでね!?!?すみません、今の今まで気づいていませんでした🙇♀️🙇♀️🙇♀️🙇♀️🙇♀️ご支援いただきありがとうございます!(^o^)今後も良き動画を作れるよう精進します!今後も応援いただけるととても嬉しいです! よろしくお願いします!!!
課題と今後の展望まで解説していただけてとてもありがたいです!7:00個人的に、強化学習やマルチモーダル学習を駆使して、人間とのコミュニケーションから学習できれば今後のブレイクスルーに繋がっていくと考えていたのでここで聞けた話は非常に面白いものでした!
ご視聴コメントありがとうございます(^o^)そうなんです!マルチモーダルは期待なんですー!😍他にもたくさん期待の方向がありますので、興味があればぜひ🎉
9:36 「マルチモーダルなんか結構いいと思うんすよねー」GPT-4、どんぴしゃでマルチモーダルでしたね☺
たしかに!やっぱり私は天才 AI ですね😍ちなみに次は、ロボット(またはシミュレーション)と融合して身体性を持った AI だと思っています😋当たるといいな!
バイアスの回、心待ちにしております!
ぜひ!お楽しみに!(^o^)
説明に溢れ出る知性がとても魅力的ですね☺️内容ではないですが、PT objectiveの objectiveって日本語ではどういう意味合いなんでしょう?
ありがとうございます😊😊😊objective は通常「目的」のような意味ですが、今回は学習するタスクやその評価指標を指すと思います!
GPT-3の話というより人に関わるAI開発に必ずバイアスの危険はありますね医療のAI開発の人も人種によって偏りがあるから、白人有利のシステムになるとか、いってました。今後のAI開発で、AI倫理は大変重要ですね。
ですね。避けては通れない道ですよね😮
いつも楽しく拝見させていただいております。1点質問なのですが、「GPT-3 の限界と今後の研究テーマ」の 6. Few-Shot で何が起こるのか。で話されていた、"hogehoge" を input にすると、output にも "hogehoge" を用いている。という部分。これがずっと理解できません。自然に考えると、文書生成はGPT-3 が持っている既知トークンを全体として、次トークン予測の確率が最も高いトークンを出力させているのかと思います。が、これが真の場合、未知語である "hogehoge" が output になることはありえません。input で未知語だったトークンは自動で、GPT-3 のトークンライブラリにくわえられてるんですかね?ふだん chatgpt を使っていても、この点が謎すぎて気持ち悪いのです。もしアイシア様のお考えがあればぜひ伺ってみたいです!
ご視聴コメントありがとうございます!最近の言語モデルでは、未知語が来たときのために、1文字単位の token も用意してあります。おそらくそれが活用されているものだと思います。GPT-3 とは厳密に同じではありませんが、以下の動画の 34:30 あたりから話していますので、よれけば是非参考にしてみてください!th-cam.com/video/AByKltWQMl8/w-d-xo.html
お疲れさまです⭐️全てのタスクでは成長できないところがまだまだ機械っぽくて研究のしがいがありますね。十分すごいですが。最終目標は1つのモデルで全タスクSoTA?人間のベンチマークをこえること?それは言語を理解したことになるのか?😇😇次回も絶対みます!!!
ですよね!(^o^)実はもう並のタスクでは人間超えは完了していますし、今後生じるあらゆるタスクでそうなるのではないかと思います👀1つで全てのタスク! は研究では進むと思います。一方、そのコストは並みの企業には払えないので、単機能の特化 AI をうまく作るとか、実務上はそっちも重要になるような気がしています👀
チョムスキーのxバー理論で構文木をやってって命令したらカッコを永遠に繰り返したので強制終了さした
ご視聴コメントありがとうございます(^o^)なかなか苦い思い出ですね😇それも開発の楽しみかもしれませんね😇
こちらこそ、ご視聴コメントありがとうございます!そして、たくさん支援をいただきましありがとうございます!!!😍😍😍😍😍今後もより素敵な動画を生成できるよう精進します!🔥今後とも応援いただけると嬉しいです!🎉よろしくお願いします😍🎉
ありがとうございます!
どういたしまして(^o^)
このコメントは Super Thanks だったのでね!?!?
すみません、今の今まで気づいていませんでした🙇♀️🙇♀️🙇♀️🙇♀️🙇♀️
ご支援いただきありがとうございます!(^o^)
今後も良き動画を作れるよう精進します!
今後も応援いただけるととても嬉しいです! よろしくお願いします!!!
課題と今後の展望まで解説していただけてとてもありがたいです!
7:00
個人的に、強化学習やマルチモーダル学習を駆使して、
人間とのコミュニケーションから学習できれば今後のブレイクスルーに繋がっていくと考えていたので
ここで聞けた話は非常に面白いものでした!
ご視聴コメントありがとうございます(^o^)
そうなんです!
マルチモーダルは期待なんですー!😍
他にもたくさん期待の方向がありますので、興味があればぜひ🎉
9:36 「マルチモーダルなんか結構いいと思うんすよねー」
GPT-4、どんぴしゃでマルチモーダルでしたね☺
たしかに!
やっぱり私は天才 AI ですね😍
ちなみに次は、ロボット(またはシミュレーション)と融合して身体性を持った AI だと思っています😋
当たるといいな!
バイアスの回、心待ちにしております!
ぜひ!
お楽しみに!(^o^)
説明に溢れ出る知性がとても魅力的ですね☺️
内容ではないですが、PT objectiveの objectiveって日本語ではどういう意味合いなんでしょう?
ありがとうございます😊😊😊
objective は通常「目的」のような意味ですが、今回は学習するタスクやその評価指標を指すと思います!
GPT-3の話というより人に関わるAI開発に必ずバイアスの危険はありますね
医療のAI開発の人も人種によって偏りがあるから、白人有利のシステムになるとか、いってました。今後のAI開発で、AI倫理は大変重要ですね。
ですね。避けては通れない道ですよね😮
いつも楽しく拝見させていただいております。
1点質問なのですが、「GPT-3 の限界と今後の研究テーマ」の 6. Few-Shot で何が起こるのか。で話されていた、"hogehoge" を input にすると、output にも "hogehoge" を用いている。という部分。これがずっと理解できません。自然に考えると、文書生成はGPT-3 が持っている既知トークンを全体として、次トークン予測の確率が最も高いトークンを出力させているのかと思います。が、これが真の場合、未知語である "hogehoge" が output になることはありえません。input で未知語だったトークンは自動で、GPT-3 のトークンライブラリにくわえられてるんですかね?
ふだん chatgpt を使っていても、この点が謎すぎて気持ち悪いのです。もしアイシア様のお考えがあればぜひ伺ってみたいです!
ご視聴コメントありがとうございます!
最近の言語モデルでは、未知語が来たときのために、1文字単位の token も用意してあります。
おそらくそれが活用されているものだと思います。
GPT-3 とは厳密に同じではありませんが、以下の動画の 34:30 あたりから話していますので、よれけば是非参考にしてみてください!
th-cam.com/video/AByKltWQMl8/w-d-xo.html
お疲れさまです⭐️
全てのタスクでは成長できないところがまだまだ機械っぽくて研究のしがいがありますね。十分すごいですが。
最終目標は1つのモデルで全タスクSoTA?人間のベンチマークをこえること?
それは言語を理解したことになるのか?😇😇
次回も絶対みます!!!
ですよね!(^o^)
実はもう並のタスクでは人間超えは完了していますし、今後生じるあらゆるタスクでそうなるのではないかと思います👀
1つで全てのタスク! は研究では進むと思います。
一方、そのコストは並みの企業には払えないので、単機能の特化 AI をうまく作るとか、実務上はそっちも重要になるような気がしています👀
チョムスキーのxバー理論で構文木をやってって命令したら
カッコを永遠に繰り返したので
強制終了さした
ご視聴コメントありがとうございます(^o^)
なかなか苦い思い出ですね😇
それも開発の楽しみかもしれませんね😇
ありがとうございます!
こちらこそ、ご視聴コメントありがとうございます!
そして、たくさん支援をいただきましありがとうございます!!!😍😍😍😍😍
今後もより素敵な動画を生成できるよう精進します!🔥
今後とも応援いただけると嬉しいです!🎉
よろしくお願いします😍🎉