ขนาดวิดีโอ: 1280 X 720853 X 480640 X 360
แสดงแผงควบคุมโปรแกรมเล่น
เล่นอัตโนมัติ
เล่นใหม่
単純な性能云々よりも、このレベルのAIをオープンソースにしようという所が一社でもあってよかったなという気持ちです
そうですね...これでまた業界が一ついい方に向かってくれそうです。
うぽつです!「話長ぇな」と「成功!」にはめちゃくちゃツボりました笑
ありがとうございます笑笑
温かい光のくだりで爆笑してしまった
面白さに関しては小型モデルの方が上ですね笑笑
localで LLMを動かす場合には各LLMにあわせた最適な system promptを設定しないとなかなか性能が出てくれないのがキーポイントですね。Llama-3.1については、405B modelの登場よりも、Llama-3.1の出力を他のLLM等の学習に使用してもいい、というライセンス変更のほうが業界へのインパクトは大きいと思います。AIの学習として使えるデータが減ってきているという報告がつい先日も出たばかりですが、後発の特に中小や学術系などにとってはとても重要なことですので、このあたりも何かの折に動画にしてくださると嬉しいです。
確かに、この条項のおかげでこれから無数の小型高性能モデルが出てくるのかなと思います。動画なりブログ記事なりで扱わせていただきます!
クラウドで使ってみましたで終わらず、ローカルで回しているのに好感が持てました。Claude3.5 sonnetが使用感的に現行最強で、それには及ばない印象ですが、LammaのELYZA版とかは結構よかったので、これを下敷きに国内スタートアップが頑張ってくれることを期待です。投稿者様は3090×2と逸般なPCですので、ミドルGPU一機で動くGemma2 9BやLamma3.1 8Bの比較なんかしていただけるとありがたいです。
ありがとうございます!Gemma 2などの小型モデルはまさにこれから多く取り扱いたい題材です。お待ちいただければ幸いです!
オープンソースなのはありがたいです。早く日本語対応になればいいです。
そうですね、日本語対応がやっぱり欲しいです。
もういつもopenAIよりopenAIしてるよね
そろそろ交代の時期なんでしょうか。
40bの量子化、ローカルに入れるにはどのくらいの容量が必要だったんでしょうか?
70Bの方ですね!こちらが39GBのサイズとなっていました。
新しいLLMが出る度に触ってみるんですが、実際の使用感(複雑なプロンプトを指示通り実行出来るか、出力される文章が自然かなど)がClaudeの足下にも及ばないモデルばっかで、正直時間の無駄だしずっとClaudeだけ触ってGPT-5か3.5 Opusが出るまで待機していいかなって考えるようになってきましたllama 3.1が日本語日本対応したら違うのかもしれないけど
そうですねえ、結局claudeを使えばいいという構図は中々変わりません...
他の方も言及されていますが、生成AIの学習に使っても良いという規約になっているとのことでその辺りの可能性とか伺いたいです。一般的なユーザー利用だと引き続きperplexityとかClaudeの方が良さそうに感じてはいます。成功!
ご質問ありがとうございます!かなり多くの組織が開発に着手している小型モデルにおいては、llamaの生成データを用いての大幅な性能向上があるのかなぁと思います。しかしそれが一般ユーザーを喜ばせるかというと、もう少し時間のかかる話かなと...
もしかしてループもので少しずつ少しずつ変わっているのかも
その可能性も気になったんですが6週目くらいで飽きちゃいました笑
単純な性能云々よりも、このレベルのAIをオープンソースにしようという所が一社でもあってよかったなという気持ちです
そうですね...これでまた業界が一ついい方に向かってくれそうです。
うぽつです!
「話長ぇな」と「成功!」にはめちゃくちゃツボりました笑
ありがとうございます笑笑
温かい光のくだりで爆笑してしまった
面白さに関しては小型モデルの方が上ですね笑笑
localで LLMを動かす場合には各LLMにあわせた最適な system promptを設定しないとなかなか性能が出てくれないのがキーポイントですね。
Llama-3.1については、405B modelの登場よりも、Llama-3.1の出力を他のLLM等の学習に使用してもいい、というライセンス変更のほうが業界へのインパクトは大きいと思います。
AIの学習として使えるデータが減ってきているという報告がつい先日も出たばかりですが、後発の特に中小や学術系などにとってはとても重要なことですので、このあたりも何かの折に動画にしてくださると嬉しいです。
確かに、この条項のおかげでこれから無数の小型高性能モデルが出てくるのかなと思います。
動画なりブログ記事なりで扱わせていただきます!
クラウドで使ってみましたで終わらず、ローカルで回しているのに好感が持てました。
Claude3.5 sonnetが使用感的に現行最強で、それには及ばない印象ですが、LammaのELYZA版とかは結構よかったので、これを下敷きに国内スタートアップが頑張ってくれることを期待です。
投稿者様は3090×2と逸般なPCですので、ミドルGPU一機で動くGemma2 9BやLamma3.1 8Bの比較なんかしていただけるとありがたいです。
ありがとうございます!
Gemma 2などの小型モデルはまさにこれから多く取り扱いたい題材です。お待ちいただければ幸いです!
オープンソースなのはありがたいです。早く日本語対応になればいいです。
そうですね、日本語対応がやっぱり欲しいです。
もういつもopenAIよりopenAIしてるよね
そろそろ交代の時期なんでしょうか。
40bの量子化、ローカルに入れるにはどのくらいの容量が必要だったんでしょうか?
70Bの方ですね!こちらが39GBのサイズとなっていました。
新しいLLMが出る度に触ってみるんですが、実際の使用感(複雑なプロンプトを指示通り実行出来るか、出力される文章が自然かなど)がClaudeの足下にも及ばないモデルばっかで、正直時間の無駄だしずっとClaudeだけ触ってGPT-5か3.5 Opusが出るまで待機していいかなって考えるようになってきました
llama 3.1が日本語日本対応したら違うのかもしれないけど
そうですねえ、結局claudeを使えばいいという構図は中々変わりません...
他の方も言及されていますが、生成AIの学習に使っても良いという規約になっているとのことでその辺りの可能性とか伺いたいです。
一般的なユーザー利用だと引き続きperplexityとかClaudeの方が良さそうに感じてはいます。
成功!
ご質問ありがとうございます!
かなり多くの組織が開発に着手している小型モデルにおいては、llamaの生成データを用いての大幅な性能向上があるのかなぁと思います。しかし
それが一般ユーザーを喜ばせるかというと、もう少し時間のかかる話かなと...
もしかしてループもので少しずつ少しずつ変わっているのかも
その可能性も気になったんですが6週目くらいで飽きちゃいました笑