GPT-4o超えのオープンモデル「llama 3.1」を解説&ローカルで使ってみた

แชร์
ฝัง
  • เผยแพร่เมื่อ 5 พ.ย. 2024

ความคิดเห็น • 22

  • @たらロース
    @たらロース 3 หลายเดือนก่อน +16

    単純な性能云々よりも、このレベルのAIをオープンソースにしようという所が一社でもあってよかったなという気持ちです

    • @darmasama
      @darmasama  3 หลายเดือนก่อน +3

      そうですね...これでまた業界が一ついい方に向かってくれそうです。

  • @瑠璃-k2w
    @瑠璃-k2w 3 หลายเดือนก่อน +6

    うぽつです!
    「話長ぇな」と「成功!」にはめちゃくちゃツボりました笑

    • @darmasama
      @darmasama  3 หลายเดือนก่อน +1

      ありがとうございます笑笑

  • @kumapanda100
    @kumapanda100 3 หลายเดือนก่อน +5

    温かい光のくだりで爆笑してしまった

    • @darmasama
      @darmasama  3 หลายเดือนก่อน +1

      面白さに関しては小型モデルの方が上ですね笑笑

  • @h_holon
    @h_holon 3 หลายเดือนก่อน +4

    localで LLMを動かす場合には各LLMにあわせた最適な system promptを設定しないとなかなか性能が出てくれないのがキーポイントですね。
    Llama-3.1については、405B modelの登場よりも、Llama-3.1の出力を他のLLM等の学習に使用してもいい、というライセンス変更のほうが業界へのインパクトは大きいと思います。
    AIの学習として使えるデータが減ってきているという報告がつい先日も出たばかりですが、後発の特に中小や学術系などにとってはとても重要なことですので、このあたりも何かの折に動画にしてくださると嬉しいです。

    • @darmasama
      @darmasama  3 หลายเดือนก่อน +2

      確かに、この条項のおかげでこれから無数の小型高性能モデルが出てくるのかなと思います。
      動画なりブログ記事なりで扱わせていただきます!

  • @qhymn080
    @qhymn080 3 หลายเดือนก่อน +2

    クラウドで使ってみましたで終わらず、ローカルで回しているのに好感が持てました。
    Claude3.5 sonnetが使用感的に現行最強で、それには及ばない印象ですが、LammaのELYZA版とかは結構よかったので、これを下敷きに国内スタートアップが頑張ってくれることを期待です。
    投稿者様は3090×2と逸般なPCですので、ミドルGPU一機で動くGemma2 9BやLamma3.1 8Bの比較なんかしていただけるとありがたいです。

    • @darmasama
      @darmasama  3 หลายเดือนก่อน

      ありがとうございます!
      Gemma 2などの小型モデルはまさにこれから多く取り扱いたい題材です。お待ちいただければ幸いです!

  • @コルティ2463
    @コルティ2463 3 หลายเดือนก่อน +6

    オープンソースなのはありがたいです。早く日本語対応になればいいです。

    • @darmasama
      @darmasama  3 หลายเดือนก่อน +3

      そうですね、日本語対応がやっぱり欲しいです。

  • @nekohige4
    @nekohige4 3 หลายเดือนก่อน +4

    もういつもopenAIよりopenAIしてるよね

    • @darmasama
      @darmasama  3 หลายเดือนก่อน +2

      そろそろ交代の時期なんでしょうか。

  • @kentoo_1
    @kentoo_1 3 หลายเดือนก่อน +1

    40bの量子化、ローカルに入れるにはどのくらいの容量が必要だったんでしょうか?

    • @darmasama
      @darmasama  3 หลายเดือนก่อน +2

      70Bの方ですね!こちらが39GBのサイズとなっていました。

  • @大久保直太朗
    @大久保直太朗 3 หลายเดือนก่อน +2

    新しいLLMが出る度に触ってみるんですが、実際の使用感(複雑なプロンプトを指示通り実行出来るか、出力される文章が自然かなど)がClaudeの足下にも及ばないモデルばっかで、正直時間の無駄だしずっとClaudeだけ触ってGPT-5か3.5 Opusが出るまで待機していいかなって考えるようになってきました
    llama 3.1が日本語日本対応したら違うのかもしれないけど

    • @darmasama
      @darmasama  3 หลายเดือนก่อน +1

      そうですねえ、結局claudeを使えばいいという構図は中々変わりません...

  • @Shota_Amano_
    @Shota_Amano_ 3 หลายเดือนก่อน

    他の方も言及されていますが、生成AIの学習に使っても良いという規約になっているとのことでその辺りの可能性とか伺いたいです。
    一般的なユーザー利用だと引き続きperplexityとかClaudeの方が良さそうに感じてはいます。
    成功!

    • @darmasama
      @darmasama  3 หลายเดือนก่อน +1

      ご質問ありがとうございます!
      かなり多くの組織が開発に着手している小型モデルにおいては、llamaの生成データを用いての大幅な性能向上があるのかなぁと思います。しかし
      それが一般ユーザーを喜ばせるかというと、もう少し時間のかかる話かなと...

  • @to1347
    @to1347 3 หลายเดือนก่อน +1

    もしかしてループもので少しずつ少しずつ変わっているのかも

    • @darmasama
      @darmasama  3 หลายเดือนก่อน +1

      その可能性も気になったんですが6週目くらいで飽きちゃいました笑