GPTとは何か Transformerの視覚化 | Chapter 5, Deep Learning

แชร์
ฝัง
  • เผยแพร่เมื่อ 29 พ.ย. 2024

ความคิดเห็น • 125

  • @pumochan
    @pumochan 6 หลายเดือนก่อน +143

    7:45 1980年代に大学生の僕はそのアプローチでのAIの勉強をしていました。
    LISPやPrologなどのプログラミング言語を駆使してモデルを構築しようと試みられた時代です。
    当時それらの言語に最適化した専用のコンピュータまで開発されましたが、結局実用的なAIはできなかった。
    その頃既にニューラルネットワークの基礎理論はありましたが主流ではありませんでした。
    昨今のAIの隆盛を見ると、新しい時代が来たことをしみじみと感じます。
    わかりやすい動画での解説ありがとうございます。

    • @fudousanphp
      @fudousanphp 3 หลายเดือนก่อน

      五世代コンピュータと呼ばれるものですね。残念ながらLISP等は一部の分野しか使われずpythonが今やAIの主流言語になりました。時代を感じます

    • @まなーまず
      @まなーまず หลายเดือนก่อน

      それはすごい❤
      Attention機構を用いたMLモデルは企業レベルのデータ収集量が無いと全然,学習結果は収束しないですよね😢
      最近では多層パーセプトロン単体なんかでもデータの量さえあればそれなりの性能を発揮するなんて論文も…
      私は違うと思いますが😂
      “Relating transformers to models and neural representations of the hippocampal formation”😅

  • @yongosen
    @yongosen 6 หลายเดือนก่อน +56

    ここまでわかりやすい動画と解説を日本語で見ることが出来て嬉しい
    日本語訳本当にありがとうございます

  • @sort35b4
    @sort35b4 6 หลายเดือนก่อน +89

    これを見ると全く論理的な思考はしていないのに如何にも正しそうな答えが出てくるのがすごい。
    chatGPTが数学苦手な理由がわかる。

    • @kuniko925
      @kuniko925 6 หลายเดือนก่อน +3

      わりと回答だけは分かってるときの解説はまし
      宿題わからん時に使ってます

    • @Gyuudooon
      @Gyuudooon 6 หลายเดือนก่อน +2

      使ってみた感じ、求値問題がわりと問題あると思いました。でも抽象概念の証明などは論理もあってわかりやすく解説してくれます

    • @こいか-w8c
      @こいか-w8c 6 หลายเดือนก่อน +2

      実は人間の脳も似たようなモノなんや…

    • @sort35b4
      @sort35b4 6 หลายเดือนก่อน +3

      @AkamisoFAKE 使ってみましたがパイソンを駆使して計算してましたね!脅威的です。

  • @nelnia
    @nelnia 6 หลายเดือนก่อน +17

    概念がとてもわかりやすい。CPUよりGPUのような単純大量の計算が得意なチップが
    必要になる理由が理解できました。翻訳ありがとうございます

  • @tsurumy
    @tsurumy 6 หลายเดือนก่อน +36

    「Unembedding matrix」を「掘り出し行列」と訳しているのが、なんとも数学畑な感じがして興味深いです。
    技術畑の人間にとって「embed」は「埋め込み」ではなく「組み込み」のイメージが強いので、原語版を観たときは勝手に「unembedding matrix」を「取り外し行列」と脳内翻訳していました(笑
    原語版からわずかな期間での日本語版作成、本当にお疲れ様です。これからも楽しみにしています!

  • @user-MizumasiGohanKansokusha
    @user-MizumasiGohanKansokusha 6 หลายเดือนก่อน +16

    日本語版早くない!?
    もうできたんか
    マジありがたし!

  • @mtaka84219
    @mtaka84219 6 หลายเดือนก่อน +8

    理解できる限界を遥かに超えてるけど、なんとなく面白い。

  • @ykgood
    @ykgood 6 หลายเดือนก่อน +7

    素晴らしいコンテンツですね。これを翻訳してくた貢献度は爆大

  • @hitsuki_karasuyama
    @hitsuki_karasuyama 6 หลายเดือนก่อน +31

    翻訳ありがてえ

  • @wswsan
    @wswsan 6 หลายเดือนก่อน +8

    オリジナルの方を先に見てたからある程度頭に入りやすかった, 聞き落としてる部分多くてまたさらに理解が深まった

  • @pikarin7401
    @pikarin7401 6 หลายเดือนก่อน +7

    英語の見てても理解半分だったので助かります!

  • @ms-pv2og
    @ms-pv2og 5 หลายเดือนก่อน +1

    わかりやすい説明ありがとうございます!
    トークンの確率分布デコーディングの入力は何ですか?
    質問の仕方がおかしかったり、意味が不明瞭でしたらご指摘願います
    次の3つの可能性を考えました(一般的にあり得る順で書きました、もしかして、どれでもできそうと思っています)
    1 コンテキスト長1000トークンならそれが、アテンションブロック層を経由したすべてのトークン位置の埋め込み
    2 コンテキスト長1000トークンならそれが、アテンションブロック層を経由した最後のトークン位置の埋め込み
    3 アテンションブロック層を経由した予測する位置にあたるトークン位置の埋め込み

  • @u7f8au7fbd
    @u7f8au7fbd 6 หลายเดือนก่อน +2

    素晴らしすぎる; ;わかりやすい資料ほど英語のものが多かったので、この和訳動画は非常にありがたい; ;

  • @shiro_teacher
    @shiro_teacher 6 หลายเดือนก่อน +13

    最高の教材

  • @christinapeko999
    @christinapeko999 22 วันที่ผ่านมา

    完全に有料版レベル。
    いろいろな謎も解けました。
    ありがとうございます😊

  • @青りんご-r6u
    @青りんご-r6u 6 หลายเดือนก่อน +1

    このチャンネルがこの動画を出してくれるのはありがたい

  • @kjerome2588
    @kjerome2588 6 หลายเดือนก่อน +5

    素晴らしくわかりやすい!感動した!

  • @FlawOfEducation
    @FlawOfEducation 6 หลายเดือนก่อน +4

    わかりやすい!翻訳ありがとうございます🤗

  • @徳川慶喜-u6o
    @徳川慶喜-u6o 6 หลายเดือนก่อน +5

    よくこんなの思いつくな、
    発想がすごいと思ってたら
    コメにいる賢者たちのおかげで
    昔から研究されてきた分野なのだと
    知ることができた。
    仕組みも規模もすごすぎる。

  • @幻日莉亜
    @幻日莉亜 6 หลายเดือนก่อน +1

    トランスフォーマーの説明が分かりやすすぎて泣いた

  • @r8v106
    @r8v106 2 หลายเดือนก่อน

    ふんわりとしか理解できないけどこんなのを作り出す人間に感動するよ

  • @yuseikanayama3571
    @yuseikanayama3571 5 หลายเดือนก่อน

    素晴らしすぎる動画です
    ありがとうございます

  • @ms-pv2og
    @ms-pv2og 5 หลายเดือนก่อน

    わかりやすい説明ありがとうございます!
    トークンの確率分布デコーディングの入力は何ですか?
    質問の仕方がおかしかったらご指摘願います
    次の3つの可能性を考えました(一般的にあり得る順で書きました、もしかして、どれでもできそうと思っています)
    1 コンテキスト長1000トークンならそれが、アテンションブロック層を経由したすべてのトークン位置の埋め込み
    2 コンテキスト長1000トークンならそれが、アテンションブロック層を経由した最後のトークン位置の埋め込み
    3 アテンションブロック層を経由した予測する位置にあたるトークン位置の埋め込み

  • @Ran21050
    @Ran21050 6 หลายเดือนก่อน +4

    まじでありがたいです次もたのむ🙏🙏🙏🙏🙏

  • @owata1942
    @owata1942 6 หลายเดือนก่อน +5

    22:21 ソフトマックス関数が量子力学の各エネルギー固有値に粒子が存在する確率を表す関数p_i=exp(-βE_i)/(Σexp(-βE_i) と完全に同じ形なのおもろい

  • @niruru9560
    @niruru9560 6 หลายเดือนก่อน +1

    Attension解説楽しみにしています

  • @ai2012
    @ai2012 6 หลายเดือนก่อน +6

    わかりやすすぎる

  • @XYZ_cycle
    @XYZ_cycle 6 หลายเดือนก่อน +5

    人間が言語を扱う上でどういった処理をしているかを数値化すると例えばこういう表現になるんすね
    この翻訳動画も担当するヒトが何等かのアルゴリズム使って作り上げてると言い換える事もできるとか
    どうしても出来ない場合は近いものに置き換えるとか

  • @yukikotanaka3685
    @yukikotanaka3685 5 หลายเดือนก่อน +3

    15:45 ヒトラーを足すとかいうパワーワードで笑ってしまった

  • @ms-pv2og
    @ms-pv2og 5 หลายเดือนก่อน

    わかりやすい説明ありがとうございます!
    トークンの埋め込みとトークンの確率分布へのデコーディングについて以下の質問させてください
    質問がおかしかったら無視していただいても平気です
    以下の理解でいいでしょうか?
    1 トークンの埋め込み層は、文脈がちがっても同じ埋め込みが作成される?
    その場合、IDはvlookupみたいに検索して返される形式がある?
    または行列の掛け算で埋め込む?
    2 そうではなく、事前学習時に、埋め込み部分も学習しているので、文脈に応じて違う埋め込みになるでいいでしょうか?
    3 エンコーディングとデコーディングの重みは、特に転置すれば同じになるようなものでなく、全然別物である

  • @Arsche
    @Arsche 6 หลายเดือนก่อน +11

    ときに、深い思想を表現してるって思うのは受け手側の勘違いなのかもね

  • @kazuhisasaotome2462
    @kazuhisasaotome2462 6 หลายเดือนก่อน +10

    ありがたい

  • @KI-kr1mu
    @KI-kr1mu 6 หลายเดือนก่อน +1

    世界一わかりやすいです

  • @mash9118
    @mash9118 6 หลายเดือนก่อน +6

    まさか内部でこんな計算をしてたとは…(慈悲)

  • @Ejaau
    @Ejaau 6 หลายเดือนก่อน

    わかりやすい動画をありがとうございます

  • @pamiamin
    @pamiamin 6 หลายเดือนก่อน +3

    素晴らしかった

  • @applepi314root
    @applepi314root 6 หลายเดือนก่อน +51

    温度のパラメータそこに意味があったのか...、

    • @EobardUchihaThawne
      @EobardUchihaThawne 6 หลายเดือนก่อน +2

      it is how random the output is, if i am not wrong they divide last output by temperature

  • @37World
    @37World 6 หลายเดือนก่อน

    神ですね🙏✨🦋ありがとうございます🙇‍♀️🙏🫧

  • @ms-pv2og
    @ms-pv2og 5 หลายเดือนก่อน

    わかりやすい説明ありがとうございます!
    トークナイザーについて以下の質問させてください
    1 文章をトークンに分けてIDを割り振るものをすべてトークナイザーと言える。
    なので、名刺は1、形容詞は2と品詞毎にIDを割り当てるだけのものもトークナイザーと言えるという理解でいいでしょうか?
    2 Unigramなどでは、実質的に頻度が低い単語等は同じトークンIDに割り振られる(つまり同じ埋め込みになる)という理解でいいでしょうか?
      つまり、世の中のトークンナイザーでかっこう、違う単語が同じトークンIDに割り振られるものが存在する

  • @おしの-v8h
    @おしの-v8h 6 หลายเดือนก่อน +6

    ベクトルの向きが同じであるほど、単語の意味に関わってくるのが面白い!
    内積を使って、ベクトルの向きが似ているか判断してるんだね
    王ーX=男ー女
    これをXについて求めると、女王が推測できることとか不思議だ

  • @mizuchin36
    @mizuchin36 6 หลายเดือนก่อน

    興味深いです!

  • @raba-340
    @raba-340 6 หลายเดือนก่อน +2

    これを、考えてないと断じていいかどうかがよく判らない
    脳だって分析したら、そんなの何も考えてないとしか思えない仕組みかもしれない

  • @ariakia-rs2lh
    @ariakia-rs2lh 6 หลายเดือนก่อน +1

    21:30 Unembedding matrix(アンエンべディングマトリックス)を表現行列ってどこかで言ってたのを見たような聞いたような…。忘却の彼方。

  • @shotglass8735
    @shotglass8735 6 หลายเดือนก่อน +2

    数学の部分は分からなかったけど、イメージは掴めたと思う
    つまりChatGPTは文章を生成する仕組みと同じアプローチで質問に答えている訳か

    • @hellohello-kl1cx
      @hellohello-kl1cx 6 หลายเดือนก่อน

      次トークン予測の精度向上だけで様々な自然言語処理タスクが解けるようになったのは凄いですよね

  • @須磨保太郎-s2y
    @須磨保太郎-s2y 14 วันที่ผ่านมา

    16:04 「ドイツ-日本」という地域の差に「スシ」を加えると、「ソーセージ」が得られる。面白い!わかりやすい!
    ベクトルで考えると似た要素同士が近い距離に集まって、要素と要素の関係性が「特徴」として類似のベクトルを作り出す、なるほどー。
    今回は先に国の差を取ってるから、物を入力すれば物が返ってくる。ということは日本の単語を入れればドイツ単語に翻訳されたものが出てくるんだろうな。
    じゃあ「スシ-日本」というご当地グルメを特徴ベクトルとして取れば、国名を入れれば世界の美味しいものが出てくるということか!
    ChatGPTで遊んだけど、連想ゲームが得意だけど正確さを要求するものが不得意だったという実感も、こういうことだったのかと納得。

  • @マツシマケイゴ
    @マツシマケイゴ 6 หลายเดือนก่อน +1

    内積を二つのベクトルがどれくらい揃っているかを表す尺度とすると、内積はベクトルの大きさにも依存するので17:33のような比較には向かないかと思うのですが、実際には正規化など行われているのでしょうか?
    数学には自信がなく、誤っていたらすみません。ベクトルの大きさが意味することがわかると理解できるかもしれませんし、次回も楽しみです!

    • @salade99
      @salade99 3 หลายเดือนก่อน

      内積が「2つのベクトルがどれくらい揃ってるのか」を表すのではなく、内積の公式にもあるように2つのベクトル間の角度(内積の公式で言うcosθ)が「2つのベクトルがどれくらい揃ってるのか」を表すはずです。
      間違ってたらすみません。

  • @sasensui1000
    @sasensui1000 6 หลายเดือนก่อน +3

    素人がアルゴリズムの仕組みを理解するのにはクオリティの高いハウツー
    学習モデルの作成そのものは
    Pythonの基本的ノウハウがあれは
    ライブラリにある学習モデルのインスタンス化一行で済むほどに作成自体は簡単
    パラメーターを弄る必要すらない
    問題は大規模学習するだけのハードとデータが無い 泣笑

  • @rararaiton7741
    @rararaiton7741 5 หลายเดือนก่อน

    AIに携わる人が人がめちゃくちゃ頭いいということだけはよぉーくわかった。

  • @新海-f4k
    @新海-f4k 2 หลายเดือนก่อน +1

    4:20
    ファッションモデルの機械学習モデルのような事を話す場合はGPTは混乱するのだろうか
    いやまあ人間も混乱する気はするが…

  • @donguri356
    @donguri356 6 หลายเดือนก่อน

    QueryとValueを直接比較せずに間にKeyを入れる理由がよくわかりませんでした。つまり softmax(Q 転置K)V を もっと簡単にQ 転置V みたいな感じにしたらうまくゆかないのでしょうか? ド素人の質問ですみません、誰か教えてください。

    • @donguri356
      @donguri356 6 หลายเดือนก่อน

      すみませんQ 転置V だと結果の次元数が変わってしまいますのでsoftmax(Q 転置V)Vとすべきでしょうか?? やっぱり難しそうですね~

  • @テスト-y9j
    @テスト-y9j 6 หลายเดือนก่อน

    わかりやすい。感謝します。

  • @kozkoz1
    @kozkoz1 6 หลายเดือนก่อน +2

    過去のデータから経験的に多かったパターンを抽出するのでは、革新的な発見は難しいような気がします。そこに人間的な知性の価値が残りそうな。

    • @kijobreunig3607
      @kijobreunig3607 6 หลายเดือนก่อน +3

      非常にいい視点だと思います。ご指摘のように、観測データ内で発見できないような新理論は、Transformerからは生まれてこないと考えるのが合理的です。例えばアインシュタインの特殊相対性理論などは観測から構築された理論ではないですよね。
      一方で、観測データは膨大にあるのに理論が完全に構築できていない分野は実はものすごくたくさんあります。
      自然科学の分野では1922のリチャードソンの気象予測から約100年ほどかけて少しずつ気象予測のモデルを開発してきましたが、完璧な予測理論は構築できていません。(天気予報がはずれるのが根拠です)ところが、2017年に生まれたTransformerのモデルが、この伝統的な気象モデルの性能を上回ってしまいました。GraphCastと検索するとその結果が見れると思います。コメント主様が提起することの復唱となりますが、データがあるけど人間が扱えきれていない分野においてTransformerの適用可能性が高い、しかしそうでない分野も同じくらい多く存在するということです。

    • @kozkoz1
      @kozkoz1 6 หลายเดือนก่อน

      数学的カオスとかカタストロフィーのような不連続な現象をTransformerが上手く処理できるか、気になる。

  • @blue_sky1016
    @blue_sky1016 6 หลายเดือนก่อน +4

    これ見てる人、教養のあるレベル高い人ばかりなんだろうなぁ。
    無知なので、この動画の説明にはついていけませんでした😅

    • @blue_sky1016
      @blue_sky1016 6 หลายเดือนก่อน

      @@kzrnm ありがとうございます。議論できるだけの知識を持ち合わせておりません。お恥ずかしい限りです。。

  • @user-bl2zf2mh3g
    @user-bl2zf2mh3g 6 หลายเดือนก่อน +2

    gpt-3のパラメータ数って大体判明したんですか?未知数だと思ってました

    • @hamachi5342
      @hamachi5342 6 หลายเดือนก่อน

      GPT-3はOpenAIがまだオープンだった時代のものなので、大体公開されています。
      パラメータ数がわからないのはGPT4です。
      【訂正】GPT-3.5はパラメータ数は公開されてました。

  • @くも-l1n
    @くも-l1n 6 หลายเดือนก่อน

    神動画

  • @keyting2
    @keyting2 6 หลายเดือนก่อน +1

    次の単語を生成するのにlogitsを参照して変換して使用されているのは分かったけど
    さらに次の単語を生成する際に直前のLogitsは再利用できるのかしら
    それによって計算速度が圧倒的に変わりそうだけど

    • @saeye2073
      @saeye2073 6 หลายเดือนก่อน

      それはできないと思います。1単語生成したら、それを入力列に加えてデコーダを最初の段から再び通して別の確率分布を生成する必要があります。そのとき得られる分布の形状は直前の単語ときのものとは全く異なるものです。

    • @cisnks1862
      @cisnks1862 6 หลายเดือนก่อน +2

      それがビームサーチなんじゃないの?

    • @hatsuyuki3965
      @hatsuyuki3965 6 หลายเดือนก่อน

      Key Value Cacheのことかな?

  • @relocatable_a
    @relocatable_a 2 หลายเดือนก่อน

    23:55 メモ Temperature

  • @kazutoasai2487
    @kazutoasai2487 6 หลายเดือนก่อน +1

    風が吹けば桶屋が儲かるの、まだ未発見のパターン見えるやんけ。

  • @mejiro9506
    @mejiro9506 6 หลายเดือนก่อน

    まってました

  • @user-GottDerMoralUndEthik
    @user-GottDerMoralUndEthik 6 หลายเดือนก่อน +4

    いわゆる天才が、周りに理解されなくなるのは
    たぶん脳内に複数の追加の次元を持っていて、ソレは本人としては当たり前で
    凡人の扱ってる平面に投影しないで喋ると、聞き手は理解できない
    ってことなのではないかと妄想した
    私は仕事中、中学生相手を仮想してコミュニケーションするけど
    わりと大事だったのでは

    • @とっぽ-x8g
      @とっぽ-x8g 6 หลายเดือนก่อน +1

      これは君向けの動画じゃないよ。勝手に被害者ぶるのやめてね

    • @user-GottDerMoralUndEthik
      @user-GottDerMoralUndEthik 6 หลายเดือนก่อน +1

      @@とっぽ-x8g 被害者?誰が誰の被害者?

    • @user-risemara-shitai
      @user-risemara-shitai 6 หลายเดือนก่อน

      @@とっぽ-x8g?天才を殺す凡人とかよく言うやん

  • @ふるのゆうま
    @ふるのゆうま 6 หลายเดือนก่อน

    ソフトマックス関数がカノニカル分布っぽいなーと思ってたら温度が出てきて興奮した

  • @Arsche
    @Arsche 6 หลายเดือนก่อน

    でも、それはそれで、何やら哲学的な意味がありそうな気がする

  • @kanda-japan
    @kanda-japan 6 หลายเดือนก่อน

    フローチャートにしたら脳の意思決定にGPTは近づいているな。

  • @mizuchin36
    @mizuchin36 6 หลายเดือนก่อน

    日本語の解析が難しいのは言葉の含みが深いからなのかなぁ🤔
    文脈によっての意味が他の言語よりも複雑とかなのかな。

    • @gutsnosada
      @gutsnosada 6 หลายเดือนก่อน +3

      日本語がハイコンテクストというのはちゃんとした研究ではあまり支持されていないようです。
      どちらかというと、文末だけで肯定否定がひっくり返るのが厄介そうな気がしますね

  • @kazutoasai2487
    @kazutoasai2487 6 หลายเดือนก่อน +44

    何となくだけど、、、、、これ脳じゃね?

    • @玲高橋-d6v
      @玲高橋-d6v 6 หลายเดือนก่อน +15

      "ニューラル"とある通り、脳の神経伝達を参考にモデル化したものです。脳の研究(マカロックピッツさんなど)を機械学習に導入したらうまく行ったので今みんな使ってるわけですね

    • @RS-303
      @RS-303 2 หลายเดือนก่อน +5

      no

    • @さっし-o5m
      @さっし-o5m 2 หลายเดือนก่อน

      @@RS-303脳だけにってなwwww
      頭冷やしてくる

    • @いあ-u1o5q
      @いあ-u1o5q หลายเดือนก่อน +3

      見抜いてNN機械学習の礎を築いた甘利先生しか勝たん😤
      ノーベル賞選考委員はアジア人差別🤬

    • @ymku-f3i
      @ymku-f3i หลายเดือนก่อน +2

      脳っぽいですね。
      巨大なプログラマブルデバイス作ってリアルタイムで回路をつなぎ変えられる仕組み作って、AIの入力と出力の関係をデバイスの入力と出力が同じになるようにAIが自ら書き換えられるような仕組みを作ったら後は計算不要になるんじゃないですかね。ある分野の処理は回路になってるからもう計算しなくて良い的な?
      脳みたいに回路を繋ぎ変える。重みは電流か電圧か抵抗値か電荷の蓄積量で表現する的な。

  • @MikuHatsune-np4dj
    @MikuHatsune-np4dj 5 หลายเดือนก่อน

    これは本当に「AI」と呼ぶにふさわしいシロモノなのだろうか?

  • @hellohello-kl1cx
    @hellohello-kl1cx 6 หลายเดือนก่อน +2

    当たり前なんだけど、アーキテクチャやトレーニングデータによってそのモデル全体が扱う言語空間がバラバラだから、なんか上手く統合できないかね

  • @kazutoasai2487
    @kazutoasai2487 6 หลายเดือนก่อน

    なんかこれって、言語のニュアンスとか、記憶を思い出す時の直感と同じじゃない?

  • @ぷにぷに-n7n
    @ぷにぷに-n7n 6 หลายเดือนก่อน

    へ〜聞けば聞くほど訳わかんないな
    つまり、ドーナツになぜ穴が空いているかってのと同じ⁉︎

  • @えうかり
    @えうかり 6 หลายเดือนก่อน +1

    おもしれえええええ

  • @電気エンジニアの将来性は
    @電気エンジニアの将来性は 5 วันที่ผ่านมา

    英語のテストでよく出るやつだ

  • @古田真-h7u
    @古田真-h7u 3 หลายเดือนก่อน

    th-cam.com/video/KlZ-QmPteqM/w-d-xo.html 
    説明の視覚化 面白い 自動変換 イステムプロンプト 背景知識 エンジニアの分担
    アテンション 類似 理解

  • @ronrei
    @ronrei 6 หลายเดือนก่อน +2

    こんな複雑な演算の結果が#援○とか投稿させられるインプレゾンビなのか...

  • @Ran21050
    @Ran21050 6 หลายเดือนก่อน +1

    だいすき

  • @バルチックテスラ
    @バルチックテスラ หลายเดือนก่อน

    言語アルゴリズムって事だね。

  • @tnkats16000
    @tnkats16000 6 หลายเดือนก่อน +1

    なるほど全然わからん

  • @きゃろっと-m2s
    @きゃろっと-m2s 6 หลายเดือนก่อน +2

    脳は似たようなことをしているわけか

    • @kazutoasai2487
      @kazutoasai2487 6 หลายเดือนก่อน

      なんかそう思えてきたよね。

  • @Surimi_KNight_San
    @Surimi_KNight_San 6 หลายเดือนก่อน

    じゃあなんで間違ってもちゃんと理解してくれるんだろうか

    • @hellohello-kl1cx
      @hellohello-kl1cx 6 หลายเดือนก่อน

      人が入力するプロンプトを?

    • @はつこ-j9k
      @はつこ-j9k 6 หลายเดือนก่อน +4

      その間違え方にすら大量の前例があるからじゃないの?

  • @風邪引けば名無し-o7q
    @風邪引けば名無し-o7q 6 หลายเดือนก่อน +1

    いいね

  • @peroperoperoquer
    @peroperoperoquer 28 วันที่ผ่านมา

    小学生の読書感想文にやくだつアプリ

  • @ココココア
    @ココココア 6 หลายเดือนก่อน +1

    最初の五分だけだけど超基礎的な知識は淫夢で知ってたの恐ろしすぎる

  • @kiwisq
    @kiwisq 6 หลายเดือนก่อน +1

    直訳しすぎじゃね?

  • @loveHF13
    @loveHF13 6 หลายเดือนก่อน +31

    今日はこれでいいや

    • @kaj694
      @kaj694 6 หลายเดือนก่อน +5

      猛者

    • @shimesabadesu
      @shimesabadesu 6 หลายเดือนก่อน +11

      一番えぐいコメは自ずとコメ欄の底へ沈む。

    • @みかさ-f1h
      @みかさ-f1h 6 หลายเดือนก่อน +5

      @@shimesabadesudeepすぎる

    • @YTP-np8ql
      @YTP-np8ql 6 หลายเดือนก่อน

      パイクリーチャーかわいいよね

    • @xxmeguxx7424
      @xxmeguxx7424 6 หลายเดือนก่อน

      transformerの断面図イイよね

  • @user-xy2cm6id2z
    @user-xy2cm6id2z 6 หลายเดือนก่อน

    神動画