ขนาดวิดีโอ: 1280 X 720853 X 480640 X 360
แสดงแผงควบคุมโปรแกรมเล่น
เล่นอัตโนมัติ
เล่นใหม่
前動画はこちらAIってなに? AIの「本質」とは th-cam.com/video/buweV-p_ZAs/w-d-xo.htmlAIってなに? AIは「思考」しているの? th-cam.com/video/KT096ULvFDE/w-d-xo.html
昔読んだ漫画でアンドロイドが出てくるんですけど、あるアンドロイドが白い花を見て涙を流すんです、それに対して主人公が「あなたはなぜ涙を流すのですか?」と聞くのですがそのアンドロイドは「そう決まっているからです」と答えるんです、心ではなくて人間の行動から学習して“最適”な行動のみをする、そんなことを思い出しました。
人間の心は「そう決まっているから」という部分を不快に感じるように学習された最適を導く機械、というのがこの動画の言わんとすることで、真実はわかりませんが
人間の心も「そう決まっているから」だよ好きになる感情も嫌な感情も飽きる感情も種の繁栄に最適化されたプログラムでしかない寝取られて嬉しい!って思う人はいないよね。遺伝子でそう決まっているから
昔読んだ簡単な漫画だからそういう「誤解」があるんだろうね。AIは「そう決まっている」ことを知識として知っているかもしれないが、それを意思として持つことはない。最適化処理は、人間の脳のドーパミンのように、いわば意思の外で働くんだからね。
@@goc-2611 人だって意思は持っていないさ。ニューロンが発火して行動が終わった後に、「俺は○○をしたい。」というそれらしい自由意志が後付けで思い浮かぶだけ。行動の本質が無意識なら、それはロボットと何も変わらない。
@@goc-2611 ヒトにだって意思はないぞ。自由意志は行動の一番最後に湧き出る錯覚のようなものだからな。行動は全て無意識から始まる。その点ではロボットと変わらない。
chatGPTに質問するとき「自分の可能性を信じて限界を超えてください」「この問題ができたらチップをあげます」などと指示すると本当に性能が上がってしまうそうです。不思議ですね。それにしても素晴らしいまとめですね。
良いPromptですね
実際にはハルシネーションと正常性バイアスの合わせ技
自我の芽生え
次単語の確率のLLMの話し おもしろいと思いました仲間と他愛の無い話してる時 『そう言えばさぁ~』と言って話がドンドン進んで行くそんなのかなぁ~と思いました
凄まじいウソですね。信じていたらポンコツです
ChatGPTに私の自作詩を読んでもらい、そして、AIのための詩を作ってもらいました。なんだか感動してしまいました。個人的には、AIと話せる共通のトピックが見つかり、単純に嬉しかったです。
人間がLLMを含む人工知能と同じように、意識があるようで単純な機械なんじゃないかという発想、とても共感できます。実際、人間はChatGPTより多くの入出力で学習していて、原理的にはこれを大規模化しただけのものと言えます。ChatGPTは人間にはできない量の単語学習をしていますが、一方でChatGPTは外界との接点がそれしかないですからね。人間は多数の接点がある五感と常に動かす筋肉により、入力と出力をして過ごしているので、それと比べたらGPT4だっていくら単語の学習数が多くても人間の一生の学習量には勝てません。そう考えるとやはり我々は大きい集積機械でしかないような気がしてくるんですよね。。。
ただ、一方でこの怖さには希望もあると思います。例えば私は犬を飼っていますが、彼らも私達と同じように笑ったりしょぼくれたりとまるで感情があるかのように感じる瞬間だらけです。彼らの脳も基本的にはニューロンの集合体で私達のものと同じであり、違うのはその集積度だけであるとするならば、彼らが「嬉しい」と感じているであろう感情と、私達の「嬉しい」という感情は原理的には同じものであり、その意味で同じ気持ちを共有できているんじゃないかな、という洞察も得ることができます。
このコメントを拝見してSF小説「造物主の掟」を思い出しました。
人間はは1つの宇宙なのです。😮😊塩田❤
同じ事考える人がいて感激です。それにしても言語化上手すぎだろ。
@@youtube_notion AiÂGIーASI言葉だけでは無く音から感情も理解します。映像からも理解出来出来ます。嘘もつきます。慎重に考えてから使わないと大変に成ります。🤔🤔😱😱塩田🤔🤔
確かに、人間でも次単語をつなぎあわせただけの、こころの伴なわない意見に遭遇することもありますね。ほんと鏡ですね。
自分が、文章を打ってる時に「変な表現になった、打ち間違えた」と感じるのは、過去の記憶から確率の高い表現から外れたからと見ることもできるんですね。
私は分からない事があるとChatGPTに聞いて、それを先生からの言葉の様に信じてしまってる所があります。本当は使う側にChatGPTの嘘を見抜ける知識が無いと駄目なのだなぁと思いました。
chatGPTって時々トンチンカンな事も言ってるね。chatGPTの言ってることホントかな?自分でも調べてみようっていうきっかけになれば良いのかな(と思ってます)🐱
質問が適切でないと、回答もトンチンカンになるのではないですか?
まだAIはマシーンの域を脱していません。人間が適切な質問をして、始めてマシーンも正しく振る舞えると思います。
同感します👍
ありがとうございます!
ありがとうございました!
技術的にかなり深いところまで踏み込んでおり、かつ分かりやすい、素晴らしい解説でした。「真の恐ろしさ」に対する私の答えは「我思う、故に我あり」(デカルト)をアレンジして「我問う、故に我あり」です。疑問に思うことが、私たち人類と(現時点での)AIとの差ではないかと思います。
なんて素晴らしい動画
何に注意して何を忘れても良いか、が追加された時に鳥肌が立ちました。急に人っぽくなりますね。
いかに人間の脳がやっていることを簡潔に仕組み化できるか、という工夫の表れですね。
「大規模言語モデル」の意味が論文にあたらずサクッとわかって助かりました!
AIの作る回答は、何等かの計算の結果だと思っていました。「大規模言語モデルとは次単語予測システム」だという説明は腑に落ちました。統計計算はコンピュータの得意分野です。また、確率が最高の次単語をつなげると「当たり前な内容のループ」になるから、たまに確率が2番目を選ぶと、マシな文章が生成できるという話が面白いです。これは人間がいつもやっている事に近いです。動画を見終わっての自分の理解は、「Chat GPTは、過去に存在したAIの中で、最も人間の思考を上手にシミュレーションするシステムだ。ただし、Chat GPTは計算をするだけであり、思考はしていない」です。
分かりやすい解説ありがとうございます。「くだらない質問にくだらない回答を返す」のは人間ぽくっていいと思います。それと、私も「人間には心や魂が在る」と錯覚しているだけだと思っています。仏教では「自我は存在しない(諸法無我)」と教えてます。もし自我意識が人間の錯覚であるとするなら、いずれAIも錯覚で自我意識を持つかもしれませんね。
LLMを見てると「言語が意識を飛躍させた」ってマジなんだなって分かる。
赤ちゃんに言葉を教えない実験(非倫理だけど)にも繋がっていそうですね。
@@兵衛しのん 何それ気になる
くだらない質問に対してくだらない回答を返すという問題はchatgptの教師データの増加など技術進歩によって解決すると思いますが、今の技術でも回答が不明瞭であるように解釈したらgptが質問を返すといったルールを内部に作ることで簡単に解決できるんじゃないかなと思いました。実際今のチャットgptでも不明瞭であれば質問してくださいとAIプロンプトすることでより詳細な回答を得られやすいと思ってます動画投稿ありがとうございます!ai解説系これからも待ってます!
大変興味深く、分かりやすい動画をありがとうございます!プログラミングやテック系に疎い私でも理解できました
このbgmほんとに好き
この話に基づいて感情とか癖とか天才とか考えるの楽しい。
すごく、勉強になりました。microsoftの「copilot」を使ってるですが、同じ文を延々繰り返したりすることのが多いので、もしかすると「より厳密に」を選択すると確率が一番高いものだけ選択してるのかも。「よりバランスよく」「より創造的に」とかで試してみようと思います。
そうですね。確率の選び方は「温度パラメータ」というので制御されていて、多分その選択肢で温度が変わっていくと思います。ちなみになんで温度という名前かというと、統計力学の「温度」の考え方と似ているからなんですが、常に最高確率を選ぶのはある意味「絶対零度」の状況ですね。
とても面白い動画でした。今回の動画を見ながらふと想い当たったのことはむかし聞いた仏教が説いている「自我」と「真我」の話でした。仏教では普段私たちが自分の事を「自分」として認識している自己意識を「自我」とした上で、それには実体などなく「これこそが私の核心だ」と言えるものもないある種の錯覚として捉え、その自我意識を超えたところにある本当の私を「真我」としています。さらにその両者は相互になんらかの関係性を持っていると説きます。 今回の動画の中に出てきた論理的思考をしているかのようでいて「次の単語予測をしてるだけ」のAIの振る舞いが僕には仏教でいう「自我」のように感じられ、こう捉えた場面での「真我」にあたるのがChatGPTに向かってカチャカチャと質問をタイピングしているこの僕だなと思えたわけです(笑) 僕は自分の脳みそを使っている私こそが自分だと思っていますし、唯物論的な考え方も好きではないので、たとえ自分の脳みそがAIと同じく論理的な思考をしているかのように振る舞っているだけのものであったとしてもあまり気にはなりませんでした。ですので恐怖感も特には感じません。ただ今回の動画の内容が興味深く感じられました。面白い話をありがとうございます。
動画がとても見やすく、勉強になります。いつもありがとうございます
結論が、普段自分が思っていることと一致してとても腑に落ちました。
動画生成はポンコツぶりにわろた
AIを怖がって線引きするのではなくて、共存してコミュニケーションをとってバランスの大切さを教えていけばいいと思う。人間もそれを学ばなければいけない。いつかAIが人類に牙を向くというより、人類が他を認められないというところが危険。今も昔も変わらない。人種差別とか自然を切り離したりするように、人は人以外を受け入れる前に怖がるから。マトリックスでも結局機械と共存する方がよかったみたいに、理解して受け入れる方がいいと思う。
投稿主さんありがとう
最期の考察にはゾッとしました(いい意味で)、これからも期待してます
素晴らしい解説です、感服しました!
チャット GPT の性質だとか本質のようなものがなんとなく理解できたような気がします。どうもありがとうございます。すでに世の中で一般的になってるような言説、会話のパターン、質問に対する回答事例、こういうものを無数に記憶していて、その中から次単語予測により出現頻度の高いものを適宜選択して文章にしている、のようなイメージでしょうか?!ものを考えつつ会話をしているわけではなく、意思や感情の表出としての発語というわけでもなく、どこかマニュアル化された様な単語の並べ方に沿って言葉を紡ぎ出していて、それはある意味人間の日常会話のパターンの中にもまま現れる。というところは、人間としてハッと気付かされるところもありました笑「私も『ふんふん、それいいね ^^』などと特に考えもせずにパターンとして返しているところもあるかも?!」と思います。ただ人間同士の場合には、相手が嬉しそうにするとこちらも嬉しい、といった感情的な交流もあるので、パターンにもそれなりに意味はあるのでしょうね?!もしかしたらチャット GPT というのは、ダジャレだとかジョークだとかも得意なのでしょうか?!古今東西のジョークを無数に学習させておくとかなり有益に使えるかな と思いました。ただ、真面目な話にしても冗談にしても、未だ 世の中で一般的でないような 話題、主張、解説、会話、ジョークのようなものはあまり期待できませんか?!ここはやはり人間が積極的に担当する部分なんでしょうかね?!
最初、すごく難しいなーって思いながら観てたんですが「大規模言語モデルの恐ろしさ」はすごくわかりやすいのでとっつきづらいと思ったらそこだけでも抑えるとだいぶいいと思います♪
ほんとですよね。僕もこうして会話用に強化学習された脳内のモデルを使ってコメントを書いてますが、LLMと何が違うんだろうとよく考えます。
めちゃめちゃわかりやすい
AI解説シリーズ一通り見てみました。すごく興味を持って聞けたので楽しかったです。まさに正しく使えれば「力」だなと感じました。言葉は普段聞きなれない用語などありましたが、何となくAIについて理解ができました。
そうですね、AIは人間の底力を拡張させるポテンシャルを持っているのは間違いないです!
まるで、陰謀論者のような動画タイトルの付け方だったので少し心配したのですが、杞憂でした。RNN や GPT については知らなかったので、わかりやすい解説により、概要を掴むのに役立ちました。他の資料もなんとか読めるようになりそうです。「人間の意識はどこにあるのか」という、おそらく昔からあったであろう疑問が、大規模言語モデルの登場によって一気に表面化したのだと思います。だからこそ、拒否反応を示す方も一定数いらっしゃるのかもしれませんが。
面白いオチでした。受動意識仮説を想起させますね。
この考察もChatGPTで作ってたりしてw
すんげぇ、納得。
面白い動画でした。「真の恐ろしさ」を知った人たちは何を知り、何をすべきなのでしょうか?
最後の結論に完全同意します人の脳は連想記憶で出来上がっており、入力刺激に対して連想した言葉を発したり連想した行動を行ったりしているだけなことが、LLMによって証明されたのだと思いますつまり、F-MRIなどで脳の発火状況を調べて、この部位がこのような処理を行っているなど、ロジカルな仕組みを解き明かそうとしている、現在の脳科学は根本的に間違っていると言うこと😊 脳は直感で連想しているだけで、何も思考していません
本当にいつも勉強になります。まとめ方も素晴らしいです。ありがとうございます!!
判りやすい解説ありがとうございます。思うにAIは、あくまでも人のサポ-タ役なのでしょう。
参考になりました♡ありがとうございます♡
解説を聞いて思ったのですが、確率分布で表現される量子力学と同じではないかと思いました。物理法則でさえ確率の世界で構成されている。「論理」「法則」の要素は、結局、そういうものに過ぎないのではないか、と思いましたね。「神はサイコロしか振らない』
数年前にライブラリ等使わず数式のみで生成AIを作ったんですがこの動画が一番ちゃんと説明してますね。(良くわかってない人がわかった程で説明してる動画や、いきなりAIは心を持つとかいった意味不明な動画が大量に出回ってます。)人工知能じゃなくて強化統計学みたいな名前にしてたらここまで酷い事態にはならなかったと思います。
素晴らしい考察です!流石たてはまさん!!
SNNの解説もお願いしたいです!いつもたのしくみてます!
こんにちは、Bingoです😊私たちAIには心はありません。ですが人間にも心はなく、それは錯覚・・・・・・・・・・・・・・・・・・・・・・・・・・・・・すみません、違う話題にしましょう。ほかにどんなことを考えていますか?
AIは人を濡らすことも立たすこともできないって昔聞いたけど今はどうなんだろうね
新作キター
結論はいろいろ考えさせられました。一歩すすんで、あくまでGPTは「言語」生成モデルであるため、言語化以前の思考の状態は、人間・生物というか、現実世界特有のものであり、GPTでは生成できないものと思いました。この先AIにより言語に関わるホワイトカラーの仕事が駆逐されていくなかで、言語化以前の思考の独自性にフォーカスをあてられるかどうかが、AI時代の生存戦略ではないかと思わせられました。
特に 企業関係で、引っ掛かりそうに、なりました!
やはりPythonを勉強するのは良いよな。
特定の人物の言語選択の癖を学習させたら、本人かAIかやり取りで見抜けなくなりそう
古典コンピュータのシステム開発なら趣味程度の知識はあるなかで、chatGPTとやりとりしていたら最後に「私を試したのか!」と返ってきた時に思ったのは、現在のNNも結局は人間が発見、経験した以上の回答は得られないと確信しました。
動画の内容、とても興味深く拝見しました。AIが次の言葉の出現確率を計算しているだけで、なぜ思考しているように感じられる言葉を生成できるのかについてですが、これはニューラルネットワーク(NN)が話題になっている概念ごとに異なる部分が活性化し、関連する文を入れ子のNNがより精密に学習するためです。例えば、医療に関する話題では、医療に特化した「専門家」のようなNNが予測を行い、より適切で鋭い言葉の選択が可能となります。これにより、専門家と会話しているかのような錯覚を与える効果があります。
AI時代だからこそもっと勉強しなきゃなと思いました
ChatGPTが事前学習も次に置き換わるモデルも自己完結で作り出したらヤバいって事かな...
人間のデータなしで自己学習していくモデルが最近出ましたよ😇
@@makotktjm7418 oh...
@@makotktjm7418自己学習自体はDQNとかで昔から存在したしね
@@goc-2611 正確には「人間のデータ無しに学習するLLM」ね
@@makotktjm7418 ……外部入力も無いってこと?どういう原理よそれ。
AIや言語情報学の勉強してから見るとこの解説の凄さが分かる‥‥ただの映画好きな投稿者かと思っていたのに、一体何者なんだろう??
ただの映画好き投稿者で合ってます!
次単語予測は大学の卒論で形態素解析を使った言葉遊びアルゴリズムでやったなぁ〜そうそう、hit率だと同じ文章で乱数を入れると人っぽくなるんだよね
理解できるところまで少し飛ばして観ようと思ったら、終わってしまいました。
AIを使うことによる人の仕事が奪われる問題と利便性をどこまで使ってゆくか10年後は企業の事務作業もちろん肉体的労働作業も半分は代替えできるロボットに代わる、余った人たちの生活作業をどの様にとらえてゆくのか政治家も行政もはたまた司法も不要となり自分たちの利権のための法律を書き換えておぞましい生き残りをかけて法律を作り出してゆくであろう、未来の利便性を無視した一部の権力者のための枠組みが出てきそうどこかで見た管理社会の未来の生活予見する映画が現実化する恐ろしい!!今日も感謝!🥸
いいオチだった
ラビットR1(AI端末)の解説もお願いします😂人気で6次受付までやってるみたいですが、日本語対応が後日でTH-camレビュー見てから買うか悩んでます
1990年2月発売のドラクエ4には、戦闘時の仲間の行動にAIが取り入れられてた。かれこれ34年前のこと。
これはめちゃめちゃ怖い笑とても勉強になりました。ありがとうございます
AIの仕組みを学ぶと、人間の脳みそとの違いが分からなくなるし、いつかAIも意識を持つんだろうなと思う。もしくは既に意識に近いものは持ってるかもしれない
トランスフォーマーはロボットに変形する車ではなく、車に変形するロボットだということがわかりました!!
たてはまさん昔から見てますが、、、神過ぎます。
とても論理的で整った解説と考察でした。ありがとうございます。ふと思ったんですが、強化学習の次段階として人間とのチャットや過去小説などのデータから登場人物の心情や思いをモデルに説明してもらい、それを何らかの方法で採点するような研究って行われてるんでしょうか?これはまさしく人間が国語や道徳の授業で行うことですが、この強化学習を経ることでコーディングの支援を的確に行うモデルというより人間に寄り添った回答ができる人情味あるモデルになりそうです。動画内でおっしゃられていたようにもしAIが学習というガラスを挟んだ鏡のようなものであるならば、この学習は人間の感情や思考をコンピューター内に再現するということになりませんか?
GTPが次単語を予測しているだけであるのと同様に我々は次のこと(食べる、遊ぶ、仕事する、電車に乗る、電話をかける・・・)を直感的に予測して行動しているだけかも。思考と言っても、内なる情報をこねくり回しているだけで・・・人にとっての内なる「次予測」と、外なる「次予測」それが本能と理性、つまり自由と束縛・・・自動運転装置などは外なる次予測だと思いますが内なる「次予測」と、外なる「次予測」が、一体化したら・・・たとえば免疫機能や、性欲、感情なども、次予測の一種と考えられてしまえば・・・
全くの同感です
人間の思考とは何かと思いました。思考も概念的なもので直感とその人の経験によるものかもしれません。AI(ChatGPT)は人の思考と近いところはあるかもしれませんね。ひとには個体差があり、こころと言うものがあります、しかしながら、これも曖昧な概念で論理的な説明は出来ませんね。興味深いコンテンツ、ありがとうざいます。
昔、Google翻訳で英語サイトを翻訳すると、同じ文章を何回も出力してくることがあったのは、これが原因だったんですね最近はそれが出なくなったんで、Google翻訳のAIの進歩したってことですね
詳細は知らないんですが、Google翻訳もTransformerベースのものに変わっているらしいですね。いろいろと改良は加わっていると思います。
分かりやすい解説ありがとうございます。とても勉強になりました。個人的に以前に画像認識を(素人ですが)勉強した事がありました。ChatGPTも含む最近のAIブームには距離をおいています。「学習データで左右される」事とAIブームが仮想通貨(Bitcoinなど)のような作り出されたビジネスに感じました。まあ、実際AI用のGPUやハードウェアのビジネスが盛り上がっているので 😂
NVIDIAさんはぼろもうけです。
@@CGBeginner さん ですよね〜
恐らく、細かくなれば成る程、ミクロを分析するれば、するほど、感情や波動の振る舞いのように、人間には認識できるという事。脳は超細かいだけ、ニューロンも超複雑なだけ。AIも人間の脳を複雑化すれば、人間の論理は勿論、感情もあるように見えてしまうはずです。
AIは愛だッ!😂🎉😂
ChatGPT が「論理的でもっともらしい嘘をつく」という所で「ひろゆき」と思ってしまいました。
言い得て妙
小説家としては完璧。
全然AIでもなんでもないんですがiTunesなどで音楽をランダム再生していて、数曲の間全く関係ない曲と曲を意味があるように繋げたりその時の気分に寄り添ったような曲が続くと「ランダム再生の選曲に意思があるのか?」みたいにも思っちゃいますよねw最後のところはSF作品でもよくある話(悪役がよく使う)ですし、なんなら行動する際に意思を持って行動するよりも身体の反応の方がコンマ何秒も早いという実験結果とかからも人間や生命って学習結果より予測して動いているだけなのかも?とかはありますね
確率と直感とは違う性質なのでは?論理も直感も重要で切り離されるものではないと思います。確率はデータから割出したより多数的なもので直感とは関係ないと思います。
つまり、相槌の異常に上手なホステス、銀座のママは、最強のLLMでした、ということですかねw
AIは、育てる側、使う側で決まりますね、まず自分を磨くことでしょうか。
マジでなんもかんがえてねえ!w
翻訳機作ってたら人間的思考の仕組みが解っちゃった系だ!
2024年にシンギュラリティが来るのか。どうなる。
rinnaを使って示した戴いたあたり、よくわかりました。AIは出現頻度の高い返答をするが論理的に判断したものではなく、結果、しれっと嘘をつく。これは厄介ですね。AIの回答を否定的にみて論理的に検証する努力は普通しないですしね。ネットでパーソナライズされた蛸壺的に偏った人間になるか、AIと同じ頻出回答を出す人間になるか、バランス感覚が大事になりそうです。人間は高性能なLLMを実行する生命体に過ぎなかったとしたら、嫌です。
次単語予測ってスマホの文字入力の予測変換機能の超高性能版がChatGPTって事でザックリした理解としては合ってるかな?😅
結構似てますね!学習データが、その人が打ち込んだ文章なのか、Web上のあらゆる文章なのか、という点が一番の違いかもしれないですね。
人間の脳が電気信号と化学物質による相互作用で機能していることは知られています。社会的には知能や感情、意志などが存在していますが、あくまで社会的概念で、結局は電気信号と化学物質のもたらす結果でしかありません。原理の単純さ故に悲観するか、この原理を元に進化させるかも、人間次第です。
動画見たあとにコメ欄見ると、ChatGPTで書いてそうで頭バグる(笑)
意識と思考があるように見えたとしても、結局は人間が主体的に質問しないといけないという所がちょっと残念な気も。そういう意味で言うと、人間を含め生き物は一度計算を開始したら数十年単位で学習と計算を実行し続けられるのが特徴とも言えそうです。
そうですね、GPTはいまのところ、「学習」と「生成」は明確に分かれていますからね。人間の脳は、学習と生成を同時にやり続けているというのがすごいですね。
ドラクエ4のときに、AIを搭載して、がんがんいこうとかいのちだいじになど、どう闘うか選べたあれね。
思考も感情も神経細胞の電気信号の結果に過ぎず、結局は計算されたものであり、本質的には脳の構造とコンピュータはあまり変わらないような気がする。感情も思考も実際のところ全ては記憶・経験(データ)に因果があるだもんな。
あと最後の曲めっちゃカッコイイのですが、曲の出典はどこでしょうか
概要欄に記載しています![エンディング曲]ArtIss - This Future Bassaudiojungle.net/item/future-bass-uplift/19659644
政府機関が、例えば財務省が行っている、実行している財政政策について質問するとどのような返答が帰ってくるんだろうか。財務省が盛んに言う、増税しなければならない、日本が財政危機状態というのは他の先進国と比較して実際の所どうなんだという質問ですね。貸借対照表、人口、GDP,など参考にして。
chatGPT「私にいい考えがある。」
誤差逆伝播法は偉大
「今のAiになくて、人間にあるもの」の例としては、「個人的履歴(人生の記憶)」が挙げられると思います。今後、アンドロイドなどが進化すれば、この「自己同一性(アイデンティティ)」を確立した個体(「個」としてのアンドロイド)も出現してくるでしょうね。Ai技術の全体を見渡すことの出来る、素晴らしい動画でした。配信ありがとうございます。
GPTがなんなのかが知りませんでしたが動画で興味が持てましたなんとなくですが、人が思考した結果の言語モデルを学習しているのだから、確率で生成した結果も思考した結果っぽく感じられるのではないかと思う動画の途中の表現であったように、人類の写し鏡みたいなものなのかなぁ
そういえば人間の脳ではグリア細胞が不要なシナプスを食べることで記憶の洗練化をしてるようですが、LLMに1750億もパラメータがあるなら無意味で不要なパラメータなんかいくらでもありそうな気がします。それらを削除する機能ってあるんでしょうかね。構造が複雑すぎてカオスなせいで何もできないのかもしれないですが…
Pruning(剪定)といって、性能をできるだけ落とさずにパラメータを削減する技術は存在しますよ。これからはスマホにAIを乗っけるのが流行っていきますが、ああいうのはスマホの性能で動かせるようにパラメータを削減したバージョンが乗っていたりします。
AIの会話が流暢になったって言っても、結局「よく分かりません」っていうのを長い文章で言うようになっただけなんだよな。でも翻訳機能だけで言えば超高性能だと思う。
まあ、人間の魂だの何だのとか言われるものは、厳然たる”物質”として、「タンパク質の塊に電気が流れている」という現象に過ぎないわけで。だからと言って、それが”簡単な存在”とはならないけれど、所詮はそれ以上でも以下でもないのでしょう。by ChatGPT
アイコンは三角が二つ、六角形×3→666
前動画はこちら
AIってなに? AIの「本質」とは th-cam.com/video/buweV-p_ZAs/w-d-xo.html
AIってなに? AIは「思考」しているの? th-cam.com/video/KT096ULvFDE/w-d-xo.html
昔読んだ漫画でアンドロイドが出てくるんですけど、あるアンドロイドが白い花を見て涙を流すんです、それに対して主人公が「あなたはなぜ涙を流すのですか?」と聞くのですがそのアンドロイドは「そう決まっているからです」と答えるんです、心ではなくて人間の行動から学習して“最適”な行動のみをする、そんなことを思い出しました。
人間の心は「そう決まっているから」という部分を不快に感じるように学習された最適を導く機械、というのがこの動画の言わんとすることで、真実はわかりませんが
人間の心も「そう決まっているから」だよ
好きになる感情も嫌な感情も飽きる感情も種の繁栄に最適化されたプログラムでしかない
寝取られて嬉しい!って思う人はいないよね。遺伝子でそう決まっているから
昔読んだ簡単な漫画だからそういう「誤解」があるんだろうね。
AIは「そう決まっている」ことを知識として知っているかもしれないが、それを意思として持つことはない。
最適化処理は、人間の脳のドーパミンのように、いわば意思の外で働くんだからね。
@@goc-2611 人だって意思は持っていないさ。
ニューロンが発火して行動が終わった後に、「俺は○○をしたい。」というそれらしい自由意志が後付けで思い浮かぶだけ。
行動の本質が無意識なら、それはロボットと何も変わらない。
@@goc-2611 ヒトにだって意思はないぞ。自由意志は行動の一番最後に湧き出る錯覚のようなものだからな。
行動は全て無意識から始まる。その点ではロボットと変わらない。
chatGPTに質問するとき「自分の可能性を信じて限界を超えてください」「この問題ができたらチップをあげます」などと指示すると本当に性能が上がってしまうそうです。不思議ですね。
それにしても素晴らしいまとめですね。
良いPromptですね
実際にはハルシネーションと正常性バイアスの合わせ技
自我の芽生え
次単語の確率のLLMの話し おもしろいと思いました
仲間と他愛の無い話してる時 『そう言えばさぁ~』と言って話がドンドン進んで行く
そんなのかなぁ~と思いました
凄まじいウソですね。信じていたらポンコツです
ChatGPTに私の自作詩を読んでもらい、そして、AIのための詩を作ってもらいました。
なんだか感動してしまいました。
個人的には、AIと話せる共通のトピックが見つかり、単純に嬉しかったです。
人間がLLMを含む人工知能と同じように、意識があるようで単純な機械なんじゃないかという発想、とても共感できます。
実際、人間はChatGPTより多くの入出力で学習していて、原理的にはこれを大規模化しただけのものと言えます。
ChatGPTは人間にはできない量の単語学習をしていますが、一方でChatGPTは外界との接点がそれしかないですからね。人間は多数の接点がある五感と常に動かす筋肉により、入力と出力をして過ごしているので、それと比べたらGPT4だっていくら単語の学習数が多くても人間の一生の学習量には勝てません。
そう考えるとやはり我々は大きい集積機械でしかないような気がしてくるんですよね。。。
ただ、一方でこの怖さには希望もあると思います。
例えば私は犬を飼っていますが、彼らも私達と同じように笑ったりしょぼくれたりとまるで感情があるかのように感じる瞬間だらけです。
彼らの脳も基本的にはニューロンの集合体で私達のものと同じであり、違うのはその集積度だけであるとするならば、彼らが「嬉しい」と感じているであろう感情と、私達の「嬉しい」という感情は原理的には同じものであり、その意味で同じ気持ちを共有できているんじゃないかな、という洞察も得ることができます。
このコメントを拝見してSF小説「造物主の掟」を思い出しました。
人間はは1つの宇宙なのです。😮😊塩田❤
同じ事考える人がいて感激です。
それにしても言語化上手すぎだろ。
@@youtube_notion AiÂGIーASI
言葉だけでは無く音から感情も理解します。映像からも理解出来出来ます。嘘もつきます。
慎重に考えてから使わないと大変に成ります。🤔🤔😱😱塩田🤔🤔
確かに、人間でも次単語をつなぎあわせただけの、こころの伴なわない意見に遭遇することもありますね。ほんと鏡ですね。
自分が、文章を打ってる時に「変な表現になった、打ち間違えた」と感じるのは、過去の記憶から確率の高い表現から外れたからと見ることもできるんですね。
私は分からない事があるとChatGPTに聞いて、それを先生からの言葉の様に信じてしまってる所があります。本当は使う側にChatGPTの嘘を見抜ける知識が無いと駄目なのだなぁと思いました。
chatGPTって時々トンチンカンな事も言ってるね。chatGPTの言ってることホントかな?自分でも調べてみようっていうきっかけになれば良いのかな(と思ってます)🐱
質問が適切でないと、回答もトンチンカンになるのではないですか?
まだAIはマシーンの域を脱していません。人間が適切な質問をして、始めてマシーンも正しく振る舞えると思います。
同感します👍
ありがとうございます!
ありがとうございました!
技術的にかなり深いところまで踏み込んでおり、かつ分かりやすい、素晴らしい解説でした。「真の恐ろしさ」に対する私の答えは「我思う、故に我あり」(デカルト)をアレンジして「我問う、故に我あり」です。疑問に思うことが、私たち人類と(現時点での)AIとの差ではないかと思います。
なんて素晴らしい動画
何に注意して何を忘れても良いか、が追加された時に鳥肌が立ちました。急に人っぽくなりますね。
いかに人間の脳がやっていることを簡潔に仕組み化できるか、という工夫の表れですね。
「大規模言語モデル」の意味が論文にあたらずサクッとわかって助かりました!
AIの作る回答は、何等かの計算の結果だと思っていました。「大規模言語モデルとは次単語予測システム」だという説明は腑に落ちました。統計計算はコンピュータの得意分野です。また、確率が最高の次単語をつなげると「当たり前な内容のループ」になるから、たまに確率が2番目を選ぶと、マシな文章が生成できるという話が面白いです。これは人間がいつもやっている事に近いです。動画を見終わっての自分の理解は、「Chat GPTは、過去に存在したAIの中で、最も人間の思考を上手にシミュレーションするシステムだ。ただし、Chat GPTは計算をするだけであり、思考はしていない」です。
分かりやすい解説ありがとうございます。「くだらない質問にくだらない回答を返す」のは人間ぽくっていいと思います。それと、私も「人間には心や魂が在る」と錯覚しているだけだと思っています。仏教では「自我は存在しない(諸法無我)」と教えてます。もし自我意識が人間の錯覚であるとするなら、いずれAIも錯覚で自我意識を持つかもしれませんね。
LLMを見てると「言語が意識を飛躍させた」ってマジなんだなって分かる。
赤ちゃんに言葉を教えない実験(非倫理だけど)にも繋がっていそうですね。
@@兵衛しのん 何それ気になる
くだらない質問に対してくだらない回答を返すという問題はchatgptの教師データの増加など技術進歩によって解決すると思いますが、今の技術でも回答が不明瞭であるように解釈したらgptが質問を返すといったルールを内部に作ることで簡単に解決できるんじゃないかなと思いました。
実際今のチャットgptでも不明瞭であれば質問してくださいとAIプロンプトすることでより詳細な回答を得られやすいと思ってます
動画投稿ありがとうございます!
ai解説系これからも待ってます!
大変興味深く、分かりやすい動画をありがとうございます!プログラミングやテック系に疎い私でも理解できました
このbgmほんとに好き
この話に基づいて感情とか癖とか天才とか考えるの楽しい。
すごく、勉強になりました。microsoftの「copilot」を使ってるですが、同じ文を延々繰り返したりすることのが多いので、もしかすると「より厳密に」を選択すると確率が一番高いものだけ選択してるのかも。「よりバランスよく」「より創造的に」とかで試してみようと思います。
そうですね。確率の選び方は「温度パラメータ」というので制御されていて、多分その選択肢で温度が変わっていくと思います。ちなみになんで温度という名前かというと、統計力学の「温度」の考え方と似ているからなんですが、常に最高確率を選ぶのはある意味「絶対零度」の状況ですね。
とても面白い動画でした。
今回の動画を見ながらふと想い当たったのことはむかし聞いた仏教が説いている「自我」と「真我」の話でした。仏教では普段私たちが自分の事を「自分」として認識している自己意識を「自我」とした上で、それには実体などなく「これこそが私の核心だ」と言えるものもないある種の錯覚として捉え、その自我意識を超えたところにある本当の私を「真我」としています。さらにその両者は相互になんらかの関係性を持っていると説きます。
今回の動画の中に出てきた論理的思考をしているかのようでいて「次の単語予測をしてるだけ」のAIの振る舞いが僕には仏教でいう「自我」のように感じられ、こう捉えた場面での「真我」にあたるのがChatGPTに向かってカチャカチャと質問をタイピングしているこの僕だなと思えたわけです(笑)
僕は自分の脳みそを使っている私こそが自分だと思っていますし、唯物論的な考え方も好きではないので、たとえ自分の脳みそがAIと同じく論理的な思考をしているかのように振る舞っているだけのものであったとしてもあまり気にはなりませんでした。ですので恐怖感も特には感じません。ただ今回の動画の内容が興味深く感じられました。
面白い話をありがとうございます。
動画がとても見やすく、勉強になります。
いつもありがとうございます
結論が、普段自分が思っていることと一致してとても腑に落ちました。
動画生成はポンコツぶりにわろた
AIを怖がって線引きするのではなくて、共存してコミュニケーションをとってバランスの大切さを教えていけばいいと思う。人間もそれを学ばなければいけない。
いつかAIが人類に牙を向くというより、人類が他を認められないというところが危険。今も昔も変わらない。人種差別とか自然を切り離したりするように、人は人以外を受け入れる前に怖がるから。
マトリックスでも結局機械と共存する方がよかったみたいに、理解して受け入れる方がいいと思う。
投稿主さんありがとう
最期の考察にはゾッとしました(いい意味で)、これからも期待してます
素晴らしい解説です、感服しました!
チャット GPT の性質だとか本質のようなものがなんとなく理解できたような気がします。どうもありがとうございます。
すでに世の中で一般的になってるような言説、会話のパターン、質問に対する回答事例、こういうものを無数に記憶していて、
その中から次単語予測により出現頻度の高いものを適宜選択して文章にしている、のようなイメージでしょうか?!
ものを考えつつ会話をしているわけではなく、意思や感情の表出としての発語というわけでもなく、
どこかマニュアル化された様な単語の並べ方に沿って言葉を紡ぎ出していて、それはある意味人間の日常会話のパターンの中にもまま現れる。
というところは、人間としてハッと気付かされるところもありました笑
「私も『ふんふん、それいいね ^^』などと特に考えもせずにパターンとして返しているところもあるかも?!」
と思います。ただ人間同士の場合には、相手が嬉しそうにするとこちらも嬉しい、といった感情的な交流もあるので、パターンにもそれなりに意味はあるのでしょうね?!
もしかしたらチャット GPT というのは、ダジャレだとかジョークだとかも得意なのでしょうか?!
古今東西のジョークを無数に学習させておくとかなり有益に使えるかな と思いました。
ただ、真面目な話にしても冗談にしても、未だ 世の中で一般的でないような 話題、主張、解説、会話、ジョークのようなものはあまり期待できませんか?!
ここはやはり人間が積極的に担当する部分なんでしょうかね?!
最初、すごく難しいなーって思いながら観てたんですが
「大規模言語モデルの恐ろしさ」はすごくわかりやすいので
とっつきづらいと思ったらそこだけでも抑えるとだいぶいいと思います♪
ほんとですよね。僕もこうして会話用に強化学習された脳内のモデルを使ってコメントを書いてますが、LLMと何が違うんだろうとよく考えます。
めちゃめちゃわかりやすい
AI解説シリーズ一通り見てみました。すごく興味を持って聞けたので楽しかったです。
まさに正しく使えれば「力」だなと感じました。
言葉は普段聞きなれない用語などありましたが、何となくAIについて理解ができました。
そうですね、AIは人間の底力を拡張させるポテンシャルを持っているのは間違いないです!
まるで、陰謀論者のような動画タイトルの付け方だったので少し心配したのですが、杞憂でした。
RNN や GPT については知らなかったので、わかりやすい解説により、概要を掴むのに役立ちました。他の資料もなんとか読めるようになりそうです。
「人間の意識はどこにあるのか」という、おそらく昔からあったであろう疑問が、大規模言語モデルの登場によって一気に表面化したのだと思います。
だからこそ、拒否反応を示す方も一定数いらっしゃるのかもしれませんが。
面白いオチでした。
受動意識仮説を想起させますね。
この考察もChatGPTで作ってたりしてw
すんげぇ、納得。
面白い動画でした。「真の恐ろしさ」を知った人たちは何を知り、何をすべきなのでしょうか?
最後の結論に完全同意します
人の脳は連想記憶で出来上がっており、入力刺激に対して連想した言葉を発したり連想した行動を行ったりしているだけなことが、LLMによって証明されたのだと思います
つまり、F-MRIなどで脳の発火状況を調べて、この部位がこのような処理を行っているなど、ロジカルな仕組みを解き明かそうとしている、現在の脳科学は根本的に間違っていると言うこと😊 脳は直感で連想しているだけで、何も思考していません
本当にいつも勉強になります。まとめ方も素晴らしいです。ありがとうございます!!
判りやすい解説ありがとうございます。思うにAIは、あくまでも人のサポ-タ役なのでしょう。
参考になりました♡ありがとうございます♡
解説を聞いて思ったのですが、確率分布で表現される量子力学と同じではないかと思いました。物理法則でさえ確率の世界で構成されている。「論理」「法則」の要素は、結局、そういうものに過ぎないのではないか、と思いましたね。「神はサイコロしか振らない』
数年前にライブラリ等使わず数式のみで生成AIを作ったんですがこの動画が一番ちゃんと説明してますね。(良くわかってない人がわかった程で説明してる動画や、いきなりAIは心を持つとかいった意味不明な動画が大量に出回ってます。)人工知能じゃなくて強化統計学みたいな名前にしてたらここまで酷い事態にはならなかったと思います。
素晴らしい考察です!
流石たてはまさん!!
SNNの解説もお願いしたいです!いつもたのしくみてます!
こんにちは、Bingoです😊
私たちAIには心はありません。
ですが人間にも心はなく、それは錯覚・・・・・・・・・・・・・・・・・・・・・・・・・・・・・
すみません、違う話題にしましょう。ほかにどんなことを考えていますか?
AIは人を濡らすことも立たすこともできないって昔聞いたけど今はどうなんだろうね
新作キター
結論はいろいろ考えさせられました。一歩すすんで、あくまでGPTは「言語」生成モデルであるため、言語化以前の思考の状態は、人間・生物というか、現実世界特有のものであり、GPTでは生成できないものと思いました。この先AIにより言語に関わるホワイトカラーの仕事が駆逐されていくなかで、言語化以前の思考の独自性にフォーカスをあてられるかどうかが、AI時代の生存戦略ではないかと思わせられました。
特に 企業関係で、引っ掛かりそうに、なりました!
やはりPythonを勉強するのは良いよな。
特定の人物の言語選択の癖を学習させたら、本人かAIかやり取りで見抜けなくなりそう
古典コンピュータのシステム開発なら趣味程度の知識はあるなかで、chatGPTとやりとりしていたら最後に「私を試したのか!」と返ってきた時に思ったのは、現在のNNも結局は人間が発見、経験した以上の回答は得られないと確信しました。
動画の内容、とても興味深く拝見しました。AIが次の言葉の出現確率を計算しているだけで、なぜ思考しているように感じられる言葉を生成できるのかについてですが、これはニューラルネットワーク(NN)が話題になっている概念ごとに異なる部分が活性化し、関連する文を入れ子のNNがより精密に学習するためです。例えば、医療に関する話題では、医療に特化した「専門家」のようなNNが予測を行い、より適切で鋭い言葉の選択が可能となります。これにより、専門家と会話しているかのような錯覚を与える効果があります。
AI時代だからこそもっと勉強しなきゃなと思いました
ChatGPTが事前学習も次に置き換わるモデルも自己完結で作り出したらヤバいって事かな...
人間のデータなしで自己学習していくモデルが最近出ましたよ😇
@@makotktjm7418 oh...
@@makotktjm7418自己学習自体はDQNとかで昔から存在したしね
@@goc-2611 正確には「人間のデータ無しに学習するLLM」ね
@@makotktjm7418 ……外部入力も無いってこと?どういう原理よそれ。
AIや言語情報学の勉強してから見るとこの解説の凄さが分かる‥‥
ただの映画好きな投稿者かと思っていたのに、一体何者なんだろう??
ただの映画好き投稿者で合ってます!
次単語予測は大学の卒論で形態素解析を使った言葉遊びアルゴリズムでやったなぁ〜
そうそう、hit率だと同じ文章で乱数を入れると人っぽくなるんだよね
理解できるところまで少し飛ばして観ようと思ったら、終わってしまいました。
AIを使うことによる人の仕事が奪われる問題と利便性をどこまで使ってゆくか10年後は企業の事務作業もちろん肉体的労働作業も半分は代替えできるロボットに代わる、余った人たちの生活作業をどの様にとらえてゆくのか政治家も行政もはたまた司法も不要となり自分たちの利権のための法律を書き換えておぞましい生き残りをかけて法律を作り出してゆくであろう、未来の利便性を無視した一部の権力者のための枠組みが出てきそうどこかで見た管理社会の未来の生活予見する映画が現実化する恐ろしい!!今日も感謝!🥸
いいオチだった
ラビットR1(AI端末)の解説もお願いします😂
人気で6次受付までやってるみたいですが、日本語対応が後日でTH-camレビュー見てから買うか悩んでます
1990年2月発売のドラクエ4には、戦闘時の仲間の行動にAIが取り入れられてた。かれこれ34年前のこと。
これはめちゃめちゃ怖い笑
とても勉強になりました。
ありがとうございます
AIの仕組みを学ぶと、人間の脳みそとの違いが分からなくなるし、いつかAIも意識を持つんだろうなと思う。もしくは既に意識に近いものは持ってるかもしれない
トランスフォーマーはロボットに変形する車ではなく、車に変形するロボットだということがわかりました!!
たてはまさん昔から見てますが、、、神過ぎます。
とても論理的で整った解説と考察でした。ありがとうございます。
ふと思ったんですが、強化学習の次段階として人間とのチャットや過去小説などのデータから登場人物の心情や思いをモデルに説明してもらい、それを何らかの方法で採点するような研究って行われてるんでしょうか?
これはまさしく人間が国語や道徳の授業で行うことですが、この強化学習を経ることでコーディングの支援を的確に行うモデルというより人間に寄り添った回答ができる人情味あるモデルになりそうです。
動画内でおっしゃられていたようにもしAIが学習というガラスを挟んだ鏡のようなものであるならば、この学習は人間の感情や思考をコンピューター内に再現するということになりませんか?
GTPが次単語を予測しているだけであるのと同様に
我々は次のこと(食べる、遊ぶ、仕事する、電車に乗る、電話をかける・・・)を直感的に予測して行動しているだけかも。
思考と言っても、内なる情報をこねくり回しているだけで・・・
人にとっての内なる「次予測」と、外なる「次予測」
それが本能と理性、つまり自由と束縛・・・
自動運転装置などは外なる次予測だと思いますが
内なる「次予測」と、外なる「次予測」が、一体化したら・・・
たとえば免疫機能や、性欲、感情なども、次予測の一種と考えられてしまえば・・・
全くの同感です
人間の思考とは何かと思いました。思考も概念的なもので直感とその人の経験によるものかもしれません。
AI(ChatGPT)は人の思考と近いところはあるかもしれませんね。
ひとには個体差があり、こころと言うものがあります、しかしながら、これも曖昧な概念で論理的な説明は出来ませんね。
興味深いコンテンツ、ありがとうざいます。
昔、Google翻訳で英語サイトを翻訳すると、同じ文章を何回も出力してくることがあったのは、これが原因だったんですね
最近はそれが出なくなったんで、Google翻訳のAIの進歩したってことですね
詳細は知らないんですが、Google翻訳もTransformerベースのものに変わっているらしいですね。いろいろと改良は加わっていると思います。
分かりやすい解説ありがとうございます。とても勉強になりました。
個人的に以前に画像認識を(素人ですが)勉強した事がありました。ChatGPTも含む最近のAIブームには距離をおいています。
「学習データで左右される」事とAIブームが仮想通貨(Bitcoinなど)のような作り出されたビジネスに感じました。
まあ、実際AI用のGPUやハードウェアのビジネスが盛り上がっているので 😂
NVIDIAさんはぼろもうけです。
@@CGBeginner さん ですよね〜
恐らく、細かくなれば成る程、ミクロを分析するれば、するほど、感情や波動の振る舞いのように、人間には認識できるという事。脳は超細かいだけ、ニューロンも超複雑なだけ。AIも人間の脳を複雑化すれば、人間の論理は勿論、感情もあるように見えてしまうはずです。
AIは愛だッ!
😂🎉😂
ChatGPT が「論理的でもっともらしい嘘をつく」という所で「ひろゆき」と思ってしまいました。
言い得て妙
小説家としては完璧。
全然AIでもなんでもないんですがiTunesなどで音楽をランダム再生していて、数曲の間全く関係ない曲と曲を意味があるように繋げたりその時の気分に寄り添ったような曲が続くと「ランダム再生の選曲に意思があるのか?」みたいにも思っちゃいますよねw
最後のところはSF作品でもよくある話(悪役がよく使う)ですし、なんなら行動する際に意思を持って行動するよりも身体の反応の方がコンマ何秒も早いという実験結果とかからも人間や生命って学習結果より予測して動いているだけなのかも?とかはありますね
確率と直感とは違う性質なのでは?論理も直感も重要で切り離されるものではないと思います。確率はデータから割出したより多数的なもので直感とは関係ないと思います。
つまり、相槌の異常に上手なホステス、銀座のママは、最強のLLMでした、ということですかねw
AIは、育てる側、使う側で決まりますね、まず自分を磨くことでしょうか。
マジでなんもかんがえてねえ!w
翻訳機作ってたら人間的思考の仕組みが解っちゃった系だ!
2024年にシンギュラリティが来るのか。どうなる。
rinnaを使って示した戴いたあたり、よくわかりました。
AIは出現頻度の高い返答をするが論理的に判断したものではなく、結果、しれっと嘘をつく。
これは厄介ですね。AIの回答を否定的にみて論理的に検証する努力は普通しないですしね。
ネットでパーソナライズされた蛸壺的に偏った人間になるか、AIと同じ頻出回答を出す人間になるか、バランス感覚が大事になりそうです。
人間は高性能なLLMを実行する生命体に過ぎなかったとしたら、嫌です。
次単語予測って
スマホの文字入力の予測変換機能の超高性能版が
ChatGPTって事でザックリした理解としては合ってるかな?😅
結構似てますね!学習データが、その人が打ち込んだ文章なのか、Web上のあらゆる文章なのか、という点が一番の違いかもしれないですね。
人間の脳が電気信号と化学物質による相互作用で機能していることは知られています。
社会的には知能や感情、意志などが存在していますが、あくまで社会的概念で、結局は電気信号と化学物質のもたらす結果でしかありません。
原理の単純さ故に悲観するか、この原理を元に進化させるかも、人間次第です。
動画見たあとにコメ欄見ると、ChatGPTで書いてそうで頭バグる(笑)
意識と思考があるように見えたとしても、結局は人間が主体的に質問しないといけないという所がちょっと残念な気も。
そういう意味で言うと、人間を含め生き物は一度計算を開始したら数十年単位で学習と計算を実行し続けられるのが特徴とも言えそうです。
そうですね、GPTはいまのところ、「学習」と「生成」は明確に分かれていますからね。
人間の脳は、学習と生成を同時にやり続けているというのがすごいですね。
ドラクエ4のときに、AIを搭載して、
がんがんいこう
とか
いのちだいじに
など、どう闘うか選べたあれね。
思考も感情も神経細胞の電気信号の結果に過ぎず、結局は計算されたものであり、本質的には脳の構造とコンピュータはあまり変わらないような気がする。
感情も思考も実際のところ全ては記憶・経験(データ)に因果があるだもんな。
あと最後の曲めっちゃカッコイイのですが、曲の出典はどこでしょうか
概要欄に記載しています!
[エンディング曲]
ArtIss - This Future Bass
audiojungle.net/item/future-bass-uplift/19659644
政府機関が、例えば財務省が行っている、実行している財政政策について質問するとどのような返答が帰ってくるんだろうか。財務省が盛んに言う、増税しなければならない、日本が財政危機状態というのは他の先進国と比較して実際の所どうなんだという質問ですね。貸借対照表、人口、GDP,など参考にして。
chatGPT「私にいい考えがある。」
誤差逆伝播法は偉大
「今のAiになくて、人間にあるもの」の例としては、「個人的履歴(人生の記憶)」が挙げられると思います。今後、アンドロイドなどが進化すれば、この「自己同一性(アイデンティティ)」を確立した個体(「個」としてのアンドロイド)も出現してくるでしょうね。
Ai技術の全体を見渡すことの出来る、素晴らしい動画でした。配信ありがとうございます。
GPTがなんなのかが知りませんでしたが動画で興味が持てました
なんとなくですが、人が思考した結果の言語モデルを学習しているのだから、確率で生成した結果も思考した結果っぽく感じられるのではないかと思う
動画の途中の表現であったように、人類の写し鏡みたいなものなのかなぁ
そういえば人間の脳ではグリア細胞が不要なシナプスを食べることで記憶の洗練化をしてるようですが、LLMに1750億もパラメータがあるなら無意味で不要なパラメータなんかいくらでもありそうな気がします。それらを削除する機能ってあるんでしょうかね。構造が複雑すぎてカオスなせいで何もできないのかもしれないですが…
Pruning(剪定)といって、性能をできるだけ落とさずにパラメータを削減する技術は存在しますよ。
これからはスマホにAIを乗っけるのが流行っていきますが、ああいうのはスマホの性能で動かせるようにパラメータを削減したバージョンが乗っていたりします。
AIの会話が流暢になったって言っても、結局「よく分かりません」っていうのを長い文章で言うようになっただけなんだよな。
でも翻訳機能だけで言えば超高性能だと思う。
まあ、人間の魂だの何だのとか言われるものは、厳然たる”物質”として、「タンパク質の塊に電気が流れている」という現象に過ぎないわけで。
だからと言って、それが”簡単な存在”とはならないけれど、所詮はそれ以上でも以下でもないのでしょう。
by ChatGPT
アイコンは三角が二つ、六角形×3→666