ขนาดวิดีโอ: 1280 X 720853 X 480640 X 360
แสดงแผงควบคุมโปรแกรมเล่น
เล่นอัตโนมัติ
เล่นใหม่
インテル自体が、IBM向けのメモリメーカとして興したベンチャー企業です。70年代は、IBMが全盛の時代ですから世の中には8ビットで処理をする機材であふれていました。紙テープ装置も磁気テープ装置にテレタイプ。。。新興のCPUメーカが8ビットを基準にプロセッサを開発するのは自然な流れです。対して、文字コード(Ascii)は7ビットですから通信の世界では7ビットは多く残っています。(インターネット)メールとか今でも7ビットのままでテキストの日本語は送れません。現状MINE変換して無理やり8ビットにしています。
そうですね。当時のインテルは巨人IBMに立ち向かうベンチャーなので、当然合わせれる仕様は合わせてきますよね。あと、おっしゃる通りNW系は7bitなので流れの違いがあって面白いですよねー
togetterやITmediaの記事も読んでましたが、まとまっていて分かりやすい動画でした!ゾーン10進とパック10進って教科書知識でしかなかったですがこういうところで出てくるんですね~
ありがとうございますー。私もメインフレームを触って「これかぁ!」という気持ちになりました。基本情報に出たやつだ! みたいなw
視点がちがうはなしですが、メモリのICチップは、4倍づつ容量が増えます(2次元的に増えるので)。8ビット以外で容量を増やすことを考えると、1ビット幅のチップをビット幅分準備する必要があります。それをケチる(基板面積やIC数的な意味で)ために次に使うのは4ビット幅のチップになるのですが、そうなると8ビット(4ビット幅チップ2列)が都合が良かったと思われます。今は16ビット幅のチップもよく使われております
なるほど! そうすると、そういう物理的な制約というか都合も反映されてたりするのかもしれないですね。
何故文字と数値(BCD)を一緒に扱いたいと思ったのかが謎現代の感覚だと文字は文字だし数値は数値で別のものとして扱うのが当たり前だけど
私が思うにCOBLのファイル定義の仕方から来たのだとおもいます。COBOLだと数字の場合文字としても数値としても乃武コードが同じだからです。(数値がゾーン十進数の場合)
計算効率は明らかにそっちが良いですものねー。COBOLのデータ構造ってある集合の部分の値を取得して、(型っぽいものを充てる)みたいなことをやるので、キャスト無しで文字列も数値も扱ると便利なんですよね。今でいうと動的型付け言語の感覚であつかえるので。なんとなくその辺が理由の気はします。
文字と数字を一緒に扱えるという事は、データベースでの「商品コード」「商品名」「在庫数」といった1レコードの値を一つのデータをして扱う事ができます。昔からのコンピュータデータでは、固定長データって多いでしょ。汎用コンピュータは、あの固定長データのままでデータを処理できます。C言語でのクラスや構造体と同様と思ってもらっていいです。
COBOLの集団項目は複数の型を含むから数字も含めて文字列で扱えると動的型付けっぽく使えていいですよね。パック10進数とかが要ると「読めねー」になりますがw
2進数と 10進数で誤差は起きないと思うんだけどなぁ。。。当時の低速マシンだと 2進数-10進数変換が大変だったので BCD を使っていたと思うんだよなぁ。。。。昔 電子工作していたときも BCD 使ってました。今なら高性能で安い Arduino などのマイコンが使えるので BCD なんかは使わないと思いますねぇ。。。ところで 4bits を nibble っていうのもありますよね、8bits が byte(bite 噛みつく)で 4bits が nibble(かじる)なんておしゃれなこというやんと大昔 思ったものです しらんけどw
1970年代の米国CDC社のスパコンは1ワード60ビットで1バイト12ビットだった。8ビットバイトはIBMのせい。
IBMからが8bitとは聞きますね。iroiroあったけどマシン自体の人気もあってそこから今に至る…と
ACOSは、使ってました。私の周りでは、エイコスって発音していました。
NECのメインフレームですね! あれはまたIBM系とはまた違う感じだとか...
1Byte=8bits IBM起源説なるほどと思いました、 EBCDIC 懐かしいですね漢字まで拡張されてメチャクチャでした。1982年ごろに Z80 でボードPCを組んでいた時には、1Byte 8bits と言っていたように思います。 PC は8bit CPU で始まったので 1 Byte=8bits が都合が良かったように思います。Apple II は最初は大文字しか使え無かったです、6 bits を文字コードに 2bits を他の用途に使っていた様に思いますが、 使われていた CPU も 6502 で 8bit なので最初から 1Byte = 8bit だったと思います。 6502 には DECIMAL 演算がありました。
おお、歴史を体験されてるんですね! 古い時代は各社とも手探りでコンピュータの仕様もバラバラだったんですねぇ。
IBMに寄せて、MS-DOSが1バイト8ビットにしたのが結果的に後発となるWindowsの1バイト8ビットに影響したのでしょうね。Macが何故1バイト8ビットにしたのかは知りませんが、UNIXからの影響でしょうかね。
PC/ATに関してはIBMですしその可能性は高そうですね。Appleは謎ですが、EBCDICの登場が1963年、同じく8bitかつヒットした8080が1974年、AppleIIの発売が1977年ですからその頃にはなんとなく8bitが普通、って空気だったのかもですね。想像ですが。
インテル自体が、IBM向けのメモリメーカとして興したベンチャー企業です。
70年代は、IBMが全盛の時代ですから世の中には8ビットで処理をする機材であふれていました。
紙テープ装置も磁気テープ装置にテレタイプ。。。
新興のCPUメーカが8ビットを基準にプロセッサを開発するのは自然な流れです。
対して、文字コード(Ascii)は7ビットですから通信の世界では7ビットは多く残っています。
(インターネット)メールとか今でも7ビットのままでテキストの日本語は送れません。現状MINE変換して無理やり8ビットにしています。
そうですね。当時のインテルは巨人IBMに立ち向かうベンチャーなので、当然合わせれる仕様は合わせてきますよね。あと、おっしゃる通りNW系は7bitなので流れの違いがあって面白いですよねー
togetterやITmediaの記事も読んでましたが、まとまっていて分かりやすい動画でした!
ゾーン10進とパック10進って教科書知識でしかなかったですがこういうところで出てくるんですね~
ありがとうございますー。私もメインフレームを触って「これかぁ!」という気持ちになりました。基本情報に出たやつだ! みたいなw
視点がちがうはなしですが、メモリのICチップは、4倍づつ容量が増えます(2次元的に増えるので)。
8ビット以外で容量を増やすことを考えると、1ビット幅のチップをビット幅分準備する必要があります。
それをケチる(基板面積やIC数的な意味で)ために次に使うのは4ビット幅のチップになるのですが、そうなると8ビット(4ビット幅チップ2列)が都合が良かったと思われます。
今は16ビット幅のチップもよく使われております
なるほど! そうすると、そういう物理的な制約というか都合も反映されてたりするのかもしれないですね。
何故文字と数値(BCD)を一緒に扱いたいと思ったのかが謎
現代の感覚だと文字は文字だし数値は数値で別のものとして扱うのが当たり前だけど
私が思うにCOBLのファイル定義の仕方から来たのだとおもいます。COBOLだと数字の場合文字としても数値としても乃武コードが同じだからです。(数値がゾーン十進数の場合)
計算効率は明らかにそっちが良いですものねー。COBOLのデータ構造ってある集合の部分の値を取得して、(型っぽいものを充てる)みたいなことをやるので、キャスト無しで文字列も数値も扱ると便利なんですよね。今でいうと動的型付け言語の感覚であつかえるので。なんとなくその辺が理由の気はします。
文字と数字を一緒に扱えるという事は、データベースでの「商品コード」「商品名」「在庫数」といった1レコードの値を一つのデータをして扱う事ができます。
昔からのコンピュータデータでは、固定長データって多いでしょ。汎用コンピュータは、あの固定長データのままでデータを処理できます。
C言語でのクラスや構造体と同様と思ってもらっていいです。
COBOLの集団項目は複数の型を含むから数字も含めて文字列で扱えると動的型付けっぽく使えていいですよね。パック10進数とかが要ると「読めねー」になりますがw
2進数と 10進数で誤差は起きないと思うんだけどなぁ。。。当時の低速マシンだと 2進数-10進数変換が大変だったので BCD を使っていたと思うんだよなぁ。。。。昔 電子工作していたときも BCD 使ってました。今なら高性能で安い Arduino などのマイコンが使えるので BCD なんかは使わないと思いますねぇ。。。
ところで 4bits を nibble っていうのもありますよね、8bits が byte(bite 噛みつく)で 4bits が nibble(かじる)なんておしゃれなこというやんと大昔 思ったものです しらんけどw
1970年代の米国CDC社のスパコンは1ワード60ビットで1バイト12ビットだった。8ビットバイトはIBMのせい。
IBMからが8bitとは聞きますね。iroiroあったけどマシン自体の人気もあってそこから今に至る…と
ACOSは、使ってました。
私の周りでは、エイコスって発音していました。
NECのメインフレームですね! あれはまたIBM系とはまた違う感じだとか...
1Byte=8bits IBM起源説なるほどと思いました、 EBCDIC 懐かしいですね漢字まで拡張されてメチャクチャでした。
1982年ごろに Z80 でボードPCを組んでいた時には、1Byte 8bits と言っていたように思います。 PC は8bit CPU で始まったので 1 Byte=8bits が都合が良かったように思います。
Apple II は最初は大文字しか使え無かったです、6 bits を文字コードに 2bits を他の用途に使っていた様に思いますが、 使われていた CPU も 6502 で 8bit なので最初から 1Byte = 8bit だったと思います。 6502 には DECIMAL 演算がありました。
おお、歴史を体験されてるんですね! 古い時代は各社とも手探りでコンピュータの仕様もバラバラだったんですねぇ。
IBMに寄せて、MS-DOSが1バイト8ビットにしたのが結果的に後発となるWindowsの1バイト8ビットに影響したのでしょうね。
Macが何故1バイト8ビットにしたのかは知りませんが、UNIXからの影響でしょうかね。
PC/ATに関してはIBMですしその可能性は高そうですね。Appleは謎ですが、EBCDICの登場が1963年、同じく8bitかつヒットした8080が1974年、AppleIIの発売が1977年ですからその頃にはなんとなく8bitが普通、って空気だったのかもですね。想像ですが。