Up | 「話の糸」の所在──電子場 | 作成: 2025-08-09 更新: 2025-08-09 |
Transformer の生成するテクストも,同様である。 通説は,Transformer のテクスト生成を (*) で説明する。 ひとは,これを真に受ける。 なぜか? Transformer の生成するテクストに対し,(*) を自分で実際に試したことが無いからである。 あるいは,おかしいとは思っても,通説に降るのを習い性にしているからである。 Transformer のテクスト生成の説明は,つぎになるのみである: 生成しようとするテクストを生成している」 「話の糸」の伸びるのが,トーク追加に先行している。 では,トーク追加に先行して伸びる「話の糸」は,どこに存するのか? Transformer 脳は,アルゴリズムが実体なのではない。 実体は,電子回路である。 ここが要点である。 翻って,Transformer のアルゴリズムは,ミスリーディングである。 実際,シンプルにミスリードされているのが通説,ということになる。 電子回路は,電子の挙動の場である。 ──ここで「場」の意味は,「自己参照・自己組織化する系」。 以下,電子回路が現すこの場を,短く<場>と呼ぶ。 「話の糸」は,「Transformer のアルゴリズムの中にその存在をさがす」というものではない。 「話の糸」は,<場>がこれの所在である。 学習時に Transformer 脳が学習したのは,<場>を記号にすることである。 そしてこれの1つの現象が,だんだんと収束していく<パラメータ>値というわけである。 よくよく吟味すべし。 パラメータ値の前に<場>がある。 実際,学習終了の Transformer 脳のパラメータ値は,電子回路に依存する。 ChatGPT は,学習済み Transformer を搭載している。 搭載しているのは,パラメータの納まっているメモリ単体ではない。 電子回路まるまんまを搭載している。 「ChatGPT は Transforemer を搭載」は: 「Transformer 脳」ボードを挿し込む 》 |