Up | Transformer 脳の空間的イメージ | 作成: 2023-06-29 更新: 2025-06-29 |
脳の実体は, 2. 各種重み W (weight) 即ち,TV, W の値固定である。 一般に,物事の捉えには,2つの方向がある。 実体と形象 (イデア) である。 Transformer 脳の捉えも,この2方向がある。 そして「形象 (イデア)」の方は 「TV, W を,高次元数空間の事象に表現する」 になる。 トークンは,固定次元 D のベクトルに表現される。 このベクトルを,ここでは「トークンベクトル」と呼ぶ。 D は現在は1万を超える。 トークンベクトルは,D次元数空間の点に表現される。 この点を,ここでは「トークン点」と呼ぶ この表象は,メリットがある。 トークンベクトルに<意味>を見ようとする通説を,即座に却けるからである。 実際,位置の違いは,個の違いである。 トークンベクトルの値は,個別を立てるものであって,<意味>を見るものではない。 個の違いを表現することばは「個性」であるが,個性に<意味>は無い。 個性に意味を与えるのは, 「組織」である。 トークンに意味を与えるのは,言語と呼んでいる組織である。
TV の D次元数空間表象であるトークン点は,W の D次元数空間表象と合わさることで,意味をもつようになる。 その「W の D次元数空間表象」とはどういうものか? Transformer 脳にとって,テクスト 空 - の - 青 - と - 海 - の - 青 青 - の - 空 - と - 青 - の - 海 は,どちらもあり,である。 この2つのテクストは,同じトークンで構成されている: "空" × 1,"海" × 1,"青" × 2,"の" × 2,"と" × 1 したがって,Transformer 脳のテクストは,D次元数空間の中のトークン点の位置で決まっているのではない。 そこで,「テクストの糸」が必要になる。 これが,W の D次元数空間表象ということになる。 この糸は,トークン点を順番に通るだけでは,十分でない。 異なるテクストの糸が同じトークン点を通るとき,それらの糸はそのトークン点で混線してはならない。 1つの糸も,同じトークン点を複数回通るのが普通であり,そのトークン点で混線してはならない。 そこで,「混線しないしくみ」が必要になる。 混線させない方法は, 「糸のトークン通過は,通過角度をユニークにする」 である。 トークン点 x での糸の通過は無数でも,Dの「高次元」がここで効いてくる。 以上が,Transformer 脳の空間的イメージである。 脳に対する「ノードとエッジのネットワーク」「質点と引力の重力場」のイメージは,まったく不十分である。 脳は,「ジャングル」の絵図がふさわしい。 |