Up | 「テクストの糸」 | 作成: 2025-06-26 更新: 2025-06-26 |
即ち,TV, W の値が固定される。 この脳にとって,テクスト 空 - の - 青 - と - 海 - の - 青 青 - の - 空 - と - 青 - の - 海 は,どちらもあり,である。 この2つのテクストは,同じトークンで構成されている: "空","海","青","の","と" したがって,Transformer 脳のテクストは,D次元数空間の中のトークン点の位置で決まっているのではない。 そこで,「テクストの糸」が必要になる。 この糸は,トークン点を順番に通るだけでは,十分でない。 異なるテクストの糸が同じトークン点を通るとき,それらの糸はそのトークン点で混線してはならない。 1つの糸も,同じトークン点を複数回通るのが普通であり,そのトークン点で混線してはならない。 そこで,「混線しないしくみ」が必要になる。 混線させない方法は,「糸のトークン通過は,通過角度をユニークにする」である。 トークン点 x での糸の通過は無数でも,Dの「高次元」がここで効いてくる。 「テクストの糸」は,仮構「トークン点──D次元数空間の点」に乗った仮構である。 実体は,W (「重み」) である。 Transformer は,「自己参照・再帰」の方法で TV と W を調節して脳を実現した。 この調節の幾何学表現が,「テクストの糸にトークン点を乗せる」である。 Self-Attention および FFN は,テクストの糸があたかも見えているかのように,トークン点の移動 (Residual) を計算する。 しかし,その移動は「暗闇の中の進向」である。 やろうとしていることは,「見えないテクストの糸にトークン点を乗せる」である。 この無理難題を,Transformer は試行錯誤でやってのける。 ただし,試行錯誤がうまくいったのは,仮構「見えない糸にトークン点を乗せる」でアルゴリズムをつくったからである。 これは,数学の形式主義を説くヒルベルトの「椅子,テーブル,ビアジョッキ」を連想させる。 TV, W は,さながら「椅子,テーブル,ビアジョッキ」なのである。 |