| Up | 詳細性の理由 | 作成: 2025-11-10 更新: 2025-11-14 |
その内容は,パラメータ値の調節。 入力テクストごとに調節を繰り返すパラメータ値は,厖大な数のテクストをこなすうち,ほぼ固定になる。 この「ほぼ固定」は,一度憶えたことは忘れない状態と考えられる。 同じ内容に出遭う度に,その記憶は強化される。 そしてビッグデータによる "Training" は,基本的な情報であるほど,この出遭う回数が多くなる。 こうして Transformer 脳は,知識を厖大かつ詳細にもつものになる。 ChatGPT がこのことの実証である。 |