質問
ヒトが日常的に観測する範囲では、歩行や投擲、走行など、力の接触が一瞬。この範囲に認知が最適化された?
運動などの物理現象は力を増幅させる再帰的な関数で説明される。正確には投擲や走行における加速も非線形なんだけど、ヒトが暮らしている一般的な空間においてはそれを感じづらい。小さい範囲なら線形の認知で予測ができてしまう。
歩行や走行時の入力(速度)に対する出力(景色)の変化は線形。ボールは投げ出されてから力が徐々に減衰する。
これを応用して現実を予測してるんだよね?と。
また、非線形に現象を捉えて複雑に考えられることは認知負荷が高い割には生存を有利にしない。昔は。
1. 「力」の一瞬と「慣性」の支配
あなたが指摘した通り、歩行や投擲といった日常的な動作において、力が入力される時間は極めて短く、その後は慣性法則に従った運動が支配的になります。
-
物理的実態: 足が地面を蹴る、あるいは手がボールを離す「一瞬」にのみ、非線形な加速(二次微分)が発生します。
- 認知の単純化: 脳にとって、一瞬の加速プロセスの詳細を計算し続けるのはコストが高すぎます。そのため、脳は「入力されたエネルギーの結果、一定の速度(一次微分)で物体が動く」という**線形な近似(等速直線運動の予測)**をデフォルトのシミュレーターとして採用しました。
認知の「線形フィルター」
この物理環境への適応の結果、ヒトの認知には強力な**「線形フィルター」**が備わりました。
-
微分の忘却: 私たちは「加速している状態」そのものを捉え続けるのが苦手です。車に乗っていても、加速G(力)を感じるのは最初だけで、一定速度になると「止まっている」のと認知的な区別がつきにくくなります。
- 再帰性の欠如: 日常の物理現象(ボールを投げるなど)は、一回投げたら終わり(単発のイベント)であり、ボールが空中で「自分自身を参照してさらに加速する」ような再帰的増幅は起こりません。
ヒトの認知は「物理空間」に最適化されているため、再帰的な関数(学習、複利、ネットワーク効果)に直面したとき、脳は無意識に**「ボールを投げた後のような線形(あるいは減衰)の軌道」**を予測してしまいます。
4. 結論:認知の「バグ」としての線形予測
あなたが「初期のボラティリティ」や「再帰的な増幅」を直感しにくいのは、あなたの脳が**「自分を、一度投げられたらあとは飛んでいくだけの石ころ」のように認識しているから**です。
指摘: 投擲された石には再帰性がありませんが、あなたの「思考」や「習慣」は、空中で自らを改造し、推進力を増していくロケットのような再帰的システムです。
認知の修正: 日常的な「一瞬の力」の感覚を、再帰的な「継続的な加速」に適用してはいけません。それはカテゴリーエラーです。
質問
ヒトが分布の形状を平均に丸め込むのは認知負荷を低減すための設計?収集できるサンプルが小さいならボラティリティは無視できてしまうから?
現代情報化社会は膨大なサンプルが簡単に集められますが、原始時代は身近にある少ないサンプルだけで意思決定しなければなりません。
大雑把に「こうだろう」と予測できれば良いし、ワザワザ統計的に分析するノロマは食われます。
つまり、ライオンは足が速い、と平均化して考えられれば事足りる。
統計的な分析により正確な解を導く個体よりも、大雑把でも直感的な予測ができ、かつ細かく分析する労力で逃走経路や他の獲物の獲得を考える個体に有利だった。昔は。
つまり、ヒトの認知能力は正しく現実を捉えているのではなく、極端に単純化して捉えている。
少ないサンプルを平均化した事実から乖離したデータを基に、かつ、非線形な現象のある一瞬だけを切り取って、なんとなく未来を予測してしまう。だから間違う。
全体と部分を区別しないのと同じ。全体の構造を理解するのは認知負荷が高すぎる。長期的には不具合が現れるとしても、取り敢えず、今だけ生き残れたらそれで良い。昔は。
1. 認知負荷の低減:サバイバル・圧縮アルゴリズム
脳は体重のわずか2%の質量で全エネルギーの20%を消費する「高コストな臓器」です。分布全体を保持し、再帰的な非線形計算を行うことは、野生環境では致命的なエネルギー浪費になります。
- 平均化という「非可逆圧縮」: 「ライオンの平均的な足の速さ」さえ知っていれば、個体ごとのボラティリティ(足の速いライオン、遅いライオンの分布)を計算しなくても、逃走の判断は可能です。
- 線形近似の経済性: 微細なボラティリティを無視して「平均」という一点に情報を圧縮することで、脳は余ったリソースを「次の獲物を探す」などの他の生存タスクに回せます。
2. 小サンプルにおける「ボラティリティの透明化」
あなたが指摘した「収集できるサンプルが小さいならボラティリティは無視できる」という点は、統計学的に非常に重要な**「小数の法則(Law of Small Numbers)」**の裏返しです。
- ボラティリティの潜伏: サンプル数が少ない($n$ が小さい)場合、分布の端にある「極端な事象(テールイベント)」に遭遇する確率は極めて低くなります。その結果、手元のデータだけを見ると、世界は非常に「安定的で予測可能」に見えてしまいます。
- 偽の安定: 小さなサンプル範囲内では、凸関数も凹関数も「ほぼ直線」に見えます。曲率(カーブ)が顕在化するには広い範囲のサンプルが必要ですが、原始的な環境ではそんな膨大なデータは手に入りません。
3. 現代における「設計ミス」の顕在化
この「小サンプル+平均化」という設計は、物理空間の生存には適していましたが、再帰的な情報社会では**「破滅のトリガー」**になります。
-
物理空間: 遭遇するサンプルが少なく、現象も非再帰的(投げた石の軌道など)なので、平均化しても致命的な差は出にくい。
-
物理空間: 遭遇するサンプルが少なく、現象も非再帰的(投げた石の軌道など)なので、平均化しても致命的な差は出にくい。
-
現代社会・知能空間: ネットワークを通じて数億のサンプル(ボラティリティ)に晒され、かつ行動が再帰的に増幅されるため、「丸められた予測」と「イェンゼンの不等式が導く現実」の乖離が指数関数的に肥大化します。

コメント