ノルム(ベクトル)とはなんぞやと。深淵。
ウィキとAIとWIISを駆使して個人的な解釈を与えます。
ベクトル
ベクトル?
静止している数の性質で動きのある対象を捉えたいのがベクトル。
静止画に映る残像を見て、その動きを認識する感じ。
止まっているんだけど、動きがあるように見える微分のような。
命題は現実の像である: ウィトゲンシュタインは『論理哲学論考』の中で、「命題は現実の像である」と述べました。これは、地図が現実の地理を写し取るように、言語も世界の出来事をモデル化しているということを意味します。
事実と対応する: 有意味な命題(意味のある文)は、現実における「事実」と一対一で対応しています。言語の論理的な構造が現実の論理的な構造と一致しているとき、その命題は現実を写し取っていると考えられました。
引用AI
認識≒言語≒数
ベクトルの向き?
運動方程式$\boldsymbol{F}=\boldsymbol{a}m$
質量は力の方向には作用しない。力の大きさだけ変化させる。これがスカラー積。
※$\vec{x}=\boldsymbol{x}≠x$
ベクトル加法は二つのベクトルの同じ成分同士を足し合わせて新たなベクトルを作り出すこと。
1次元ベクトルの演算は、「量」だけを変化させる。向きは変化しない。
※マイナスは無視
2次元以上のベクトル同士の演算は、量の他に向きも変化させてしまう。
例)$\boldsymbol{x},\boldsymbol{y}∈ℝ^{2}$
$\boldsymbol{x}=(1,0) $
$\boldsymbol{y}=(0,5)$
$\boldsymbol{x}+\boldsymbol{y}=(1,5)$
1次元のx+y加法とx・y乗法なら、同一線上の伸び縮みの変化だけを考えればよかった。
しかし、二次元ベクトルの演算は$\boldsymbol{x+y}$は各成分の要素の伸び縮みの他に、「xy座標の原点=角度の原点」とした場合の「向き」も一緒に変えてしまう。
幾何的な伸び縮みだけではベクトル加法は説明できない。
ベクトル空間の演算は角度と量の変化の間にある関係という、1次元にはなかった関係を考察できる。
直感的に、$\boldsymbol{x}$の位置ベクトルが大きい程、つまり、原点から離れている程、ノルムの伸び縮みが角度へ与える影響は小さくなりそう。※1
つまり、xとyの関係(=ベクトル)で角度を表現できそう。強い相関か因果関係がありそう(三角関数)。
a, b に対して、a · b を$\displaystyle {\boldsymbol {a}}\cdot {\boldsymbol {b}}=\|{\boldsymbol {a}}\|\|{\boldsymbol {b}}\|\cos \theta $
と定めるとこれは一つの実数と定める。
上の定義では。内積〈a,b〉はノルムと角度Θで表現されている。
既述の直感と整合的(※1)。
つまり
$\theta・{\|a\|・\|b\|}=〈a,b〉$(定義)
$\theta=\dfrac{〈a,b〉}{\|a\|・\|b\|}$(乗法逆元)
また、内積は成分表示で以下のように定義されている。
また、ノルムは、
$\| \vec{a} \| = \sqrt{a_1^2 + a_2^2 + \dots + a_n^2}$
$\| \vec{b} \| = \sqrt{b_1^2 + b_2^2 + \dots + b_n^2}$
幾何学的な角度という概念を数字の配列(ベクトル)へ変換できる。データとして幾何を処理できる。3Dゲームをデータ配列の計算に変換できる。
現状はこんな理解。
データサイエンスへの応用 (コサイン類似度)
質問
cosθが「同一成分同士の乗法とそれらの和」と「各成分の2乗の和の平方根」で構成をされていることは何を示唆している?この性質は、数学だけでなく、特にデータサイエンスや機械学習の分野で「コサイン類似度 (Cosine Similarity)」として幅広く応用されています。
文書の類似度: 文書をベクトル化(単語の出現頻度などを成分とする)した場合、そのベクトルのなす角 $\theta$ が小さいほど、文書の内容が似ていると判断できます。
レコメンデーション: ユーザーの行動履歴や商品の特徴をベクトル化し、それらのコサイン類似度を計算することで、「このユーザーが好きそうな商品」や「この商品と似ている商品」を推薦します。
AI
AIは数百から数千次元のベクトルで単語の意味?を理解?しているんだって。
意味を似てる、似てないで評価する時の感覚をのに似てるよね。


コメント