最近、AIという言葉をよく目や耳にしますよね。
日経新聞でも頻出しているので、世間の関心度は相当高いのでしょう。
そこで、機械学習の強力な下支えについてお話しようと思います。
(反響があればシリーズ化するかもしれません)
今回は線形代数、中でもベクトルの基礎の基礎についてです。
ベクトルは多くの方が高校ではじめて習います。
高校では「ベクトルとは向きと大きさを持つ量のこと」と教科書に書いてあった記憶があります。
・・・この定義、おかしくないですか???
まず、「大きさってなに?」の疑問です。
教科書の数ページ後で「ベクトルの大きさは・・・である」と定義されますが、、、循環論法になってる!
次に「向きってなに?」と疑問に思ったことはないでしょうか。
高校数学ではこのあたりをふわっと流します。
最終的に「向き」の定義は教わりません。華麗にスルーです。イニエスタもビックリです!
これらの謎を線形代数ではスッキリさせます。
ではベクトルの定義を見てみましょう。
定義
集合Vに和とスカラー倍が定義されていて、以下の(1)〜(8)が成り立つとき、Vをベクトル空間と呼ぶ。
また、Vの元をベクトルと呼ぶ。
以下ではu,v,wは任意のVの元、a,bは実数とする。また、ある0をVの元とする。
(1)u + v = v + u
(2)(u + v) + w = u + (v + w)
(3)各u∈Vに対してあるu'∈Vが存在してu + u' = u' + u = 0
(4)0 + u = u + 0 = u
(5)a(bu) = (ab)u
(6)(a + b)u = au + bu
(7)a(u + v) = au + av
(8)1u = u
大きさについては割愛しますが、ノルムというものを定義します。
高校数学でのベクトルの大きさは実はノルムの1例に過ぎません。
ふわっと感がなくなりましたね!
こういったもの(大部分はこれより難解ですが)がたくさん積み重なってAIを支えています。
eラーニングも会社の下支えになってくれます!
学び〜とをご活用ください!
Let's study!