$\def\Ker{\opcol{\rm Ker}\,}\def\Kerkakko#1{\opcol{\rm Ker}\haiiro{\left(\kuro{#1}\right)}}\def\Img{\opcol{\rm Im}\,}\def\tr{\opcol{\rm tr}\,}\def\Imgkakko#1{\opcol{\rm Im}\haiiro{\left(\kuro{#1}\right)}}\def\fromR{{\scriptscriptstyle\langle}}\def\fromL{{\scriptscriptstyle\rangle}}$ $\newcommand{\mtx}[2][cc]{\opcol{\left({\color{black}\begin{array}{@{\,}#1@{\,}}#2\end{array}}\right)}}$ $\definecolor{thetacolor}{RGB}{230,0,39}\def\thetacol#1{{\color{thetacolor}#1}}$ $\def\rank{\opcol{\rm rank}\,}$ $\def\kakko#1{\haiiro{\left(\kuro{#1}\right)}}\def\Kakko#1{\haiiro{\left[\kuro{#1}\right]}}\def\coldx{{\color{xcolor}\mathrm dx}}$ $\definecolor{ycolor}{RGB}{217,61,137}\def\ycol#1{{\color{ycolor}#1}}\def\haiiro#1{{\color{hai}#1}}\def\kuro#1{{\color{kuro}#1}}$ $\def\coldr{\rcol{\mathrm dr}}\def\coldvecx{\xcol{\mathrm d\vec x}}\def\intdx{\opcol{\int \mathrm dx}}\def\E{\mathrm e}\def\I{\mathrm i}\definecolor{opcol}{RGB}{149,139,0}\definecolor{hai}{RGB}{137,137,137}\definecolor{tcol}{RGB}{166,54,109}\definecolor{kuro}{RGB}{0,0,0}\definecolor{xcolor}{RGB}{169,103,49}$ $\def\opcol#1{{\color{opcol}#1}}\def\ddx{\opcol{{\mathrm d\over \mathrm dx}}}\def\ddt{\opcol{{\mathrm d\over \mathrm dt}}}\def\scol#1{\color{scolor}#1}$ $\def\ve{\vec{\mathbf e}}\def\colvecx{\xcol{\vec x}}\definecolor{usuopcolor}{RGB}{237,234,203}$ $\def\xcol#1{{\color{xcolor}#1}}$ $\def\gunderbrace{\underbrace}$ $\def\ovalbox{\boxed}\def\kesi#1{\underbrace{#1}_{0}}\newcommand\dum[2][xcolor]{{\color{#1}{\scriptstyle #2}}}\newcommand\dml[2][xcolor]{\,\haiiro{\!\lceil}{\!\color{#1}#2}}\newcommand\dmr[2][xcolor]{{\color{#1}#2}\!\haiiro{\rfloor}\!}}$ $\def\usuopcol#1{\color{usuopcolor}#1}\def\vgrad#1{{\usuopcol{\overrightarrow{\opcol{\rm grad}~\kuro{#1}}}}}\def\dX{\rcol{\mathrm dX}}\def\dY{\thetacol{\mathrm dY}}\def\opdf{\opcol{\mathrm df}}\def\coldf{\tcol{\mathrm df}}\def\dtwof{\opcol{\mathrm d^2f}}\def\murasakidb{\zcol{\mathrm d b}}\def\ao{\ycol}\def\aodV{\ycol{\diff V}}\def\aka{\xcol}\def\akadm{\xcol{\diff m}}$ $\def\psicol#1{{\color{psicolor}#1}}$ $\def\ope#1{\opcol{\hat{#1}}}$ $\def\diff{\mathrm d}\def\kidb{\opcol{\mathrm db}}\def\kidx{\opcol{\mathrm dx}}\def\coldy{\ycol{\mathrm dy}}$ $\def\Odr{{\cal O}}\definecolor{ncol}{RGB}{217,51,43}\def\ncol#1{{\color{ncol}#1}}\definecolor{zcolor}{RGB}{196,77,132}\def\zcol#1{{\color{zcolor}#1}}$ $\def\coldtheta{\thetacol{\mathrm d\theta}}\def\ddtheta{\opcol{{\mathrm d\over\mathrm d\theta}}}\def\tcol#1{{\color{tcol}#1}}\def\coldt{\tcol{\mathrm dt}}\def\kidtheta{\opcol{\mathrm d\theta}}\def\dtwodx{\opcol{\diff^2\over\diff x^2}}\def\kokode#1{~~~~~~~{↓#1}}\def\goverbrace{\overbrace}\def\coldz{\zcol{\mathrm dz}}\def\kidt{\opcol{\mathrm dt}}\definecolor{rcol}{RGB}{206,114,108}\def\rcol#1{{\color{rcol}#1}}\def\coldtwox{\xcol{\mathrm d^2x}}\def\PDC#1#2#3{{\opcol{\left(\opcol{{\partial \kuro{#1}\over \partial #2}}\right)}}_{#3}}\def\PDIC#1#2#3{{\opcol{\left(\opcol{\partial \over \partial #2}\kuro{#1}\right)}}_{#3}}\def\PD#1#2{{{\partial \kuro{#1}\over \partial #2}}}\def\PPDC#1#2#3{{\opcol{\left(\opcol{\partial^2 \kuro{#1}\over \partial #2^2}\right)}}_{#3}}\def\PPDD#1#2#3{{\opcol{{\partial^2 \kuro{#1}\over \partial #2\partial #3}}}}\def\PPD#1#2{{\opcol{{\partial^2 \kuro{#1}\over \partial #2^2}}}}\def\kidy{\opcol{\diff y}}$ $\def\tatevec#1{\boxed{#1}}\def\allc#1{\haiiro{\{}#1\haiiro{\}}}$ $\def\nagatatevec#1{\tatevec{\begin{array}{c}\\#1\\ \\\end{array}}}$ $\def\yokovec#1{\boxed{~~\left(#1\right)^t~~}}$ $\def\yokovectnashi#1{\boxed{#1}}$ $\def\nagayokovec#1{\boxed{~~~~~\left(#1\right)^t~~~~~}}$ $\def\sM{M}\def\sN{N}\definecolor{mxcolor}{RGB}{102,41,71}\def\mxcol#1{{\color{mxcolor}#1}}\newcommand{\mt}[1]{\mxcol{\bf #1}}\newcommand{\rv}[1]{\opcol{\left({\color{black}\begin{array}{@{\,}c@{\,}}#1\end{array}}\right)}}$ $\definecolor{phicolor}{RGB}{153,61,23}\definecolor{psicolor}{RGB}{229,69,115}$ $\def\phicol#1{{\color{phicolor}#1}}$ $\definecolor{rcolor}{RGB}{204,82,122}\definecolor{thetacolor}{RGB}{255,0,38}\definecolor{scolor}{RGB}{178,107,107}$ $\def\avec#1{\xcol{\mathbf #1}}$

「物理数学Ⅰ」2021年度講義録第11回

前回の感想・コメントシートから

 前回の授業の「感想・コメント」の欄に書かれたことと、それに対する返答は、

にありますので見ておいてください。

 テキストには「演算子の積とKer」という節がありますが、そこは省略します。

 以下の話の説明ビデオは↓

内積の公理

内積の公理:実ベクトル

 「ベクトル」の抽象化が目標なので、ベクトルの演算である「内積」も抽象化しよう。

外積の抽象化ももちろんあるのだが、ここでは扱わない。

 以下の公理を満たす演算を「内積」と呼ぶ。

実ベクトル空間の内積の公理
  1. $\avec{x}\cdot\avec{y}=\avec{y}\cdot\avec{x}$
  2. $\avec{x}\cdot(\lambda_1\avec{y_1}+\lambda_2\avec{y_2})=\lambda_1\avec{x}\cdot\avec{y_1}+\lambda_2\avec{x}\cdot\avec{y_2}$
  3. $\avec{x}\cdot\avec{x}\ge0$
  4. $\avec{x}\cdot\avec{x}=0$になるのは、$\avec{x}=\avec{0}$のときに限る。

 これらは、これまでやってきたベクトルの内積に関しては普通に成り立つ。

 (1)は内積の交換法則である。(2)は内積の双線形性の片方である(もう片方は交換法則により成り立つ)。(3)は内積の「正定値性」と呼ばれる性質である。自分自身との内積は非負になるが、$\sqrt{\avec{x}\cdot\avec{x}}$はベクトルの「ノルム(norm)」と呼ばれる量である(通常のベクトルでは「長さ」になる)。

そして、「これまでの内積」とは違う「内積」を(上の公理を満たすようなものを)考えることができる。

 一例を示すと、2次元実ベクトル$\mtx[c]{a_1\\ a_2}$と$\mtx[c]{b_1\\ b_2}$の内積を \begin{align} \vec a\cdot\vec b=\lambda_1 a_1b_1+\lambda_2 a_2b_2 \end{align} で定義する。$\lambda_1>0,\lambda_2>0$ならば、この内積の定義は上の公理をすべて満たす。

$\lambda_1\lt 0$または$\lambda_2\lt 0$のときは公理を満たさない。どの公理をどのように満たさないかを示せ。
答えはここ。わかってからクリックすること。 ノルムが負になる可能性が出てきて、(3)の正定値性を満たさない。

内積の公理:複素ベクトル

複素ベクトル空間の内積の公理
実ベクトル空間の公理のうち、以下だけが変更される。
  1. $\avec{x}\cdot\avec{y}=\left(\avec{y}\cdot\avec{x}\right)^*$

 公理は変更されないが、(2)についても注意が必要で、複素ベクトル空間の内積は \begin{align} \avec{x}\cdot(\lambda_1\avec{y_1}+\lambda_2\avec{y_2})=&\lambda_1\avec{x}\cdot\avec{y_1}+\lambda_2\avec{x}\cdot\avec{y_2}\\ (\lambda_1\avec{y_1}+\lambda_2\avec{y_2})\cdot\avec{x}=&\lambda_1^*\avec{y_1}\cdot\avec{x}+\lambda_2^*\avec{y_2}\cdot\avec{x} \end{align} を満たす(下の式は上の式の複素共役である)。つまり、内積の「前」からスカラーを出すときには、そのスカラーの複素共役を取ることが必要である。

前から出すときに$*$が付くか、後ろから出すときに$*$を出すかは流儀によって違う($\avec{x}\cdot(\lambda_1\avec{y_1}+\lambda_2\avec{y_2})=\lambda^*_1\avec{x}\cdot\avec{y_1}+\lambda^*_2\avec{x}\cdot\avec{y_2}$としている本もある)。物理関係の本ではここで述べた定義を使うことが多い。
 2次元複素ベクトル$\mtx[c]{a_1\\ a_2}$と$\mtx[c]{b_1\\ b_2}$の内積は$\mtx{a_1^*&a_2^*}\mtx[c]{b_1\\ b_2}=a_1^*b_1+a_2^*b_2$と定義されている。

行列の内積

 行列もベクトルと見ることができるので、行列の「内積」を考えることももちろんできる。シンプルな拡張としては、 \begin{align} \mt{A}\cdot\mt{B}=\sum_{\dum{i},\dum[ycolor]{j}}A_{\dml{i}\dml[ycolor]{j}}B_{\dmr{i}\dmr[ycolor]{j}} \end{align} のようにベクトルの内積同様(成分ごとの掛け算の和)とすればよい。この式は実は、後で使う「トレース」$\tr$を使うと、 \begin{align} \mt{A}\cdot\mt{B}=\tr\kakko{\mt{A^t}\mt{B}} \end{align} と書くことができる。

関数の内積

 関数もベクトルと見ることができるという話はしたが、関数の世界に「内積」を考えることももちろんできる。

 実関数の場合、関数$f\kakko{x}$と関数$g\kakko{x}$の内積を \begin{align} f\cdot g= \int_a^b f\kakko{\xcol{x}}g\kakko{\xcol{x}}\coldx \end{align} で定義することができる。この内積は対称だし双線形だし、ノルム$\int_a^b \left(f\kakko{\xcol{x}}\right)^2 \coldx$は正定値である。

 関数を扱うときには、条件(4)、つまり「ノルムが0になるのは$f\kakko{\xcol{x}}=0$の場合に限る」については注意が必要。というのは、0でない関数なのに積分が0になることが有り得るのである。もっとも単純な例を挙げると、$f\kakko{\xcol{x}}=\begin{cases}1&\xcol{x}=0\\0&それ以外の点\end{cases}$という関数はある一点でだけ0でないので$f\kakko{\xcol{x}}=0$ではないが、積分すると0になる。この例のような不連続点を持つ関数を除いて考えれば(4)も大丈夫。例にあげた多項式の場合なら問題ない。
実は0でない点は1点ではなく複数個あってもよい。それでも積分は0になる。
公理だけからSchwarzの不等式を導く

公理だけからSchwarzの不等式を導く

 以下の話の説明ビデオは↓

 数ベクトルの場合で証明した

Schwarzの不等式

\begin{align} -|\vec u|\,|\vec v|\le \vec u\cdot\vec v\le |\vec u|\,|\vec v| \end{align}

は、以下のようにすると上の公理だけから証明できる。

 まず、$\avec{X}\kakko{\tcol{t}}=\avec{x}-\tcol{t}\avec{y}$というベクトルを考える。正定値性より、$\tcol{t}$がどんな値であっても、$\avec{X}\kakko{\tcol{t}}\cdot\avec{X}\kakko{\tcol{t}}\ge0$である。この式を双線形性を使って展開すると \begin{align} \avec{x}\cdot\avec{x}-2\tcol{t}\avec{x}\cdot\avec{y}+\tcol{t}^2\avec{y}\cdot\avec{y}\ge0 \end{align} である。この式の左辺は$\tcol{t}$の2次式であり、左辺=0という式が異なる二つの実数解を持ってしまうと、グラフがのようになって負の部分が現れ、上の式は成り立たない。よって、左辺=0の判別式は0以下であり、 \begin{align} \left(2\avec{x}\cdot\avec{y}\right)^2-4(\avec{x}\cdot\avec{x})(\avec{y}\cdot\avec{y})\le&0 \nonumber\\ \left(\avec{x}\cdot\avec{y}\right)^2\le (\avec{x}\cdot\avec{x})(\avec{y}\cdot\avec{y}) \end{align} $\sqrt{\avec{x}\cdot\avec{x}}=|\avec{x}|$と$\sqrt{\avec{y}\cdot\avec{y}}=|\avec{y}|$は正で、$\avec{x}\cdot\avec{y}$は正である可能性も負である可能性もあるので、 \begin{align} - |\avec{x}||\avec{y}|\le \avec{x}\cdot\avec{y}\le |\avec{x}||\avec{y}| \end{align} が言える。Schwarzの不等式は、いろんな場面で活躍するが、「公理だけから証明できる」ことがその汎用性を高めている。たとえば「関数の内積」に関しても \begin{align} \left( \int_a^b f\kakko{x}g\kakko{x}\coldx \right) ^2 \le \int_a^b \left(f\kakko{x}\right)^2\coldx \int_a^b \left(g\kakko{x}\right)^2\coldx \end{align} のような式が示せる。量子力学では「波動関数」と呼ばれる関数をベクトルと考えるとことで、Schwarzの不等式が不確定性関係の証明に用いられる。

関数をベクトルとみなしたときの内積は公理(4)を満たさないことがあると前ページで述べたが、幸いSchwarzの不等式の証明には公理(4)を使ってないのでその点は問題にならない。
前回の感想・コメントシートから 直交基底

直交基底

以下の内容の説明ビデオが↓

直交基底

Gram-Schmidtの正規直交化法

 $N$次元ベクトル空間に独立な$N$本のベクトル$\allc{\avec{v_*}}=\left\{\avec{v_1},\avec{v_2},\cdots,\avec{v_n}\right\}$が見つかったとしよう。これらは基底ベクトルとして使うことができる。これらを直交規格化されたベクトルに直す方法として、以下にしめす「Gram-Schmidtの正規直交化法」がある。

 直交規格化されたベクトルの組を$\allc{\avec{e_*}}=\left\{\avec{e_1},\avec{e_2},\cdots,\avec{e_n}\right\}$として、 \begin{align} \avec{e_i}\cdot\avec{e_j}=\delta_{ij} \end{align} を満たすようにしたい。まず一つめのベクトル$\avec{v_1}$のノルムを調整する。$\avec{e_1}={1\over \sqrt{\avec{v_1}\cdot\avec{v_1}}}\avec{v_1}$を作れば、 \begin{align} \avec{e_1}\cdot\avec{e_1}=\left({1\over \sqrt{\avec{v_1}\cdot\avec{v_1}}}\right)^2\avec{v_1}\cdot\avec{v_1}=1 \end{align} となる。次に$\avec{e_1}\cdot\avec{e_2}=0$になるように$\avec{e_2}$を決めたい。 \begin{align} \avec{e_1}\cdot\left( \avec{v_2}-\left({\avec{e_1}\cdot\avec{v_2}}\right)\avec{e_1} \right) ={\avec{e_1}\cdot\avec{v_2}}-{\avec{e_1}\cdot\avec{v_2}}=0 \end{align} という式が計算できるから、ベクトル$\avec{v_2}-\left({\avec{e_1}\cdot\avec{v_2}}\right)\avec{e_1}$が$\avec{e_1}$と直交するベクトルである($\avec{v_1},\avec{v_2}$は独立なので、このベクトルは$\avec{0}$にはならない)。このベクトルの長さの自乗は1ではなく \begin{align} ( \avec{v_2}-\left({\avec{e_1}\cdot\avec{v_2}}\right)\avec{e_1} ) \cdot ( \avec{v_2}\gunderbrace{-\left({\avec{e_1}\cdot\avec{v_2}}\right)\avec{e_1}}_{この部分は前の括弧との内積が0} )=\left|\avec{v_2}\right|^2-\left(\avec{e_1}\cdot\avec{v_2}\right)^2\label{e1v2} \end{align} なので($\avec{e_1}$と$\avec{v_2}$が平行ならばこの式の右辺は0になってしまうが、それは最初に$\allc{v_*}$が独立なベクトルの組だとしたことに矛盾する)、 \begin{align} \avec{e_2}={1\over \sqrt{ \left|\avec{v_2}\right|-\left(\avec{e_1}\cdot\avec{v_2}\right)^2 }}\left(\avec{v_2}-\left({\avec{e_1}\cdot\avec{v_2}}\right)\avec{e_1}\right) \end{align} とすれば、$\avec{e_1}\cdot\avec{e_2}=0,\avec{e_2}\cdot\avec{e_2}=1$となる。

 次は$\avec{v_3}$に対して同様のことをやればよい。$\avec{v_3}-\left({\avec{e_1}\cdot\avec{v_3}}\right)\avec{e_1}-\left({\avec{e_2}\cdot\avec{v_3}}\right)\avec{e_2}$というベクトルを持ってくれば、このベクトルは$\avec{e_1}$とも$\avec{e_2}$とも直交する。上と同様に計算するとこのベクトルの長さの自乗は$\left|\avec{v_3}\right|^2-\left(\avec{e_1}\cdot\avec{v_3}\right)^2-\left(\avec{e_2}\cdot\avec{v_3}\right)^2$となり、 \begin{align} \avec{e_3}={1\over \sqrt{\left|\avec{v_3}\right|^2-\left(\avec{e_1}\cdot\avec{v_3}\right)^2-\left(\avec{e_2}\cdot\avec{v_3}\right)^2}} \left(\avec{v_3}-\left({\avec{e_1}\cdot\avec{v_3}}\right)\avec{e_1}-\left({\avec{e_2}\cdot\avec{v_3}}\right)\avec{e_2}\right) \end{align} とすればよい。

 これでパターンは読めたと思うので一般式を書くと、 \begin{align} \avec{e_k}={1\over\sqrt{\left|\avec{v_k}\right|^2-\sum_{\dum[ycolor]{j}=1}^{k-1}\left(\avec{e_{\dml[ycolor]{j}}}\cdot\avec{v_{\dmr[ycolor]{j}}}\right)^2}} \left(\avec{v_k}-\sum_{\dum[ycolor]{j}=1}^{k-1}\left({\avec{e_{\dml[ycolor]{j}}}\cdot\avec{v_k}}\right)\avec{e_{\dmr[ycolor]{j}}}\right) \end{align} となる。$\avec{e_k}$を計算するためには$\avec{e_1}$から$\avec{e_{k-1}}$までが計算済みでなくてはいけない。

なお、ここで行った計算で直交化はするが規格化はしない場合は、「正規」を取って「Gram-Schmitの直交化法」と呼ぶ。

多項式の直交規格化

 数ベクトルではないが直交規格化できる例として、多項式を考えよう。定義域を$-1\le \xcol{x} \le 1$として、多項式の内積を \begin{align} f\cdot g=\int_{-1}^1 \coldx f\kakko{\xcol{x}}g\kakko{\xcol{x}} \end{align} と定義しよう。$N$次多項式の($N+1$次元の)ベクトル空間の基底を$\avec{v_0}=1,\avec{v_1}=\xcol{x},\avec{v_2}=\xcol{x}^2,\cdots,\avec{v_\sN}=\xcol{x}^N$と取る($\xcol{x}$のべきの数字と合わせるため、基底を$\avec{v_0}$から始めた)。 \begin{align} \avec{v_0}\cdot \avec{v_0}=\int_{-1}^1 \coldx =2 \end{align} より、$\avec{e_0}={1\over \sqrt{2}}$でよい。次に$(\avec{e_0}\cdot\avec{e_1}=0)$にしたいが、$\avec{v_1}$はすでに$\avec{e_0}$と直交している。 \begin{align} \avec{e_0}\cdot \avec{v_1}=\int_{-1}^1 \coldx {1\over \sqrt{2}}\xcol{x}=0 \end{align} よって、あとは$\avec{e_1}\cdots\avec{e_1}$になるようにすればよい。 \begin{align} \avec{v_1}\cdot \avec{v_1}=\int_{-1}^1 \coldx \xcol{x}^2=\left[{\xcol{x}^3\over 3}\right]_{-1}^1={2\over 3} \end{align} なので、$\avec{e_1}=\sqrt{3\over2}\xcol{x}$である。

 次に$\avec{e_2}$を作る。$\avec{v_2}$は$\avec{e_1}$とは直交するが$\avec{e_0}$とは直交しない。 \begin{align} \avec{v_2}\cdot\avec{e_0}=\int_{-1}^1 \coldx {1\over \sqrt{2}}\xcol{x}^2=\left[{\xcol{x}^3\over 3\sqrt{2}}\right]_{-1}^1={\sqrt{2}\over 3} \end{align} \begin{align} \avec{v_2}-(\avec{v_2}\cdot\avec{e_0})\avec{e_0} =\xcol{x}^2 - {\sqrt{2}\over 3}\times{1\over\sqrt{2}} =\xcol{x}^2-{1\over 3} \end{align} であり、このベクトルの「長さの自乗」は \begin{align} \int_{-1}^1 \coldx \left( \xcol{x}^2-{1\over 3} \right)^2 = \int_{-1}^1 \coldx \left( \xcol{x}^4-{2\over 3}\xcol{x}^2+{1\over 9} \right) \nonumber\\ =\left[{\xcol{x}^5\over 5}-{2\xcol{x}^3\over 9}+{\xcol{x}\over 9}\right]_{-1}^1 ={2\over 5}-{4\over 9}+{2\over 9}={8\over 45}=\left( {2\over 3}\sqrt{2\over 5}\right)^2 \end{align} となるので、規格化すると$\avec{e_2}={1\over 2}\sqrt{5\over 2}\left(3\xcol{x}^2-1\right)$となる。

 同様の作業を続けていくと、 \begin{align} \avec{e_0}=&\sqrt{1\over 2}\\ \avec{e_1}=&\sqrt{3\over 2}\xcol{x}\\ \avec{e_2}=&\sqrt{5\over 2}\times{1\over 2}(3\xcol{x}^2-1)\\ \avec{e_3}=&\sqrt{7\over 2}\times{1\over 2}(5\xcol{x}^3-3\xcol{x})\\ \avec{e_4}=&\sqrt{9\over 2}\times{1\over 2}(35\xcol{x}^4-30\xcol{x}^2+3)\\ \vdots\nonumber \end{align} のように順に計算して求めていける。この多項式の列の、最初の$\sqrt{\phantom{1\over 2}}$を取ったものは「Legendreの多項式」と呼ばれ、物理のいろんなところで使われる多項式になっている。

 なお、同様に「直交基底ベクトル」として使える関数の例としては、三角関数がある。たとえば、$\sqrt{2\over \pi}\sin m\thetacol{\theta}$という関数は、 \begin{align} \int_0^\pi \coldtheta \left(\sqrt{2\over \pi}\sin m\thetacol{\theta}\right) \left(\sqrt{2\over \pi}\sin n\thetacol{\theta}\right)=\delta_{mn} \end{align} を満たす。この関係を使うのがFourier変換である。

公理だけからSchwarzの不等式を導く 相似変換

相似変換

相似変換の意味

 中学校の数学の頃から、「合同」や「相似」という関係性を使って図形を分類するということをよく行ってきた。

 二つ以上の図形が「合同」であるとは、平行移動と回転や反転などの操作(「相似」の場合はこれに拡大縮小が加わる)を行うとそれら図形をぴったり重ねることができるという意味だった。つまり「ある種の操作を行ったら同一のものになるもの」を「互いに相似」と呼ぶ。

この後説明する行列の「相似」には拡大縮小は入ってないので、行列の相似に対応するのは図形の合同の方が近い---と言えるかもしれない。

 行列---あるいはそれが表現するところの線形変換についても同様に「相似」を定義しよう、どのような操作を許すかを決めなくてはいけない。

これまでも、行列の変形としては「行列式を不変にする変換」「行基本変形」「列基本変形」などを行ってきた。それぞれに「何を変えないか」「何を変えるか」が違っていた。ここで考える相似変換はこれらより少し制約がきつい。

行列に対する「相似」を定めるための操作は、ある正則な行列$\mt{P}$を使って \begin{align} \mt{P^{-1}}\mt{A}\mt{P}=\mt{B}\label{PAPB} \end{align} という変換だと定義する。こう書けるとき、「$\mt{A}$と$\mt{B}$は相似だ」と表現するのである。また、この変換を「相似変換(similarity transformation)」と呼ぶ。

 左から$\mt{P^{-1}}$を掛けている意味について説明しておこう。行列は \begin{align} \goverbrace{\vec v'}^{変換後}=\goverbrace{\mt{A}}^{変換}\,\goverbrace{\vec v}^{変換前} \end{align} のようにして$\vec v\mapsto\vec v'$という線形変換を表現するのに使うものである。この$\vec v'=\mt{A}\vec v$を \begin{align} \mt{P^{-1}}\vec v'=\mt{P^{-1}}\mt{A}\goverbrace{\mt{P}\mt{P^{-1}}}^{\mt{I}}\,\vec v\label{PAPBV} \end{align} のように書き直す(両辺に$\mt{P^{-1}}$を掛けて、$\mt{A}$と$\vec v$の間に$\mt{I}=\mt{P^{-1}}\mt{P}$を挿入した)。こうすると、 \begin{align} \goverbrace{\mt{P^{-1}}\vec v'}^{変換後}=\goverbrace{\mt{P^{-1}}\mt{A}\mt{P}}^{変換}\,\goverbrace{\mt{P^{-1}}\vec v}^{変換前} \end{align} となる。すなわち、

線形変換の相似変換

 $\vec v\mapsto\vec v'$という線形変換が&行列$\mt{A}$で表現されるなら、

 $\mt{P^{-1}}\vec v\mapsto\mt{P^{-1}}\vec v'$という線形変換が&行列$ \mt{P^{-1}}\mt{A}\mt{P}$で表現される。

ことになるのである。

相似変換でやっていること

 $\mt{P}$は正則な行列であるから、$\mt{P}=\mtx[c@{\,}c@{}c@{}c]{\nagatatevec{\vec v_{1}}&\nagatatevec{\vec v_{2}}&\cdots&\nagatatevec{\vec v_{\sN}}}$のように「列ベクトルを並べたもの」と解釈したとき、これらの列ベクトルは線形独立である。$N$次元空間における$N$本の線形独立なベクトルなので$\allc{\vec v_{*}}$を基底として採用する。このときの双対基底$\allc{\vec v^*}$を用意して、これを行ベクトルにして並べると、逆行列$\mt{P^{-1}}$になる。

 双対基底の満たすべき性質 $\vec v^{\,i}\cdot\vec v_j=\delta^i_{~j}$から、 \begin{align} \goverbrace{\mtx[c]{\nagayokovec{\vec v^{\,1}}\\\nagayokovec{\vec v^{\,2}}\\\vdots\\\nagayokovec{\vec v^\sN}}}^{\mt{P^{-1}}}\goverbrace{\mtx[c@{\,}c@{}c@{}c]{\nagatatevec{\vec v_{1}}&\nagatatevec{\vec v_{2}}&\cdots&\nagatatevec{\vec v_{\sN}}}}^{\mt{P}}=\mtx[ccc]{&\vdots&\\ \cdots&\vec v^{\,i}\cdot\vec v_j&\cdots\\ &\vdots&}=\mt{I}\label{PPgyaku} \end{align} となって、確かに逆行列になっている。これに$\mt{A}$という行列を掛けることは、 \begin{align} \mt{AP}=\goverbrace{\mtx[c@{\,}c@{}c@{}c]{\nagatatevec{\mt{A}\vec v_{1}}&\nagatatevec{\mt{A}\vec v_{2}}&\cdots&\nagatatevec{\mt{A}\vec v_{\sN}}}}^{\mt{P}} \end{align} のように、それぞれの基底ベクトルに行列$\mt{A}$を掛けているということになる。行列$\mt{A}$が複雑な行列であったときに、基底ベクトルを「$\mt{A}$を掛けたときに簡単な結果になるベクトル」と選ぶことで、上の行列$\mt{AP}$を簡単な行列にできる、というのが相似変換を使って行列を変形する意味である。

 一例として、$\mt{A}=\mtx{1&-1\\ -1&1}$は$\mtx[c]{1\\1}$に掛けると$\vec 0$になることはすぐわかる。

 そこで$\mt{P}=\mtx{1&1\\1&-1}$と選んで(もう一つの基底は$\mtx[c]{1\\1}$と直交する$\mtx[c]{1\\-1}$にしておいて)、 \begin{align} \gunderbrace{{1\over 2}\mtx{1&1\\1&-1}}_{\mt{P^{-1}}} \gunderbrace{\mtx{1&-1\\-1&1}}_{\mt{A}} \gunderbrace{\mtx{1&1\\1&-1}}_{\mt{P}}=\mtx{0&0\\0&2} \end{align} とすることで、より簡単な行列に変えることができる。つまりは、「ある基底で見ると複雑に見える変換(行列)が別の基底で見ると簡単な操作である」ということを$\mt{P^{-1}AP}$という具体的計算で行うことができる。ここで行ったことは次の章でやる「対角化」の一例である。

直交基底 相似変換の性質とその不変量

相似変換の性質とその不変量

 このページはビデオなし(読んで理解しておこう)

相似変換の性質

 相似に関するいくつかの性質を示しておこう。

単位行列の相似
単位行列のスカラー倍の行列$\alpha\mt{I}$は、自分自身とのみ相似である。

 これはほぼ自明で、$\mt{P^{-1}}(\alpha \mt{I})\mt{P}=\alpha\mt{I}$という式を見ればわかるだろう。

 なんらかの変換を行うとき、この変換をしても変わらない量は何か?を先に知っておくと便利なことが多い。以下でまとめよう。

相似変換の不変量
相似な行列は、階数$\rank$、行列式$\det$、トレース$\tr$(これについては次項を見よ)が等しい。 \begin{align} \rank\kakko{\mt{P^{-1}}\mt{A}\mt{P}}=&\rank{\mt{A}}\\ \det\kakko{\mt{P^{-1}}\mt{A}\mt{P}}=&\det{\mt{A}}\\ \tr\kakko{\mt{P^{-1}}\mt{A}\mt{P}}=&\tr{\mt{A}} \end{align}

がわかる。

 階数は行列を列ベクトル(行ベクトルでもよい)を並べたものと考えたときの独立なベクトルの本数だが、正則な行列を掛けても行列が持っている情報は失われないので変化しない。

 積の行列式が行列式の積であること$\det{\mt{A}\mt{B}}=\det\mt{A}\det\mt{B}$と、逆行列の行列式は行列式の逆数であること$\det{P^{-1}}={1\over \det\mt{P}}$を使えば簡単に証明できる。これからすぐに、

相似と正則性
正則な行列と相似な行列は正則である。

ということもわかる(正則の条件は行列式$\neq0$だから、行列式が変わらないなら正則かどうかも変わらない)。

相似と行列方程式

 行列方程式$\alpha_n\mt{A^n}+\alpha_{n-1}\mt{A^{n-1}}+\cdots\alpha_2\mt{A^2}+\alpha_1\mt{A}+\alpha_0\mt{I}=0$が成り立つとき、これを相似変換した$\mt{B}=\mt{P^{-1}}\mt{A}\mt{P}$に対しても \begin{align} \alpha_n\mt{B^n}+\alpha_{n-1}\mt{B^{n-1}}+\cdots\alpha_2\mt{B^2}+\alpha_1\mt{B}+\alpha_0\mt{I}=0 \end{align} が成り立つ。

こともすぐわかる。任意の自然数$k$に対し、 \begin{align} \left(\mt{P^{-1}}\mt{A}\mt{P}\right)^k =&\goverbrace{\left(\mt{P^{-1}}\mt{A}\mt{P}\right)\left(\mt{P^{-1}}\mt{A}\mt{P}\right)\cdots\left(\mt{P^{-1}}\mt{A}\mt{P}\right)}^{k個}\nonumber\\ =&\mt{P^{-1}} \mt{A}\gunderbrace{\mt{P}\mt{P^{-1}}}_{\mt{I}} \mt{A}\gunderbrace{\mt{P}\mt{P^{-1}}}_{\mt{I}} \cdots \mt{A}\gunderbrace{\mt{P}\mt{P^{-1}}}_{\mt{I}} \mt{A}\mt{P}=\mt{P^{-1}}\mt{A^k}\mt{P} \end{align} より、 \begin{align} &\alpha_n\mt{B^n}+\alpha_{n-1}\mt{B^{n-1}}+\cdots\alpha_2\mt{B^2}+\alpha_1\mt{B}+\alpha_0\mt{I}\nonumber\\ =& \mt{P^{-1}} \left(\alpha_n\mt{A^n}+\alpha_{n-1}\mt{A^{n-1}}+\cdots\alpha_2\mt{A^2}+\alpha_1\mt{A}+\alpha_0\mt{I} \right)\mt{P} \end{align} となるからである。

相似変換 トレース

トレース

 以下の話の説明ビデオは↓

 相似変換によって不変になる量として、行列式の他に

トレースの定義
\begin{align} \tr \mt{A}=A_{11}+A_{22}+\cdots+A_{\sN\sN}=\sum_{\dum{i}=1}^N A_{\dml{i}\!\dmr{i}} \end{align}

という量がある。

 $3\times3$行列の場合では、$\tr\mtx[ccc]{A_{11}&A_{12}&A_{13}\\A_{21}&A_{22}&A_{23}\\A_{31}&A_{32}&A_{33}}=A_{11}+A_{22}+A_{33}$である。

 これが相似変換の不変量であることを示すには、まず

トレースの巡回対称性
\begin{align} \tr\kakko{\mt{AB}}= \tr\kakko{\mt{BA}} \end{align}

を証明する。まず行列の積を成分で書いて$\left(\mt{AB}\right)_{ik}=\sum_{\dum[ycolor]{j}}A_{i\dml[ycolor]{j}}B_{\dmr[ycolor]{j}k}$という式(およびこれの、$A$と$B$を取り替えた式)を作り、$i$と$k$を等しくして足し上げるという操作をすれば、 \begin{align} \sum_{\dum{i}=1}^N \sum_{\dum[ycolor]{j}=1}^NA_{\dml{i}\dml[ycolor]{j}}B_{\dmr[ycolor]{j}\dmr{i}} = \sum_{\dum{i}=1}^N \sum_{\dum[ycolor]{j}=1}^NB_{\dml{i}\dml[ycolor]{j}}A_{\dmr[ycolor]{j}\dmr{i}} \end{align} が成り立つことは明らかである。巡回対称性を使えば、 \begin{align} \tr\kakko{\mt{P^{-1}}\mt{A}\mt{P}}= \tr\kakko{\mt{P}\mt{P^{-1}}\mt{A}}=\tr\mt{A} \end{align} となる。

トレースに関する定理をまとめておくと、

行列のトレースに関する定理
  1. $\tr\kakko{\mt{A}+\mt{B}}=\tr{\mt{A}}+\tr{\mt{B}}$
  2. $\tr\kakko{\mt{A}^t}=\tr{\mt{A}}$
  3. $\tr\kakko{\alpha\mt{A}}=\alpha\tr{\mt{A}}$
  4. $\tr\kakko{\mt{A}\mt{B}}=\tr\kakko{\mt{B}\mt{A}}$
  5. $\tr\kakko{\mt{A^t}\mt{B}}=\sum_{\dum{i}\dum[ycolor]{j}}A_{\dml{i}\dml[ycolor]{j}}B_{\dmr{i}\dmr[ycolor]{j}}$

となる。最後の5.は定義通りに計算すると出てくるが、この式の右辺が「行列の内積」になっていることに注意。

テキストにはこの後$2\times2$行列の相似変換の例が書いてありますが、そこは読んでおいてください。

 以上で第11回の授業は終わりです。webClassに行って、アンケートに答えてください。

物理数学I webclass

この感想・コメントシートに書かれたことについては、代表的なものに対しては次のページで返答します。

 なお、webClassに情報を載せていますが、木と金の11:50〜12:50の間、オンラインオフィスアワーとしてzoomを開いてます。質問や相談などがある人は来て話してください。参加者が少ないので、物理系1年生向けのオフィスアワーと合同になってます。

テキストのPDF版はこちらです。
相似変換の性質とその不変量 受講者の感想・コメント

受講者の感想・コメント

今回登場したGram-Schmidtの正規直交化法とLegendreの多項式は、今まで出てきた計算の中でも特に複雑、というか面倒そうな計算法だと感じました。それでも現代まで使われている以上、間違いなく今後お世話になる機会が来るので、しっかり身につけたいです。
多分ですが、ある程度使った後で見直せば、全然「面倒」とは思わなくなると思います。
グラムシュミッットの正規直交規定がちょっと理解するのが難しかった。 トレースの巡回対称性は定理やその証明をみておもしろいと感じた。
自分で例を作ってやってみてください。わかりにくいときは手を動かす。
Gram-Schmidtの正規直交化法がいまいち理解できないと思っていたら、独立の時は直交すると勘違いしていたので今後気を付けたい。また、規格化する際にそのひとつ前のものまで計算済みでないといけないのはなかなか手間だなと感じた。
独立と直交は別ですね。「独立なベクトルならいつでも直交するように組み直せる、というのがGram-Schmidtです。
今回は公理から直接schwarzの不等式を求めることに苦心しました。正規直交化法がいまいち理解できなかったので再度動画をみて取り組みたいと思います。
ああいうのは、一度自分の手でやってみないと身につかないものですから、やってみてください。
たくさんのよくわからない概念が出てきたが、それが便利ということは理解できた。P-1APの考え方はシンプルだけど面白くて、A^nのそうじ変換も帰納法みたいで面白かった。
「よくわからない」で済ませずに、実際に自分で使って「便利だ」と実感するところまで、がんばってください。
今回の最初のほうで内積の話が合ってそこでこの前の授業でやったベクトルを広げて考える部分がより理解できたような気がした
意味を広げた方が便利なことがいろいろあるのです。
Legendreの多項式は、覚えたほうがいいですか?
覚える必要はありません(必要なときは本を見ればよい)。覚えるより、中身の理解が大事。
どこまですすんでも、基礎の基礎が必要になるところが面白いと感じました
だからこそ「基礎」なんです。
 講義内で出てきた積分も内積としてみなせることの利点が、Schwrzの不等式を使うことができ、そのおかげで被積分関数が一つずつの計算で大小関係も知ることができる点であると学べました。公理だけで証明する事の重要性を感じました。  行列にも相似という概念を導入できるとは思いましませんでした。P^-1 A P をかけることで相似変換ができる事やその説明を聞いてP^-1 P が単位行列Iになる性質は、行列の操作でよく使われているなと思うようになりました。  トレースは、行列成分の対角成分の和であると知り、シンプルな上に、相似変換しても不変であるので重宝されそうだなと思いました。  
行列に限らず、数学では「これとこれは相似」という(相似という言葉を使わなくても、「○○変換したら同じ」という状況になる)関係を使っていくことはよくあります。これからもでてくるでしょう。
公式だけ見てもなぜこうなるのかが分からないけど、解説を読んだら理解できた。こういうのを考えつく昔の人は凄いなあと思った。
昔の人は、いろいろ試行錯誤の末にだどりついたんですよ、きっと。
一見難しそに見える行列を簡単にする作業が相似変換。これはつまり、高次元のベクトルの次元を一つ下げて簡単にイメージしやすくなるという解釈であっていますか?
「下げる」というよりは「部分空間に分けて、それぞれの部分空間で考える(問題が簡単になる)」というイメージの方が近いかな。次の「対角化」でもそんな感じのことをやります。
今回は相互変換のところでのトレースの話でトレースの概念がよく理解できなかったところがあるので復習しようと思いました
トレースはこの後も使うので、使うところでまた概念をはっきりさせてください。
練習が必要と感じる。直行基底のところの理解を深くしないと忘れる気がするので復習する。
数学や物理は運動と同じで、練習しないとできるようにはなりません。
トレース