回到主页

目录

▶︎
all
running...

科学家的小故事

以下内容参考:数学传奇1——群星闪耀时


起源篇

【图论的开创】

【拉格朗日的降生】

【变分法的开创】

【拉格朗日德国任职】

【拉格朗日法国任职】


法国篇

【一篇论文引发的血案】

【法国最著名两所学校的成立】

【拿破仑与数学家】

【痴迷热学的傅立叶

【左右逢源的拉普拉斯

【落落寡合的柯西】


以下内容参考:被柯西坑了的两个天才数学家——阿贝尔和伽罗瓦

【穷困潦倒的阿贝尔

【时运不济的伽罗瓦


结尾篇

【群论的问世】

【总结】

理解传递公式的预备知识

以下内容参考:如何理解 Graph Convolutional Network(GCN)?

1 拉普拉斯矩阵

对于图G=(V,E)G=(V, E),其Laplacian矩阵定义为L=DAL=D-A,其中LL是Laplacian矩阵,DD是顶点的度矩阵(对角矩阵),对角线上元素依次为各个顶点的度,AA是图的邻接矩阵。

常用的拉普拉斯矩阵有三种:

L=DAL=D-A定义的Laplacian 矩阵更专业的名称叫Combinatorial Laplacian

Lsys=D1/2LD1/2=ID12AD12L^{s y s}=D^{-1 / 2} L D^{-1 / 2}=I-D^{-\frac{1}{2}} A D^{-\frac{1}{2}}定义的叫Symmetric normalized Laplacian,很多GCN的论文中应用的是这种拉普拉斯矩阵

Lrw=D1LL^{r w}=D^{-1} L定义的叫Random walk normalized Laplacian,

GCN的核心基于拉普拉斯矩阵的谱分解注:矩阵的谱分解,特征分解,对角化都是同一个概念,文献中对于这部分内容没有讲解太多。不是所有的矩阵都可以特征分解,其充要条件为n阶方阵存在n个线性无关的特征向量; 拉普拉斯矩阵是半正定对称矩阵(对称矩阵一定有n个线性无关的特征向量,半正定矩阵的特征值一定非负,对阵矩阵的特征向量相互正交,即所有特征向量构成的矩阵为正交矩阵。详细证明地址)。

因此,拉普拉斯矩阵一定可以谱分解,且分解后有特殊的形式。

拉普拉斯矩阵其谱分解为:

L=U[λ1λn]U1L=U\begin{bmatrix}\lambda_1&&\\&\ddots&\\&&\lambda_n\end{bmatrix}U^{-1}

其中U=(u1,u2,,un)U=\left(\overrightarrow{u_{1}}, \overrightarrow{u_{2}}, \cdots, \overrightarrow{u_{n}}\right),是列向量为单位特征向量的矩阵,即ul\overrightarrow{u_{l}}是列向量。
[λ1λn]\begin{bmatrix}\lambda_1&&\\&\ddots&\\&&\lambda_n\end{bmatrix}是n个特征值构成的对角阵。

UU是正交矩阵,因此有UUT=EUU^T=E

特征值分解可以写作:

L=U[λ1λn]UTL=U\begin{bmatrix}\lambda_1&&\\&\ddots&\\&&\lambda_n\end{bmatrix}U^{T}

注意:特征分解最右边的是特征矩阵的逆,只是拉普拉斯矩阵的性质才可以写成特征矩阵的转置。

2 傅里叶变换与其对Graph上的傅里叶变换的推广

2.1 图上的傅里叶变换

传统的傅里叶变换定义为:

F(ω)=F[f(t)]=f(t)eiωtdtF(\omega)=\mathcal{F}[f(t)]=\int f(t) e^{-i \omega t} d t

其本质是信号f(x)f(x)与基函数eiωte^{-i \omega t}的积分。解释如下:

首先需要知道如下1和2的知识点:

  1. 广义特征方程定义为:

AV=λVA V=\lambda V

其中AA是一种变换,VV是特征向量或特征函数(无穷维向量),Λ\Lambda是特征值。

  1. Δ=2=\Delta=\nabla^2=\underbrace{\nabla \bullet}_{散度}\underbrace{\nabla}_{梯度} 即:Laplace算子=n维欧几里德空间中的一个二阶微分算子= 梯度的散度 :参考资料

则类比1和2,下式:
Δeiωt=2t2eiωt=ω2eiωt\Delta e^{-i \omega t}=\frac{\partial^{2}}{\partial t^{2}} e^{-i \omega t}=-\omega^{2} e^{-i \omega t}

eiωte^{-i \omega t}就是变换\nabla的特征函数,ω\omega(频率)和特征函数密切相关。

推广到图上,用到了拉普拉斯矩阵(即离散拉普拉斯算子),来寻找拉普拉斯矩阵的特征向量。

LL是拉普拉斯矩阵,VV是特征向量,则:

LV=λVL V=\lambda V

离散的积分就是内积,因此仿照上面定义图上的傅里叶变换:

F(λl)=f^(λl)=i=1Nf(i)ul(i)F\left(\lambda_{l}\right)=\hat{f}\left(\lambda_{l}\right)=\sum_{i=1}^{N} f(i) u_{l}^{*}(i)

ff是Graph上的 NN 维向量, f(i)f(i) 与Graph的顶点一一对应, ul(i)u_l(i)表示第 ll 个特征向量的第 ii 个分量。那么特征值(频率) λl\lambda_l 下的, ff 的图傅里叶变换就是图上的每个节点与 λl\lambda_l 对应的特征向量 ulu_l 进行内积运算。

利用矩阵乘法将Graph上的傅里叶变换推广到矩阵形式:

(f^(λ1)f^(λ2)f^(λN))=(u1(1)u1(2)u1(N)u2(1)u2(2)u2(N)uN(1)uN(2)uN(N))(f(1)f(2)f(N))\left( \begin{array}{c}{\hat{f}\left(\lambda_{1}\right)} \\ {\hat{f}\left(\lambda_{2}\right)} \\ {\vdots} \\ {\hat{f}\left(\lambda_{N}\right)}\end{array}\right)=\left( \begin{array}{cccc}{u_{1}(1)} & {u_{1}(2)} & {\dots} & {u_{1}(N)} \\ {u_{2}(1)} & {u_{2}(2)} & {\dots} & {u_{2}(N)} \\ {\vdots} & {\vdots} & {\ddots} & {\vdots} \\ {u_{N}(1)} & {u_{N}(2)} & {\dots} & {u_{N}(N)}\end{array}\right) \left( \begin{array}{c}{f(1)} \\ {f(2)} \\ {\vdots} \\ {f(N)}\end{array}\right)

ff在图上的傅里叶变换为:f^=UTf(a)\hat{f}=U^{T} f\qquad(a)

2.2 图上的傅里叶逆变换

传统的傅里叶逆变换是对频率ω\omega求积分:

F1[F(ω)]=12ΠF(ω)eiωtdω\mathcal{F}^{-1}[F(\omega)]=\frac{1}{2 \Pi} \int F(\omega) e^{i \omega t} d \omega

迁移到Graph上变为对特征值λl\lambda_l求和:

f(i)=l=1Nf^(λl)ul(i)f(i)=\sum_{l=1}^{N} \hat{f}\left(\lambda_{l}\right) u_{l}(i)

利用矩阵乘法将Graph上的傅里叶逆变换推广到矩阵形式:

(f(1)f(2)f(N))=(u1(1)u2(1)uN(1)u1(2)u2(2)uN(2)u1(N)u2(N)uN(N))(f^(λ1)f^(λ2)f^(λN))\left( \begin{array}{c}{f(1)} \\ {f(2)} \\ {\vdots} \\ {f(N)}\end{array}\right)=\left( \begin{array}{cccc}{u_{1}(1)} & {u_{2}(1)} & {\dots} & {u_{N}(1)} \\ {u_{1}(2)} & {u_{2}(2)} & {\dots} & {u_{N}(2)} \\ {\vdots} & {\vdots} & {\ddots} & {\vdots} \\ {u_{1}(N)} & {u_{2}(N)} & {\dots} & {u_{N}(N)}\end{array}\right) \left( \begin{array}{c}{\hat{f}\left(\lambda_{1}\right)} \\ {\hat{f}\left(\lambda_{2}\right)} \\ {\vdots} \\ {\hat{f}\left(\lambda_{N}\right)}\end{array}\right)

ff 在图上傅里叶逆变换的矩阵形式为:f=Uf^(b)f=U \hat{f}\qquad(b)

3 卷积

(fg)(t)=Rf(x)g(tx)dx(f * g)(t)=\int_{\mathbb{R}} f(x) g(t-x) d x

详细请参考:

如何通俗地理解卷积?

离散卷积本质就是一种加权求和。CNN中的卷积本质上就是利用一个共享参数的过滤器(kernel),通过计算中心像素点以及相邻像素点的加权和来构成feature map实现空间特征的提取, 当然加权系数就是卷积核的权重系数。

那么卷积核的系数如何确定的呢?是随机化初值,然后根据误差函数通过反向传播梯度下降进行迭代优化。这是一个关键点,卷积核的参数通过优化求出才能实现特征提取的作用,GCN的理论很大一部分工作就是为了引入可以优化的卷积参数。

4 卷积定理

卷积定理的百度解释,公式如下:

fg=F1{F{f}F{g}}f * g=\mathcal{F}^{-1}\{\mathcal{F}\{f\} \cdot \mathcal{F}\{g\}\}

公式的意义:即一个域相乘,相当于另一个域卷积;一个域卷积,相当于另一个域相乘。图域卷积相当于傅立叶域相乘,那先对图和卷积核做傅立叶变换后相乘,再傅立叶反变换回来,就得到了图域卷积。

更多资料其参考:
Laplacian算子
参考资料之——图卷积网络(GCN)新手村完全指南

5 推广到图上

fh=F1[f^(ω)h^(ω)]=12Πf^(ω)h^(ω)eiωtdωf * h=\mathcal{F}^{-1}[\hat{f}(\omega) \hat{h}(\omega)]=\frac{1}{2 \Pi} \int \hat{f}(\omega) \hat{h}(\omega) e^{i \omega t} d \omega

类比到图上并把傅里叶变换的定义带入, ff 与卷积核 hh 在Graph上的卷积可按下列步骤求出:

根据上文公式(a),可得ff的傅里叶变换为f^=UTf\hat{f}=U^{T} f

卷积核 hh 的傅里叶变换写成对角矩阵的形式即为:

(h^(λ1)h^(λn))\left(\begin{array}{ccccc}{\hat{h}\left(\lambda_{1}\right)} & {} & {} & {} \\ {} & {\ddots} & {} \\ {} & {} & {\hat{h}\left(\lambda_{n}\right)}\end{array}\right)

h^(λl)=i=1Nh(i)ul(i)\hat{h}\left(\lambda_{l}\right)=\sum_{i=1}^{N} h(i) u_{l}^{*}(i)根据需要设计的卷积核 hh (注意:这里自己设计的卷积和直接在频域设计,因此不需要傅里叶变换左乘矩阵UU)在图上的傅里叶变换。

两者的傅立叶变换乘积即为:

(h^(λ1)h^(λn))UTf\left(\begin{array}{ccccc}{\hat{h}\left(\lambda_{1}\right)} & {} & {} & {} \\ {} & {\ddots} & {} \\ {} & {} & {\hat{h}\left(\lambda_{n}\right)}\end{array}\right) U^{T} f

再乘以UU求两者傅立叶变换乘积的逆变换,则求出卷积:

(fh)G=U(h^(λ1)h^(λn))UTf(f * h)_{G}=U\left(\begin{array}{ccc}{\hat{h}\left(\lambda_{1}\right)} & {} & {} \\ {} & {\ddots} & {} \\ {} & {} & {\hat{h}\left(\lambda_{n}\right)}\end{array}\right) U^{T} f

至此,上面这个公式对应原论文中公式(3)。

6 深度学习中的图卷积

图卷积的卷积核参数就是diag(h^(λl))\operatorname{diag}\left(\hat{h}\left(\lambda_{l}\right)\right)

6.1 第一代图卷积

Spectral Networks and Locally Connected Networks on Graphs中简单粗暴地把diag(h^(λl))\operatorname{diag}\left(\hat{h}\left(\lambda_{l}\right)\right)变成了卷积核diag(θl)\operatorname{diag}\left(\theta_{l}\right),也就是:

youtput=σ(Ugθ(Λ)UTx)(3)y_{\text {output}}=\sigma\left(U g_{\theta}(\Lambda) U^{T} x\right)\qquad(3)

卷积核如下设计方式:

gθ(Λ)=(θ1θn)g_{\theta}(\Lambda)=\left(\begin{array}{ccc}{\theta_{1}} \\ {} & {\ddots} & {} \\ {} & {} & {\theta_{n}}\end{array}\right)

式(3)就是标准的第一代GCN中的层了,σ()\sigma(\cdot)是激活函数,Θ=(θ1,θ2,,θn)\Theta=\left(\theta_{1}, \theta_{2}, \cdots, \theta_{n}\right)是任意的参数,通过初始化赋值然后利用误差反向传播进行调整,xx是图上上对应于每个顶点的特征向量(由特数据集提取特征构成的向量)。

第一代的参数方法存在着一些弊端:

6.2 第二代图卷积

Convolutional Neural Networks on Graphs with Fast Localized Spectral Filtering(该篇论文推导特别清晰,可以仔细阅读阅读)把diag(h^(λl))\operatorname{diag}\left(\hat{h}\left(\lambda_{l}\right)\right)巧妙的设计成j=0Kαjλlj\sum_{j=0}^{K} \alpha_{j} \lambda_{l}^{j},即:

youtput=σ(Ugθ(Λ)UTx)(4)y_{\text {output}}=\sigma\left(U g_{\theta}(\Lambda) U^{T} x\right)\qquad(4)

gθ(Λ)=(j=0Kαjλ1jj=0Kαjλnj)g_{\theta}(\Lambda)=\left(\begin{array}{ccc}{\sum_{j=0}^{K} \alpha_{j} \lambda_{1}^{j}} & {} \\ {} & {\ddots} & {} \\ {} & {} & {\sum_{j=0}^{K} \alpha_{j} \lambda_{n}^{j}}\end{array}\right)

上面的公式仿佛还什么都看不出来,下面利用矩阵乘法进行变换,来一探究竟。

(j=0Kαjλ1jj=0Kαjλnj)=j=0KαjΛj\left(\begin{array}{ccc}{\sum_{j=0}^{K} \alpha_{j} \lambda_{1}^{j}} & {} \\ {} & {\ddots} & {} \\ {} & {} & {\sum_{j=0}^{K} \alpha_{j} \lambda_{n}^{j}}\end{array}\right)=\sum_{j=0}^{K} \alpha_{j} \Lambda^{j}

进而可以导出:

Uj=0KαjΛjUT=j=0KαjUΛjUT=j=0KαjLjU \sum_{j=0}^{K} \alpha_{j} \Lambda^{j} U^{T}=\sum_{j=0}^{K} \alpha_{j} U \Lambda^{j} U^{T}=\sum_{j=0}^{K} \alpha_{j} L^{j}

上式成立是因为L2=UΛUTUΛUT=UΛ2UTL^{2}=U \Lambda U^{T} U \Lambda U^{T}=U \Lambda^{2} U^{T}UTU=EU^{T} U=E

(4)式就变成了:

youtput=σ(j=0KαjLjx)(5)y_{\text {output}}=\sigma\left(\sum_{j=0}^{K} \alpha_{j} L^{j} x\right)\qquad(5)

其中 (α1,α2,,αK)\left(\alpha_{1}, \alpha_{2}, \cdots, \alpha_{K}\right) 是任意的参数,通过初始化赋值然后利用误差反向传播进行调整。

式(5)所设计的卷积核其优点在于在于:

K=2K=2如下图:

注:上图只是以一个顶点作为实例,GCN每一次卷积对所有的顶点都完成了图示的操作。

6.3 利用Chebyshev多项式递归计算卷积核

在第二代GCN中,LLn×nn\times n 的矩阵,所以LjL^j的计算还是O(n2)\mathcal{O}\left(n^{2}\right) 复杂的, Wavelets on graphs via spectral graph theory提出了利用Chebyshev多项式拟合卷积核的方法,来降低计算复杂度。卷积核gθ(Λ)g_{\theta}(\Lambda)可以利用截断(truncated)的shifted Chebyshev多项式来逼近。

gθ(Λ)=k=0K1θkTk(Λ~)(6)g_{\theta}(\Lambda)=\sum_{k=0}^{K-1} \theta_{k}' T_{k}(\tilde{\Lambda})\qquad(6)

θk\theta_{k}'是Chebyshev多项式的系数。至此,上式公式即为原论文中公式(4)

Tk(Λ~)T_{k}(\tilde{\Lambda})是取Λ~=2Λ/λmaxI\tilde{\Lambda}=2 \Lambda / \lambda_{\max }-I的Chebyshev多项式,进行这个shift变换的原因是:Chebyshev多项式的输入要在[1,1][-1,1]之间。

由Chebyshev多项式的性质,可以得到如下的递推公式:

T0(Λ~)=IT1(Λ~)=Λ~Tk(Λ~)=2Λ~Tk1(Λ~)Tk2(Λ~)(7)\begin{array}{l} T_{0}(\tilde{\Lambda})=I\\ T_{1}(\tilde{\Lambda})=\tilde{\Lambda}\\ T_{k}(\tilde{\Lambda}) =2 \tilde{\Lambda} T_{k-1}(\tilde{\Lambda}) -T_{k-2}(\tilde{\Lambda}) \qquad(7) \end{array}

上式等式两边分别左乘UU,右乘UTU^T,可得:

UT0(Λ~)UT=UIUT=I=T0(L~)UT1(Λ~)UT=UΛ~UT=L~=T1(L~)UTk(Λ~)UT=U2Λ~Tk1(Λ~)UTUTk2(Λ~)UT=U2Λ~UTUTk1(Λ~)UTUTk2(Λ~)UT=2L~Tk1(L~)Tk2(L~)=Tk(L~)(8)\begin{array}{l} UT_{0}(\tilde{\Lambda})U^T=UIU^T=I=T_0(\tilde{L})\\ UT_{1}(\tilde{\Lambda})U^T=U\tilde{\Lambda}U^T=\tilde{L}=T_1(\tilde{L})\\ UT_{k}(\tilde{\Lambda}) U^T=U2 \tilde{\Lambda} T_{k-1}(\tilde{\Lambda}) U^T-UT_{k-2}(\tilde{\Lambda}) U^T\\ =U2 \tilde{\Lambda}U^TU T_{k-1}(\tilde{\Lambda}) U^T-UT_{k-2}(\tilde{\Lambda}) U^T\\ =2 \tilde{L} T_{k-1}(\tilde{L})-T_{k-2}(\tilde{L}) =T_k(\tilde{L}) \qquad(8) \end{array}

其中L~=2L/λmaxI\tilde{L}=2 L / \lambda_{\max }-I,则卷积运算如下:

gθx=UgθUx=Uk=0KθkTk(Λ~)Ux=k=0KθkTk(L~)x(9)g_{\theta} \star x=U g_{\theta} U^{\top} x = U \sum_{k=0}^{K} \theta_{k}^{\prime} T_{k}(\tilde{\Lambda}) U^{\top} x = \sum_{k=0}^{K} \theta_{k}^{\prime} T_{k}(\tilde{L}) x\qquad(9)

上式子就是原论文中的公式(5)。

我们注意到:

Tk(L~)x=2L~Tk1(L~)xTk2(L~)xRnT_{k}(\tilde{L}) x=2 \tilde{L} T_{k-1}(\tilde{L})x-T_{k-2}(\tilde{L})x\in R^n

其中xxnn维的由每个顶点的特征构成的向量当然,也可以是 n×mn\times m 的特征矩阵,这时每个顶点都有 mm 个特征,但是 mm 通常远小于 nn

这个时候不难发现:式(9)的运算不再有矩阵乘积了,只需要计算矩阵与向量的乘积即可。计算一次Tk(L~)xT_{k}(\tilde{L}) x的复杂度是O(E)\mathcal{O}(|E|)EE是图中边的集合,则整个运算的复杂度是 O(KE)\mathcal{O}(K|E|) 。 当图是稀疏图(En(n1)2E\ll\frac{n(n-1)}{2})的时候,计算加速尤为明显,这个时候复杂度远低于 O(n2)\mathcal{O}\left(n^{2}\right)

至此,原论文中公式(4)(5)以及算法简化的原因已解释清楚。

上面的讲述是GCN最基础的思路,很多论文中的GCN结构是在上述思路的基础上进行了一些简单数学变换。理解了上述内容,就可以做到“万变不离其宗”。

附录 傅里叶变换

1 什么是空间

注:本部分参考地址——欧几里得空间的数学结构

欧几里得空间Rn\mathbb{R}^n是有序数组(称为点或向量) (x1,,xn)(x_1,\ldots,x_n)形成的集合,其中xix_i为实数。在欧氏几何中,譬如平面几何与空间几何,我们可以计算两点之间的距离、多个向量的线性组合(向量加法与纯量乘法)、向量的长度,以及两个向量之间的夹角。

数学家将这些概念予以抽象化,并用公设化方式定义出不同的数学结构, 称为 空间。

在数学中,空间一词并不单独存在,我们可以称XX是一个集合,但不讲XX是一个空间。

粗浅地说,空间是一个赋予某种数学结构的集合,该数学结构决定空间的名称,

例如线性代数中大家熟悉的向量空间。

下面提到的欧氏空间Rn\mathbb{R}^n的一些数学结构,背后的目的是将有限维空间延伸至无限维空间, 其中最重要的一个特例是希尔伯特(Hilbert)空间。

我了进一步了解空间,下面举几个常见空间的例子:

1.1 度量空间(Metric space)

度量空间(赋距空间,metric space)是一个集合(一般是非空集合),并赋予一距离函数,称为度量(度规,metric)。具体而言,度量空间是一个二元组(X,d)(X,d),其中XX为集合,度量d:X×X[0,)d:X\times X\to[0,\infty)为非负函数,满足

(M1) d(x,y)0d(x,y)\ge 0(非负性)
(M2) d(x,y)=0x=yd(x,y)=0\Leftrightarrow x=y(不可区分者的同一性)
(M3) d(x,y)=d(y,x)d(x,y)=d(y,x)(对称性)
(M4) d(x,z)d(x,y)+d(y,z)d(x,z)\le d(x,y)+d(y,z)(三角不等式)

公理(M4)是欧几里得几何中三角不等式的抽象公式化,这是一个非常重要的定义性质。度量空间的四个公理并不独立,(M1) 可由其他三个公理推得:
2d(x,y)=d(x,y)+d(y,x)d(x,x)=02d(x,y)=d(x,y)+d(y,x)\ge d(x,x)=0。
给定集合XX,度量dd有许多合法的定义。例如,考虑X=RnX=\mathbb{R}^n的两点x=(x1,,xn)x=(x_1,\ldots,x_n)y=(y1,,yn)y=(y_1,\ldots,y_n),欧氏距离
d2(x,y)=(i=1n(xiyi)2)1/2\displaystyle d_2(x,y)=\left(\sum_{i=1}^n(x_i-y_i)^2\right)^{1/2}
或曼哈顿距离(Manhattan distance)
d1(x,y)=i=1nxiyi\displaystyle d_1(x,y)=\sum_{i=1}^n\vert x_i-y_i\vert
皆为集合XX上的度量(有兴趣可自行验证d2d_2d1d_1满足上述公理)。因此,即便(X,d2)(X,d_2)(X,d1)(X,d_1)有相同的底层集(underlying set) XX,两者是不同的度量空间。事实上,给定一个非空集合XX,存在无限多个度量空间。譬如,若dd是定义于XX的一个度量,则dα(x,y)=αd(x,y)α>0d_\alpha(x,y)=\alpha d(x,y),\alpha>0,也是在XX上的度量。

1.2 向量空间(Vector space)

向量空间(vector space),或称线性空间(linear space),是一种代数结构,核心概念在于线性组合(合并向量加法与纯量乘法)。我们称V\mathcal{V}是一个布于体(域,field) FF的向量空间,若x,yV\mathbf{x},\mathbf{y}\in\mathcal{V}αF\alpha\in F具备向量加法x+y\mathbf{x}+\mathbf{y}和纯量乘法αx\alpha\mathbf{x},并满足下列公理:

(V1) x+y=y+x\mathbf{x}+\mathbf{y}=\mathbf{y}+\mathbf{x}(交换律)
(V2) x+(y+z)=(x+y)+z\mathbf{x}+(\mathbf{y}+\mathbf{z})=(\mathbf{x}+\mathbf{y})+\mathbf{z}(结合律)
(V3)存在唯一的0V\mathbf{0}\in\mathcal{V}使得x+0=x\mathbf{x}+\mathbf{0}=\mathbf{x}
(V4)存在唯一的xV-\mathbf{x}\in\mathcal{V}使得x+(x)=0\mathbf{x}+(-\mathbf{x})=\mathbf{0}
(V5) α(βx)=(αβ)x\alpha(\beta\mathbf{x})=(\alpha\beta)\mathbf{x}(结合律)
(V6) 1x=x1\mathbf{x}=\mathbf{x}
(V7) α(x+y)=αx+αy\alpha(\mathbf{x}+\mathbf{y})=\alpha\mathbf{x}+\alpha\mathbf{y}(分配律)
(V8) (α+β)x=αx+βx(\alpha+\beta)\mathbf{x}=\alpha\mathbf{x}+\beta\mathbf{x}(分配律)

1.2.1 线性代数的代数结构

注:本部分参考资料地址——线性代数里的代数结构

阿贝尔群(可交换群)
实例1:

纯量加法的代数结构是阿贝尔群
考虑整数集Z\mathbb{Z}(包含正整数、负整数与零),我们观察出任两个整数的加法运算满足以下五个性质:

实例2:

考虑正实数集R+\mathbb{R}_{+},并以×\times表示一般的乘法运算:
x×y=xyx\times y=xy

明显地,正实数乘法满足封闭性、交换性与结合性。上例中00的角色被实数11所取代,11称为乘法单位元,满足下式:

x×1=1×x=xx\times 1=1\times x=x

每一个正实数xx逆元为其倒数,因为

x×(1x)=(1x)×x=1\displaystyle x\times\left(\frac{1}{x}\right)=\left(\frac{1}{x}\right)\times x=1

结论

上例整数Z\mathbb{Z}的加法++与正实数R+\mathbb{R}_{+}的乘法×\times共同满足的五个性质即为阿贝尔群的定义。

正式定义: 给定一个集合G{G}与二元运算\ast,若满足上述五个性质,即封闭性、交换性、结合性,存在一运算单位元,且每一元素皆存在对应的逆元,我们便称(G,)({G},\ast)为阿贝尔群。

不可交换群

如果二元运算\ast除交换性外,满足其余四个性质, 则称为不可交换群或简称群

不难验证(R,+)(\mathbb{R},+)是一个群(也是阿贝尔群),但(R,×)(\mathbb{R},\times)不构成一个群,因为00不存在逆元,亦即不存在xx使得0x=10x=1。若00剔除,R=R ⁣ ⁣{0}\mathbb{R}^{\ast}=\mathbb{R}\!\setminus\!\{0\},则(R,×)(\mathbb{R}^{\ast},\times)为一个阿贝尔群。 明显地,若将实数R\mathbb{R}扩大为复数C\mathbb{C},以上陈述仍然成立。

体(域)

从有理数Q\mathbb{Q},实数R\mathbb{R}和复数C\mathbb{C}的性质如何归纳出体的定义呢?上述三种数系都具备加法与乘法运算:

α(x+y)=αx+αy(α+β)x=αx+βx\begin{aligned} \alpha (x+y)=\alpha x+\alpha y \\ (\alpha+\beta)x=\alpha x+\beta x \end{aligned}

因此,我们归纳出体(域)的定义:一个体F\mathbb{F}一个集合并赋予++×\times 运算,而且(F,+)(\mathbb{F},+)(F,×)(\mathbb{F}^{\ast},\times)皆为阿贝尔群并满足分配律。

向量空间的定义

(如何理解布于一个体?)

布于一个体F\mathbb{F}(其中元素称为纯量)的一个向量空间(V,+,)(\mathcal{V},+,\cdot)(其中元素称为向量)是一个加法阿贝尔群(即(V,+)(\mathcal{V},+)是一个阿贝尔群),并赋予纯量α\alpha与向量x\mathbf{x}的乘法运算,简称为纯量乘法,其结果αx\alpha\cdot\mathbf{x}为属于(V,+,)(\mathcal{V},+,\cdot)的一个向量。以下向量空间记为V\mathcal{V},并省略乘法符号\cdot。为了使纯量乘法运算适当地配合既有的三种运算(F( \mathbb{F}的加法,V\mathcal{V}的加法,F\mathbb{F}的乘法),还必须满足下列四个性质:

向量分配律:对于α,βFxV(α+β)x=αx+βx\alpha,\beta\in{F},\mathbf{x}\in\mathcal{V},(\alpha+\beta)\mathbf{x}=\alpha\mathbf{x}+\beta\mathbf{x}。
纯量分配律:对于αFx,yVα(x+y)=αx+αy\alpha\in{F},\mathbf{x},\mathbf{y}\in\mathcal{V},\alpha(\mathbf{x}+\mathbf{y})=\alpha\mathbf{x}+\alpha\mathbf{y}。
结合律:对于α,βFxV(αβ)x=α(βx)\alpha,\beta\in{F},\mathbf{x}\in\mathcal{V},(\alpha\beta)\mathbf{x}=\alpha(\beta\mathbf{x})。
纯量单位元:对于xV1F使1x=x\mathbf{x}\in\mathcal{V},存在1\in\mathbb{F},使得1\mathbf{x}=\mathbf{x}。

我们惊奇的发现:阿贝尔群(V,+)(\mathcal{V},+)所满足的最后四个性质(扣除封闭性),再加上前述四个纯量乘法性质正是向量空间所必须满足的八个公理!

1.3 赋范向量空间(Normed vector space)

定义于度量空间的连续映射与定义于向量空间的线性映射可以合成为一个连续线性映射,具体的作法是将距离与长度引进向量空间,这个概念称为范数(norm)。对于一个布于体FF的向量空间V\mathcal{V},实函数x\Vert\mathbf{x}\Vert称为范数,其中xV\mathbf{x}\in\mathcal{V},若下列性质成立:

(N1) x0x=0x=0\Vert\mathbf{x}\Vert\ge 0,\Vert\mathbf{x}\Vert=0 \Leftrightarrow\mathbf{x}=\mathbf{0}(非负性)
(N2) αx=αxαF\Vert\alpha\mathbf{x}\Vert=\vert\alpha\vert\cdot\Vert\mathbf{x}\Vert,\alpha\in F是任一纯量(均匀性)
(N3) x+yx+y\Vert\mathbf{x}+\mathbf{y}\Vert\le\Vert\mathbf{x}\Vert+\Vert\mathbf{y}\Vert(三角不等式)

一个赋范向量空间(normed vector space)是二元组(V,\mathcal{V},\Vert\cdot\Vert),其中V\mathcal{V}是一个向量空间,\Vert\cdot\Vert是定义于V\mathcal{V}的一个范数。赋范向量空间(V,\mathcal{V},\Vert\cdot\Vert)是一个度量空间:给定任意x,yV\mathbf{x},\mathbf{y}\in\mathcal{V}
d(x,y)=xy\displaystyle d(\mathbf{x},\mathbf{y})=\Vert\mathbf{x}-\mathbf{y}\Vert
是定义于V\mathcal{V}的一个度量。(N1)表明xy0\Vert\mathbf{x}-\mathbf{y}\Vert\ge 0,且xy=0\Vert\mathbf{x}-\mathbf{y}\Vert=0等价于x=y\mathbf{x}=\mathbf{y},故满足(M1)与(M2)。设α=1\alpha=-1,由(N2)可得(xy)=xy\Vert-(\mathbf{x}-\mathbf{y})\Vert=\Vert\mathbf{x}-\mathbf{y}\Vert,满足(M3)。最后,由(N3)可得
xy=xz+zyxz+zy\displaystyle \Vert\mathbf{x}-\mathbf{y}\Vert=\Vert\mathbf{x}-\mathbf{z}+\mathbf{z}-\mathbf{y}\Vert\le\Vert\mathbf{x}-\mathbf{z}\Vert+\Vert\mathbf{z}-\mathbf{y}\Vert,
此即(M4) 的三角不等式。

1.4 内积空间(Inner product space)

我们已经将欧氏几何中两点之间的距离、向量的线性组合,以及向量的长度等概念抽象化,最后剩下两向量之间的夹角,与此相关的概念是内积(inner product)和正交(orthogonality)。令V\mathcal{V}为复向量空间。内积是一个映射V×VC\mathcal{V}\times\mathcal{V}\to\mathbb{C},记为x,yx,yV\left\langle\mathbf{x},\mathbf{y}\right\rangle,其中\mathbf{x},\mathbf{y}\in\mathcal{V},并满足下列公理

(I1) x,x0x,x=0x=0\left\langle\mathbf{x},\mathbf{x}\right\rangle\ge 0,\left\langle\mathbf{x},\mathbf{x}\right\rangle=0\Leftrightarrow\mathbf{x}=\mathbf{0}(非负性)
(I2) x,y+z=x,y+x,z\left\langle\mathbf{x},\mathbf{y}+\mathbf{z}\right\rangle=\left\langle\mathbf{x},\mathbf{y}\right\rangle+\left\langle\mathbf{x},\mathbf{z}\right\rangle(可加性)
(I3) x,αy=αx,y\left\langle\mathbf{x},\alpha\mathbf{y}\right\rangle=\alpha\left\langle\mathbf{x},\mathbf{y}\right\rangle(均匀性)
(I4) x,y=y,x\left\langle\mathbf{x},\mathbf{y}\right\rangle=\overline{\left\langle\mathbf{y},\mathbf{x}\right\rangle}(共轭对称性)

内积空间(inner product space)是一个二元组(V,,)(\mathcal{V},\left\langle\cdot,\cdot\right\rangle),其中V\mathcal{V}是向量空间,,\left\langle\cdot,\cdot\right\rangle是定义于V\mathcal{V}的内积。若x,y=0\left\langle\mathbf{x},\mathbf{y}\right\rangle=0,我们说向量x\mathbf{x}y\mathbf{y}是正交的。正交是内积空间中最重要的一个概念,正交使得内积空间拥有完善的几何性质,例如正交投影。内积空间(V,,)(\mathcal{V},\left\langle\cdot,\cdot\right\rangle)是一个赋范向量空间。我们可以证明

x=x,x1/2\displaystyle \Vert\mathbf{x}\Vert=\left\langle\mathbf{x},\mathbf{x}\right\rangle^{1/2}

是一个范数。不难证明x\Vert\mathbf{x}\Vert满足(N1)和(N2)。下面证明(N3)三角不等式成立。写出

x+y2=x+y,x+y=x2+x,y+y,x+y2=x2+2Re(x,y)+y2x2+2x,y+y2.\displaystyle\begin{aligned} \Vert\mathbf{x}+\mathbf{y}\Vert^2&=\left\langle\mathbf{x}+\mathbf{y},\mathbf{x}+\mathbf{y}\right\rangle=\Vert\mathbf{x}\Vert^2+\left\langle\mathbf{x},\mathbf{y}\right\rangle+\left\langle\mathbf{y},\mathbf {x}\right\rangle+\Vert\mathbf{y}\Vert^2\\ &=\Vert\mathbf{x}\Vert^2+2Re(\left\langle\mathbf{x} ,\mathbf{y}\right\rangle)+\Vert\mathbf{y}\Vert^2\le\Vert\mathbf{x}\Vert^2+2\vert\left\langle\mathbf{x},\mathbf{y}\right\rangle\vert+\Vert\mathbf{y}\Vert^2. \end{aligned}

使用Schwarz不等式x,yxy\vert\left\langle\mathbf{x},\mathbf{y}\right\rangle\vert\le\Vert\mathbf{x}\Vert\cdot\Vert\mathbf{y}\Vert,可得

x+y2x2+2xy+y2=(x+y)2\displaystyle \Vert\mathbf{x}+\mathbf{y}\Vert^2\le\Vert\mathbf{x}\Vert^2+2\Vert\mathbf{x}\Vert\cdot\Vert\mathbf{ y}\Vert+\Vert\mathbf{y}\Vert^2=(\Vert\mathbf{x}\Vert+\Vert\mathbf{y}\Vert)^2。

如果一内积空间是完备度量空间,则称之为希尔伯特空间(即完备内积空间)。 因此,希尔伯特空间是定义了内积的巴拿赫空间。

1.5 总结

最后我用一张图呈现欧氏空间Rn\mathbb{R}^n的数学结构阶层关系,XX空间Y\to Y空间表示XX空间蕴含YY空间,各空间的核心概念总结于下:

度量空间:度量(距离)
向量空间:线性组合
赋范向量空间:范数(长度)
巴拿赫空间:范数与完备性
内积空间:内积(角度)
希尔伯特空间:内积与完备性

2 函数空间

注:本部分参考地址——从几何空间到函数空间

基础线性代数课程常将讨论的向量空间局限于有限维几何向量空间Rn\mathbb{R}^n,下文通过问答方式,介绍如何将几何向量空间延伸推广至函数空间。

Q1:如果将nn维实向量空间Rn\mathbb{R}^n扩展至无限维实向量空间R\mathbb{R}^{\infty},此空间需满足何种条件始有利于实际应用?

A:很明显,R\mathbb{R}^{\infty}里的向量v\mathbf{v}包含无限多个元,如
v=[v1v2v3]\mathbf{v}=\begin{bmatrix} v_1\\ v_2\\ v_3\\ \vdots \end{bmatrix}。
如果我们不对向量的元viv_i加入限制,那么此空间将过于庞大,反而令我们无所适从。对viv_i设限的最简单方式是透过向量v\mathbf{v}的长度,我们只对那些有限长度的向量感到兴趣,同时也希望几何向量空间的向量长度定义在此依然适用,亦即
v2=v12+v22+v32+\Vert\mathbf{v}\Vert^2=v_1^2+v_2^2+v_3^2+\cdots
这个无穷级数必须收敛至一有限数值,例如,无限维空间包含向量(1,12,13(1,\frac{1}{2},\frac{1}{3},)T\cdots)^T,但不含(1,1,1,)T(1,1,1,\cdots)^T

加入了有限向量长度的限制,此无限维空间仍符合向量空间的定义吗?是的。有限长度向量x\mathbf{x}y\mathbf{y}之和其长度还是有限的,因为
x+yx+y\Vert\mathbf{x}+\mathbf{y}\Vert\le\Vert\mathbf{x}\Vert+\Vert\mathbf{y}\Vert,
而且纯量乘积axa\mathbf{x}的长度也是有限的。很容易验证向量空间的八个向量加法和纯量乘法性质依然成立,我们称之为希尔伯特(Hilbert)空间, 即一个保有一般几何性质的无限维实向量空间。希尔伯特空间也具有正交性质,我们说向量x\mathbf{x}y\mathbf{y}是正交的,若其内积为零:
xTy=x1y1+x2y2+x3y3+=0\mathbf{x}^T\mathbf{y}=x_1y_1+x_2y_2+x_3y_3+\cdots=0。
当然,歌西—舒瓦兹(Cauchy-Schwarz) 不等式也成立:
xTyxy\vert\mathbf{x}^T\mathbf{y}\vert\le\Vert\mathbf{x}\Vert \Vert\mathbf{y}\Vert。

Q2:希尔伯特空间与函数空间有什么关系?函数空间又该如何定义向量内积?

A:不需要受过专业数学训练,业余人士也可以看穿希尔伯特空间的外表伪装。用一个例子说明,考虑定义于区间0x2π0\le x\le 2\pi的正弦函数f(x)=sinxf(x)=\sin x,我们将函数ff当作一个无限维向量,向量的各元即为连续区间内的函数值sinx\sin x。当向量的元是连续时,前述向量长度定义已不适用,各元平方和应该改为积分,如下:
f2=02π(f(x))2dx=02π(sinx)2dx=π\begin{aligned} \Vert f\Vert^2&=\displaystyle\int_{0}^{2\pi}(f(x))^2dx=\int_{0}^{2\pi}(\sin x )^2dx=\pi\end{aligned}。
此算式的意义重大,我们确实可以量测函数的长度,等于指出函数也是向量, 而仅包含有限长度的函数可以形成向量空间,因此希尔伯特空间变成了一个函数空间(function space)。

f(x)=sinxg(x)=cosxf(x)=\sin x,g(x)=\cos x,运用同样的想法,将数列之和替换为积分可以产生两个函数的内积。

f,g\langle f,g\rangle表示函数ffgg的内积,例如:
f,g=02πf(x)g(x)dx=02πsinxcosxdx=0\begin{aligned} \langle f,g\rangle&=\displaystyle\int_{0}^{2\pi}f(x)g(x)dx=\int_{0}^{2\pi}\sin x \cos x dx=0\end{aligned},
可知sinx\sin xcosx\cos x正交。函数的长度可由内积求得,f2=f,f\Vert f\Vert^2=\langle f,f\rangle,舒瓦兹不等式则表示为f,gfg\vert\langle f,g\rangle\vert\le\Vert f\Vert \Vert g\Vert

Q3:能否举个实用的函数空间例子,它包含哪些基底函数,如何产生座标?

A:最有名的例子是傅立叶级数(Fourier series),函数f(x)f(x)表示为正弦函数和余弦函数的展开式:
f(x)=a0+a1cosx+b1sinx+a2cos2x+b2sin2x+f(x)=a_0+a_1\cos x+b_1\sin x+a_2\cos 2x+b_2\sin 2x+\cdots
傅立叶级数的基底函数包含
1,cosx,sinx,cos2x,sin2x,1, \cos x, \sin x, \cos 2x, \sin 2x,\cdots
傅立叶级数的系数即为参考此基底的座标,如要计算a1a_1,可于等号两端同乘cosx\cos x,再从00积分至2π2\pi
02πf(x)cosxdx=a002πcosxdx+a102π(cosx)2dx+b102πsinxcosxdx+a202πcos2xcosxdx+b202πsin2xcosxdx+\begin{aligned} \displaystyle\int_{0}^{2\pi}f(x)\cos x dx&=a_0\int_0^{2\pi}\cos x dx+a_1\int_0^{2\pi} (\cos x)^2 dx\\ &+b_1\int_0^{2\pi}\sin x\cos x dx+a_2\int_0^{2\pi}\cos 2x\cos x dx+b_2\int_0^ {2\pi}\sin 2x\cos x dx+\cdots\end{aligned}
等号右边除了对应系数a1a_1的项,其余所有项皆为零,有兴趣可自行验证正弦函数与余弦函数互为正交。因此,a1a_1可由下式得到
a1=02πf(x)cosxdx02π(cosx)2dx=f,cosxcosx,cosx\begin{aligned} a_1&=\displaystyle\frac{\int_0^{2\pi}f(x)\cos x dx}{\int_{0}^{2\pi}(\cos x)^2 dx} =\frac{\langle f,\cos x\rangle}{\langle\cos x,\cos x\rangle}\end{aligned}。
其他系数也可以使用同样方式求得,如欲计算b1b_1,将cosx\cos x改为sinx\sin x,又如欲计算a2a_2,则将cosx\cos x改为cos2x\cos 2x

傅立叶级数的应用相当广泛:


至此,已完成了空间承上启下的讲解:


3 从傅立叶级数到傅立叶变换

后文参考资料包含以下链接:

如何通俗地理解傅立叶变换?
如何理解傅立叶级数公式?
从傅立叶级数到傅立叶变换
如何理解拉普拉斯变换?

3.1 傅立叶级数

让·巴普蒂斯·约瑟夫·傅立叶男爵(1768 -1830)猜测任意周期函数都可以写成三角函数之和。比如下面这个周期为2π2\pi的方波,可以用大量的正弦波的叠加来逼近:

3.1.1 傅立叶级数是向量

从代数上看,傅立叶级数就是通过三角函数和常数项来叠加逼近周期为TT的函数f(x)f(x)

f(x)=a0+n=1(ancos(2πnTx)+bnsin(2πnTx)),a0R\displaystyle f(x)=a_0+\sum _^{\infty}\left(a_{n}cos({\frac{2\pi n}{T}x})+b_{n}sin({\frac{2\pi n}{T}x})\right),a_0\in\mathbb{R}

实际上是把f(x)f(x)当作了如下基的向量:
{1,cos(2πnTx),sin(2πnTx)}\{1,cos({\frac{2\pi n}{T}x}),sin({\frac{2\pi n}{T}x})\}
那么上面的式子就可以解读为:
f(x)=a011+n=1(ancos(2πnTx)+bnsin(2πnTx))\displaystyle f(x)=\underbrace{a_0}_{基1下的坐标}\cdot 1+\sum _^{\infty }\left(\underbrace{a_{n}}_{对应基的坐标}cos({\frac{2\pi n}{T}x})+\underbrace{b_{n}}_{对应基的坐标}sin({\frac{2\pi n}{T}x})\right)
说具体点,比如刚才提到的,T=2πT=2\pi的方波f(x)f(x),可以初略的写作:
f(x)1+4πsin(x)f(x)\approx 1+\frac{4}{\pi}sin(x)
从几何上看,有那么一丁点相似:

我们可以认为:
f(x)1+4πsin(x)f(x)\approx 1+\frac{4}{\pi}sin(x)
此函数的基为:
{1,sin(x)}\{1,sin(x)\}
f(x)f(x)相当于向量:
(1,4π)\displaystyle (1,\frac{4}{\pi})
画到图上如下,注意坐标轴不是x,yx,y,而是1,sin(x)1,sin(x)

3.1.2 频域图

再增加几个三角函数:
$f(x)1+4πsin(x)+0sin(2x)+43πsin(3x)+0sin(4x)+45πsin(5x)f(x)\approx 1+\frac{4}{\pi}sin(x)+0sin(2x)+\frac{4}{3\pi}sin(3x)+0sin(4x)+\frac{4}{5\pi}sin(5x)4
从几何上看,肯定更接近了:

此时基为:
{1,sin(x),sin(2x),sin(3x),sin(4x),sin(5x)}\{1,sin(x),sin(2x),sin(3x),sin(4x),sin(5x)\}
对应的向量为:
(1,4π,0,43π,0,45π)\displaystyle (1,\frac{4}{\pi},0,\frac{4}{3\pi},0,\frac{4}{5\pi})
六维的向量没有办法画图啊,没关系,数学家发明了一个频域图来表示这个向量:

上图中的0,1,2,3,4,50,1,2,3,4,5分别代表了不同频率的正弦波函数,也就是之前的基:
0Hz    sin(0x)3Hz    sin(3x)0Hz\iff sin(0x)\quad 3Hz\iff sin(3x)\cdots
高度则代表在这个频率上的振幅,也就是这个基上的坐标分量。
这里举的例子只有正弦函数,余弦函数其实也需要这样一个频谱图,也就是需要两个频谱图。
原来的曲线图就称为时域图,往往把时域图和频域图画在一起,这样能较为完整的反映傅立叶级数:

不管时域、频域其实反映的都是同一个曲线,只是一个是用函数的观点,一个是用向量的观点。
当习惯了频域之后,会发现看到频域图,似乎就看到了傅立叶级数的展开:

3.2 非周期函数

非周期函数,比如下面这个函数可以写出傅立叶级数吗?

这并非一个周期函数,没有办法写出傅立叶级数。
不过可以变换一下思维,如果刚才的方波的周期:
T=2πT=T=2\pi\to T=\infty
那么就得到了这个函数:

在这样的思路下,就可以使用三角级数来逼近这个函数:

观察下频域,之前说了,对于周期为TT的函数f(x)f(x),其基为:
{1,cos(2πnTx),sin(2πnTx)}\{1,cos({\frac{2\pi n}{T}x}),sin({\frac{2\pi n}{T}x})\}
刚才举的方波T=2πT=2\pi,对应的基就为(没有余弦波):
{1,sin(x),sin(2x),sin(3x),sin(4x),sin(5x),sin(nx)}\{1,sin(x),sin(2x),sin(3x),sin(4x),sin(5x),\cdots\,sin(nx)\}
对应的频率就是:
{0Hz,1Hz,2Hz,3Hz,4Hz,5Hz,nHz}\{0Hz,1Hz,2Hz,3Hz,4Hz,5Hz,\cdots\,nHz\}
按照刚才的思路,如果TT不断变大,比如让T=4πT=4\pi,对应的基就为(没有余弦波):
{1,sin(0.5x),sin(x),sin(1.5x),sin(2x),sin(2.5x),sin(0.5nx)}\{1,sin(0.5x),sin(x),sin(1.5x),sin(2x),sin(2.5x),\cdots\,sin(0.5nx)\}
对应的频率就是:
{0Hz,0.5Hz,1Hz,1.5Hz,2Hz,2.5Hz,0.5nHz}\{0Hz,0.5Hz,1Hz,1.5Hz,2Hz,2.5Hz,\cdots\,0.5nHz\}
和刚才相比,频率更加密集:

之前的方波的频域图,画了前50个频率,可以看到,随着T不断变大,这50个频率越来越集中:

可以想象,如果真的:
T=2πT=T=2\pi\to T=\infty
这些频率就会变得稠密,直至连续,变为一条频域曲线:

傅立叶变换就是,让T=T=\infty,求出上面这根频域曲线。

3.3 傅立叶变换

之前说了,傅立叶级数是:

f(x)=a0+n=1(ancos(2πnTx)+bnsin(2πnTx)),a0R\displaystyle f(x)=a_0+\sum _^{\infty}\left(a_{n}cos({\frac{2\pi n}{T}x})+b_{n}sin({\frac{2\pi n}{T}x})\right),a_0\in\mathbb{R}

这里有正弦波,也有余弦波,画频域图也不方便,通过欧拉公式,可以修改为复数形式:

f(x)=n=cnei2πnxTf(x)=\sum _^{\infty }c_{n}\cdot e^{i\frac{2\pi nx}{T}}

其中:
cn=1Tx0x0+Tf(x)ei2πnxTdx\displaystyle c_{n}={\frac{1}{T}}\int _{x_0}^{x_0+T}f(x)\cdot e^{i\frac{2\pi nx}{T}}dx
复数形式也是向量,可以如下解读:

f(x)=n=cnei2πnxT\displaystyle f(x)=\sum _^{\infty}\underbrace{c_{n}}_{对应基的坐标}\cdot \underbrace{e^{i\frac{2\pi nx}{T}}}_{正交基}

不过cnc_{n}是复数,不好画频域图,所以之前讲解全部采取的是三角级数。
周期推向无穷的时候可以得到:

f(x)=n=cnei2πnxTT=}f(x)=F(ω)eiωxdω\begin{array}{r}{f(x)=\sum_{n=-\infty}^{\infty} c_{n} \cdot e^{i \frac{2 \pi n x}{T}}} \\ {T=\infty}\end{array} \} \Longrightarrow f(x)=\int_{-\infty}^{\infty} F(\omega) e^{i \omega x} d \omega

上面简化了一下,用ω\omega代表频率。

F(ω)F(\omega)大致是这么得到的:
cn=1Tx0x0+Tf(x)ei2πnxTdxT=}F(ω)=f(x)eiωxdx\begin{array}{r}{c_{n}=\frac{1}{T} \int_{x_{0}}^{x_{0}+T} f(x) \cdot e^{-i \frac{2 \pi n x}{T}} d x} \\ {T=\infty}\end{array} \} \Rightarrow F(\omega)= \int_{-\infty}^{\infty} f(x) e^{-i \omega x} d x

F(ω)F(\omega)就是傅立叶变换,得到的就是频域曲线。
下面两者称为傅立叶变换对,可以相互转换:

f(x)    F(ω)f(x)\iff F(\omega)

结论:看待同一个数学对象的两种形式,一个是函数,一个是向量。