Lebesgue积分理论的高明之处就在于它使得在这套理论下的全体可积函数在类似范数的意义下构成了一个完备的赋范线性空间,这套理论的特点极大的方便了微分方程积分方程概率论及函数论的研究使用,比如在使用迭代法解方程的时,虽然每一步的迭代函数都是具有很好性质的函数,但却没有办法保证迭代序列的极限也有同样的性质。但只要迭代序列是$L^{p}$中的基本列,则其极限必定在$L^{p}$中,而这样的极限也就是我们知道的方程的广义解。
在遇到微分方程边值问题时,对于给定的边界条件一般情况下很难再连续可微函数的范围内求解,甚至根本不可能有连续可微解,所以我们熟知的处理方法是给方程加上一个小的扰动项,是的问题变得可解,如果去一列按$p$-方范数收敛到0的扰动项,对应的解序列按$p$-方范数是一个基本列,那这样的极限也是在$L^{p}$中的,这样的极限也是我们所常说的广义解。
而Riemann积分和Riemann-Stieltjes积分理论在$[0,1]$上的可积函数不能在范数
$$ \begin{equation} |f|=\int_{0}^{1}|f(x)|dx \end{equation} $$
的意义下构成一个完备的赋范线性空间。这就使得我们再处理前面所提到的问题的时候根本就是束手无策。也正是如此,Lebesgue积分理论将Riemann积分和Riemann-Stieltjes积分理论送进了历史博物馆。
但是有一个问题是值得讨论的,Lebesgue这套理论首先将具有某种可加性质的非负集合函数扩张成某个$\sigma$-代数上的可数可加的非负集合函数(测度),然后再这个测度理论的的基础上建立起具有我们所需要的完备性的积分理论。从直观上来看,这似乎是一套为了完善问题而提出的一套理论。
我们脑子里总是会有这样的想法:
一个为了建立我们所需要的完备性积分理论的更为直接的途径似乎应该是将相对于没有我们所需要的完备性积分理论中的全体可积函数组成的空间完备化。这种绕过了测度理论而直接建立起具有我们所需要的完备性的积分理论从某种意义上来说才更像是是一个理论扩充的过程。
再说说广义函数。广义函数说道被提出有这样一段小小的插曲,当时Dirac在量子力学原理一书中提出过这样一个反常函数$\delta(x)$,它被定义在$R$上,并且对于
$$ \begin{equation} \forall x \neq 0 \end{equation} $$
有
$$ \begin{equation} \delta(x) = 0 \end{equation} $$
但
$$ \begin{equation} \delta(0)=\infty \end{equation} $$
而且
$$ \begin{equation} \int_{-\infty}^{\infty}\delta(x)dx=1 \end{equation} $$
当然了,它并不是我们所定义的传统函数概念的范畴。但是这个反常函数在讨论量子力学中的问题特别是连续谱问题的时候,十分的方便。
John von Neumann曾这样警告说,把理论建立在这样一个虚构的数学概念上是十分危险的。所以他摒弃了这套理论,而把量子力学阉割建立在他自己才建立不久的Helbert空间上无界自伴算子的谱理论上。
John von Neumann成功的实现了量子力学逻辑基础的严格化,但是他没有认识到Dirac这个十分有用的“虚构的数学概念”恰好是重要的而且完全可以建立在严格逻辑基础上的数学概念的一颗数学种子。
早在19世纪,英国工程师Heaviside在创建他的运算微积时就已经大胆地突破传统函数的概念,进行未经严格逻辑验证但却非常方便的数学运算。在研究偏微分方程的时候,人们突破传统的函数概念引进广义解的概念。有Leray关于Navier-Stokes方程组的湍流解,Bochner的弱解,Sovolev,Friedrichs和Krylov等人的广义导数的概念等等等等,这些史实严格地或不严格地突破传统的函数概念在20世纪上半夜已形成汹涌澎湃的浪潮。
可以毫不夸张的说,20世纪的大部分数学都是在物理学家们的“无理取闹”中经过数学家的总结诞生的。在二十世纪中叶的时候,Schwartz总结了前人突破传统函数概念的工作以他和Dieudonne刚刚合作完成的线性拓扑空间为工具建立起了广义函数的理论出色的完成了统一并提炼前人工作使命。