Changkun's Blog欧长坤的博客

Science and art, life in between.科学与艺术,生活在其间。

  • Home首页
  • Ideas想法
  • Posts文章
  • Tags标签
  • Bio关于
Changkun Ou

Changkun Ou

Human-AI interaction researcher, engineer, and writer.人机交互研究者、工程师、写作者。

Bridging HCI, AI, and systems programming. Building intelligent human-in-the-loop optimization systems. Informed by psychology, sociology, cognitive science, and philosophy.连接人机交互、AI 与系统编程。构建智能的人在环优化系统。融合心理学、社会学、认知科学与哲学。

Science and art, life in between.科学与艺术,生活在其间。

276 Blogs博客
165 Tags标签
Changkun's Blog欧长坤的博客

流形学习与对抗网络

生成对抗网络是近年来比较热门的话题,这次我们来简单聊一聊它与流形学习之间的关系。

局部线性嵌入

局部线性嵌入(Locally Linear Embedding,LLE)是流形学习(Manifold Learning)中的一种方法。在流形方法中,我们假设数据分布在一个流形上。换句话说,每个样本领域内的邻居都近似形成一个局部的线性子空间。LLE 的基本想法是:由于每个领域都假设成了线性空间,那么每个分片(patch)数据都能由领域内的邻居来逼近、重构。它主要包含以下步骤:

  1. 对每一个样本 $x_i$,寻找其 $k$ 近邻;

  2. 寻找权重矩阵 $\boldsymbol{W}$ 来最小化从领域内的邻居重构 $x_i$ 的误差,其代价函数$L$为: $$ L(\boldsymbol{W}) = \sum_{i=1}^{n}{||x_i - \sum_{j\neq i}{w_{ij}x_j}||^2} $$ 当且仅当 $x_j$ 是$X_i$ 的 $k$ 邻居时,有 $w_{ij} = 0$;否则对于任意的 $i$,有 $\sum_j{w_{ij} = 1}$

  3. 使用步骤 2 中得到的矩阵,寻找坐标系 $\boldsymbol{Y}$ 最小化重构误差: $$ \Phi(\boldsymbol{Y}) = \sum_{i=1}^{n}{||y_i - \sum_{j\neq i}{w_{ij}y_j||^2}} $$ 对所有的 $j$ 服从 $\sum_{i}{y_{ij}} = 0$,并且 $\boldsymbol{Y}^T \boldsymbol{Y} = \boldsymbol{I}$

#统计学习# #理论# #数学# #泛函分析# #统计学# #概率# #机器学习# #深度学习# #神经网络#

Have thoughts on this?有想法?

I'd love to hear from you — questions, corrections, disagreements, or anything else.欢迎来信交流——问题、勘误、不同看法,或任何想说的。

hi@changkun.de
© 2008 - 2026 Changkun Ou. All rights reserved.保留所有权利。 | PV/UV: /
0%