第76章:论文投稿——Science (2/6)
p; 删掉,重写。
“我们首先对128通道脑电数据进行相空间重构(phase space reconstruction)。给定时间序列{x(t)},我们构造延迟向量:
X(t) = [x(t), x(t-τ), x(t-2τ), ..., x(t-(m-1)τ)]
其中τ为时间延迟,m为嵌入维度。根据Takens定理,当m足够大时,重构的相空间能够保留原系统的拓扑性质......“
他写得很慢,每一个公式都要反复推敲,每一句话都要字斟句酌。
第一天,只写了三页。
第二天,写了五页,但删掉了两页。
第三天晚上,他熬夜到凌晨三点,终于把吸引子识别的算法写清楚了。
姜以夏发来消息:“林煜,这么晚还不睡?“
“在写论文,马上就好。“
“别太拼命,要注意身体。“
“我知道。你也早点睡。“
关掉聊天窗口,林煜继续写。
第四天,他开始写最难的部分——唤醒算法的理论基础。
这部分要解释,为什么用特定的刺激模式,能把大脑从昏迷状态推向意识状态。
他写道:
“我们将唤醒过程建模为受控动力系统的轨迹优化问题。设x(t)为大脑状态,u(t)为外部刺激,系统演化遵循:
dx\/dt = f(x) + g(x)u(t)
其中f(x)描述大脑的自然动力学,g(x)u(t)描述刺激的作用。我们的目标是找到最优刺激u*(t),使得系统从初始状态x₀(昏迷吸引子)到达目标状态xₜ(意识吸引子),同时最小化能量消耗......“
写到这里,他卡住了。
怎么用数学语言描述“最小化能量消耗“?
他想起在清华时韩教授讲的变分法,又想起在NeuroLink学到的最优控制理论。
两者结合起来......
他在纸上演算了两个小时,终于推导出了完整的数学形式。
然后一个字一个字敲进电脑:
“我们使用变分法求解该优化问题。定义泛函:
J[u] = ∫₀ᵀ [||x(t) - xₜ||² + λ||u(t)||²] dt
其中第一项表示状态偏差,第二项表示控制成本,λ为权重系数。通过求解Euler-Lagrange方程,我们得到最优刺激的解析形式......“
写完这一段,天已经亮了。
 
本章未完,请点击下一页继续阅读