找一些关于爆炸缩比等效与神经网络的论文

多尺度物理建模与时序等效预测

该组论文探讨了如何利用神经网络处理具有多尺度特征的物理信号。通过多尺度分解、时序缩放(Timestep Shrinking)以及建立物理量之间的等效映射关系(如相位梯度、针尖偏转、地震响应),为模拟爆炸等复杂物理过程中的缩比等效提供了建模基础。

深度学习缩放法则(Scaling Laws)与性能演进

这组文献聚焦于模型规模(参数、数据、分辨率)增加时的性能增长规律。研究涵盖了Transformer的复合缩放、视觉学习的异构预训练缩放以及开源基础模型的扩展规律,是理解‘缩比等效’在模型容量层面表现的核心理论。

梯度爆炸抑制与训练动力学稳定性

针对深度网络(RNN、Transformer、扩散模型)在极端参数波动下的不稳定性,该组论文研究了梯度爆炸的抑制策略。包括梯度裁剪、锐度感知最小化(SAM)、初始化失效模式分析及非自治系统的渐近稳定性证明,确保模型在复杂动态环境下的收敛。

脉冲神经网络(SNN)与神经形态等效计算

专注于第三代神经网络的缩放与等效机制。研究内容包括脉冲列级别的反向传播、代理梯度缩放、以及自适应突触缩放(Synaptic Scaling),旨在解决类脑计算架构在深层化过程中的梯度流传递与能效优化问题。

大规模分布式优化与硬件架构扩展

该组论文关注在异构计算环境和新型硬件(如光子芯片)下的系统级缩放。涵盖了零阶优化的大规模应用、分布式训练效率优化、以及通过光电残差设计克服传统硬件在梯度传播上的物理限制。

找一些关于爆炸缩比等效与神经网络的论文

最终合并的文献组构建了一个从“物理等效建模”到“模型缩放理论”再到“系统稳定性保障”的完整框架。研究重点在于:1) 利用多尺度神经网络捕捉物理现象中的缩比规律;2) 通过缩放法则(Scaling Laws)预测大规模模型的性能演进;3) 解决深度学习在模拟高能、瞬态过程(如爆炸相关梯度波动)时的梯度爆炸与稳定性挑战;4) 探索脉冲神经网络与新型硬件在处理等效计算任务时的独特优势。这为实现爆炸缩比等效的神经计算模拟提供了多维度的理论与技术支撑。

44 篇文献,5 个研究方向
多尺度物理建模与时序等效预测
该组论文探讨了如何利用神经网络处理具有多尺度特征的物理信号。通过多尺度分解、时序缩放(Timestep Shrinking)以及建立物理量之间的等效映射关系(如相位梯度、针尖偏转、地震响应),为模拟爆炸等复杂物理过程中的缩比等效提供了建模基础。相关文献: Yongqi Ding et. al, 2024 等 9 篇文献
深度学习缩放法则(Scaling Laws)与性能演进
这组文献聚焦于模型规模(参数、数据、分辨率)增加时的性能增长规律。研究涵盖了Transformer的复合缩放、视觉学习的异构预训练缩放以及开源基础模型的扩展规律,是理解‘缩比等效’在模型容量层面表现的核心理论。相关文献: Tung Nguyen et. al, 2023 等 6 篇文献
梯度爆炸抑制与训练动力学稳定性
针对深度网络(RNN、Transformer、扩散模型)在极端参数波动下的不稳定性,该组论文研究了梯度爆炸的抑制策略。包括梯度裁剪、锐度感知最小化(SAM)、初始化失效模式分析及非自治系统的渐近稳定性证明,确保模型在复杂动态环境下的收敛。相关文献: Alessio Giorlandino et. al, 2025 等 12 篇文献
脉冲神经网络(SNN)与神经形态等效计算
专注于第三代神经网络的缩放与等效机制。研究内容包括脉冲列级别的反向传播、代理梯度缩放、以及自适应突触缩放(Synaptic Scaling),旨在解决类脑计算架构在深层化过程中的梯度流传递与能效优化问题。相关文献: Wujian Ye et. al, 2025 等 7 篇文献
大规模分布式优化与硬件架构扩展
该组论文关注在异构计算环境和新型硬件(如光子芯片)下的系统级缩放。涵盖了零阶优化的大规模应用、分布式训练效率优化、以及通过光电残差设计克服传统硬件在梯度传播上的物理限制。相关文献: Navid Hashemi et. al, 2024 等 10 篇文献