AI在ADC数字校准中的应用

时间交织 ADC (TI-ADC) 的通道失配补偿

该组文献专注于解决 TI-ADC 架构中特有的非理想因素,包括采样时间偏斜(Timing Skew)、增益失配、偏置失配及带宽失配。研究重点在于利用 CNN 或神经网络在后台精确提取多通道间的特征差异并进行实时补偿。

流水线及 SAR 型 ADC 的级间与权重非线性校准

侧重于 Pipelined 和 SAR 及其复合结构(如 Pipelined-SAR)。校准重点包括余差放大器(RA)的非线性、电容网络(CDAC)权重误差以及级间增益误差,旨在通过 AI 算法替代复杂的传统代数校准。

融合领域知识的增强建模与复杂非线性抑制

探讨如何将传统的信号处理模型(如 Volterra 级数、物理方程)与神经网络(如 KAN 网络、残差网络)结合,解决宽带 ADC 中的记忆效应和谐波失真,提高校准的可解释性和在宽带信号下的性能。

轻量化神经网络设计与高能效硬件实现

关注 AI 校准算法在芯片集成中的实际开销。研究通过部分二值化、参数量化、神经元剪枝、权重聚类以及硬件复用技术,在保持校准精度的前提下,显著降低 FPGA/ASIC 实现的面积和功耗。

通用校准框架与启发式优化训练策略

研究不依赖特定 ADC 架构的通用校准方法,并引入遗传算法(GA)、进化策略、自注意力机制等高级策略,以优化网络权重的搜索过程,提升算法的收敛速度和在动态环境下的稳健性。

AI在ADC数字校准中的应用

AI 在 ADC 数字校准中的应用已形成从底层硬件优化到高层算法创新的全栈体系。研究重点已从单一的误差拟合,演进为:1. 针对多通道失配(TI-ADC)和级间非线性(Pipelined/SAR)的深度架构定制;2. 结合物理机理(如 Volterra 级数)的灰盒建模以提升宽带性能;3. 采用启发式训练策略加速收敛;4. 通过轻量化技术(二值化、剪枝)实现芯片级的高能效部署。这些进展显著提升了 ADC 的 SFDR、SNDR 等核心指标,为突破模拟电路物理极限提供了数字补偿新范式。

40 篇文献,5 个研究方向
时间交织 ADC (TI-ADC) 的通道失配补偿
该组文献专注于解决 TI-ADC 架构中特有的非理想因素,包括采样时间偏斜(Timing Skew)、增益失配、偏置失配及带宽失配。研究重点在于利用 CNN 或神经网络在后台精确提取多通道间的特征差异并进行实时补偿。相关文献: Mingjun Song et. al, 2025 等 7 篇文献
流水线及 SAR 型 ADC 的级间与权重非线性校准
侧重于 Pipelined 和 SAR 及其复合结构(如 Pipelined-SAR)。校准重点包括余差放大器(RA)的非线性、电容网络(CDAC)权重误差以及级间增益误差,旨在通过 AI 算法替代复杂的传统代数校准。相关文献: Yongsheng Yin et. al, 2025 等 10 篇文献
融合领域知识的增强建模与复杂非线性抑制
探讨如何将传统的信号处理模型(如 Volterra 级数、物理方程)与神经网络(如 KAN 网络、残差网络)结合,解决宽带 ADC 中的记忆效应和谐波失真,提高校准的可解释性和在宽带信号下的性能。相关文献: Yan Liu et. al, 2025 等 7 篇文献
轻量化神经网络设计与高能效硬件实现
关注 AI 校准算法在芯片集成中的实际开销。研究通过部分二值化、参数量化、神经元剪枝、权重聚类以及硬件复用技术,在保持校准精度的前提下,显著降低 FPGA/ASIC 实现的面积和功耗。相关文献: Min Chen et. al, 2021 等 8 篇文献
通用校准框架与启发式优化训练策略
研究不依赖特定 ADC 架构的通用校准方法,并引入遗传算法(GA)、进化策略、自注意力机制等高级策略,以优化网络权重的搜索过程,提升算法的收敛速度和在动态环境下的稳健性。相关文献: Tiehu Li et. al, 2026 等 8 篇文献