第832章 算法迭代
卷首语
1970 年 1 月 19 日,罗布泊核试验基地的地下数据室,零下 17 度的低温让金属文件柜结着白霜。老张戴着双层手套,从编号 “62 - 核 - 37” 的档案袋里抽出泛黄的纸带,上面的脉冲信号曲线像一条扭曲的蛇 —— 这是 1962 年核爆时记录的电磁辐射波形。小李蹲在旁边,将纸带数据输入 “67 式” 设备的算法模拟器,屏幕上的加密序列突然变得毫无规律,截获概率从 37% 骤降至 0.19%。
“就是这个‘混沌段’。” 老张的指甲划过纸带第 19 厘米处,那里的波形因核爆电磁脉冲干扰出现无规则抖动。三年前在边境,苏军的截获设备就是靠识别加密算法的规律性,破译了 17% 的通信内容。此刻,模拟器的蜂鸣声突然变调,截获告警灯熄灭,证明融入核爆数据的新算法成功躲过了模拟截获。
王参谋带来的截获记录摊在桌上,1969 年的 37 次被截获事件中,有 19 次是因为算法周期被敌方掌握。他呵出的白气落在纸带上,与 1962 年的波形重叠:“敌人的计算机比我们先进,常规算法撑不了三个月。” 数据室的时钟敲了三下,纸带在静电作用下微微颤动,像在呼应八年前那场改变一切的核爆。
一、截获的危机:1969 年的算法困境
1969 年夏,中苏边境的电子监听站连续截获苏军的破译报告。某份标注 “绝密” 的文件显示,他们已能识别 “67 式” 设备的加密算法周期,平均每 37 小时就能破解一组密钥。前线的通信安全报告更令人心惊:19 个哨所中,有 7 个的日常通信被部分截获,虽然核心情报未泄露,但 “67 式” 的抗截获能力已亮起红灯。
“不是设备不好,是算法老了。” 老张在紧急会议上拍着桌子,他展示的对比图显示,1962 年的加密算法基于固定周期,而苏军的 “拉多加 - 3” 截获系统能通过 17 小时的连续监听锁定规律。某电子对抗专家的演示更触目惊心:用缴获的苏军设备,仅用 47 分钟就破译了一组 “67 式” 的实战通信,“就像在看有规律闪烁的信号灯,再笨也能摸清节奏”。
1962 年的技术遗产成了反思的起点。档案显示,当年核试验后,科研人员曾发现核爆电磁脉冲能干扰所有加密算法的规律性,但因技术限制未深入研究。“就像捡到块金子,却以为是黄铜。” 小李在整理旧数据时,发现 1962 年的实验日志里有行小字:“脉冲干扰段的随机性,或可用于加密”,字迹被茶水洇开,却像道闪电照亮了升级方向。
抗截获升级的任务在 1969 年 9 月下达,核心指标是 “截获概率≤0.5%”。当任务书送到实验室时,老张正在复现 1962 年的核爆电磁环境,用高压电弧模拟脉冲干扰。“常规算法的规律性就像靶心,敌人闭着眼都能打。” 他让小李记录不同强度干扰下的算法表现,发现当干扰强度达到 150 千伏 \/ 米时,算法的截获概率反而下降 73%—— 这正是 1962 年核爆中心的电磁强度。
最初的升级方案陷入误区。团队试图用更复杂的数学公式增强算法,却导致设备运算速度下降 50%,实战中频繁出现延迟。某哨所的测试报告写道:“抗截获是好了,可信号发不出去,和被截获一样要命。” 王参谋带来的前线反馈更直接:“战士们要的是又快又安全,不是数学游戏。”
1962 年核爆数据的价值在绝望中显现。小李在比对 1962 年与 1969 年的截获记录时发现,苏军的截获系统对无规律的 “混沌信号” 识别率极低,而核爆电磁脉冲产生的波形恰好符合这种特性。“不是要造更复杂的锁,是要让钥匙长得像随机的石头。” 老张的比喻让团队转向新方向:把核爆数据的混沌特性植入算法。
二、核爆数据的挖掘:1962 年的混沌密码
1969 年 10 月,挖掘 1962 年核爆数据的工作在罗布泊基地启动。37 箱原始记录中,大部分是核爆当量、冲击波压力等物理参数,与算法相关的电磁数据仅存于 19 卷纸带中,其中 7 卷因保存不当出现数据丢失。“就像在煤矿里找钻石。” 小李和档案管理员用三个月时间,将模糊的波形逐一修复,手指被纸带边缘割出细小的伤口。
1962 年的记录方式给数据提取带来巨大困难。当时的纸带记录仪每厘米只能记录 37 个点,远低于 1969 年设备的 100 点标准,导致波形细节丢失。老张想出土办法:用放大镜观察波形拐点,结合核爆物理模型推算中间值,这个过程让他的老花镜度数加深了 100 度。“1962 年的技术限制,反而让数据保留了最本质的混沌特征。” 他在笔记里画下对比图,原始数据的 “粗糙感” 比精确测量更适合加密。
关键的 “混沌段” 在第 19 卷纸带被发现。这段 17 秒的电磁脉冲记录,因核爆产生的多频干扰,呈现完全无规律的抖动,频谱分析显示其熵值(衡量随机性的指标)达 0.91,远超常规算法的 0.67。小李将这段数据输入截获模拟器,苏军 “拉多加 - 3” 系统的识别指示灯始终不亮,“就像让敌人在沙尘暴里找特定的沙子”。
数据的标准化处理充满博弈。老研究员坚持保留原始数据的 “噪声”,认为这是抗截获的关键;年轻工程师则主张平滑处理,担心粗糙数据导致算法不稳定。实战测试给出答案:原始数据组的截获率 0.19%,平滑处理后升至 3.7%。“敌人怕的就是‘不完美’。” 老张在评审会上展示的对比结果,让所有人沉默 ——1962 年的 “缺陷” 恰恰成了 20 世纪 70 年代的优势。