核心痛点:为什么需要 SCLF?
在氢能“制-储-运-用”全链条中,安全至关重要。传统的基于深度学习(如 CNN, LSTM)的泄漏定位方法虽然有效,但存在致命弱点:
获取“带标签”的泄漏数据需要反复拆解、实验,成本昂贵且不切实际。
深度学习不仅是“黑盒”,在涉及生命安全的氢能领域,人类无法理解模型的决策逻辑是巨大的风险。
SCLF 的解决方案
利用大量无标签数据预训练,提取通用特征。
同时利用传感器信号的时域和频域特征。
用模糊规则替代全连接层,实现“白盒”推理。
3. 框架详解:SCLF 是如何工作的?
拉近同源样本
推开异源样本
IF $z_1$ is A AND ... THEN $y=...$
核心 1: 时频融合表示 (TF-FRM)
这是模型的“大脑”。它在**无标签数据**上进行自监督学习。
- • 双域输入: 同时处理原始时间序列和 FFT 频谱。
- • 数据增强: 对信号进行抖动、缩放(Time)和增删频率分量(Freq),构建正负样本对。
- • 联合损失: 不仅在时域和频域内部对比,还在“时-频”联合空间进行对比,强制模型学习一致性特征。
核心 2: 模糊定位器 (MR-FL)
这是模型的“嘴巴”,负责输出结果。它取代了传统的全连接层。
- • 可解释性: 每一个决策都由 IF-THEN 规则驱动。
- • 多规则库: 针对每个坐标轴(X 和 Y)建立多个规则库,提升精度。
- • 微调: 在少量有标签数据上进行微调。
4. 如何复现?实现路线图
Step 1: 数据准备与预处理
收集多通道氢浓度传感器数据。论文使用了 1:24 的地下车库模型,布置了 12 个传感器,采集了 827 组氦气(替代氢气)扩散数据。
操作: 归一化 -> FFT 变换 -> 数据增强
Step 2: TF-FRM 预训练 (Pre-training)
构建 Transformer 作为 Encoder。使用无标签数据训练。
Loss = λ(L_Time + L_Freq) + (1-λ)L_Joint
Step 3: 微调与评估 (Fine-tuning)
冻结或微调 Encoder 参数,接入 MR-FL 层。使用少量有标签数据(如 227 组)进行监督学习。
Task: 回归预测 (X, Y) 坐标
5. 实验结果与可解释性分析
模型性能对比 (F1 Score)
数据来源:论文 Table I & II (Test set)
打开“黑盒”:模糊规则可视化
THEN: Output = 0.4192
论文通过热力图展示了:对于特定输入,只有特定的规则(如第 952 条)会被高强度激活。这意味着我们可以精确知道模型是根据哪些特征做出的判断。