1. 从“查询航班延误”看传统方法的尴尬
真实客服日志里,用户问法千奇百怪:
- “我昨天飞北京的航班是不是晚点了?”
- “CA1234 延误多久?”
- “北京天气这么差,航班会延误吗?”
早期用正则+词典,光“延误”就能写出 30 多条 pattern,仍挡不住“我想查延误险怎么买”这种误召回。后来换成 TextCNN 做意图分类,准确率在测试集 85%,可一旦句子同时出现“出发地、目的地、航班号”三个槽位,模型就把“查延误”和“查起降地”搞混,F1 掉到 62%。
痛点总结:
- 规则写不全,泛化差。
- 分类模型把序列标注当二分类,槽位边界全靠后处理,误差累积。
- 新意图上线要重新训练,老意图又容易“灾难性遗忘”。
于是把目光投向“预训练+序列标注”的联合模型:BERT 负责语义,CRF 负责合法转移,一次前向同时输出意图和槽位。
2. 技术选型:BERT+CRF 不是拍脑袋
在 3 万条航空客服语料上做了对比实验( Tesla T4,batch=32,seq=64):
| 模型 | 意图 Acc | 槽位 F1 | 推理延迟 ms |
|---|---|---|---|
| BiLSTM-CRF | 0.881 | 0.852 | 28 |
| BERT-base+Softmax | 0.905 | 0.864 | 22 |
| BERT-base+CRF | 0.918 | 0.889 | 24 |
BERT+CRF 把 F1 拉高了 2.5 个点,延迟只多了 2 ms,符合线上<30 ms 的 SLA。BiLSTM-CRF 虽然快,但特征表达能力天花板太低;纯 Softmax 又少了转移约束,容易出现“I-B 后面接 O”这种低级错误。
3. 核心实现拆解
3.1 BERT 微调策略
只动最后两层,冻结 embeddings,学习率 2e-5,warmup 10%,batch 24,epoch 3,早停 patience=2。这样既能保留通用语义,又让领域特征充分更新。
3.2 CRF 转移矩阵约束
把业务规则写进转移矩阵,初始化时:
$$ M_{i,j} = \begin{cases} -100, & \text{if } i \rightarrow j \text{ 非法} \ 0, & \text{else} \end{cases} $$
例如“出发地”标签后不能接“查询余额”标签,直接置 -100,训练时 softmax 概率永远≈0,解码时 Viterbi 也跳不过去,比后处理过滤更优雅。
3.3 OOV 与 Byte Pair Encoding
航空领域“航班号、机场三字码”每天都在新增。用 8k 的 BPE 词表把 CA1234 切成 CA@@ 1234,未登录子词降到 0.3%,比原始 WordPiece 的 2.1% 下降一个量级。
3.4 关键代码片段
下面给出可运行 PyTorch 核心模块,符合 Google Python Style。
import torch, torch.nn as nn from torchcrf import CRF from transformers import BertModel class IntentSlotModel(nn.Module): def __init__(self, bert_dir, num_intents, num_slots, dropout=0.1): super().__init__() self.bert = BertModel.from_pretrained(bert_dir) hidden = self.bert.config.hidden_size self.slot_ffn = nn.Linear(hidden, num_slots) self.intent_ffn = nn.Linear(hidden, num_intents) self.crf = CRF(num_slots, batch_first=True) self.dropout = nn.Dropout(dropout) def forward(self, input_ids, mask, intent_labels=None, slot_labels=None): bert_out = self.bert(input_ids, attention_mask=mask)[0] # [B,L,H] slot_logits = self.slot_ffn(self.dropout(bert_out)) # [B,L,S] pooled = bert_out[:, 0] # [B,H] intent_logits = self.intent_ffn(self.dropout(pooled)) # [B,I] if slot_labels is not None: # 训练 crf_loss = -self.crf(slot_logits, slot_labels, mask=mask) intent_loss = nn.CrossEntropyLoss()(intent_logits, intent_labels) return intent_loss + crf_loss else: # 推理 # Viterbi 解码 best_paths = self.crf.decode(slot_logits, mask=mask) return intent_logits, best_paths动态 Attention mask 与标签平滑:
def smooth_label(target, num_class, eps=0.1): return (1-eps)*target + eps/num_class # 训练循环里 intent_onehot = torch.zeros(B, I).scatter_(1, intent_labels.view(-1,1), 1) intent_onehot = smooth_label(intent_onehot, I, eps=0.1) loss = nn.KLDivLoss()(F.log_softmax(intent_logits), intent_onehot)4. 性能优化三板斧
4.1 ONNX Runtime 加速
训练完先torch.onnx.export,再跑onnxruntime-gpu推理,FP16 开启,T4 上延迟从 24 ms→14 ms,显存省 35%。
4.2 知识蒸馏
用 12 层 BERT 做 teacher,TinyBERT-4 做 student,加入隐藏层 MSE 与注意力蒸馏,槽位 F1 只掉 0.8 个点,模型体积 79 M→14 M,方便边端部署。
4.3 批量预测
线上高峰 800 QPS,把 1×64 请求聚合成 32×64,用 TensorRT 动态 shape,实际吞吐提升 4.6 倍;同时维护一个 LRU 缓存,近 18% 重复问句直接走缓存,CPU 降到 30%。
5. 避坑指南
领域适配灾难性遗忘
每加新意图,旧数据按 1:3 混合回放,学习率降到 1e-6,否则旧标签 F1 会掉 5-7 个点。槽位冲突
同一句话“北京”既可能是出发地也可能是目的地,CRF 解码后加规则:若用户上一轮已提供“出发地”,则本轮“北京”优先填“目的地”,准确率提升 2.3%。对话上下文缓存
把上一轮已确认的槽位 KV 存 Redis,key 用 session_id,ttl 300 s;下一轮模型输入前拼接“历史槽位向量”,OOV 再识别率降 40%。
6. 开放思考
当用户画像标签(会员等级、历史投诉次数、设备类型)动态变化时,意图识别的置信度阈值是否也该跟着变?高价值用户误拒成本高,阈值调低;羊毛党阈值调高。如何把画像向量实时融入 BERT 的 CLS 位置,或做自适应阈值决策,是值得继续挖的坑。
把 BERT+CRF 搬进客服场景,不只是“跑通 SOTA”那么简单,更多是在业务规则、性能、体验之间反复横跳。希望这份踩坑小结能让你少熬夜,多睡点。若你对动态阈值有新的解法,欢迎一起交流。