AI产品术语2025年6月28日2025年6月28日 什么是后门攻击(Backdoor Attack)? 后门攻击(Backdoor Attack)是指在机器学习模型训练过程中,恶意植入一个隐藏的触发器(trigger),使得模型在正常输入下表现正常,但当输入包含特定触发信号(如特定图案或数据特征)时,模型会输出预设的错误结果或恶意行为。这种攻 […]