什么是系统风险?

系统风险(Systemic Risk)是指由于系统内部组件高度相互依赖和关联性,一个局部失败或冲击可能通过连锁反应导致整个系统或更大范围崩溃的风险。在人工智能产品开发中,这一概念特指AI模型或组件的故障、偏见、安全漏洞或不稳定性可能引发广泛 […]

什么是AI安全(AI Safety)?

AI安全(AI Safety)是人工智能领域的一个关键分支,专注于研究和实践如何确保AI系统在运行中行为安全、可靠、可控,避免产生意外错误、偏见、失控或有害后果。其核心目标包括使系统与人类意图对齐(alignment)、在复杂环境中保持鲁棒 […]

什么是对抗性攻击?

对抗性攻击(Adversarial Attacks)是指在人工智能领域中,恶意设计的输入样本,旨在欺骗机器学习模型产生错误预测的行为。这类攻击通常通过对正常数据施加细微、人类难以察觉的扰动来实现,例如在图像中添加微小噪声,使模型将原本正确分 […]