AI产品术语2025年6月28日2025年6月28日 什么是对抗性提示(Adversarial Prompting)? 对抗性提示(Adversarial Prompting)是指用户故意设计输入提示(prompt)以诱导人工智能模型(尤其是大型语言模型)产生错误、偏见或有害输出的行为,类似于机器学习中的对抗性攻击概念。它通过精心构造的文本输入来测试模型的鲁 […]