知识护栏
知识护栏是在人工智能系统(特别是大型语言模型/LLM)中实施的一套预定义规则、约束和验证层。其主要功能是约束模型的输出,确保生成的响应准确、相关、符合组织政策,并限定在所提供知识库的范围内。
不受约束的LLM容易出现“幻觉”——即生成事实错误但自信陈述的信息。在企业环境中,这会对品牌声誉、法律合规性和运营完整性构成重大风险。知识护栏通过充当原始模型输出和最终用户之间的质量和安全过滤器来减轻这些风险。
护栏在AI流程的各个阶段运行:
实施有效的护栏是复杂的。过于严格的护栏可能导致“过度过滤”,即模型拒绝回答有效问题,从而导致用户体验不佳。在严格合规性与提供帮助性之间取得平衡是一个持续的工程挑战。
护栏与检索增强生成(RAG)、AI对齐和提示工程密切相关。虽然提示工程指导模型的行为,但护栏则强制执行外部的、不可协商的边界。