Elasticsearch 与行业领先的生成式 AI 工具和提供商实现了原生集成。请观看我们的网络研讨会,了解如何超越 RAG 基础功能,或使用 Elastic 向量数据库构建生产就绪型应用。
在本篇文章中,我们将探讨在 RAG(检索增强生成)流程中使用公共 LLM 时保护个人身份信息 (PII) 和敏感数据的方法。我们将探索使用开源库和正则表达式屏蔽 PII 和敏感数据,以及在调用公共 LLM 之前使用本地 LLM 屏蔽数据。
在开始之前,让我们回顾一下我们在本篇文章中使用的一些术语。
术语
LlamaIndex是用于构建 LLM(大型语言模型)应用程序的领先数据框架。LlamaIndex 为构建 RAG(检索增强生成)应用程序的各个阶段提供了抽象概念。像 LlamaIndex 和 LangChain 这样的框架提供了抽象,因此应用程序不会与任何特定 LLM 的应用程序接口紧密耦合。
Elasticsearch由Elastic 提供。Elastic 是 Elasticsearch 背后的行业领导者,Elasticsearch 是一个可扩展的数据存储和矢量数据库,支持精确的全文搜索、语义理解的矢量搜索以及两全其美的混合搜索。Elasticsearch 是一个分布式 RESTful 搜索和分析引擎、可扩展数据存储和矢量数据库。我们在本博客中使用的 Elasticsearch 功能在 Elasticsearch 的免费开放版本中提供。
检索增强生成(RAG)是一种人工智能技术/模式,在这种模式下,LLM 可以利用外部知识生成对用户查询的回复。这样,法律硕士的答复就可以根据具体情况量身定做,而不是泛泛而谈。
嵌入是文本/媒体意义的数字表示。它们是高维信息的低维表示。
RAG 和数据保护
一般来说,大型语言模型(LLM)善于根据模型中的可用信息生成响应,而这些信息可能是在互联网数据上训练出来的。然而,对于那些模型中没有信息的查询,则需要向法律硕士提供模型中没有的外部知识或具体细节。这些信息可能存在于您的数据库或内部知识系统中。检索增强生成(RAG)是一种技术,对于给定的用户查询,首先从外部(LLM)系统(如数据库)检索相关的上下文/信息,然后将上下文与用户查询一起发送给 LLM,以生成更具体、更相关的响应。
这使得 RAG 技术在问题解答、内容创建以及任何有利于深入理解上下文和细节的应用中都非常有效。
因此,在 RAG 管道中,您有可能将 PII(个人身份信息)等内部信息和敏感信息(如姓名、出生日期、账号等)暴露给公共 LLM。
虽然在使用 Elasticsearch 等矢量数据库时,数据是安全的(通过各种杠杆,如基于角色的访问控制、文档级安全等),但在向外部公共 LLM 发送数据时必须小心谨慎。
在使用大型语言模型 (LLM) 时,出于多种原因,保护个人身份信息 (PII) 和敏感数据至关重要:
- 隐私合规:许多地区都有严格的法规,如欧洲的《通用数据保护条例》(GDPR)或美国的《加利福尼亚消费者隐私法》(CCPA),这些法规都要求保护个人数据。要避免法律后果和罚款,就必须遵守这些法律。
- 用户信任:确保敏感信息的保密性和完整性可建立用户信任。用户更愿意使用他们认为能保护其隐私的系统,并与之互动。
- 数据安全:防止数据泄露至关重要。如果没有足够的保障措施,暴露在法律硕士面前的敏感数据很容易被窃取或滥用,从而导致身份被盗或金融欺诈等潜在危害。
- 道德方面的考虑:从道德角度讲,尊重用户隐私并负责任地处理他们的数据非常重要。对 PII 处理不当会导致歧视、侮辱或其他负面社会影响。
- 企业声誉:未能保护敏感数据的公司可能会声誉受损,这可能会对其业务造成长期负面影响,包括失去客户和收入。
- 减少滥用风险:安全处理敏感数据有助于防止对数据或模型的恶意使用,例如在有偏见的数据上训练模型,或利用数据操纵或伤害个人。
总之,为了确保法律合规、维护用户信任、确保数据安全、坚持道德标准、保护企业声誉和降低滥用风险,必须对 PII 和敏感数据进行强有力的保护。
快速回顾
在上一篇文章中,我们讨论了如何使用 RAG 技术,将 Elasticsearch 作为向量数据库,同时使用 LlamaIndex 和本地运行的 Mistral LLM 来实现 Q&A 体验。在此基础上,我们将继续努力。
阅读上一篇文章是可有可无的,因为我们现在将快速讨论/复述上一篇文章中的内容。
我们有一个样本数据集,内容是一家虚构的家庭保险公司的座席人员与客户之间的呼叫中心对话。我们开发了一个简单的 RAG 应用程序,可以回答 "客户因哪些与水有关的问题而提出索赔 "等问题。
从高度上看,流程是这样的。

在索引阶段,我们使用 LlamaIndex 管道加载并索引文档。文档被分块并连同其嵌入一起存储在 Elasticsearch 向量数据库中。
在查询阶段,当用户提出问题时,LlamaIndex 会检索与查询相关的前 K 个相似文档。这些排名前 K 位的相关文档连同查询结果被发送到本地运行的 Mistral LLM,然后由其生成响应并发送回用户。请随时查看上一篇文章或探索代码。
在上一篇文章中,我们在本地运行了 LLM。不过,在生产过程中,您可能希望使用OpenAI、Mistral、Anthropic等公司提供的外部 LLM。这可能是因为您的使用案例需要一个更大的基础模型,或者由于企业生产的需要(如可扩展性、可用性、性能等),在本地运行不是一种选择。
在 RAG 管道中引入外部 LLM 会使您面临不慎将敏感和 PII 泄露给 LLM 的风险。在本篇文章中,我们将探讨如何在将文档发送给外部法律硕士之前,将 PII 信息屏蔽作为 RAG 管道的一部分。
持有公共法学硕士学位的 RAG
在讨论如何在 RAG 管道中保护 PII 和敏感信息之前,我们将首先使用 LlamaIndex、Elasticsearch 向量数据库和 OpenAI LLM 构建一个简单的 RAG 应用程序。
准备工作
我们需要以下材料
- 运行Elasticsearch作为向量数据库来存储嵌入。按照上一篇文章中关于安装 Elasticsearch 的说明进行操作。
- 开放人工智能应用程序接口密钥。
简单的 RAG 应用
整个代码可在Github Repository(branch:protection-pii)中找到,以供参考。克隆该 repo 是可选的,因为我们将在下文中详细介绍代码。
在您最喜欢的集成开发环境中,用以下 3 个文件创建一个新的 Python 应用程序。
index.py与索引数据有关的代码的位置。query.py与查询和 LLM 交互相关的代码都放在这里。.env配置属性(如 API 密钥)的位置。
我们需要安装一些软件包。首先,我们要在应用程序的根文件夹中创建一个新的 python虚拟环境。
激活虚拟环境并安装以下所需软件包。
在 .env 中配置 OpenAI 和 Elasticsearch 连接属性锉刀
索引数据
下载conversations.json文件,其中包含客户与我们虚构的房屋保险公司呼叫中心座席之间的对话。将该文件与 2 个 python 文件和 .env 文件一起放在应用程序的根目录中。文件。下面是该文件内容的示例。
在index.py 中粘贴下面的代码,该代码负责索引数据。
运行上述代码可看到在 Elasticsearch 中创建了一个索引,将嵌入信息存储在名为convo_index 的 Elasticsearch 索引中。
如果您需要有关 LlamaIndex IngestionPipeline 的解释,请参阅上一篇文章中的创建 IngestionPipeline 部分。
查询
在上一篇文章中,我们使用了本地 LLM 进行查询。
在本篇文章中,我们将使用公共 LLM OpenAI,如下所示。
上述代码将打印 OpenAI 的响应如下。
客户提出了各种与水有关的索赔,包括地下室水渍、水管爆裂、冰雹对屋顶造成的损坏等问题,以及由于未及时通知、维护问题、逐渐磨损和原有损坏等原因造成的拒赔。在每个案例中,客户都对索赔被拒表示沮丧,并寻求对其索赔进行公平的评估和决定。
在 RAG 中屏蔽 PII
到目前为止,我们所做的工作是将文档原样连同用户查询一起发送给 OpenAI。
在 RAG 管道中,从矢量存储中检索到相关上下文后,我们有机会在将查询和上下文发送到 LLM 之前屏蔽 PII 和敏感信息。
在向外部法律硕士发送 PII 信息之前,有多种方法可以掩盖 PII 信息,每种方法都有自己的优点。下面我们来看看其中的一些选择
- 使用 spacy.io 或Presidio(微软维护的开源库)等 NLP 库。
- 使用开箱即用的 LlamaIndex
NERPIINodePostprocessor. - 通过
PIINodePostprocessor
使用上述任何一种方法实现屏蔽逻辑后,您就可以使用后处理器(您自己定制的后处理器或 LlamaIndex 开箱即用的后处理器)配置 LlamaIndex 的 IngestionPipeline。
使用 NLP 库
作为 RAG 管道的一部分,我们可以使用 NLP 库屏蔽敏感数据。我们将在本演示中使用 spacy.io 软件包。
创建一个新文件query_masking_nlp.py 并添加以下代码。
法律硕士的答复如下。
客户提出了各种与水有关的索赔,包括地下室水渍、水管爆裂、冰雹损坏屋顶以及暴雨期间的洪水等问题。这些索赔导致了基于缺乏及时通知、维护问题、逐渐磨损和预先存在的损坏等原因的拒赔而产生的挫折感。客户对这些拒赔表示失望、压力和经济负担,要求对其索赔进行公平评估和彻底审查。一些客户还面临索赔处理延迟的问题,这进一步引起了对保险公司服务的不满。
在上述代码中,当创建 Llama 索引查询引擎时,我们提供了一个 CustomPostProcessor。
QueryEngine 调用的逻辑在CustomPostProcessor 的_postprocess_nodes 方法中定义。我们正在使用 SpaCy.io 库来检测文件中的命名实体,然后使用一些正则表达式来替换这些名称以及敏感信息,然后再将文件发送到 LLM。
以下是自定义 PostProcessor 创建的原始会话和屏蔽会话的部分示例。
原文如此:
客户:你好,我是马修-洛佩兹(Matthew Lopez),出生日期是 1984 年 10 月 12 日,住在纽约州斯莫尔敦市雪松街 456 号,邮编 34567。我的保单号码是 TUV8901。探员下午好 马修我今天能为您提供什么帮助?客户:你好,我对贵公司拒绝我索赔的决定感到非常失望。
由 CustomPostProcessor 生成的屏蔽文本。
顾客:你好,我是 [蒙面],[蒙面] 是 [生日蒙面],我住在 34567 [蒙面] [蒙面] 的西达街 456 号。我的保单号码是 [屏蔽]。探员下午好,[蒙面]我今天能为您提供什么帮助?客户:你好,我对贵公司拒绝我索赔的决定感到非常失望。
请注意:
识别和屏蔽 PII 和敏感信息并不是一项简单的任务。要涵盖敏感信息的各种格式和语义,就必须充分了解自己的领域和数据。虽然上述代码可能适用于某些使用情况,但您可能需要根据自己的需求和测试情况进行修改。
使用开箱即用的 LlamaIndex
LlamaIndex 通过引入以下功能,使保护 RAG 管道中的 PII 信息变得更加容易 NERPIINodePostprocessor.
答复如下
客户提出了与火灾有关的财产损失索赔。在一个案例中,由于纵火被排除在承保范围之外,车库火灾损失索赔被拒绝。另一位客户就其住宅遭受的火灾损失提出索赔,该损失属于其保单的承保范围。此外,一位客户报告了厨房火灾,并得到了火灾损失赔偿的保证。
通过
我们还可以利用本地或专用网络中运行的 LLM,在将数据发送到公共 LLM 之前完成屏蔽工作。
我们将使用运行在本地机器 Ollama 上的 Mistral 来进行屏蔽。
本地运行 Mistral
下载并安装Ollama。安装 Ollama 后,运行此命令下载并运行mistral
首次下载并在本地运行模型可能需要几分钟时间。通过提出类似下面 "写一首关于云的诗 "的问题来验证 mistral 是否在运行,并验证诗歌是否符合您的要求。保持 ollama 运行,因为我们稍后需要通过代码与 mistral 模型交互。
新建一个名为query_masking_local_LLM.py 的文件,并添加以下代码。
响应如下所示
客户提出了与火灾有关的财产损失索赔。在一个案例中,由于纵火被排除在承保范围之外,车库火灾损失索赔被拒绝。另一位客户就其住宅遭受的火灾损失提出索赔,该损失属于其保单的承保范围。此外,一位客户报告了厨房火灾,并得到了火灾损失赔偿的保证。
结论
在这篇文章中,我们介绍了在 RAG 流程中使用公共 LLM 时如何保护 PII 和敏感数据。我们展示了实现这一目标的多种方法。强烈建议在采用这些方法之前,根据您的用例和需求对其进行测试。




