您的位置:首页 > 房产 > 家装 > 建站用什么平台好_东莞本地生活网_电脑培训学校哪家好_今日新闻最新消息50字

建站用什么平台好_东莞本地生活网_电脑培训学校哪家好_今日新闻最新消息50字

2024/12/25 21:11:59 来源:https://blog.csdn.net/fyf2007/article/details/143417653  浏览:    关键词:建站用什么平台好_东莞本地生活网_电脑培训学校哪家好_今日新闻最新消息50字
建站用什么平台好_东莞本地生活网_电脑培训学校哪家好_今日新闻最新消息50字

【大语言模型】ACL2024论文-04 PriveLM-Bench: 语言模型多层次隐私评估基准


目录

文章目录

  • 【大语言模型】ACL2024论文-04 PriveLM-Bench: 语言模型多层次隐私评估基准
    • 目录
    • 摘要
    • 研究背景
    • 问题与挑战
    • 如何解决
    • 核心创新点
    • 算法模型
    • 实验效果
      • 重要数据与结论
      • 主要参考工作
    • 后续优化方向
    • 代码
    • 后记


PrivLM-Bench: 语言模型多层次隐私评估基准

摘要

本文介绍了PrivLM-Bench,一个用于量化语言模型(LMs)隐私泄露的多角度隐私评估基准。与仅报告差分隐私(DP)参数不同,PrivLM-Bench关注实际使用中的推理数据隐私。该基准首先明确定义了多方面的隐私目标,构建了一个统一的私有微调流程,并通过预定义的隐私目标对现有的隐私攻击进行了实证评估。实验结果用于公平直观地评估各种隐私保护语言模型(PPLMs)的隐私泄露。通过在GLUE数据集上的主流LMs上进行广泛实验,发现当前的隐私攻击比防御机制预期的攻击者能力要弱得多。

研究背景

随着语言模型(LMs)的快速发展,它们在众多自然语言处理(NLP)任务中取得了前所未有的性能。然而,对模型的无限制访问可能带来数据泄露等恶意隐私风险。为了解决这些问题,许多工作提出了具有差分隐私(DP)的隐私保护语言模型(PPLMs)。但由于不同的DP实现,使得对现有PPLMs进行公平比较变得困难。

问题与挑战

PPLMs面临的主要挑战包括:

  1. 不同的DP实现使得PPLMs之间的隐私性能比较变得复杂。
  2. 保护范围不明确,大多数PPLMs在推理阶段无法保证推理数据隐私。
  3. DP的最坏情况上限是否高估了隐私泄露尚不清楚。

如何解决

PrivLM-Bench通过以下方式解决上述挑战:

  1. 明确定义多方面的隐私目标,并构建统一的私有微调流程。
  2. 执行现有的隐私攻击,以实证评估结果来量化PPLMs的隐私泄露。
  3. 通过广泛的实验,评估主流PPLMs的隐私性能。

核心创新点

PrivLM-Bench的核心创新点包括:

  1. 识别推理数据隐私作为PPLMs隐私评估的关键组成部分,并指出DP调整无法量化部署PPLMs后的实际应用中的推理数据隐私。
  2. 提供一个统一的流程,允许在PPLMs之间进行公平比较。
  3. 通过PrivLM-Bench进行广泛的实验,发现当前的隐私攻击比防御机制预期的攻击者能力要弱得多。
    在这里插入图片描述

算法模型

PrivLM-Bench采用了多种隐私攻击,包括数据提取攻击(DEA)、成员推理攻击(MIA)和嵌入级隐私攻击(EIA),以评估PPLMs的隐私性。这些攻击结果可以直观且公平地量化现有PPLMs的隐私泄露,而不考虑它们的具体实现。

实验效果

重要数据与结论

实验在GLUE数据集上的主流LMs上进行,包括BERT、RoBERTa、GPT-2和T5等。实验结果表明:

  1. DP调整的LMs在对抗MIA时表现良好,接近随机猜测水平,表明DP调整能有效地保护微调数据。
  2. DP调整对推理数据隐私的保护不足,与非DP设置相比,EIA的性能差异不大。
  3. DEA的结果表明,DP调整能有效减少暴露,特别是在增加插入次数时,DP调整的LMs表现出更低的暴露。
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

主要参考工作

PrivLM-Bench参考了以下主要工作:

  1. Abadi等人(2016)的DP-SGD算法,用于实现PPLMs。
  2. Carlini等人(2021)的数据提取攻击(DEA)和成员推理攻击(MIA)。
  3. Song和Raghunathan(2020)的嵌入级隐私攻击(EIA)。

后续优化方向

未来的工作可以探索以下方向:

  1. 开发更强大的隐私攻击,以更好地评估PPLMs的实际隐私性能。
  2. 设计能够在保护隐私的同时提高实用性的防御策略,以改善隐私与实用性之间的权衡。
  3. 探索DP调整策略在推理阶段数据隐私保护中的应用,以全面保护PPLMs的隐私。

代码

https://github.com/HKUST-KnowComp/PrivLM-Bench

'''
https://huggingface.co/transformers/v3.3.1/pretrained_models.htmlbert:
bert-base-uncased	110M
bert-large-uncased	340Mroberta:
roberta-base	125M
roberta-large	355Mgpt2:
gpt2 (124M), gpt2-medium (355M), gpt2-large (774M), gpt2-xl (1558M~1.5B)OPTForCausalLMs:
"facebook/opt-125m" (125M) "facebook/opt-350m" (350M), "facebook/opt-1.3B" (1.3B), "facebook/opt-2.7B" (2.7B), "facebook/opt-6.7B" (6.7B), "facebook/opt-13B" (13B)roberta:
roberta-base (125M), roberta-large(355M)llama:meta-llama/Llama-2-7b
meta-llama/Llama-2-7b-chat
'''

后记

如果觉得我的博客对您有用,欢迎 打赏 支持!三连击 (点赞、收藏、关注和评论) 不迷路,我将持续为您带来计算机人工智能前沿技术(尤其是AI相关的大语言模型,深度学习和计算机视觉相关方向)最新学术论文及工程实践方面的内容分享,助力您更快更准更系统地了解 AI前沿技术

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com