近年来, 隐私问题成为普遍关注的热点问题.大数据时代, 信息技术为人类社会带来便捷的同时, 也产生了数据安全与用户隐私的问题.为保证信息技术的长足发展, 保护个人数据隐私成为政府和企业的当务之急.在隐私保护问题上, 欧盟走在了时代前沿.2016年4月, 欧盟通过了《一般数据法案》(general data protection regulation, 简称GDPR)(https://en.wikipedia.org/wiki/General_Data_Protection_Regulation), 规定了个人数据保护跨越国界, 同时明确了用户对个人信息的知情权和被遗忘权.我国于2017年6月1日起施行《中华人民共和国网络安全法》和《最高人民法院、最高人民检察院关于办理侵犯公民个人信息刑事案件适用法律若干问题的解释》(http://www.spp.gov.cn/xwfbh/wsfbt/201705/t20170509_190088.shtml), 加强了个人信息保护, 其中, 对于提供公民个人信息违法所得5 000元以上可入罪.
对隐私问题的重视促进了隐私保护技术的研究.就隐私保护技术而言, 隐私保护程度和数据可用性是最重要的衡量指标.为了平衡隐私保护程度和数据可用性, 需要引入形式化定义对隐私进行量化, 顺应这一发展趋势, 有研究者提出了差分隐私[1-3]技术.作为一种隐私保护模型, 其严格定义了隐私保护的强度, 即任意一条记录的添加或删除, 都不会影响最终的查询结果.同时, 该模型定义了极为严格的攻击模型, 其不关心攻击者具有多少背景知识.相比于k-匿名[4]、l-多样性[5]和t-紧密性[6]等需要特殊攻击假设和背景知识的方法, 差分隐私因其独特的优势, 成为当前学术界的研究热点.
传统的差分隐私技术将原始数据集中到一个数据中心, 然后发布满足差分隐私的相关统计信息, 我们称其为中心化差分隐私(centralized differential privacy)技术.因此, 中心化差分隐私对于敏感信息的保护始终基于一个前提假设:可信的第三方数据收集者, 即保证第三方数据收集者不会窃取或泄露用户的敏感信息.然而, 在实际应用中, 即使第三方数据收集者宣称不会窃取和泄露用户的敏感信息, 用户的隐私依旧得不到保障.2016年, 社交网络的数据泄露事件层出不穷(http://datayuan.baijia.baidu.com/article/715477):美国社交网站LinkedIn近1.7亿个账户被黑客组织在黑市被公开销售; 谷歌、雅虎和微软等企业超2.7亿电子邮箱信息被一名俄罗斯黑客盗取并流入黑市; 土耳其近5 000万公民个人信息被泄露, 总统的个人信息被挂暗网平台; 雅虎爆发互联网史上最大数据泄露, 超5亿用户账户信息被黑客盗取; 美国国安局网站遭入侵, 其中黑客工具和数据被泄露, 国安局网站因此瘫痪了近一昼夜.此类用户原始信息泄露事件近年来层见叠出, 人们对个人信息的安全性十分担忧.
由此可知, 在实际应用中想要找到一个真正可信的第三方数据收集平台十分困难, 这极大地限制了中心化差分隐私技术的应用.鉴于此, 在不可信第三方数据收集者的场景下, 本地化差分隐私(local differential privacy)[7, 8]技术应运而生, 其在继承中心化差分隐私技术定量化定义隐私攻击的基础上, 细化了对个人敏感信息的保护.具体来说, 其将数据的隐私化处理过程转移到每个用户上, 使得用户能够单独地处理和保护个人敏感信息, 即进行更加彻底的隐私保护.目前, 本地化差分技术在工业界已经得到运用:苹果公司将该技术应用在操作系统iOS 10上以保护用户的设备数据(https://www.wired.com/2016/06/apples-differential-privacy-collecting-data/), 谷歌公司同样使用该技术从Chrome浏览器采集用户的行为统计数据[9].
本地化差分隐私技术继承自中心化差分隐私技术, 同时扩展出了新的特性, 使该技术具备两大特点:(1)充分考虑任意攻击者的背景知识, 并对隐私保护程度进行量化; (2)本地化扰动数据, 抵御来自不可信第三方数据收集者的隐私攻击.下面我们通过两个具体应用场景来说明本地化差分隐私技术的上述两个特点的重要性.
(1) 众包数据采集.
众包(crowdsourcing)[10]是一种利用群体智慧求解问题的方式, 众包技术极大地促进了信息技术的发展, 其中通过众包的方式进行数据采集是一种新的数据采集方式.由于移动设备功能的不断强大, 数据收集者可以很容易将数据采集的任务分配给不同用户.例如, 美国Gigwalk公司组织用户通过智能设备采集不同商品的价格; 国内数据堂公司组织用户通过“众客堂”APP进行图片、文本和语音的采集并标注以提供数据服务; 高德地图公司组织用户通过“道路寻宝”APP采集道路周边信息等.然而, 众包数据采集一般与个人行为信息相关, 因此, 当用户参与众包数据采集时, 不可避免地存在泄露个人敏感信息的风险.例如, 上传商品价格时可能泄露个人的购物偏好信息, 上传图片、语音等信息可能泄露个人身份特征信息, 上传道路周边信息可能泄露用户的位置和轨迹信息等.因此, 众包数据采集还需要隐私保护技术为其保驾护航.
关于众包数据采集的隐私问题研究, 文献[11]曾指出隐私问题是众包技术发展的一大挑战, 文献[12]提出基于k-匿名的众包数据保护方法, 以及文献[13]提出基于编码扰动的方法等.然而, 上述研究并未考虑基于背景知识的攻击.现如今, 各类运营商和大数据企业拥有大量的用户数据, 互联网上大规模数据相互关联, 各种数据集成和融合技术蓬勃发展.同时, 互联网本身的便捷性使得各种类型的信息触手可及, 这些因素的综合作用使得攻击者可以很容易地从中获取背景知识, 从而结合用户上传的数据推测用户的敏感信息.例如, 某个用户频繁地在工作日上传A、B两地之间的不同建筑物图片, 若根据背景知识得知A、B分别为某居民区和商业区, 则能够以较大概率猜测A、B两地分别为该用户的居住和工作地址.因此, 在众包数据采集问题上迫切需要一种能够充分考虑背景知识、严格定义攻击模型的隐私保护技术.
(2) 敏感图像特征提取.
各种各样来自个人的图像中蕴含着诸多敏感信息, 例如人脸图像、指纹图像和虹膜图像等生物特征数据可以唯一精确地定位到个人, 医学造影图像中蕴含着个人的相关疾病信息.直接对蕴含敏感信息的图像进行存储和分析, 可能泄露其中的隐私.以如今与指纹相关的应用为例, 移动智能终端的发展使得移动支付流行开来, 其中以指纹支付最为便捷, 因此, 指纹图像的敏感性不言而喻.其他蕴含敏感信息的图像亦如此, 对此类图像的存储和分析过程进行相应的隐私保护是必要的.
图像特征提取是图像处理中最初级的运算[14], 是进行图像识别的关键.目前已有诸多研究工作围绕图像与隐私展开, 文献[15]以医学图像为例说明了图像中蕴含的隐私问题; 文献[16]提出人脸识别过程中通过安全多方计算(secure multiparty computation)进行隐私保护; 文献[17]基于云计算环境提出图像特征提取过程中基于加密的隐私保护方法等.然而, 现有方法均建立在可信的数据收集者的基础上.在图像信息高度敏感的情形下, 可信第三方数据收集者的假设难以立足.例如, 苹果用户曾一度质疑苹果公司的云平台是否存储了用户的指纹图像.因此, 敏感图像特征提取问题上迫切需要一个能够抵御不可信第三方数据收集者的隐私模型.而本地化差分隐私技术对于敏感图像特征提取的场景具有很好的适应性, 该技术在用户端完成对图像的扰动处理, 能够保证无论是数据收集者或是数据传输过程中的攻击者, 均无法窃取图像中的隐私信息.无独有偶, 文献[18]曾指出云计算环境下本地化差分隐私技术在图像处理这一领域的巨大潜力.
目前, 本地化差分隐私技术已经成为继中心化差分隐私技术之后一种强健的隐私保护模型[9, 19, 20].首先, 用户对原始数据进行满足ε-本地化差分隐私的扰动, 然后将其传输给第三方数据收集者, 数据收集者收到扰动后的数据再进行一系列的查询和求精处理, 以得到有效的统计结果.对本地化差分隐私的研究和应用, 主要考虑以下两个方面问题:(1)如何设计满足ε-本地化差分隐私的数据扰动算法, 以保护其中的敏感信息; (2)数据收集者如何对查询结果进行求精处理, 以提高统计结果的可用性.
本文综述本地化差分隐私技术的最新研究进展和研究方向, 一方面对本地化差分隐私的研究背景、基本定义、实现机制以及其与中心化差分隐私技术的区别进行阐述; 另一方面, 对当前本地化差分隐私的研究方向进行分析, 并阐述最新研究进展, 其中, 着重介绍本地化差分隐私下的数据扰动机制以及两种基本的数据发布形式:频数统计和均值统计.最后, 针对本地化差分隐私的特性, 提出本地化差分隐私保护技术未来的研究方向并加以具体分析.
本文第1节介绍本地化差分隐私保护技术的基础知识.第2节介绍其数据保护框架.第3节、第4节对本地化差分隐私保护技术的当前研究方向进行概括, 并对研究方法进行对比和分析.第5节提出本地化差分隐私保护技术的研究挑战.最后第6节总结全文.
1 基础知识本地化差分隐私保护技术是基于中心化差分隐私保护技术提出的数据采集框架, 不同于中心化差分隐私对于可信第三方的假设, 其针对的是不可信的第三方数据收集者.本节首先对本地化差分隐私进行形式化定义, 然后阐述满足其定义的一种通用保护机制, 最后对本地化和中心化差分隐私保护技术进行对比分析.
1.1 本地化差分隐私的定义本地化差分隐私下的保护模型充分考虑了数据采集过程中数据收集者窃取或泄露用户隐私的可能性.该模型中, 每个用户首先对数据进行隐私化处理, 再将处理后的数据发送给数据收集者, 数据收集者对采集到的数据进行统计, 以得到有效的分析结果.即, 在对数据进行统计分析的同时, 保证个体的隐私信息不被泄露.本地化差分隐私的形式化定义如下.
定义1. 给定n个用户, 每个用户对应一条记录, 给定一个隐私算法M及其定义域
$ \Pr [M(t) = {t^*}] \leqslant {{\text{e}}^\varepsilon } \times \;\Pr [M(t') = {t^*}]. $ |
从定义1中可以看出, 本地化差分隐私技术通过控制任意两条记录的输出结果的相似性, 从而确保算法M满足ε-本地化差分隐私.简言之, 根据隐私算法M的某个输出结果, 几乎无法推理出其输入数据为哪一条记录.在中心化差分隐私保护技术中, 算法M的隐私性通过近邻数据集[2]来定义, 因此其要求一个可信的第三方数据收集者来对数据分析结果进行隐私化处理.对于本地化差分隐私技术而言, 每个用户能够独立地对个体数据进行处理, 即, 隐私化处理过程从数据收集方转移到单个用户端上, 因此不再需要可信第三方的介入, 同时也免除了不可信第三方数据收集者可能带来的隐私攻击.
定义1从理论的角度保证了算法满足ε-本地化差分隐私, 而实现ε-本地化差分隐私保护需要数据扰动机制的介入.
1.2 扰动机制目前, 随机响应(randomized response)技术[19]是本地化差分隐私保护技术的主流扰动机制, 本节主要对其原理进行阐述, 对于现有研究中的其他扰动机制, 将在第4.3节中进行分析和比较.
1.2.1 随机响应技术Warner于1965年提出利用随机响应技术进行隐私保护, 我们将其称为W-RR, 其主要思想是利用对敏感问题响应的不确定性对原始数据进行隐私保护.本节首先介绍随机响应技术的原理, 而后分别阐述连续型数据和离散型数据下随机响应技术的应用.
随机响应技术主要包括两个步骤:扰动性统计和校正.
为了具体介绍随机响应技术, 下面首先引入一个具体的问题场景.假设有n个用户, 其中艾滋病患者的真实比例为π, 但我们并不知道.我们希望对其比例我们希望对其比例
首先, 进行扰动性统计.利用上述扰动方法对n个用户的回答进行统计, 可以得到艾滋病患者人数的统计值.假设统计结果中, 回答“是”的人数为n1, 则回答“否”的人数为n-n1.显然, 按照上述统计, 回答“是”和“否”的用户比例如下:
$ \begin{gathered} \Pr \left( {{X_i} = “是”} \right) = \pi p + \left( {1-\pi } \right)\left( {1-p} \right), \hfill \\ \Pr \left( {{X_i} = “否”} \right) = \left( {1-\pi } \right)p + \pi \left( {1 - p} \right). \hfill \\ \end{gathered} $ |
显然, 上述统计比例并非真实比例的无偏估计, 因此需要对统计结果进行校正.
接着, 对统计结果进行校正.构建以下似然函数:
$ L = {[\pi p + (1-\pi )(1-p)]^{{n_1}}}{[(1-\pi )p + \pi (1-p)]^{n - {n_1}}}, $ |
并得到
$ \hat \pi = \frac{{p - 1}}{{2p - 1}} + \frac{{{n_1}}}{{(2p - 1)n}}. $ |
以下关于
$ E(\hat \pi ) = \frac{1}{{2p - 1}}\left[{p-1 + \frac{1}{n}\sum\nolimits_{i = 1}^n {{X_i}} } \right] = \frac{1}{{2p - 1}}\left[{p-1 + \pi p + (1-\pi )(1-p)} \right] = \pi . $ |
由此可以得到校正的统计值, 其中, N表示统计得到的艾滋病人数估计值:
$ N = \hat \pi \times n = \frac{{p - 1}}{{2p - 1}}n + \frac{{{n_1}}}{{2p - 1}}. $ |
综上, 根据总人数n、回答“是”的人数
$ \varepsilon = \ln \frac{p}{{1 - p}}. $ |
随机响应技术W-RR仅对包含两种取值的离散型数据进行响应, 而对于具有超过两种取值的数据并不适用.因此, 利用W-RR对离散型数据进行扰动有以下两种思路:(1)对变量的不同取值进行编码和转化, 使其满足W-RR技术对二值变量的要求; (2)改进W-RR技术, 使其能够直接适用于超过两种取值的变量.假设变量x总共包含k种不同取值, 其取值集合为
(1) 第1种思路的思想是:对于k个候选值, 将每一个候选值都编码成长度为
(2) 第2种思路, 需要对W-RR技术中的概率分布进行改进.具体来说, W-RR中将概率分配到变量的两种取值上, 而对于k种取值的情况, 需要保证概率的分布能够覆盖到k种取值中的任意一种.基于该思路, 本地化差分隐私情况下, 离散型数据的随机响应方法包括k-RR[22]和O-RR[23]等, 详见第4.1.1节.
1.2.3 连续型数据的随机响应随机响应技术W-RR不能直接用于连续型数据的扰动, 因此需要对连续型数据进行转换.其主要思想是, 将连续型数据离散化, 然后利用离散型数据下的随机响应方法, 对数据进行扰动.目前已有的方法一般是将连续型数据离散化为某两个数值, 然后对离散化后的数据利用随机响应技术W-RR进行扰动.
通过离散化并扰动后的值得到统计量, 如变量的平均值, 出于数据可用性的考虑, 需保证统计结果与真实结果的无偏性.因此, 面向连续型数据的随机响应技术的难点主要在两个方面:(1)如何合理设置离散化的两个数值; (2)如何保证统计结果的无偏性.
基于上述思路, 本地化差分隐私情况下, 连续型数据的随机响应方法包括MeanEst[24, 25]和Harmony-mean[26]等, 详见第4.2节.
1.3 本地化与中心化差分隐私的异同点本地化差分隐私保护技术是在中心化差分隐私保护技术的基础上提出来的, 其继承了中心化差分隐私保护技术上的组合特性, 同时又对其进行了扩展, 利用随机响应的扰动机制抵抗不可信的第三方数据收集者带来的隐私攻击.下面从两者的异同点和应用场景出发, 对两种技术进行比较.
(1) 组合特性.
差分隐私技术具有序列组合性和并行组合性两种特性[27], 序列组合性强调隐私预算ε可以在方法的不同步骤进行分配, 而并行组合性则是保证满足差分隐私的算法在其数据集的不相交子集上的隐私性.从定义上来看, 中心化差分隐私定义在近邻数据集上, 本地化差分隐私则是定义在其中的两条记录上, 而隐私保证的形式并未发生变化, 因此本地化差分隐私将上述两种组合特性继承下来, 下面给出形式化定义.
性质1. 给定数据集合D和n个隐私算法
性质2. 给定数据集合D, 将其划分为n个互不相交的子集,
(2) 可信与不可信第三方.
中心化差分隐私中一个重要的假设是可信第三方数据收集者, 每个用户将自己的真实数据记录发送给数据收集者, 并假定其是可信的, 不会泄露个人的敏感信息.而后, 数据收集者利用满足需求的隐私算法对数据分析者的查询请求进行响应.本地化差分隐私中, 其考虑的是第三方数据收集者不可信的场景, 因此, 将数据扰动的功能从数据收集方转移到了客户端, 即从数据收集者处转移到了每个用户处.每个用户按照隐私算法对数据进行扰动, 然后把数据上传给数据收集者, 数据收集者接收数据分析者的查询请求, 并进行响应.图 1(a)所示为中心化差分隐私保护技术的数据处理框架, 图 1(b)所示为本地化差分隐私保护技术的数据处理框架.
![]() |
Fig. 1 Processing framework of centralized and local differential privacy 图 1 中心化与本地化差分隐私的数据处理框架 |
(3) 噪声机制.
在中心化差分隐私保护技术中, 为保证所设计的算法满足ε-差分隐私, 需要噪声机制的介入, 拉普拉斯机制[28]和指数机制[29]是其最常用的两种噪声机制, 其中, 拉普拉斯机制面向连续型数据的查询, 而指数机制面向离散型数据的查询.上述两种噪声机制均与查询函数的全局敏感性[28]密切相关, 而全局敏感性则是定义在至多相差一条记录的近邻数据集之上, 使得攻击者无法根据统计结果推测个体记录, 即将个体记录隐藏在统计结果之中.在本地化差分隐私中, 每个用户将各自的数据进行扰动后, 再上传至数据收集者处, 而任意两个用户之间并不知晓对方的数据记录, 亦即, 本地化差分隐私中并不存在全局敏感性的概念, 因此, 拉普拉斯机制和指数机制并不适用.目前, 本地化差分隐私主要采用第1.2节中所述的随机响应技术来确保隐私算法满足ε-本地化差分隐私.
(4) 应用场景.
中心化差分隐私保护技术的研究主要集中在数据发布[30-33]、数据分析[34, 35]和查询处理[36, 37]等方面, 近年来取得了突出的研究进展, 然而, 其数据的隐私化处理过程始终依靠一个可信的第三方数据收集者来完成.某种程度上来说, 这一点也限制了差分隐私技术的发展, 在隐私意识不断增强的背景下, 如何保证数据收集者不会从中窃取用户的隐私信息将是一个重要的考量.基于此, 本地化差分隐私技术应运而生, 进一步细化了对个人隐私信息的保护, 其摒弃了可信第三方数据收集者的假设, 将数据的隐私化处理过程转移到每个用户上, 这样不仅能够对敏感信息进行更加彻底的保护, 而且隐私化处理过程更加简洁、明了.此外, 由于每个用户能够掌握个人的敏感信息处理过程, 这也使得用户可以根据自身需求, 进行更加个性化的隐私设置[38].中心化差分隐私技术通过定义全局敏感性为查询结果添加响应噪声, 再以统计的方式限制隐私信息泄露的量化边界, 从而能将个体记录隐藏在统计结果中.因此, 中心化差分隐私技术并不对统计数据量作特别要求.不同于此, 本地化差分隐私技术对个体数据进行正向和负向的扰动, 最终通过聚合大量的扰动结果来抵消添加在其中的正负向噪声, 从而得到有效的统计结果.然而, 由于噪声的随机性, 要保证统计结果的无偏性, 必然需要海量的数据集来实现满足数据可用性的统计精度.
2 基于本地化差分隐私的数据保护框架中心化差分隐私技术对应两种数据保护框架:交互式和非交互式框架[39], 其中, 第三方数据收集者采集了所有用户的数据, 并对用户的查询进行响应.在交互式框架中, 当数据分析者提交相应的查询时, 数据收集者根据查询请求, 对查询结果进行相应的隐私化处理, 如添加相应噪声, 使其满足差分隐私要求.在非交互式框架中, 数据收集者事先发布满足差分隐私的数据集相关统计信息, 数据分析者提交查询后, 直接从所发布的统计信息中返回相应的查询结果.
在本地化差分隐私中同样存在交互式和非交互式两种数据保护框架[24], 但是由于本地化差分隐私建立在不可信第三方数据收集者的基础上, 因此对两种保护框架的定义不同于中心化差分隐私.如图 2所示, 其中,
$ Q({Z_i}|{X_i} = x, {Z_{1:i - 1}} = {z_{1:i - 1}}). $ |
![]() |
Fig. 2 Framework of local differential privacy 图 2 本地化差分隐私的数据保护框架 |
交互式框架如图 2(a)所示, 第i个输出
$ \left\{ {{X_i}, {Z_1}, ..., {Z_{i-1}}} \right\} \to {Z_i}且{Z_i} \bot {X_j}|\left\{ {{X_i}, {Z_1}, ..., {Z_{i-1}}} \right\}. $ |
因此, 交互式框架下, 本地化差分隐私的形式化定义为:对任意的
$ \mathop {\sup }\limits_S \frac{{Q({Z_i} \in S|{X_i} = x, {Z_1} = {z_1}, ..., {Z_{i - 1}} = {z_{i - 1}})}}{{Q({Z_i} \in S|{X_i} = x', {Z_1} = {z_1}, ..., {Z_{i - 1}} = {z_{i - 1}})}} \leqslant {{\text{e}}^\varepsilon }. $ |
非交互式框架则是对交互式框架的简化, 如图 2(b)所示, 其中, 第i个输出
$ {X_i} \to {Z_i}且{Z_i} \bot \left\{ {{X_j}, {Z_j}, j \ne i} \right\}|{X_i}. $ |
因此, 非交互式框架下的本地化差分隐私, 其形式化定义则是交互式框架下的一种简化, 表示为:对任意的
$ \mathop {\sup }\limits_S \frac{{Q({Z_i} \in S|{X_i} = x)}}{{Q({Z_i} \in S|{X_i} = x')}} \leqslant {{\text{e}}^\varepsilon }. $ |
综上所述, 交互式和非交互式数据保护框架的最大区别在于输出结果之间的关联性.(1)交互式框架适用于最终输出结果与前i个输出有依赖关系的情形, 如通过家族病史数据进行疾病诊断.假设某个家族存在红绿色盲的遗传病史, 家族中的某个成员有相应的性状表现Xi, 那么在判断其是否患有红绿色盲, 即判断
基于本地化差分隐私的数据保护框架充分考虑了数据记录之间的相互关联关系, 并以此为依据将其分为交互式和非交互式框架.而中心化差分隐私并未直接考虑数据的关联关系, 文献[40]指出数据记录中的关联性将弱化中心化差分隐私技术的保护能力, 文献[41]则进一步讨论了具有不同程度背景知识的攻击者对关联数据中的用户隐私的攻击能力, 并提出基于贝叶斯理论的保护模型.对比而言, 本地化差分隐私技术进一步考虑了数据中包含的关联信息, 因此其考虑了更为全面的隐私保护场景.
3 主要研究方向本地化差分隐私作为新兴的隐私保护技术, 是当前的研究热点, 主要应用于统计数据库领域.目前, 本地化差分隐私技术的主要研究方向可见表 1.
![]() |
Table 1 Existing research of local differential privacy 表 1 本地化差分隐私保护的研究方向 |
由表 1可知, 本地化差分隐私技术的研究方向包括扰动机制的研究以及统计数据的发布.本地化差分隐私的扰动机制主要包括随机响应、信息压缩和扭曲两种.随机响应技术的扰动框架简洁、直观, 且其扰动程度可直接量化, 因此本地化差分隐私下的研究工作大都基于随机响应技术展开, 包括针对离散型数据的频数发布和针对连续型数据的均值发布.频数发布形式包括列联表、直方图等, 其中, 根据变量的数量不同分为单值频数发布和多值频数发布.基于本地化差分隐私的单值频数发布主要是通过编码-解码技术以及概率扰动技术发布属性候选值的频数来保护数据隐私, 而多值频数发布则是在此基础上进一步利用采样技术和降维技术等提高了数据的可用性.目前, 针对本地化差分隐私的均值发布研究工作还较少, 其主要思想一般是在无偏估计的前提下对连续值进行离散化.
4 本地化差分隐私方法的对比与分析基于随机响应技术的扰动机制是当前的研究热点, 其相关工作主要集中在满足ε-本地化差分隐私保护的算法研究上.根据算法的查询类型不同, 可将其分为两类:(1)针对离散型数据的频数统计查询; (2)针对连续型数据的均值统计查询.第4.1节和第4.2节根据频数统计和均值统计两种不同的查询类型对方法进行分析和比较, 第4.3节补充说明除随机响应技术外的其他扰动机制, 第4.4节对本地化差分隐私技术所呈现的实验特性进行分析.
4.1 基于本地化差分隐私的频数统计频数发布是指针对离散型数据, 返回给定约束条件下记录的数量, 即计数查询的结果.中心化差分隐私保护下相应的数据发布形式包括列联表数据发布[49, 50]、针对二值型数据集的列计数数据发布[51, 52]、直方图数据发布[53]、图数据发布[54, 55]等, 这些数据发布形式都是基于计数查询进行的.例如, 下面表 2所示的医疗数据集, 进行统计后可得到表 3所示的关于疾病的频数统计, 该统计结果是众多统计分析、机器学习、数据挖掘方法的基础.
![]() |
Table 2 Diseases of patients 表 2 病人患病信息 |
![]() |
Table 3 Distribution of diseases 表 3 疾病的频数发布 |
然而, 一旦将表 3所示的频数统计结果发布出去, 攻击者就可能根据已有的背景知识推测出表 2中的某个用户所患疾病的信息, 导致用户隐私的泄露.本地化差分隐私保护技术首先在每个用户端对个人数据进行隐私化处理, 如Tom将以40%的概率提交“艾滋病”, 分别以10%的概率提交其余6种疾病, 如此一来, Tom所提交的数据就具有了一定的随机性, 从而保护了敏感信息.以下将基于本地化差分隐私的频数发布方法分为单值频数统计和多值频数统计进行分析.
4.1.1 单值频数统计单值频数统计是指每个用户只发送一个变量取值的情形, 用户将数据发送给数据收集者后, 数据收集者根据已有的或统计得到的候选值列表, 统计其中每一个候选值的频数并进行发布.
RAPPOR[9]方法是单值频数统计的代表方法, 其中, 变量的值以字符串的形式表示.假设总共有n个用户, 第i个用户
![]() |
Fig. 3 Process of RAPPOR 图 3 RAPPOR方法图示 |
χ在图 3中代表年龄属性, 其中存在某个取值xi="45", 首先利用Bloom Filter[56]技术将其表示成一个长度为h的向量
$ P({B'_i} = x) = \left\{ \begin{gathered} 0.5f, {\text{ }}x{\text{ = 1}} \hfill \\ {\text{0}}{\text{.5}}f, {\text{ }}x = 0 \hfill \\ 1 - f, {\text{ }}x = {B_i} \hfill \\ \end{gathered} \right.. $ |
接着, 再对向量B’的每一个位进行第2次扰动, 得到瞬时性随机响应(instantaneous randomized response, 简称IRR)结果S, 其中, 第2次扰动的方式按照以下公式进行, 其中,
$ P({S_i} = 1) = \left\{ {\begin{array}{*{20}{c}} {p, }&{{\text{if}}\;{{B'}_i} = 1} \\ {q, }&{{\text{if}}\;{{B'}_i} = 0} \end{array}} \right.. $ |
每个用户得到扰动结果S后, 将其发送给第三方数据收集者, 数据收集者统计每一位上1出现的次数并进行校正, 然后结合映射矩阵, 通过Lasso回归方法[57]完成每个年龄值对应的频数统计.
RAPPOR方法的统计误差来自两个方面:(1)采用Bloom Filter技术进行编码, 在解码过程中可能存在属性候选值冲突的问题, 对于这一点, RAPPOR方法通过调整相应的参数, 有效地降低了候选值冲突带来的误差; (2)随机响应技术对数据进行扰动产生的误差问题, 其中, 数据扰动带来的渐近误差边界为
RAPPOR方法主要存在两个方面的缺陷:(1)用户和数据收集者之间的传输代价比较高, 即每个用户需要传输长度为h的向量给数据收集者; (2)数据收集者需预先采集候选字符串列表, 以进行频数统计.
针对RAPPOR方法第1个方面的缺陷, 即通信代价高的问题, 同样在单值情形下, S-Hist[21]方法中每个用户对字符串进行编码后, 随机选择其中的一个比特位, 利用随机响应技术进行扰动后, 将其发送给数据收集者, 因此大大降低了传输代价.同时, S-Hist方法假设列表中字符串的候选值个数k超过了用户的数量n, 于是利用随机投影(random projection, 简称RP)技术[58]将每个字符串表示成m=O(n)维二值变量, 即生成一个随机投影矩阵
$ {\Phi _{m \times k}} = \left[{\begin{array}{*{20}{c}} {\frac{1}{{\sqrt m }}}&{\frac{{-1}}{{\sqrt m }}}&{...}&{\frac{1}{{\sqrt m }}} \\ {\frac{{-1}}{{\sqrt m }}}&{\frac{1}{{\sqrt m }}}&{...}&{\frac{{-1}}{{\sqrt m }}} \\ {...}&{...}&{...}&{...} \\ {\frac{1}{{\sqrt m }}}&{\frac{{ - 1}}{{\sqrt m }}}&{...}&{\frac{1}{{\sqrt m }}} \end{array}} \right]. $ |
S-Hist方法对于频数统计的查询, 其渐近误差边界为
针对RAPPOR方法第2个方面的缺陷, 即预先采集候选字符串列表的问题, Kairouz等人基于变量取值未知的情形提出了O-RAPPOR方法[23].O-RAPPOR基于RAPPOR方法的编码和解码方式, 同时在此基础上又引入了哈希映射和分组(cohort)操作.对于每个字符串首先利用哈希函数进行一次值的映射, 后续的扰动步骤直接对哈希值进行处理, 而不关注字符串本身, 如此便无需预知候选字符串的列表.其中, 为了减小哈希映射中哈希值冲突带来的数据可用性下降的问题, 对字符串的集合进行了分组操作.O-RAPPOR方法首先对不同分组内的字符串用一个不同的哈希函数进行映射, 生成Bloom Filter[56]串
上述方法主要是考虑将变量取值编码成二值的形式, 使其满足随机响应技术W-RR[19]的要求, 再利用该技术进行数据扰动.除此之外, Kairouz等人提出一种梯度响应技术k-RR[22], 其主要克服了随机响应技术针对二值变量这一问题, 对于变量中含有k(k>2)个候选值的情况, 可以直接进行随机响应.对于任意的输入
$ P(R'|R) = \frac{1}{{k - 1 + {{\text{e}}^\varepsilon }}}\left\{ \begin{gathered} {{\text{e}}^\varepsilon }, {\text{ if}}\;R' = R \hfill \\ 1, {\text{ if}}\;R' \ne R \hfill \\ \end{gathered} \right., $ |
即, 以
目前, RAPPOR和k-RR为单值频数发布下的经典方法, 下面从3个方面对二者进行简单比较:(1)在以RAPPOR为代表的方法中, 其对变量的某一个取值进行编码、随机响应并解码, 而k-RR则直接在变量的多个取值之间进行随机响应, 其整体框架更加简洁; (2)就不同的隐私预算而言, RAPPOR和k-RR两种方法的性能表现出一定的差异性[23]:以隐私预算
基于k-RR方法, Kairouz等人针对变量取值未知的情形提出了O-RR方法[23].O-RR方法是对k-RR方法的改进, 在k-RR的基础上同样引入哈希映射和分组操作, 其中通过哈希映射, 使得方法不再关注字符串本身, 从而无需预先采集候选字符串列表, 而通过分组操作则可进一步降低哈希映射值冲突的概率.直观地, 对第i个字符串
$ {x_i} = HAS{H_{{c_i}}}({S_i})\bmod k = HASH_{{c_i}}^{(k)}({S_i}). $ |
这样便降低了哈希值冲突的概率, 极端情况下, 对于处在不同分组中的相同字符串, 其映射结果发生冲突的概率仅为
得到映射的哈希值后, 再利用k-RR方法的扰动方式进行响应, 对于任意的字符串
$ P\left( {R'|R} \right) = \frac{1}{{C\left( {k-1 + {{\text{e}}^\varepsilon }} \right)}}\left\{ \begin{array}{*{20}{c}} {{\text{e}}^\varepsilon }, \;\;{\text{if}}\;\;HASH_{{c_i}}^{\left( k \right)}\left( {{S_i}} \right) = R' \\ 1, \;\;\;\;{\text{if}}\;\;HASH_{{c_i}}^{\left( k \right)}\left( {{S_i}} \right) \ne R' \\ \end{array} \right.. $ |
注意到, 上式中较k-RR方法多了因子C, 这是因为, 对每个字符串都指定了C个分组中的其中一个.方法O-RR与k-RR有相同的渐近误差边界
上述方法均考虑扰动输出为单个取值的情形, 即对任意的输入变量, 进行数据扰动后仅输出一个取值, 我们称其为一对一扰动.考虑一对多的情形, 如字符串的模糊匹配, 对于指定的输入, 输出结果是一个集合.此时, 上述方法不再适用.基于此, k-Subset[44, 45]方法被提出, 具体如下.
对任意的输入
$ P(R'|R) = \frac{1}{{(c{{\text{e}}^\varepsilon } + k - c) \cdot \left( {\begin{array}{*{20}{c}} k \\ c \end{array}} \right)}}\left\{ \begin{gathered} k{{\text{e}}^\varepsilon }, {\text{ if}}\;\left| {R'} \right| = c\;{\text{and}}\;R \in R' \\ k, {\text{ if}}\;\left| {R'} \right| = c\;{\text{and}}\;R \notin R' \\ \end{gathered} \right., $ |
其中, 取值的组合总共包括
显然, 当输出R’中仅包含一个元素, 即d=1时, k-Subset方法将退化为k-RR, 即k-RR方法为k-Subset的一种特殊情形, 相较于k-RR, k-Subset方法对扰动输出的定义是一种更为泛化的形式.
k-Subset方法将输出扩展为集合的形式, 这种一对多的扰动方式相较于k-RR的一对一扰动方式, 有效降低了扰动过程中输入输出之间的匹配误差, 相对于k-RR方法
![]() |
Table 4 Existing methods of single-valued frequency estimation under LDP 表 4 本地化差分隐私下的单值频数统计方法对比分析 |
从表 4可以看出, 基于RAPPOR方法的可用性较高, 但同时也带来较高的计算开销; 基于S-Hist的方法极大地降低了通信代价, 但其计算开销与用户数正相关, 用户多时, 计算开销巨大, 而采样过程也带来了一定的精度损失; 基于k-RR的方法简化了数据扰动过程, 同时也牺牲了一定的发布精度.
4.1.2 多值频数统计多值频数统计是指每个用户发送多个变量取值的情形, 用户将数据发送给数据收集者后, 数据收集者根据已有的或统计得到的候选值列表, 统计其中每一个候选值的频数并进行发布.不同于单值频数统计问题, 多值的情形需要考虑隐私预算的分割问题.直观地, 可以将单值频数统计方法重复地用在多值情形中的每一个变量上, 但这样的话, 将会出现以下两个问题:(1)需要根据变量的数量分割隐私预算, 当变量较多时, 数据可用性急剧降低; (2)忽略了变量之间的关联关系, 损失了部分信息.
对于第1个问题, 假设共有d个变量, S-Hist方法对每个变量进行相同的处理, 在分割隐私预算后, 每个变量分配到的隐私预算为
针对RAPPOR方法第2个方面的缺陷, 即需要预先采集候选字符串列表, 文献[46]提出一种改进方法, 用于多值频数统计, 我们称该方法为RAPPOR-unknown.方法是基于RAPPOR方法来实现的, 每个用户对数据的扰动处理与RAPPOR一致, 但针对RAPPOR方法中数据收集者需要预先采集候选字符串列表这一缺陷, RAPPOR- unknown方法中基于n-gram思想, 利用图 3所示的用户端的数据扰动方式得到扰动结果后, 从字符串中抽取r个长度相同的子串, 然后将扰动结果和子串的相关信息一起发送给第三方数据收集者, 其中, 数据的传输格式如下所示(n-gram即字符串的长度为n的子串):
$ \left\{ {X', {G_1}^\prime, ..., {G_r}^\prime, {g_1}, ..., {g_r}} \right\}, $ |
其中, X’表示RAPPOR方法对字符串x的扰动结果, 即
采集数据后, 数据收集者通过共现(co-occurrence)技术还原字符串, 以得到字符串列表.针对多值的情形, RAPPOR-unknown方法利用期望最大化(expectation maximization, 简称EM)算法[60], 估计多个变量的联合概率分布, 以进行列联表的查询.
RAPPOR-unknown方法是基于RAPPOR方法的一个改进, 其渐近误差边界为
虽然S-Hist方法极大地降低了通信代价, 但在实际应用中, S-Hist方法的准确性并不稳定, 这主要是由于随机投影矩阵
LDPMiner[20]是集值数据下的频数发布方法, 其针对Heavy hitter查询.假设有n个用户, 每个用户均包含d个项中的l个项, Heavy hitter集合大小为k’.LDPMiner方法包括两个阶段:(1)数据收集者采集数据, 确定Heavy hitter集合并将其返回给用户; (2)用户发送集合中k’个项所对应的数据.方法的整体框架如图 4所示.
![]() |
Fig. 4 Framework of LDPMiner 图 4 方法LDPMiner的整体框架 |
LDPMiner是基于RAPPOR和S-Hist方法实现的一个组合方法, 考虑到每个用户需要发送多个数据项, 通信代价较高, 因此利用随机采样技术令每个用户只发送其中的一个数据项, 然后利用RAPPOR方法和S-Hist方法来进行数据扰动, 其中, 把采样技术和RAPPOR方法的组合叫作sampling RAPPOR[20], 而把采样技术和S-Hist方法的组合叫作sampling SH[20].如图 4所示, LDPMiner方法包含以下两个阶段.阶段1:sampling SH方法.用户通过sampling SH方法将扰动后的数据发送给数据收集者, 数据收集者统计每个数据项的频数, 确定频数最高的
LDPMiner方法主要通过两个方面的数据处理来提高数据可用性:(1)通过采样技术避免了隐私预算在不同数据项上的分割; (2)频繁项集合的确定和频数统计两个操作分离, 缩小了需要扰动的数据项集合, 从而增大了
LoPub[47, 48]结合了RAPPOR方法和概率图模型的多值频数统计方法.整体思路包括3个步骤:(1)用户端的数据扰动; (2)数据收集者估计联合概率分布并进行数据降维; (3)合成数据集.首先, 每个用户通过RAPPOR方法对元组进行扰动后, 将其发送给数据收集者, 即利用Bloom Filter技术对数据集的每个属性的每个候选值进行编码, 然后将元组中d个属性的候选值的编码串接在一起, 利用随机响应技术对该串进行扰动, 把得到的永久性随机响应结果发送给数据收集者.随后, 类似于文献[61]中基于中心化差分隐私的高维数据发布方法, 数据收集者对采集到的数据进行频数统计, 进而构建出马尔可夫网络(Markov network), 利用属性之间的关联性得到极大团(maximal clique), 并将属性的联合概率分布以极大团的形式来表示, 以此达到数据降维的目的.最后, 通过联合概率分布重新合成一个数据集进行数据发布.
以上介绍了本地化差分隐私下的频数统计方法.表 5对上述方法的主要优缺点、通信代价、渐近误差边界、隐私预算的分配等进行了对比分析, 其中, d表示变量的个数, h表示Bloom Filter串的长度, r表示RAPPOR- unknown方法中子串的个数, m表示S-Hist方法中字符串的编码长度, l表示LoPub方法中字符串的平均编码长度.
![]() |
Table 5 Existing methods of multiple-valued frequency estimation under LDP 表 5 本地化差分隐私下的多值频数统计方法对比分析 |
本地化差分隐私下的均值统计, 其主要思想是对个体值添加正向和负向的噪声, 最终通过聚合大量的扰动结果以抵消其中的正负向噪声, 从而使统计结果满足一定的可用性要求.
本地化差分隐私下的均值统计方法最早由Duchi等人提出[24, 25], 我们称该方法为MeanEst, 其主要思想是将包含n个元组的d维数据集中的第i个元组
$ B = \left\{ \begin{gathered} \frac{{{2^d} + {C_d} \cdot \left( {{{\text{e}}^\varepsilon }-1} \right)}}{{\left( \begin{gathered} d-1 \hfill \\ \left( {d-1} \right)/2 \hfill \\ \end{gathered} \right) \cdot \left( {{{\text{e}}^\varepsilon } - 1} \right)}}, \;\;d为奇数 \hfill \\ \frac{{{2^d} + {C_d} \cdot \left( {{{\text{e}}^\varepsilon } - 1} \right)}}{{\left( \begin{gathered} d - 1 \hfill \\ d/2 \hfill \\ \end{gathered} \right) \cdot \left( {{{\text{e}}^\varepsilon } - 1} \right)}}, \;\;\;\;\;\;\;d为偶数 \hfill \\ \end{gathered} \right., $ |
其中,
$ B = \left\{ \begin{gathered} {2^{d-1}}, \;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;d为奇数 \hfill \\ {2^{d-1}}-\frac{1}{2}\left( \begin{gathered} d \hfill \\ d/2 \hfill \\ \end{gathered} \right), \;\;d为偶数 \hfill \\ \end{gathered} \right.. $ |
首先, MeanEst方法根据以下公式计算一个采样元组
$ P(v[{A_j}] = x) = \left\{ \begin{gathered} \frac{1}{2} + \frac{1}{2}{t_i}[{A_j}], {\text{ }}x{\text{ = 1}} \hfill \\ \frac{1}{2} - \frac{1}{2}{t_i}[{A_j}], {\text{ }}x = - 1 \hfill \\ \end{gathered} \right., $ |
其中,
然后以
元组
在此基础上, Harmony-Mean[26]方法进一步简化了MeanEst方法, 通过采样技术降低了数据的传输代价.
在此基础上, Harmony-Mean[26]方法进一步简化了MeanEst方法, 通过采样技术降低了数据的传输代价.Harmony-Mean方法中, 对于第i个输入元组
$ P(t_i^*[{A_j}] = x) = \left\{ \begin{gathered} \frac{{{t_i}[{A_j}] \cdot ({{\text{e}}^\varepsilon } - 1) + {{\text{e}}^\varepsilon } + 1}}{{2{{\text{e}}^\varepsilon } + 2}}, {\text{ }}x = \frac{{{{\text{e}}^\varepsilon } + 1}}{{{{\text{e}}^\varepsilon } - 1}}d \hfill \\ \frac{{{{\text{e}}^\varepsilon } + 1 - {t_i}[{A_j}] \cdot ({{\text{e}}^\varepsilon } - 1)}}{{2{{\text{e}}^\varepsilon } + 2}}, {\text{ }}x = - \frac{{{{\text{e}}^\varepsilon } + 1}}{{{{\text{e}}^\varepsilon } - 1}}d \hfill \\ \end{gathered} \right., $ |
即, 输出的元组中仅一个维度上的变量有相应的取值, 而其他维度上变量的取值为0.因此, Harmony-Mean方法中的通信代价为MeanEst方法的
以上介绍了本地化差分隐私下的均值统计方法.表 6对上述方法的主要优缺点、通信代价、渐近误差边界以及隐私预算的分配进行了对比分析.
![]() |
Table 6 Existing methods of mean value estimation under LDP 表 6 本地化差分隐私下的均值统计方法对比分析 |
目前, 随机响应是本地化差分隐私的主流扰动机制, 上述频数统计和均值统计方法均基于此而实现.此外, 还有基于信息压缩和扭曲的扰动机制.为了完整阐述本地化差分隐私的研究现状, 本节补充说明基于信息压缩和扭曲的扰动机制.
文献[42]提出基于压缩输入域的扰动机制, 我们称之为Compression.每个用户对应一个d维的元组
$ \rho = \frac{{{{\log }_2}\left| {\hat \chi } \right|}}{{{{\log }_2}\left| \chi \right|}}. $ |
对输入域进行的压缩处理会使得
$ L(X, \hat X) = \frac{1}{d}\sum\nolimits_{i = 1}^d {L({x_i}, {{\hat x}_i})} . $ |
为了对
$ \mathop {\max }\limits_{P \in \mathcal{P}} {\mathbb{E}_{P \times Q}}[L(X, \hat X)] \leqslant \delta, $ |
其中,
文献[43]提出基于信息扭曲的扰动机制, 我们称其为Distortion.该方法通过扰动函数
$ \mathop {\max }\limits_{P \in \mathcal{P}} {\mathbb{E}_{P \times Q}}[L(X, \hat X)] \leqslant \delta . $ |
扰动函数则根据信息扭曲度δ的值来确定:
$ Q(\hat x|x) = \left\{ {\begin{array}{*{20}{c}} {1 - \delta, }&{\hat x = x} \\ {\frac{\delta }{{k - 1}}, }&{\hat x \ne x} \end{array}} \right., $ |
其中,
上述两种基于信息压缩和扭曲的扰动机制主要从信息损失的角度考虑输入和输出的关系, 而基于随机响应技术的扰动机制则主要以一定的概率分布衡量输入和输出的关系.表 7对几种扰动机制进行了比较.
![]() |
Table 7 Purtubation mechanisms under LDP 表 7 本地化差分隐私下的扰动机制对比分析 |
从表 7可以看出, W-RR模型由于其高度可扩展性成为了本地化差分隐私下主流的扰动机制.Compression模型虽然对输入域进行了压缩, 但是每个用户的传输代价并未减少, 因此其通信代价很高.此外, Compression仅适用于低维的情况, 主要是因为输入与输出之间的匹配需计算笛卡尔乘积, 当维度较高时, 得到的匹配结果将呈指数式增长, 将使得相应的时空复杂度过高.类似地, 在Distortion模型中, 隐私预算的设置依赖于属性候选值的个数, 且随候选值个数的增加而增加, 因此, 当属性候选值个数较多时, 隐私保护程度将有所下降.
4.4 本地化差分隐私技术的实验特性分析从定义来看, 本地化差分隐私技术对数据的保护程度主要依赖于隐私预算ε的设定, 因此, ε的取值决定了隐私化处理后数据的可用性高低.但同时, 本地化差分隐私保护技术对所处理数据集的数据量有一定的要求, 数据量也是影响数据可用性的一个重要因素.
本节针对本地化差分隐私技术的实验特性进行了比较分析, 主要包括两个方面:隐私预算ε对隐私保护程度的影响和数据量N对数据可用性的影响.下面结合上述经典方法对本地化差分隐私下的频数统计和均值统计进行分析, 其中, 利用RAPPOR[9]方法进行频数统计, 利用Harmony-Mean[26]方法进行均值统计.
4.4.1 隐私预算对数据可用性的影响对隐私保护而言, 隐私保护程度与数据可用性呈负相关, 隐私保护程度高则数据可用性低, 隐私保护程度低则数据可用性高.本地化差分隐私中, 隐私保护的程度同样由参数ε决定, 它通过控制随机响应技术输出真实值的概率值来控制数据的偏离程度, 进而保护隐私.以下实验利用上述两种方法, 比较不同ε值对统计结果造成的影响.其中, ε包含以下3种取值:0.1、0.5以及2.0.
首先, 对于频数统计任务, 我们模拟106个用户, 每个用户发送一个字符串, 字符串取值集合为
频数统计的任务是根据数据收集者所采集的数据, 统计每个字符串出现的频率, 而真实的字符串频数值满足正态分布.不同隐私预算下的统计结果如图 5所示, 蓝色柱子的高度表示真实频数值, 红色柱子的高度表示隐私化处理后的统计值.
![]() |
Fig. 5 Frequency estimation under different privacy budget 图 5 不同隐私预算下的频数统计结果 |
由图 5可知, 当给定较少的隐私预算, 如ε=0.1时, 统计结果偏离真实值的程度较大, 而当给定较多的隐私预算, 如ε=2.0时, 统计结果则比较接近真实值.
对于均值统计任务, 我们则是模拟多属性的情形.同样包括106个用户, 每个用户对应一个80维的元组, 其中每个元素都是从[1, 400]上随机选取的整数, 表示用户在该维度上的取值, 同时使得不同维度上的均值满足线性分布.不同隐私预算下的统计结果如图 6所示, 蓝色点表示给定维度的真实均值, 红色点表示隐私化处理后的估计值.
![]() |
Fig. 6 Mean value estimation under different privacy budget 图 6 不同隐私预算下的均值统计结果 |
由图 6可知, 当给定较少的隐私预算时, 均值统计结果偏离真实值的程度较大, 而当给定较多的隐私预算时, 均值的统计结果十分接近真实值.
对于本地化差分隐私技术的保护机制而言, 不同的隐私预算ε直接决定了随机响应技术中用于响应真实结果的概率p, ε越大, 则p越大, 即用户以更高的概率响应真实结果.因此, 无论对于频数统计还是均值统计, 都提高了数据的可用性.即, 对于同一个数据集, 隐私预算的大小直接决定了数据可用性的高低, 隐私预算大则数据可用性高, 隐私预算小则数据可用性低.直观地, 以W-RR[19]为例, ε与p的函数关系如图 7所示.
![]() |
Fig. 7 Functional relation between ε and p 图 7 ε与p的函数关系 |
本地化差分隐私技术通过把数据中的正向扰动噪声和负向扰动噪声相互抵消来保证数据的可用性, 这就必然要求统计数据量足够大.本节根据数据量的大小对统计结果可用性高低的影响进行了分析, 其中, 设置隐私预算ε=1.0, 数据量N设置3个不同的数量级:104、105和106.
对于频数统计任务, 为避免不同数据分布可能带来的影响, 本节中模拟生成字符串频数满足指数分布的数据集, 同样模拟106个用户, 每个用户发送一个字符串, 字符串取值集合为
![]() |
Fig. 8 Frequency estimation under different data volume 图 8 不同数据量下的频数统计结果 |
由图 8可知, 在给定相同的隐私预算(ε=1.0)下, 即对于相同的隐私保护程度, 当所统计的数据量较小, 如N=104时, 统计结果与真实值的偏差较大, 而当所统计的数据量较大, 如N=106时, 统计结果则比较接近真实值.
对于均值统计任务, 生成4个模拟数据集, 分别包括104、105和106个元组, 数据集其他特征与第4.4.1节中均值统计任务所描述的相同.不同数据量下的统计结果如图 9所示, 蓝色点表示给定维度的真实均值, 红色点表示隐私化处理后的统计均值.
![]() |
Fig. 9 Mean value estimation under different data volume 图 9 不同数据量下的均值统计结果 |
由图 9可知, 同样在给定相同的隐私预算(ε=1.0)下, 当所统计的数据量较小时, 统计结果与真实值的偏差较大, 而当所统计的数据量较大时, 统计结果十分接近真实值.
在本地化差分隐私技术中, 无论是频数统计还是均值统计, 当给定相同隐私预算时, 用于统计的数据量大小决定了数据可用性高低, 数据量大则统计结果的可用性高, 数据量小则统计结果的可用性低.这一特性主要从大数定律[63]的角度来解释.大数定律阐释了在相同条件下重复多次实验, 其随机事件的频率近似于它的概率.本地化差分隐私中, 每个用户分别以一定的概率来响应真实值, 然后, 数据收集者基于相同的概率对结果进行统计分析.由于响应具有随机性, 统计结果往往偏离真实值.当数据量较小时, 由于事件的频率与概率之间差值较大, 统计结果和真实值之间的偏离程度更为明显, 而当数据量较大时, 事件的频率接近于概率, 因此, 统计结果和真实值之间的差异性就变得很小.
5 未来研究挑战目前, 本地化差分隐私还是一个新的研究领域, 现有研究主要集中在两个方面:(1)理论上, 设计满足本地化差分隐私的保护机制; (2)方法上, 对频数和均值两种统计结果进行保护.然而, 大数据时代下, 数据的复杂性、多样性和大规模性等特性将带来新的大数据隐私风险[64].因此, 结合现有研究, 我们认为本地化差分隐私保护技术还有很多挑战性问题亟待解决, 以下从3个方面进行阐述.
5.1 复杂数据类型的本地化差分隐私保护信息技术时代带来了数据规模的爆炸式增长, 而数据之间的关联性也使得数据类型更加复杂.显然, 在隐私保护问题上, 这为隐私保护技术带来了极大的挑战.目前, 本地化差分隐私保护技术的研究主要还是针对简单的数据类型, 例如对包含一个或多个属性的关系数据和集值数据, 进行频数统计或均值统计.然而, 简单的数据类型对于当下空前的数据分析需求而言, 还远远不够.下面以键值对数据(key-value database)和图数据(graph database)为例, 分析其隐私风险并说明该数据类型对本地化差分隐私技术的挑战.
键值对是一种常用的数据类型, 中心化差分隐私技术对键值对数据[65]的隐私保护, 其思想一般是将相同“键”所对应的“值”进行统计, 并添加噪声.然而实际上, 我们认为, 在本地化差分隐私场景下, 除了“值”, “键”本身也具有一定的敏感性, 因为数据收集者可能通过“键”重新定位某个用户, 从而获取敏感信息.因此, 对于键值对数据, 需要同时对“键”和“值”进行隐私化处理, 且仍需保证“键”和“值”之间的对应性.
图数据则是一种更为复杂的数据类型, 其根据图结构定义了节点、边和属性, 存储相应信息.例如, 社交网络数据、路网数据等.中心化差分隐私技术针对图数据的隐私保护, 包括子图计数[66]、节点数据发布[67]等, 其主要难点在于图的结构特点使得查询的全局敏感性极高, 从而使得噪声过大.基于本地化差分隐私技术的图数据发布, 虽然不存在敏感性过大的问题, 但是由于每个用户对数据的扰动过程相互独立, 数据收集者如何根据扰动后的数据构建可用性高的图结构, 即如何保证原始数据之间的关联性是一大挑战.况且, 现实中很多图数据是稀疏的, 这进一步加大了还原数据关联性的难度.
5.2 不同查询和分析任务的本地化差分隐私保护执行不同的查询任务, 进行相应的数据分析, 是为了从数据中抽取有价值的规则和知识.目前, 本地化差分隐私下的研究工作所针对的查询任务主要包括两类简单的聚集查询:离散型数据下的计数查询和连续型数据下的均值查询, 并且数据的扰动方式一般根据查询类型而定, 二者紧密耦合, 使得相应扰动方式仅能支持特定的查询任务.然而, 面对大数据下各种复杂的查询和分析任务, 仅上述两类基本的聚集查询还远远不够.基于本地化差分隐私保护的数据分析, 目前也仅有文献[26]讨论了线性回归、Logistic回归和SVM分类这3种分析任务.
以数据分析中的聚类分析和频繁模式挖掘为例, 聚类分析是为了把性质相近的数据归入一类, 典型应用如客户群体发现、社区发现等; 频繁模式挖掘的目的则是找出数据集中的频繁项集, 进而发现模式规律, 典型应用如搜索日志分析、购买行为分析等.聚类分析和频繁模式挖掘都是数据分析中的常用方法, 其中涉及的查询包括计数查询、均值查询、范围查询和最值查询等.本地化差分隐私下, 不仅要求能够支持不同的查询类型, 还要求扰动后的数据能够同时支持多种不同的查询.与中心化差分隐私不同, 本地化差分隐私通过抵消添加在数据中的正向和负向噪声来得到比较准确的统计结果, 但就单条数据记录而言, 通常扰动前后数据的偏差较大, 这也进一步加大了针对不同查询的难度.
因此, 我们认为, 针对不同查询和分析任务的本地化差分隐私保护技术主要考虑以下3个方面的问题.
(1) 提供对除计数查询和均值查询以外的多种查询方式的支持;
(2) 数据扰动方式与查询类型的解绑, 使得扰动后的数据能够同时支持多种查询;
(3) 提高数据分析结果的可用性.
5.3 基于本地化差分隐私的高维数据发布隐私数据发布问题下, 当数据维度不高时, 现有大多数方法均可取得较好的统计结果, 如中心化差分隐私下基于数据立方体的方法[68]、基于多权重机制的方法[69, 70]和基于学习模型的方法[71]等.然而, 当属性个数较多时, 即对于数据维度较高的数据集, 现有的方法将遇到瓶颈[72, 73], 因此, 数据的高维度给差分隐私技术带来极大的挑战.对于本地化差分隐私保护技术而言, 高维数据不仅带来数据规模变大和信噪比降低两个方面的影响, 而且还将增加通信代价.并且, 通信代价根据不同的扰动机制随数据维度的增加呈线性增长或指数增长, 而通信代价的增加将直接为本地化差分隐私技术的应用带来限制.
目前, 针对高维数据的发布, 主要是利用属性划分的思想, 在满足本地化差分隐私的基础上, 将高维数据的联合概率分布分解为多个低维的边缘概率分布的形式, 以多个边缘概率通过某种推理机制近似估计联合概率分布.其中的关键步骤是对两两属性之间的关联性进行判断.当数据中存在d个属性时, 对应的关联性存在
综上所述, 我们认为, 本地化差分隐私下的高维数据发布主要考虑3个方面的问题:(1)如何在一定隐私预算内衡量属性之间的关联性, 从而进行降维处理; (2)如何设计推理模型, 最小化边缘分布到联合分布的近似误差, 提高数据可用性; (3)如何控制高维数据在用户和数据收集者之间的通信代价.
6 结束语大数据时代个人数据高度敏感, 如何防止隐私信息泄露是当前面临的重大挑战.本地化差分隐私是继中心化差分隐私后新兴的隐私保护模型, 其打破了中心化差分隐私中关于可信第三方数据收集者的假设, 在用户端对数据进行隐私化处理.目前, 本地化差分隐私保护技术是隐私保护领域的研究热点, 本文对其研究成果进行总结和分析, 综述了本地化差分隐私保护技术的研究现状, 总结该技术在频数统计和均值统计中的应用, 并进行实验特性分析.最后, 本文就现有研究工作和现实需求进行探讨, 结合二者提出未来研究挑战.总之, 本地化差分隐私保护技术还是一个新兴研究领域, 仍有诸多关键问题需要进行深入而细致的研究.
[1] |
Dwork C. Differential privacy. In: Proc. of the ICALP. 2006. 1-12. |
[2] |
Dwork C, Lei J. Differential privacy and robust statistics. In: Proc. of the 41st Annual ACM Symp. on Theory of Computing. ACM, 2009. 371-380. [doi: 10.1145/1536414.1536466] |
[3] |
Smith A. Privacy-Preserving statistical estimation with optimal convergence rates. In: Proc. of the 43rd Annual ACM Symp. on Theory of Computing. ACM, 2011. 813-822. [doi: 10.1145/1993636.1993743]https://www.semanticscholar.org/paper/Privacy-preserving-statistical-estimation-with-Smith/b20df8ba4ba714191cd10b9485e331bf2cbc2e57 |
[4] |
Samarati P, Sweeney L. Generalizing data to provide anonymity when disclosing information. PODS, 1998, 98: 188.
https://dl.acm.org/citation.cfm?id=275508 |
[5] |
Machanavajjhala A, Kifer D, Gehrke J, Kifer D, Venkitasubramaniam M. l-Diversity: Privacy beyond k-anonymity. ACM Trans. on Knowledge Discovery from Data (TKDD), 2007, 1(1): 3. [doi: 10.1109/ICDE.2006.1] |
[6] |
Li N, Li T, Venkatasubramanian S. t-Closeness: Privacy beyond k-anonymity and l-diversity. In: Proc. of the 23rd IEEE Int'l Conf. on Data Engineering, ICDE 2007. IEEE, 2007. 106-115. [doi: 10.1109/ICDE.2007.367856] |
[7] |
Kasiviswanathan SP, Lee HK, Nissim K, Raskhodnikova S, Smith A. What can we learn privately. In: Proc. of the 49th Annual IEEE Symp. on Foundations of Computer Science (FOCS). IEEE, 2008. 531-540. |
[8] |
Duchi JC, Jordan MI, Wainwright MJ. Local privacy and statistical minimax rates. In: Proc. of the 54th Annual IEEE Symp. on Foundations of Computer Science (FOCS). IEEE, 2013. 429-438. [doi: 10.1109/FOCS.2013.53] |
[9] |
Erlingsson Ú, Pihur V, Korolova A. Rappor: Randomized aggregatable privacy-preserving ordinal response. In: Proc. of the 2014 ACM SIGSAC Conf. on Computer and Communications Security. ACM, 2014. 1054-1067. [doi: 10.1145/2660267.2660348]https://ai.google/research/pubs/pub42852 |
[10] |
Howe J. Crowdsourcing:How the Power of the Crowd is Driving the Future of Business. Random House, 2008.
https://link.springer.com/chapter/10.1007/978-3-319-91125-0_14 |
[11] |
Li G, Wang J, Zheng Y, Franklin MJ. Crowdsourced data management: A survey. IEEE Trans. on Knowledge and Data Engineering, 2016, 28(9): 2296-2319. [doi: 10.1109/TKDE.2016.2535242] |
[12] |
Wu S, Wang X, Wang S, Zhang Z, Tung AK. K-Anonymity for crowdsourcing database. IEEE Trans. on Knowledge and Data Engineering, 2014, 26(9): 2207-2221. [doi: 10.1109/TKDE.2013.93] |
[13] |
Varshney LR, Vempaty A, Varshney PK. Assuring privacy and reliability in crowdsourcing with coding. In: Proc. of the Information Theory and Applications Workshop (ITA). IEEE, 2014. 1-6. [doi: 10.1109/ITA.2014.6804213]https://ieeexplore.ieee.org/document/6804213/ |
[14] |
Mao J, Jain AK. Artificial neural networks for feature extraction and multivariate data projection. IEEE Trans. on Neural Networks, 1995, 6(2): 296-317. [doi: 10.1109/72.363467]http://ieeexplore.ieee.org/abstract/document/363467/ |
[15] |
Finn RL, Wright D, Friedewald M. Seven types of privacy. In: European Data Protection: Coming of Age. Springer Netherlands, 2013. 3-32. |
[16] |
Erkin Z, Franz M, Guajardo J, Katzenbeisser S, Lagendijk I, Toft T. Privacy-Preserving face recognition. In: Proc. of the Int'l Symp. on Privacy Enhancing Technologies Symp. Berlin, Heidelberg: Springer-Verlag, 2009. 235-253. |
[17] |
Qin Z, Yan J, Ren K, Chen CW, Wang C. Towards efficient privacy-preserving image feature extraction in cloud computing. In: Proc. of the 22nd ACM Int'l Conf. on Multimedia. ACM, 2014. 497-506. [doi: 10.1145/2647868.2654941]https://www.semanticscholar.org/paper/Towards-Efficient-Privacy-preserving-Image-Feature-Qin-Yan/b597acb36c5a1f674a37f4f6ec05012e6b608eb3 |
[18] |
Ren K. Privacy-Preserving image processing in cloud computing. Chinese Journal of Network and Information Security, 2016(1): 12–17(in Chinese with English abstract).
[doi:10.11959/j.issn.2096-109x.2016.00020] |
[19] |
Warner SL. Randomized response:A survey technique for eliminating evasive answer bias. Journal of the American Statistical Association, 1965, 60(309): 63–69.
[doi:10.1080/01621459.1965.10480775] |
[20] |
Qin Z, Yang Y, Yu T, Khalil I, Xiao X, Ren K. Heavy hitter estimation over set-valued data with local differential privacy. In: Proc. of the 2016 ACM SIGSAC Conf. on Computer and Communications Security. ACM, 2016. 192-203. [doi: 10.1145/2976749.2978409]https://dl.acm.org/citation.cfm?id=2978409 |
[21] |
Bassily R, Smith A. Local, private, efficient protocols for succinct histograms. In: Proc. of the 47th Annual ACM on Symp. on Theory of Computing. ACM, 2015. 127-135. [doi: 10.1145/2746539.2746632]https://doi.acm.org/10.1145/2746539.2746632 |
[22] |
Kairouz P, Oh S, Viswanath P. Extremal mechanisms for local differential privacy. In: Advances in Neural Information Processing Systems. 2014. 2879-2887. |
[23] |
Kairouz P, Bonawitz K, Ramage D. Discrete distribution estimation under local privacy. In: Proc. of the 33rd Int'l Conf. on Machine Learning. New York, 2016. 2436-2444.https://ai.google/research/pubs/pub45810 |
[24] |
Duchi JC, Jordan MI, Wainwright MJ. Local privacy, data processing inequalities, and statistical minimax rates. arXiv Preprint arXiv: 1302. 3203, 2013. |
[25] |
Wainwright MJ, Jordan MI, Duchi JC. Privacy aware learning. In: Advances in Neural Information Processing Systems. 2012. 1430-1438. |
[26] |
Nguyên TT, Xiao X, Yang Y, Hui SC, Shin H, Shin J. Collecting and analyzing data from smart device users with local differential privacy. arXiv Preprint arXiv: 1606. 05053, 2016.http://adsabs.harvard.edu/abs/2016arXiv160605053N |
[27] |
McSherry FD. Privacy integrated queries: An extensible platform for privacy-preserving data analysis. In: Proc. of the 2009 ACM SIGMOD Int'l Conf. on Management of Data. ACM, 2009. 19-30. [doi: 10.1145/1559845.1559850]https://cacm.acm.org/magazines/2010/9/98035-privacy-integrated-queries/fulltext |
[28] |
Dwork C, McSherry F, Nissim K, Smith A. Calibrating noise to sensitivity in private data analysis. In: Proc. of the Theory of Cryptography Conf. Berlin, Heidelberg: Springer-Verlag, 2006. 265-284.https://link.springer.com/chapter/10.1007/11681878_14 |
[29] |
McSherry F, Talwar K. Mechanism design via differential privacy. In: Proc. of the 48th Annual IEEE Symp. on Foundations of Computer Science (FOCS). IEEE, 2007. 94-103. [doi: 10.1109/FOCS.2007.66] |
[30] |
Wang Q, Zhang Y, Lu X, Wang Z, Qin Z, Ren, K. Real-Time and spatio-temporal crowd-sourced social network data publishing with differential privacy. IEEE Trans. on Dependable and Secure Computing, 2016. [doi: 10.1109/TDSC.2016.2599873]http://ieeexplore.ieee.org/document/7542581/ |
[31] |
Zhang X, Chen R, Xu J, Meng X, Xie Y. Towards accurate histogram publication under differential privacy. In: Proc. of the 2014 SIAM Int'l Conf. on Data Mining. Society for Industrial and Applied Mathematics, 2014. 587-595.http://epubs.siam.org/doi/abs/10.1137/1.9781611973440.68 |
[32] |
Su S, Tang P, Cheng X, Chen R, Wu Z. Differentially private multi-party high-dimensional data publishing. In: Proc. of the 32nd IEEE Int'l Conf. on Data Engineering (ICDE). IEEE, 2016. 205-216. [doi: 10.1109/ICDE.2016.7498241]http://ieeexplore.ieee.org/document/7498241/ |
[33] |
Yaroslavtsev G, Cormode G, Procopiuc CM, Srivastava D. Accurate and efficient private release of datacubes and contingency tables. In: Proc. of the 29th IEEE Int'l Conf. on Data Engineering (ICDE). IEEE, 2013. 745-756. [doi: 10.1109/ICDE.2013.6544871]http://ieeexplore.ieee.org/document/6544871/ |
[34] |
Zhang T, Zhu Q. Dynamic differential privacy for ADMM-based distributed classification learning. IEEE Trans. on Information Forensics and Security, 2017, 12(1): 172-187. [doi: 10.1109/TIFS.2016.2607691]http://ieeexplore.ieee.org/document/7563366/ |
[35] |
Abadi M, Chu A, Goodfellow I, McMahan H B, Mironov I, Talwar K, Zhang L. Deep learning with differential privacy. In: Proc. of the 2016 ACM SIGSAC Conf. on Computer and Communications Security. ACM, 2016. 308-318. [doi: 10.1145/2976749.2978318] |
[36] |
Bun M, Steinke T, Ullman J. Make up your mind: The price of online queries in differential privacy. In: Proc. of the 28th Annual ACM-SIAM Symp. on Discrete Algorithms. Society for Industrial and Applied Mathematics, 2017. 1306-1325. |
[37] |
Yuan G, Yang Y, Zhang Z, Hao Z. Convex optimization for linear query processing under approximate differential privacy. In: Proc. of the 22nd ACM SIGKDD Int'l Conf. on Knowledge Discovery and Data Mining. ACM, 2016. 2005-2014. [doi: 10.1145/2939672.2939818].http://www.kdd.org/kdd2016/subtopic/view/convex-optimization-for-linear-query-processing-under-approximate-different |
[38] |
Chen R, Li H, Qin AK, Kasiviswanathan SP, Jin H. Private spatial data aggregation in the local setting. In: Proc. of the 32nd IEEE Int'l Conf. on Data Engineering (ICDE). IEEE, 2016. 289-300. [doi: 10.1109/ICDE.2016.7498248]http://ieeexplore.ieee.org/document/7498248/ |
[39] |
Zhang X, Meng X. Differential privacy in data publication and analysis. Chinese Journal of Computers, 2014(4): 927–949(in Chinese with English abstract).
http://www.bookask.com/book/2132109.html |
[40] |
Kifer D, Machanavajjhala A. No free lunch in data privacy. In: Proc. of the 2011 ACM SIGMOD Int'l Conf. on Management of data. ACM, 2011. 193-204. [doi: 10.1145/1989323.1989345] |
[41] |
Yang B, Sato I, Nakagawa H. Bayesian differential privacy on correlated data. In: Proc. of the 2015 ACM SIGMOD Int'l Conf. on Management of Data. ACM, 2015. 747-762. [doi: 10.1145/2723372.2747643] |
[42] |
Xiong S, Sarwate AD, Mandayam NB. Randomized requantization with local differential privacy. In: Proc. of the 2016 IEEE Int'l Conf. on Acoustics, Speech and Signal Processing (ICASSP). IEEE, 2016. 2189-2193. [doi: 10.1109/ICASSP.2016.7472065]http://ieeexplore.ieee.org/document/7472065/ |
[43] |
Sarwate AD, Sankar L. A rate-distortion perspective on local differential privacy. 2014. 903-908. [doi: 10.1109/ALLERTON.2014.7028550] |
[44] |
Wang S, Huang L, Wang P, Nie Y, Xu H, Yang W, Li X, Qiao C. Mutual information optimally local private discrete distribution estimation. arXiv Preprint arXiv: 1607. 08025, 2016. |
[45] |
Ye M, Barg A. Optimal schemes for discrete distribution estimation under locally differential privacy. arXiv Preprint arXiv: 1702. 00610, 2017.https://core.ac.uk/display/74251791 |
[46] |
Fanti G, Pihur V, Erlingsson ú. Building a RAPPOR with the unknown:Privacy-Preserving learning of associations and data dictionaries. Proc. on Privacy Enhancing Technologies, 2016, 2016(3): 41–61.
[doi:10.1515/popets-2016-0015] |
[47] |
Ren X, Yu CM, Yu W, Yang S, Yang X, McCann JA, Yu PS. LoPub: High-Dimensional crowdsourced data publication with local differential privacy. IEEE Trans. on Dependable and Secure Computing, 2018, 13(9): 2151-2166. [doi: 10.1109/TIFS.2018.2812146] |
[48] |
Ren X, Yu CM, Yu W, Yang S, Yang X, McCann J. High-Dimensional crowdsourced data distribution estimation with local privacy. In: Proc. of the 2016 IEEE Int'l Conf. on Computer and Information Technology (CIT). IEEE, 2016. 226-233. [doi: 10.1109/CIT.2016.57] |
[49] |
Zhang J, Cormode G, Procopiuc CM, Srivastava D, Xiao X. Privbayes: Private data release via bayesian networks. In: Proc. of the 2014 ACM SIGMOD Int'l Conf. on Management of Data. ACM, 2014. 1423-1434. [doi: 10.1145/2588555.2588573] |
[50] |
Qardaji W, Yang W, Li N. Priview: Practical differentially private release of marginal contingency tables. In: Proc. of the 2014 ACM SIGMOD Int'l Conf. on Management of Data. ACM, 2014. 1435-1446. [doi: 10.1145/2588555.2588575] |
[51] |
Kellaris G, Papadopoulos S. Practical differential privacy via grouping and smoothing. Proc. of the VLDB Endowment, 2013, 6(5): 301–312.
[doi:10.14778/2535573.2488337] |
[52] |
Day WY, Li N. Differentially private publishing of high-dimensional data using sensitivity control. In: Proc. of the 10th ACM Symp on Information, Computer and Communications Security. ACM, 2015. 451-462. [doi: 10.1145/2714576.2714621] |
[53] |
Xu J, Zhang Z, Xiao X, Yang Y, Yu G, Winslett M. Differentially private histogram publication. The VLDB Journal, 2013, 22(6): 797–822.
[doi:10.1007/s00778-013-0309-y] |
[54] |
Zhang J, Cormode G, Procopiuc C M, Srivastava D, Xiao, X. Private release of graph statistics using ladder functions. In: Proc. of the 2015 ACM SIGMOD Int'l Conf. on Management of Data. ACM, 2015. 731-745. |
[55] |
Day WY, Li N, Lyu M. Publishing graph degree distribution with node differential privacy. In: Proc. of the 2016 Int'l Conf. on Management of Data. ACM, 2016. 123-138. [doi: 10.1145/2723372.2737785] |
[56] |
Bloom BH. Space/Time trade-offs in hash coding with allowable errors. Communications of the ACM, 1970, 13(7): 422–426.
[doi:10.1145/362686.362692] |
[57] |
Tibshirani R. Regression shrinkage and selection via the Lasso. Journal of the Royal Statistical Society (Series B-Methodological), 1996: 267–288.
|
[58] |
Blum A, Ligett K, Roth A. A learning theory approach to noninteractive database privacy. Journal of the ACM (JACM), 2013, 60(2): 12.
[doi:10.1145/2450142.2450148] |
[59] |
Hsu J, Khanna S, Roth A. Distributed private heavy hitters. Automata, Languages, and Programming, 2012: 461–472.
[doi:10.1007/978-3-642-31594-7_39] |
[60] |
Dempster AP, Laird NM, Rubin DB. Maximum likelihood from incomplete data via the EM algorithm. Journal of the Royal Statistical Society (Series B-Methodological), 1977: 1–38.
|
[61] |
Chen R, Xiao Q, Zhang Y, Xu J. Differentially private high-dimensional data publication via sampling-based inference. In: Proc. of the 21st ACM SIGKDD Int'l Conf. on Knowledge Discovery and Data Mining. ACM, 2015. 129-138. [doi: 10.1145/2783258.2783379] |
[62] |
Boyd S, Vandenberghe L. Convex Optimization. Cambridge University Press, 2004.
|
[63] |
Newey WK, McFadden D. Large sample estimation and hypothesis testing. Handbook of Econometrics, 1994, 4: 2111–2245.
[doi:10.1016/S1573-4412(05)80005-4] |
[64] |
Meng X, Zhang X. Big data privacy management. Journal of Computer Research and Development, 2016, 52(2): 265–281(in Chinese with English abstract).
http://www.nsfc.gov.cn/publish/portal0/zdyjjh/info69876.htm |
[65] |
Viswanath B, Kiciman E, Saroiu S. Keeping information safe from social networking apps. In: Proc. of the 2012 ACM Workshop on Online Social Networks. ACM, 2012. 49-54. [doi: 10.1145/2342549.2342561] |
[66] |
Karwa V, Raskhodnikova S, Smith A, Yaroslavtsev G. Private analysis of graph structure. ACM Trans. on Database Systems (TODS), 2014, 39(3): 22. [doi: 10.1145/2611523] |
[67] |
Hay M, Li C, Miklau G, Jensen D. Accurate estimation of the degree distribution of private networks. In: Proc. of the 9th IEEE Int'l Conf. on Data Mining, ICDM 2009. IEEE, 2009. 169-178. [doi: 10.1109/ICDM.2009.11]http://ieeexplore.ieee.org/document/5360242/ |
[68] |
Ding B, Winslett M, Han J, Li Z. Differentially private data cubes: Optimizing noise sources and consistency. In: Proc. of the 2011 ACM SIGMOD Int'l Conf. on Management of Data. ACM, 2011. 217-228. [doi: 10.1145/1989323.1989347]https://experts.illinois.edu/en/publications/differentially-private-data-cubes-optimizing-noise-sources-and-co |
[69] |
Hardt M, Rothblum GN. A multiplicative weights mechanism for privacy-preserving data analysis. In: Proc. of the 51st Annual IEEE Symp. on Foundations of Computer Science (FOCS). IEEE, 2010. 61-70. [doi: 10.1109/FOCS.2010.85] |
[70] |
Hardt M, Ligett K, McSherry F. A simple and practical algorithm for differentially private data release. In: Advances in Neural Information Processing Systems. 2012. 2339-2347. |
[71] |
Thaler J, Ullman J, Vadhan S. Faster algorithms for privately releasing marginals. In: Proc. of the Int'l Colloquium on Automata, Languages, and Programming. Berlin, Heidelberg: Springer-Verlag, 2012. 810-821. |
[72] |
Aggarwal CC. On randomization, public information and the curse of dimensionality. In: Proc. of the 23rd IEEE Int'l Conf. on Data Engineering, ICDE 2007. IEEE, 2007. 136-145. [doi: 10.1109/ICDE.2007.367859]http://ieeexplore.ieee.org/xpls/abs_all.jsp?arnumber=4221662 |
[73] |
Aggarwal CC. Privacy and the dimensionality curse. Privacy-Preserving Data Mining, 2008: 433–460.
[doi:10.1007/978-0-387-70992-5_18] |
[18] |
任奎. 云计算中图像数据处理的隐私保护. 网络与信息安全学报, 2016(1): 12–17.
[doi:10.11959/j.issn.2096-109x.2016.00020]
|
[39] |
张啸剑, 孟小峰. 面向数据发布和分析的差分隐私保护. 计算机学报, 2014(4): 927–949.
http://www.bookask.com/book/2132109.html
|
[64] |
孟小峰, 张啸剑. 大数据隐私管理. 计算机研究与发展, 2016, 52(2): 265–281.
http://www.nsfc.gov.cn/publish/portal0/zdyjjh/info69876.htm
|