← 返回总览
18
论文总数
18
高分论文
7.8
平均评分
5
关键词数
微调小型语言模型(SLMs)用于自主网络地理信息系统(AWebGIS)
📝 作者: Mahdi Nazari Ashani, Ali Asghar Alesheikh, Saba Kazemi, Kimya Kheirkhah, Yasin Mohammadi, Fatemeh Re
📄 中文摘要:
自主网络地理信息系统(AWebGIS)旨在通过自然语言输入执行地理空间操作,提供直观、智能且免提的交互体验。然而,当前大多数解决方案依赖于云端大型语言模型(LLMs),这需要持续的互联网连接,并因集中式服务器处理而引发用户隐私和可扩展性问题。本研究比较了三种实现AWebGIS的方法:(1)使用云端LLMs(如Cohere)的全自动化在线方法;(2)使用经典机器学习分类器(如支持向量机和随机森林)的半自动化离线方法;(3)基于微调小型语言模型(SLM)的全自主离线(客户端)方法,具体使用T5-small模型,并在客户端的网络浏览器中执行。研究结果表明,第三种方法(基于SLM的客户端计算)在所有方法中取得了最高的准确性,其精确匹配准确率为0.93,Levenshtein相似度为0.99,面向回忆的摘要评估ROUGE-1和ROUGE-L得分为0.98。更为重要的是,这种客户端计算策略通过将处理任务转移到用户设备上,显著减少了后端服务器的负载,消除了对服务器端推理的依赖。实验结果凸显了浏览器可执行模型在AWebGIS解决方案中的可行性,为实现隐私保护和高效的地理信息系统提供了新的技术路径。本研究不仅展示了小型语言模型在特定任务中的潜力,也为离线智能交互系统的开发奠定了基础。
小型语言模型自主地理信息系统客户端计算自然语言处理隐私保护
最优本地私有分布估计中块设计的必要性
📝 作者: Abigail Gentle
📄 中文摘要:
本地差分隐私是数据在离开设备前保护隐私的黄金标准,而在该模型下的分布估计问题已得到广泛研究。近期,基于平衡不完全块设计(BIBD)的协议被证明能够实现该问题的最优误差。然而,是否还有其他构造方法也能达到最优误差仍未可知。本研究通过证明任何实现最优误差的协议都必须对应于某种平衡不完全块设计,解决了这一问题。结合先前研究成果,本文完全刻画了该问题最优协议的集合。研究进一步得出结论,只有基于对称平衡不完全块设计的协议才能同时实现最优误差和最优通信效率。这一发现不仅深化了本地差分隐私下分布估计的理论基础,还为设计高效且隐私保护的协议提供了明确的方向。研究结果表明,平衡不完全块设计在本地私有分布估计中的核心地位不可替代,为后续相关研究奠定了重要基础。此外,本文的研究方法和结论可能对其他隐私保护算法的设计具有启发性,尤其是在需要在隐私和准确性之间寻求平衡的场景中。
本地差分隐私分布估计平衡不完全块设计最优误差隐私保护
联邦多目标学习与受控帕累托前沿
📝 作者: Jiansheng Rao, Jiayi Li, Zhizhi Gong, Soummya Kar, Haoxuan Li
📄 中文摘要:
联邦学习(FL)是一种广泛采用的隐私保护模型训练范式,但传统的FedAvg算法倾向于优化多数客户端的性能,而对少数客户端的服务不足。现有的联邦多目标学习(FMOL)方法尝试将多目标优化(MOO)引入联邦学习中,然而其仅能提供任务级的帕累托平稳点,客户端公平性仍依赖于偶然性。本文提出了一种新型的锥形正则化联邦多目标学习框架(CR-FMOL),这是首个通过新颖的偏好锥约束强制实现客户端级帕累托最优的联邦多目标优化框架。在本地执行联邦多梯度下降平均(FMGDA)或联邦随机多梯度下降平均(FSMGDA)步骤后,每个客户端将其聚合的任务损失向量作为隐式偏好传输至服务器;服务器随后以均匀向量为中心,求解一个锥形约束的帕累托多任务学习(MTL)子问题,生成一个对每个客户端在其锥内均为帕累托平稳的下降方向。实验基于非独立同分布(non-IID)基准数据集进行,结果表明CR-FMOL显著提升了客户端公平性。尽管在训练早期阶段其性能略低于FedAvg,但预计在充分训练轮次后,其准确性将与FedAvg相当。本研究为联邦学习中的公平性问题提供了新的解决方案,并展示了在隐私保护与模型性能之间实现平衡的潜力,为未来在多目标优化与联邦学习结合领域的研究奠定了基础。
联邦学习多目标优化帕累托前沿客户端公平性隐私保护
局部距离查询与差分隐私
📝 作者: Weihong Sheng, Jiajun Chen, Bin Cai, Chunqiang Hu, Meng Han, Jiguo Yu
📄 中文摘要:
差分隐私(DP)常被用于保护图分析或发布中的数据隐私。距离作为图分析中的关键因素,通常通过托管差分隐私(Curator DP)处理,即由一个可信的托管者持有所有顶点的完整邻居列表并私密地回答查询。然而,在许多现实场景中,可能不存在这样的托管者,这为在局部差分隐私(LDP)下实现差分隐私距离查询带来了重大挑战。本文提出了两种方法来解决这一问题。第一种方法通过随机化响应生成合成图,并应用位运算减少噪声干扰。然而,与其他合成图方法类似,该方法在实用性上表现不佳。为克服这一局限性,本文提出了第二种方法,这是首个专门为距离查询设计的LDP方法。该方法通过持续聚合来自邻近顶点的局部距离向量,捕捉全局图结构,从而实现全局距离的准确更新。本文通过全面的理论分析和在真实数据集上的实验评估,证明了所提出方法的有效性。研究结果表明,第二种方法在保持隐私的同时,显著提高了距离查询的准确性和实用性,为在无托管者场景下实现高效的图分析提供了新的解决方案。这一研究不仅填补了局部差分隐私在距离查询领域的空白,也为未来的图隐私保护研究奠定了基础。
差分隐私局部差分隐私距离查询图分析数据隐私
PRvL:量化大型语言模型在个人身份信息编辑中的能力和风险
📝 作者: Leon Garza, Anantaa Kotal, Aritran Piplai, Lavanya Elluri, Prajit Das, Aman Chadha
📄 中文摘要:
在受监管领域中,从非结构化文本中编辑个人身份信息(PII)对于确保数据隐私至关重要。传统方法依赖于基于规则的系统和特定领域的命名实体识别(NER)模型,但这些方法在不同格式和上下文中的泛化能力有限。近期大型语言模型(LLMs)的进步提供了一个有前景的替代方案,然而架构和训练选择对编辑性能的影响尚未被充分探索。本研究全面分析了LLMs作为隐私保护的PII编辑系统的表现,评估了多种LLM架构和训练策略在PII编辑中的有效性。研究通过测量编辑性能、语义保留和PII泄露情况,并将这些结果与延迟和计算成本进行比较,提供了配置准确、高效且注重隐私的LLM编辑器的实用指导。研究结果表明,适当调整的LLMs能够成为有效的上下文隐私学习者,但不同的架构和训练策略对性能有显著影响。为支持可重复性和现实世界的部署,本研究发布了PRvL,一个开源的微调模型套件和通用PII编辑的评估工具。PRvL完全基于开源LLMs构建,支持多种推理设置以提供灵活性和合规性,设计上易于为不同领域定制,并可在安全、自管理的环境中完全操作。这使得数据所有者能够在不依赖第三方服务或将敏感内容暴露于外部基础设施的情况下执行编辑操作。研究不仅揭示了LLMs在PII编辑中的潜力,还指出了其风险和局限性,为未来的隐私保护技术发展提供了重要参考。
大型语言模型个人身份信息隐私保护文本编辑开源工具
FaceAnonyMixer:通过身份一致的潜在空间混合实现可撤销的面部匿名化
📝 作者: Mohammed Talha Alam, Fahad Shamshad, Fakhri Karray, Karthik Nandakumar
📄 中文摘要:
随着人脸识别(FR)技术的快速发展,隐私问题日益凸显,亟需在保护身份的同时维持识别实用性的方法。传统的人脸匿名化方法主要关注隐藏身份,但往往无法满足生物特征模板保护的要求,包括可撤销性、不可链接性和不可逆性。本研究提出了FaceAnonyMixer,一种可撤销的面部生成框架,利用预训练生成模型的潜在空间合成隐私保护的人脸图像。FaceAnonyMixer的核心思想是将真实人脸图像的潜在代码与基于可撤销密钥生成的合成代码进行不可逆的混合。混合后的潜在代码通过精心设计的多目标损失函数进一步优化,以满足所有可撤销生物特征的要求。FaceAnonyMixer能够生成高质量的可撤销人脸图像,这些图像可以直接使用现有的人脸识别系统进行匹配,而无需对系统进行任何修改。在基准数据集上的广泛实验表明,FaceAnonyMixer在提供显著更强的隐私保护的同时,实现了更高的识别精度,与近期的可撤销生物特征方法相比,在商业API上的性能提升超过11%。该框架不仅在技术上实现了创新,还为隐私保护和人脸识别的平衡提供了新的解决方案。研究代码已公开,供进一步验证和应用。
人脸匿名化可撤销生物特征隐私保护潜在空间混合人脸识别
基于Johnson-Lindenstrauss变换的差分隐私Model-X Knockoffs方法
📝 作者: Yuxuan Tao, Adel Javanmard
📄 中文摘要:
本文提出了一种新颖的高维受控变量选择私有化框架,旨在在差分隐私约束下实现严格的假发现率(FDR)控制。Model-X knockoff方法通过构建可证明可交换的‘负控制’特征来提供FDR保证,然而现有的隐私机制(如拉普拉斯或高斯噪声注入)会破坏其核心的可交换性条件。本研究的关键创新在于通过高斯Johnson-Lindenstrauss变换(JLT)对数据knockoff矩阵进行私有化处理。JLT是一种降维技术,通过近似等距性同时保留协变量关系,从而满足(ε, δ)-差分隐私的要求。研究背景聚焦于高维数据分析中的隐私保护问题,尤其是在统计推断中如何平衡隐私与准确性。作者详细阐述了JLT如何在降维过程中维持数据的几何结构,并通过理论分析和实验验证了该方法在保持FDR控制的同时有效保护数据隐私。关键发现包括:该框架能够在高维设置下实现有效的变量选择,同时满足严格的隐私约束;实验结果表明,与传统噪声注入方法相比,基于JLT的私有化knockoff矩阵在统计能力和隐私保护之间取得了更好的平衡。结论指出,该方法为隐私保护的高维统计推断提供了一种可行的解决方案,并为未来的研究奠定了基础,尤其是在隐私与模型性能权衡的领域。
差分隐私Model-X KnockoffsJohnson-Lindenstrauss变换假发现率控制高维变量选择
Q-DPTS:基于变分量子电路的量子差分隐私时间序列预测
📝 作者: Chi-Sheng Chen, Samuel Yen-Chi Chen
📄 中文摘要:
时间序列预测在金融和能源系统等数据敏感性至关重要的领域中具有重要意义。差分隐私(Differential Privacy, DP)提供了保护个体数据贡献的理论保障,但通过DP-SGD等方法集成时,注入的噪声往往会损害模型性能。本研究提出了一种混合量子-经典框架Q-DPTS,用于量子差分隐私时间序列预测。Q-DPTS结合了变分量子电路(Variational Quantum Circuits, VQCs)、逐样本梯度裁剪和Gaussian噪声注入,确保了严格的(ε, δ)-差分隐私。量子模型的表达能力使其在面对DP机制引起的效用损失时表现出更强的鲁棒性。本研究在电力变压器温度(ETT)数据集上对Q-DPTS进行了评估,该数据集是长期时间序列预测的标准基准。Q-DPTS与经典和量子基线模型(如LSTM、QASA、QRWKV和QLSTM)进行了比较。结果表明,在相同的隐私预算下,Q-DPTS始终实现了更低的预测误差,显示出更好的隐私-效用权衡。本工作是量子增强差分隐私预测的首批探索之一,为隐私关键场景下的安全且准确的时间序列建模提供了有前景的方向。研究不仅展示了量子计算在隐私保护领域的潜力,还为未来在实际应用中平衡数据安全与模型性能提供了新的思路。尽管当前研究主要基于模拟环境,未来的工作可以进一步探索真实量子硬件上的实现效果,以及在更广泛数据集上的适用性。
量子计算差分隐私时间序列预测变分量子电路隐私保护
高维差分隐私分位数回归:分布式估计与统计推断
📝 作者: Ziliang Shen, Caixing Wang, Shaoli Wang, Yibo Yan
📄 中文摘要:
随着大数据和机器学习的快速发展,隐私保护问题变得尤为关键,尤其是在处理包含敏感个人信息的异构数据集时。差分隐私提供了一个严格的框架,用于在保护个人隐私的同时实现有意义的统计分析。本文提出了一种适用于高维数据的分布式差分隐私分位数回归方法。分位数回归是一种强大且鲁棒的工具,可在存在异常值或重尾分布的情况下建模协变量与响应变量之间的关系。为解决分位数损失函数非光滑性带来的计算挑战,本文引入了一种牛顿型变换,将分位数回归任务重构为普通最小二乘问题。在此基础上,开发了一种差分隐私估计算法,通过迭代更新确保接近最优的统计精度和正式的隐私保证。在统计推断方面,本文进一步提出了一种差分隐私去偏估计器,支持有效的置信区间构建和假设检验。此外,针对高维分位数回归中的同时假设检验问题,本文提出了一种通信高效且具有差分隐私的Bootstrap方法,适用于本地数据量较小或充足的分布式场景。大量仿真实验验证了所提出方法在实际场景中的鲁棒性和有效性。研究结果表明,该方法在保护隐私的同时,能够实现高精度的统计估计和推断,为大数据环境下的隐私保护分析提供了重要工具。
差分隐私分位数回归高维数据分布式估计统计推断
计算高效且识别友好的三维点云隐私保护
📝 作者: Haotian Ma, Lin Gu, Siyi Wu, Yingying Zhu
📄 中文摘要:
三维点云在自动驾驶、机器人技术和CAD模型等领域得到了广泛应用。然而,这些应用引发了三维点云隐私泄露的问题,而这一问题尚未得到充分研究。与二维图像隐私问题不同,二维图像隐私涉及纹理和二维几何结构,而三维点云无纹理,仅与三维几何结构相关。本研究首次定义了三维点云隐私问题,并提出了一种高效的隐私保护框架PointFlowGMM。该框架能够在不访问原始数据的情况下支持下游的分类和分割任务。具体而言,研究利用基于流的生成模型将点云投影到一个潜在的高斯混合分布子空间中,并设计了一种新颖的角度相似性损失函数,以混淆原始几何结构,同时将模型大小从767MB减小到120MB,且不影响识别性能。此外,通过在潜在空间中对点云进行随机正交旋转,进一步保护原始几何结构,同时保持类与类之间的关系,从而使受保护的点云仍能支持识别任务。研究在多个数据集上对模型进行了评估,结果表明,加密点云的识别性能与原始点云相当。这一框架在保护隐私的同时维持了下游任务的性能,为三维点云隐私保护提供了一种有效的解决方案,具有重要的应用价值和研究意义。
三维点云隐私保护计算机视觉生成模型识别任务
联邦惯性人体活动识别中的标签泄露问题
📝 作者: Marius Bock, Maximilian Hopp, Kristof Van Laerhoven, Michael Moeller
📄 中文摘要:
本研究探讨了联邦学习(Federated Learning)在人体活动识别(Human Activity Recognition, HAR)中的标签泄露问题。联邦学习是一种分布式机器学习方法,旨在保护用户数据隐私,但已有研究表明其更新过程可能泄露敏感信息。本文首次聚焦于HAR场景下的标签重建攻击,即通过共享梯度恢复输入标签的风险。研究基于HAR基准数据集,评估了最先进的基于梯度的标签泄露攻击的有效性。实验结果表明,活动类别数量、采样策略以及类别不平衡是影响标签泄露程度的关键因素。在两个基准数据集上,攻击的重建准确率甚至在训练模型中高达90%以上,显示出严重的隐私风险。此外,研究发现局部差分隐私技术(如梯度噪声和裁剪)提供的保护有限,某些攻击仍能可靠地推断出多数类和少数类标签。作者分析了这些结果背后的原因,并指出HAR系统中标签的敏感性使得隐私保护尤为重要。最后,文章为联邦HAR系统的隐私感知部署提供了实用建议,并指出了未来研究的开放性挑战,包括改进隐私保护机制和应对复杂攻击策略。实验代码已通过GitHub公开,供进一步研究和验证使用。
联邦学习人体活动识别标签泄露隐私保护差分隐私
学习隐私诊断:基于差分隐私的大型语言模型在放射学报告分类中的应用
📝 作者: Payel Bhattacharjee, Fengwei Tian, Geoffrey D. Rubin, Joseph Y. Lo, Nirav Merchant, Heidi Hanson, Jo
📄 中文摘要:
本研究提出了一种利用差分隐私(DP)微调大型语言模型(LLM)的框架,用于对放射学报告文本进行多异常分类。通过在微调过程中注入校准噪声,该框架旨在减轻与敏感患者数据相关的隐私风险,防止数据泄露,同时保持分类性能。研究使用了来自公开数据集MIMIC-CXR(胸部放射摄影)和CT-RATE(计算机断层扫描)的50,232份放射学报告,数据采集时间为2011年至2019年。研究对LLM进行了微调,以分类MIMIC-CXR数据集中的14个标签和CT-RATE数据集中的18个标签,采用了差分隐私低秩适应(DP-LoRA)方法,并在高隐私和中等隐私两种模式下进行实验(隐私预算范围为{0.01, 0.1, 1.0, 10.0})。模型性能通过加权F1分数在三种模型架构(BERT-medium、BERT-small和ALBERT-base)上进行评估,并通过统计分析比较不同隐私水平下的模型性能,以量化隐私与效用之间的权衡。实验结果显示,在两个不同数据集和三种模型上,存在明显的隐私-效用权衡。在中等隐私保障下,经过DP微调的模型在MIMIC-CXR上的加权F1分数为0.88,在CT-RATE上为0.59,与非隐私LoRA基线(分别为0.90和0.78)相比具有可比性。研究结论表明,利用LoRA进行差分隐私微调能够实现有效的、保护隐私的放射学报告多异常分类,解决了在敏感医疗数据上微调LLM的关键挑战。这一方法为医疗领域的隐私保护和模型性能平衡提供了重要参考。
差分隐私大型语言模型放射学报告多异常分类隐私保护
以隐私为中心的方法:通过混合同态加密实现可扩展且安全的联邦学习
📝 作者: Khoa Nguyen, Tanveer Khan, Hossein Abdinasibfar, Antonis Michalas
📄 中文摘要:
联邦学习(FL)是一种无需共享原始数据的协作模型训练方法,在隐私敏感领域具有广阔的应用前景。然而,联邦学习面临着通信开销和数据隐私方面的重大挑战。为了解决这些问题,隐私保护技术(PPTs)如同态加密(HE)已被用于缓解隐私顾虑,但这些技术带来了显著的计算和通信成本,限制了其实际部署的可行性。本研究探索了如何将混合同态加密(HHE)——一种结合对称加密与同态加密的密码协议——有效集成到联邦学习中,以同时应对通信和隐私挑战。研究提出了一种创新框架,通过HHE优化联邦学习系统中的数据加密和模型更新过程,显著降低了通信开销,同时确保了数据隐私的安全性。实验结果表明,该方法在保持模型性能的同时,实现了更高的计算效率和更低的通信成本,尤其适用于大规模分布式学习场景。此外,本文还讨论了该方法在实际应用中的潜在限制,如加密参数的选择对性能的影响,并提出了进一步优化的方向。总之,本研究为构建可扩展且安全的去中心化学习系统铺平了道路,为联邦学习在隐私敏感领域(如医疗、金融)的广泛应用提供了重要支持。
联邦学习隐私保护混合同态加密可扩展性去中心化学习
GRAND:具有节点级差分隐私保障的图数据发布
📝 作者: Suqing Liu, Xuan Bi, Tianxi Li
📄 中文摘要:
差分隐私作为保护敏感数据的一个成熟框架,已广泛应用于多个领域。然而,其在网络数据,特别是节点级隐私保护方面的应用仍未被充分探索。现有的节点级隐私保护方法要么仅关注基于查询的方式,限制输出为预先指定的网络统计数据,要么无法保留网络的关键结构特性。本研究提出了GRAND(具有节点级差分隐私保障的图数据发布),据我们所知,这是首个在确保节点级差分隐私的同时发布整个网络并保留结构特性的网络发布机制。在一类广泛的潜在空间模型下,我们证明了所发布的网络在渐近条件下遵循与原始网络相同的分布。为了验证该方法的有效性,我们在合成数据集和真实世界数据集上进行了广泛的实验。实验结果表明,GRAND能够在保护节点隐私的同时,较好地保留网络的结构特性,展现了其在隐私保护与数据可用性之间的平衡能力。这一方法为网络数据的安全发布提供了一种新的解决方案,尤其适用于社交网络、通信网络等需要保护个体隐私的场景。研究结论表明,GRAND在理论和实践上都具有显著的价值,为未来在差分隐私与图数据分析交叉领域的研究奠定了基础。
差分隐私图数据节点隐私网络发布结构特性
语音和语言处理中相似性隐私泄露研究
📝 作者: Tom B\"ackstr\"om, Mohammad Hassan Vali, My Nguyen, Silas Rech
📄 中文摘要:
本研究聚焦于语音和语言处理中基于相似性比较的隐私泄露问题。在说话人、作者及其他生物特征识别应用中,通常通过将样本与数据库模板的相似性进行比较来确定身份。然而,由于数据噪声和相似性度量可能不准确,这种比较未必能可靠地识别真实身份。尽管如此,即使基于不准确的相似性度量得出的相似性排名,也可能泄露关于真实身份的隐私信息。本文提出了一种量化相似性排名隐私泄露的方法,通过估计其概率分布来评估泄露程度。具体方法包括确定真实说话人相似性排名的直方图,或在数据稀缺时使用贝塔-二项分布对直方图建模。研究以熵(比特)为单位表达泄露量,使得独立特征的泄露量可以累加。实验结果表明,所有测试的说话人和作者特征均包含可用于身份识别的个人身份信息(PII),其中说话人识别算法的嵌入信息量最大,其次是电话嵌入、语言嵌入和基频。初步实验还显示,测试样本长度越长,PII的泄露量越大,但受限于数据库模板的长度。本文提出的相似性排名泄露度量指标,为比较不同生物特征的PII泄露程度提供了方法,并支持特征融合以辅助身份识别。这一研究有助于全面评估语音及其他生物识别技术中的隐私威胁。
隐私泄露相似性排名语音处理生物特征识别熵度量
多代理系统中通过随机投影进行维度降低以保护隐私
📝 作者: Puspanjali Ghoshal, Ashok Singh Sairam
📄 中文摘要:
在多代理系统(MAS)中,各个代理观察环境的多个方面,并将这些信息传输给负责聚合数据和推导系统参数的中央实体。为了提高整体效率,代理可能会在观察数据中附加某些私有参数。例如,在一个众包交通监控系统中,通勤者可能不仅分享当前速度,还包括位置等敏感信息,以实现更准确的路线预测。然而,分享此类数据可能使中央实体或潜在对手推断出用户的私人信息,如日常习惯。为了减轻这些隐私风险,代理在传输前对数据进行消毒处理,但这种处理不可避免地导致效用损失。本研究将问题表述为效用与隐私之间的权衡,并提出了一种基于压缩的新方法,利用鲁棒概念对共享数据进行消毒处理。此外,本文还推导了压缩矩阵范数的界限,以确保在满足预定义效用约束的同时实现最大隐私保护。研究表明,通过随机投影进行维度降低可以在保护隐私的同时维持一定的系统效用,为多代理系统中的数据共享提供了一种有效的解决方案。关键发现包括:随机投影技术能够在不显著降低数据效用的情况下有效隐藏敏感信息;通过调整压缩矩阵的范数,可以在隐私和效用之间找到平衡点。结论指出,该方法在理论上和实践中都具有可行性,为未来的隐私保护研究提供了新的视角和工具,尤其适用于需要数据共享的分布式系统。
多代理系统隐私保护随机投影维度降低效用-隐私权衡
CB-cPIR:基于编码的计算型私人信息检索
📝 作者: Camilla Hollanti, Neehar Verma
📄 中文摘要:
私人信息检索(PIR)是一种允许用户从数据库中检索文件而不泄露所需文件身份的协议,适用于分布式数据存储系统。通过对存储服务器勾结能力的假设,可以实现高效的PIR,但若假设错误,隐私将丧失。本研究关注最坏情况假设,即完全勾结或将存储系统视为单一诚实但好奇的服务器,提出了一种基于编码的单服务器计算型私人信息检索方案(CB-cPIR),其安全性源于基于编码的密码学,特别是查询的安全性依赖于解码随机线性码的难度。该方案受到Holzbaur等人于2020年IEEE ISIT会议上提出的开创性基于编码的cPIR方案的启发,并修复了原始方案中由于用户查询子矩阵秩差异高度可能导致的漏洞。此外,近期在Lage和Bartz的研究中发现的新漏洞也通过简单的修改得以修复。为了进一步验证方案的有效性,本文将其与最先进的基于格的cPIR方案进行了比较。研究结果表明,CB-cPIR在单服务器环境下提供了有效的隐私保护,增强了基于编码的PIR方案的安全性,为解决分布式存储系统中的隐私问题提供了新的思路。结论指出,该方案在理论和实践上均具有重要意义,尤其是在对抗完全勾结假设的场景下,为未来的PIR研究奠定了基础。
私人信息检索计算型PIR基于编码的密码学单服务器隐私保护
全球范围内导航Cookie同意违规问题
📝 作者: Brian Tang, Duc Bui, Kang G. Shin
📄 中文摘要:
在线服务通过Cookie横幅(banner)向用户提供接受或拒绝在其浏览器上放置Cookie的选项。尽管Cookie横幅的使用日益增加,但确保Cookie同意符合全球隐私法规的工作却进展甚微。先前的研究发现,即使用户明确拒绝,Cookie仍常被放置在浏览器上,这种Cookie横幅行为的不一致性绕过了用户的同意偏好,被称为Cookie同意违规。为解决这一重要问题,本文提出了一种端到端系统ConsentChk,用于检测和分析Cookie横幅行为。ConsentChk采用形式化模型系统性地检测和分类Cookie同意违规行为。研究调查了全球八个英语地区的Cookie横幅行为,分析了1793个全球热门网站的Cookie行为、Cookie同意违规率以及Cookie横幅实现方式。研究发现,Cookie行为、违规率和横幅实现高度依赖于地区。评估结果显示,同意管理平台(CMPs)和网站开发者可能根据他们对地区隐私法律的(往往不正确的)解释来定制Cookie横幅配置。本文讨论了导致这些Cookie同意违规的多种根本原因。这些实现方式导致了误导性的Cookie横幅,表明不同地区之间Cookie同意的实施和执行存在普遍的不一致性。通过揭示这些问题,本研究强调了在全球范围内统一和加强Cookie同意机制的必要性,以保护用户隐私并确保符合法律要求。
Cookie同意隐私法规网络安全同意管理平台地区差异