← 返回总览
22
论文总数
22
高分论文
8.0
平均评分
6
关键词数
主动对象语言中数据隐私合规的类型系统
📝 作者: Chinmayi Prabhu Baramashetru (University of Oslo, Norway), Paola Giannini (Universita' del Piem
📄 中文摘要:
本文提出了一种基于语言的方法,通过在主动对象语言中结合静态和动态技术来实现数据隐私合规,特别是在符合《通用数据保护条例》(GDPR)的要求方面。研究背景源于GDPR等数据保护法规对个人数据处理透明度和用户同意的严格要求,以及将隐私设计原则嵌入系统架构的迫切需求。然而,将这些抽象原则转化为具体方法仍是一个重大挑战。为此,本文开发了TyPAOL,一种基于类型的P-AOL语言扩展,通过类型检查和约束推断系统减少运行时检查,静态分析隐私约束。TyPAOL通过程序分析静态提取同意和隐私依赖关系,追踪用户同意检查和修改,并在方法绑定和激活等调度点进行约束检查,而非在每个执行点都进行检查,从而优化了隐私合规验证。主要方法包括:设计一个混合隐私合规框架,结合静态类型检查和运行时验证;开发详细的类型检查和约束推断系统,收集同意检查约束;并证明推断方法的正确性。关键发现表明,TyPAOL能够在减少运行时检查的同时确保数据隐私合规,特别是在处理用户同意动态变化和分布式环境中跨实体数据流时表现出色。研究通过正确性证明和多个示例展示了该语言如何满足GDPR的核心要求,如用户同意、目的限制和数据主体权利。结论指出,TyPAOL为隐私感知系统设计提供了系统化和自动化的方法,对医疗和金融等数据隐私至关重要的领域具有重要意义。未来工作将探索将类似扩展应用于主流语言,并处理数据删除和保留时间等GDPR概念。
数据隐私合规主动对象语言类型系统GDPR用户同意
DP-NCB:隐私保护的公平多臂老虎机算法
📝 作者: Dhruv Sarkar, Nishant Pandey, Sayak Ray Chowdhury
📄 中文摘要:
本文研究了多臂老虎机(Multi-Armed Bandit, MAB)算法在隐私保护和公平性方面的联合优化问题,这在临床试验和个性化决策等社会敏感领域中尤为重要。传统的隐私保护老虎机算法通常以平均遗憾(average regret)为优化目标,而公平性研究则关注纳什遗憾(Nash regret),以减少奖励分配的不平等,但两者往往未被同时考虑。为解决这一问题,作者提出了差分隐私纳什置信界(Differentially Private Nash Confidence Bound, DP-NCB)框架,该框架同时实现了ε-差分隐私和次优纳什遗憾,接近已知下界(仅相差对数因子)。DP-NCB适用于全局和局部差分隐私模型,且为随时性(anytime)算法,无需预知时间范围。算法设计分为均匀探索和私有自适应利用两个阶段,通过添加校准的拉普拉斯噪声确保隐私,同时调整置信界以最小化纳什遗憾。理论分析表明,在全局隐私模型下,DP-NCB的纳什遗憾为O(√(k log T / T) + k (log T)^2 / (ε T)),在局部隐私模型下为O(√(k log T / T) + √(k (log T)^2) / (ε √T)),均接近最优。实验结果进一步验证了DP-NCB在合成老虎机实例上的表现,显示其纳什遗憾显著低于现有基线算法。作者还扩展了框架至随时性设置,仅增加O(log T)的遗憾代价。结论指出,DP-NCB为设计兼顾隐私和公平的老虎机算法提供了理论基础,适用于高风险社会影响应用场景,并展望了未来在强化学习和其他公平性指标中的扩展研究。
多臂老虎机差分隐私公平性纳什遗憾隐私保护
动态用户可控隐私保护少样本感知框架
📝 作者: Ajesh Koyatan Chathoth, Shuhao Yu, Stephen Lee
📄 中文摘要:
本文提出了一种名为PrivCLIP的动态用户可控隐私保护少样本感知框架,旨在解决现代感知系统中用户隐私保护的个性化需求问题,尤其是在配备惯性测量单元(IMU)传感器的设备(如智能手机和可穿戴设备)中。这些设备持续收集的时间序列数据可能无意中暴露用户的敏感行为。传统的隐私保护方法通常依赖静态预定义的隐私标签或需要大量私人训练数据,限制了其适应性和用户自主性。PrivCLIP通过多模态对比学习方法,将IMU传感器数据与自然语言活动描述在共享嵌入空间中对齐,从而实现少样本检测敏感活动。用户可以通过将活动分类为敏感(黑名单)、非敏感(白名单)或中立(灰名单)来指定和修改隐私偏好。当检测到隐私敏感活动时,系统利用语言引导的活动净化器和运动生成模块(IMU-GPT)将原始数据转换为符合隐私要求的版本,使其在语义上类似于非敏感活动。研究在多个人类活动识别数据集上评估了PrivCLIP的性能,结果表明其在隐私保护和数据效用方面均显著优于基线方法。实验还证明了PrivCLIP在动态隐私场景下的适应性,无需重新训练即可满足用户变化的隐私需求。此外,即使在少样本设置(例如仅8个样本)下,PrivCLIP仍能实现高精度检测和替换敏感活动数据。本文的创新在于提供了一种灵活且高效的隐私保护机制,为用户提供了对感知数据的细粒度控制,同时在数据受限环境中保持了较高的实用性。
少样本学习隐私保护系统人类活动识别物联网感知惯性测量单元
Galaxy:一个以认知为中心的主动、隐私保护和自进化大语言模型代理框架
📝 作者: Chongyu Bao, Ruimin Dai, Yangbo Shen, Runyang Jian, Jinghan Zhang, Xiaolan Liu, Kunpeng Liu
📄 中文摘要:
本文提出了一种名为Galaxy的新型智能个人助理(IPA)框架,旨在解决现有大语言模型(LLM)代理在主动行为、隐私保护和自进化能力方面的不足。研究背景源于智能个人助理(如Siri和Alexa)在日常生活中广泛应用,但其主动性行为研究较少,且面临隐私风险和个性化适应的挑战。作者提出了Cognition Forest,一个树状语义结构,将认知建模与系统设计相结合,形成自增强循环,以支持代理的认知架构与系统设计的深度整合。基于此,Galaxy框架通过多维交互和个性化能力生成,支持响应式和主动式任务执行。框架内实现了两个协作代理:KoRa,一个认知增强的生成代理,负责任务执行;Kernel,一个元认知驱动的元代理,负责系统自进化和隐私保护。实验结果表明,Galaxy在多个最新基准测试中表现优于现有技术,特别是在用户偏好保持和隐私保护方面,Kernel的作用尤为关键。消融研究和现实交互案例进一步验证了Galaxy的有效性,展示了其在行为建模、工具生成和系统稳定性方面的优势。作者认为,认知架构与系统设计的深度整合是LLM代理发展的关键方向,Galaxy框架为智能个人助理的未来发展提供了重要启示。尽管存在对齐过拟合和复杂空间扩展依赖人工指导等局限性,本研究仍为主动性、隐私保护和自进化代理的设计提供了创新性解决方案。
智能个人助理大语言模型主动行为隐私保护自进化
SenseCrypt:基于敏感性引导的选择性同态加密用于跨设备联邦学习
📝 作者: Borui Li, Li Yan, Junhao Han, Jianmin Liu, Lei Yu
📄 中文摘要:
本文提出了一种名为SenseCrypt的基于敏感性引导的选择性同态加密框架,旨在解决跨设备联邦学习(FL)中由于数据和系统异构性导致的隐私保护与计算开销平衡问题。研究背景在于,传统的同态加密(HE)方法在联邦学习中虽能提供强隐私保护,但计算和通信开销高,而现有选择性HE方法在异构环境下会加剧客户端延迟问题并降低开销减少效果。SenseCrypt通过以下创新方法应对挑战:首先,利用模型参数敏感性反映数据分布相似性,设计了一种隐私保护的客户端聚类方法,将数据分布相似的客户端分组;其次,基于客户端的带宽和处理速度,开发了一种评分机制,推导出每个客户端的无延迟加密预算比例;最后,针对每个客户端,构建并解决一个多目标优化问题,以最小化HE开销并最大化模型安全性,同时避免延迟。实验结果表明,SenseCrypt在多种异构场景下表现优异,与最先进的选择性HE方法相比,训练时间减少了58.4%至88.7%,同时在IID数据上实现了正常模型精度,并有效抵御最新的反演攻击。研究结论表明,SenseCrypt在跨设备联邦学习中成功实现了安全性和效率的适应性平衡,为异构环境下的隐私保护提供了重要解决方案。
联邦学习同态加密选择性加密跨设备学习隐私保护
从学习到遗忘:多模态大型语言模型在生物医学安全保护中的应用
📝 作者: Dunyuan Xu, Xikai Yang, Yaoqian Li, Jinpeng Li, Pheng-Ann Heng
📄 中文摘要:
本文研究了生物医学多模态大型语言模型(MLLMs)的安全保护问题,重点关注训练数据中可能包含的隐私信息和错误知识所导致的潜在风险。作者指出,传统的解决方案(如从头重新训练模型)因计算成本高昂而不可行,因此提出了机器遗忘(Machine Unlearning, MU)作为一种有效方法,通过选择性地移除有害样本衍生的知识,同时保留模型在正常情况下的必要能力。为填补生物医学领域中评估遗忘质量的空白,本文提出了首个多模态大型语言模型遗忘基准数据集MLLMU-Med,基于一种新颖的数据生成流程,将合成的隐私数据和事实错误融入训练集,针对两个关键场景进行评估:一是隐私保护,解决训练集中意外包含患者隐私信息导致推理时泄露的问题;二是错误知识移除,处理因不可靠来源导致的错误知识嵌入数据集,进而引发不安全模型响应的情况。此外,作者提出了一种新的遗忘效率分数(UES),用于直接反映不同子集上的整体遗忘性能。通过对MLLMU-Med基准数据集上的五种遗忘方法进行评估,研究发现这些方法在移除生物医学MLLMs中的有害知识方面效果有限,表明该领域仍有显著的改进空间。实验结果还揭示了现有遗忘方法在处理连续遗忘请求和不同遗忘比例时的鲁棒性不足。本研究为生物医学MLLMs的安全保护提供了新的研究路径,并为开发更可靠的临床AI系统奠定了基础。
生物医学多模态模型机器遗忘隐私保护错误知识移除遗忘效率分数
DP-DocLDM:使用潜在扩散模型的差分隐私文档图像生成
📝 作者: Saifullah Saifullah, Stefan Agne, Andreas Dengel, Sheraz Ahmed
📄 中文摘要:
本文提出了一种名为DP-DocLDM的新方法,旨在解决文档图像分类任务中的隐私保护问题。研究背景源于深度学习驱动的文档处理系统在处理敏感数据时面临的隐私泄露风险,传统的差分隐私(DP)训练方法虽能提供隐私保障,但会导致性能显著下降和高计算成本。为此,本研究探索了通过结合条件潜在扩散模型(LDMs)和差分隐私(DP)生成类特定的合成文档图像,以替代真实的私有数据,用于下游任务的训练。具体方法包括在大型公共文档图像数据集上进行类条件和布局条件的预训练,随后通过差分隐私微调将知识迁移到小型私有数据集,并最终用合成数据替换真实数据进行下游评估。研究在多种预训练设置(无条件、类条件和布局条件)和私有训练策略(类条件和按标签私有微调)下进行了广泛的基准测试,结合DPDM和DP-Promise算法。此外,本文在两个知名文档基准数据集RVL-CDIP和Tobacco3482上进行了定性和定量评估,展示了该方法在不同文档类型和隐私级别(ε∈{1,5,10})下生成有用且逼真的文档样本的能力。关键发现表明,与直接应用DP-SGD相比,该方法在小型数据集的下游评估中实现了显著的性能改进。作者指出,这是首次探索使用潜在扩散模型进行差分隐私文档图像生成的研究,为文档分析领域的隐私保护提供了新思路。代码已公开,供进一步研究和应用。
差分隐私文档图像分类潜在扩散模型私有文档图像生成隐私保护
断电、静音、回避:调查沙特家庭中智能音箱用户的隐私保护行为
📝 作者: Abdulrhman Alorini, Yufeng Wu, Abdullah Bin Sawad, Mukesh Prasad, A. Baki Kocaballi
📄 中文摘要:
本研究探讨了沙特阿拉伯家庭中智能音箱用户如何在集体主义、性别化及多代同堂的家庭环境中应对隐私问题。研究背景指出,尽管智能音箱在全球范围内的家庭生活中日益普及,但其隐私风险在非西方文化背景下尚未得到充分研究,尤其是在沙特阿拉伯这样深受宗教和文化传统影响的社会中。通过使用文化探针和半结构化访谈方法,研究对16名参与者进行了深入调查,揭示了他们日常的隐私保护行为,包括断开设备电源、静音麦克风以及完全避免语音交互。这些行为不仅受到个人风险感知的影响,还受到家庭规范、房间布局和人际动态的塑造。研究发现,沙特用户在设备放置、使用模式和隐私管理策略上表现出强烈的文化特性,例如倾向于将设备放置在公共区域以平衡可访问性和隐私,同时对数据滥用表现出高度警惕,尤其是在涉及性别规范和社交场合时。关键发现包括用户对设备隐私保障的普遍不信任,以及对复杂隐私设置的挫败感,这促使他们采取物理断连等直接措施。此外,研究还提出了文化敏感的语音界面设计方向,强调透明度、直观的隐私控制和与当地价值观相符的功能设计。结论表明,智能音箱的隐私设计需考虑文化背景,以促进在沙特及更广泛的中东地区负责任的技术采用。未来研究应进一步探索跨文化隐私行为,以开发既具普遍适用性又能本地化的解决方案。
智能音箱隐私保护人机交互文化影响沙特阿拉伯
选择性防护:联邦学习中针对梯度泄露的轻量级混合防御
📝 作者: Borui Li, Li Yan, Jianmin Liu
📄 中文摘要:
联邦学习(FL)通过在去中心化数据上进行协作模型训练,为数据隐私保护提供了新的可能性,但其仍易受到梯度泄露攻击的影响,这些攻击可能重建用户的敏感信息。现有的防御机制,如差分隐私(DP)和同态加密(HE),往往需要在隐私保护、模型效用和系统开销之间进行权衡,尤其是在非独立同分布(non-IID)数据和客户端能力异构的环境中,这一挑战更为显著。为解决这些问题,本文提出了SelectiveShield,一个轻量级的混合防御框架,通过自适应地整合选择性同态加密和差分隐私来提升联邦学习的安全性。SelectiveShield利用Fisher信息来量化参数的敏感性,使客户端能够在本地识别关键参数。通过协作协商协议,客户端就一组最敏感的参数达成一致,并对其应用同态加密进行保护。对于对个别客户端具有独特重要性的参数,则保留在本地以支持个性化,而对非关键参数则通过自适应的差分隐私噪声进行保护。大量实验表明,SelectiveShield在显著降低梯度泄露风险的同时,保持了较高的模型效用,为现实世界的联邦学习部署提供了一种实用且可扩展的防御机制。本研究通过结合多种技术手段,有效平衡了隐私保护与模型性能之间的矛盾,为联邦学习的安全性研究提供了新的思路。
联邦学习梯度泄露差分隐私同态加密隐私保护
联邦学习中针对数据重构攻击的逐元素安全聚合方法
📝 作者: Takumi Suimon, Yuki Koizumi, Junji Takemasa, Toru Hasegawa
📄 中文摘要:
联邦学习(FL)通过不共享原始数据实现协作模型训练,但单个模型更新仍可能泄露敏感信息。安全聚合(SecAgg)通过仅允许服务器访问客户端更新的总和来降低这种风险,从而隐藏个体贡献。然而,最近一个显著的漏洞引起了广泛关注:当模型更新为稀疏向量时,单个客户端在特定索引处贡献的非零值可能在聚合结果中直接暴露,从而导致精确的数据重构攻击。本文提出了一种对SecAgg的新颖增强方法,仅在至少有$t$个非零贡献的索引处揭示聚合值。该机制引入了逐元素掩码策略,以防止暴露贡献不足的元素,同时保持模块化并与许多现有的SecAgg实现兼容,仅依赖于典型设置中已使用的加密原语。我们将此机制集成到Flamingo(一种低轮次SecAgg协议)中,为抵御此类攻击提供了强大的防御。分析和实验结果表明,我们的机制引入的额外计算和通信开销在可接受范围内,证明了该方法的实用性。通过这种方式,本研究不仅提升了联邦学习的安全性,还为实际应用中的隐私保护提供了可行方案。研究结果表明,该方法在保护客户端数据隐私的同时,依然能够维持联邦学习系统的高效性和实用性,为未来的安全聚合技术发展奠定了基础。
联邦学习安全聚合数据重构攻击逐元素掩码隐私保护
从分割到共享:基于分布式特征共享的私有推理
📝 作者: Zihan Liu, Jiayi Wen, Shouhong Tan, Zhirun Zheng, Cheng Huang
📄 中文摘要:
本文针对基于云的机器学习即服务(MLaaS)在处理敏感客户数据时引发的隐私问题,提出了一种新的私有推理(Private Inference, PI)范式——PrivDFS。传统的私有推理方法在隐私保护和效率之间存在基本权衡:加密方法提供了强有力的保护,但计算开销高;而高效的替代方案如分割推理则容易使中间特征暴露于反演攻击。PrivDFS通过分布式特征共享替代单一暴露表示,创新性地解决了这一问题。具体而言,PrivDFS在客户端将输入特征分割成多个均衡的共享部分,并将其分发给非合谋、非通信的服务器进行独立的局部推理。客户端通过安全聚合服务器的输出重建最终预测,确保单一服务器无法获取足够信息以威胁输入隐私。为了进一步增强隐私保护,本文提出了两个关键扩展:PrivDFS-AT,通过对抗性训练结合基于扩散的代理攻击者,强制执行抗反演的特征分割;以及PrivDFS-KD,利用用户特定的密钥多样化分割策略,防止基于查询的反演泛化。在CIFAR-10和CelebA数据集上的实验表明,PrivDFS在保持与深度分割推理相当的隐私保护水平的同时,将客户端计算量减少了高达100倍,且不损失准确性。此外,两个扩展方法在面对基于扩散的分布内攻击和适应性攻击时均表现出鲁棒性。研究结果表明,PrivDFS及其扩展为私有推理提供了一种高效且安全的解决方案,具有重要的应用潜力。
私有推理分布式特征共享机器学习隐私对抗性训练安全聚合
FedHiP:通过闭合解实现的异构不变个性化联邦学习
📝 作者: Jianheng Tang, Zhirui Yang, Jingchao Wang, Kejia Fan, Jinfeng Xu, Huiping Zhuang, Anfeng Liu, Houbin
📄 中文摘要:
近年来,个性化联邦学习(PFL)已成为一种重要的范式,通过协作训练为每个客户端提供适应其本地应用的个性化模型。然而,现有的PFL方法通常面临数据异构性(即非独立同分布数据,non-IID)的挑战,这严重阻碍了模型收敛并降低了性能。本研究指出,问题的根本原因在于长期以来对基于梯度的更新方法的依赖,而这种方法对非IID数据极为敏感。为解决这一问题并填补研究空白,本文提出了一种名为FedHiP的异构不变个性化联邦学习方案,通过解析(即闭合解)方法避免基于梯度的更新。具体而言,我们利用自监督预训练的趋势,将基础模型作为冻结的骨干网络进行无梯度特征提取。随后,我们开发了一种解析分类器用于无梯度训练。为了同时支持集体泛化和个体个性化,FedHiP方案包含三个阶段:解析本地训练、解析全局聚合和解析本地个性化。FedHiP方案的闭合解特性使其具备理想的异构不变性,即无论其他客户端的数据分布如何非IID,每个个性化模型都能保持一致。在基准数据集上的广泛实验验证了FedHiP方案的优越性,其准确率比最先进的基线方法提高了5.79%-20.97%。研究结果表明,FedHiP在处理数据异构性问题上具有显著优势,为个性化联邦学习提供了一种全新的解决方案,并可能对未来的联邦学习研究产生深远影响。
个性化联邦学习数据异构性闭合解无梯度训练自监督预训练
通道无关的联邦交通预测
📝 作者: Mo Zhang, Xiaoyu Li, Bin Xu, Meng Chen, Yongshun Gong
📄 中文摘要:
近年来,交通预测取得了显著的成功,成为智能交通系统的重要组成部分。然而,交通数据通常分布在多个数据所有者之间,隐私限制阻碍了这些孤立数据集的直接利用来进行交通预测。传统的联邦交通预测方法主要集中于设计通信机制,使模型能够利用其他客户端的信息以提高预测精度,但这种方法往往带来巨大的通信开销,导致传输延迟显著减缓训练过程。随着交通数据量的持续增长,这一问题变得愈发关键,使得当前方法的资源消耗不可持续。为解决这一挑战,本文提出了一种新的联邦交通预测变量关系建模范式,称为通道无关范式(CIP)。与传统方法不同,CIP通过使每个节点仅使用本地信息即可进行高效且准确的预测,消除了客户端间通信的需求。基于CIP,本文进一步开发了Fed-CI,一种高效的联邦学习框架,允许每个客户端独立处理自己的数据,同时有效缓解因缺乏直接数据共享而导致的信息损失。Fed-CI显著降低了通信开销,加速了训练过程,并在遵守隐私法规的同时实现了最先进的性能。在多个真实世界数据集上的广泛实验表明,Fed-CI在所有数据集和联邦设置中始终优于现有方法,在RMSE、MAE和MAPE指标上分别实现了8%、14%和16%的改进,同时大幅降低了通信成本。研究结果表明,Fed-CI在隐私保护和预测精度之间取得了良好的平衡,为联邦学习在交通预测领域的应用提供了新的思路和解决方案。
联邦学习交通预测通道无关隐私保护通信开销
基于个人数据基本理解和不断演变的威胁格局的隐私风险预测
📝 作者: Haoran Niu, K. Suzanne Barber
📄 中文摘要:
本研究旨在通过对个人数据隐私风险的深入分析,帮助个人和组织更好地保护个人信息。研究通过分析超过5000个身份盗窃和欺诈的实证案例,识别出哪些类型的个人数据(PII,个人可识别信息)最常被暴露、暴露频率如何,以及暴露所导致的后果。研究构建了一个身份生态系统图,这是一个基于图的基础模型,其中节点代表个人可识别信息属性,边则表示这些属性之间基于实证数据的披露关系(例如,一个PII属性暴露导致另一个属性暴露的概率)。基于此图结构,研究开发了一个隐私风险预测框架,利用图论和图神经网络来估计当某些PII属性被泄露时,进一步披露其他属性的可能性。研究结果表明,该方法能够有效回答核心问题:某一身份属性的披露是否可能导致另一属性的披露?通过这种方式,本研究不仅揭示了个人数据暴露的潜在风险,还为隐私保护提供了数据驱动的预测工具。研究的关键发现包括某些PII属性的暴露具有较高的连锁效应,可能引发更广泛的隐私泄露,而预测模型能够以较高的准确性识别这些风险点。结论指出,这种基于图的预测框架为个人和组织提供了重要的参考,有助于在不断演变的威胁格局中制定更有效的隐私保护策略。
隐私风险个人数据图神经网络身份生态系统数据安全
测量加密隐私增强技术的碳足迹
📝 作者: Marc Damie, Mihai Pop, Merijn Posthuma
📄 中文摘要:
随着隐私法规的日益严格,隐私增强技术(PETs)受到广泛关注,推动了以用户数据保护为核心的应用程序的发展。然而,信息与通信技术(ICT)行业面临着减少环境足迹、特别是碳排放的巨大压力。尽管已有大量研究评估了各类ICT应用的能源足迹,但加密隐私增强技术的环境影响尚未得到充分探索。本研究聚焦于测量加密PETs的碳足迹,旨在填补这一研究空白。研究首先回顾了PETs在数据保护中的应用背景及其在ICT领域的重要性,随后提出了一种系统化的方法来评估这些技术在运行过程中的能耗和碳排放。研究团队通过实验分析了多种主流加密PETs(如零知识证明、差分隐私和安全多方计算)的能耗表现,并结合碳排放模型估算了其环境影响。关键发现表明,不同PETs的碳足迹差异显著,某些高计算复杂度的技术可能导致较高的能耗和排放,而优化算法和硬件加速可以有效降低其环境成本。此外,研究还探讨了在隐私保护与环境可持续性之间寻求平衡的潜在策略。结论指出,未来在设计和部署PETs时,应充分考虑其环境影响,并推动绿色计算技术的集成,以实现隐私保护与可持续发展的双重目标。本研究为ICT领域的环境责任提供了重要参考,也为隐私技术开发者提供了可持续设计的指导。
隐私增强技术碳足迹加密技术绿色计算可持续性
ProbRadarM3F:基于毫米波雷达的人体骨骼姿态估计与概率图引导的多格式特征融合
📝 作者: Bing Zhu, Zixin He, Weiyi Xiong, Guanhua Ding, Tao Huang, Wei Xiang
📄 中文摘要:
毫米波(mmWave)雷达作为一种非侵入性、隐私保护且相对便捷和成本较低的设备,已被证明可替代RGB相机用于室内人体姿态估计任务。然而,毫米波雷达依赖于目标反射信号的采集,其包含的信息难以被充分利用,这长期以来一直是提升姿态估计精度的主要障碍。为解决这一关键挑战,本文提出了一种基于概率图引导的多格式特征融合模型——ProbRadarM3F。该模型是一种新颖的雷达特征提取框架,结合了传统的快速傅里叶变换(FFT)方法与基于概率图的位置编码方法。ProbRadarM3F融合了传统的热图特征和位置特征,有效实现了人体14个关键点的估计。在HuPR数据集上的实验评估验证了本文提出模型的有效性,其平均精度(AP)达到69.9%,优于该数据集上其他实验方法。本研究的重点在于挖掘雷达信号中之前未被充分利用的位置信息,这为探索毫米波雷达中其他潜在的非冗余信息提供了研究方向。研究结果表明,通过创新的特征融合方法,可以显著提升毫米波雷达在人体姿态估计中的性能,为相关领域提供了新的技术思路和应用前景。此外,本文的工作也为毫米波雷达在隐私敏感场景下的广泛应用奠定了基础,具有重要的理论价值和实践意义。
毫米波雷达人体姿态估计特征融合概率图位置编码
zkSpeed 的需求:加速 HyperPlonk 以实现零知识证明
📝 作者: Alhad Daftardar, Jianqiao Mo, Joey Ah-kiow, Benedikt B\"unz, Ramesh Karri, Siddharth Garg, Bran
📄 中文摘要:
零知识证明(Zero-Knowledge Proofs, ZKPs)在隐私保护和可验证计算领域的重要性日益增加。ZKPs 允许证明方在不透露其他信息的情况下向验证方证明某一陈述的真实性。其应用涵盖区块链技术、可验证机器学习和电子投票等领域。然而,由于证明过程的计算复杂性,ZKPs 尚未得到广泛应用。近期研究已在 GPU 和 ASIC 上加速了最先进的 ZKP 协议的关键原语,但这些协议面临两大挑战:要么每种应用都需要可信设置,要么生成的证明体积较大,验证成本较高,从而限制了其在多验证者或严格验证时间约束场景中的适用性。本研究提出了一种加速器 zkSpeed,针对最先进的 ZKP 协议 HyperPlonk 进行优化。HyperPlonk 支持一次性通用设置,并且在公开可验证、基于共识的系统中具有较小的证明体积,适用于典型的 ZKP 应用。我们对整个协议进行了加速,包括两个主要原语:SumCheck 和多标量乘法(Multi-scalar Multiplications, MSMs)。通过设计一个全芯片架构,占用面积为 366.46 mm2,带宽为 2 TB/s,我们成功加速了整个证明生成过程,相比 CPU 基准实现了 801 倍的几何平均加速比。本研究为 ZKP 的实际应用提供了重要的性能提升,可能推动其在隐私保护和可验证计算领域的广泛采用。
零知识证明HyperPlonkzkSpeed加速器隐私保护
联邦学习中可追踪的黑盒水印技术
📝 作者: Jiahao Xu, Rui Hu, Olivera Kotevska, Zikai Zhang
📄 中文摘要:
联邦学习(Federated Learning, FL)系统因其分布式特性,使得每个本地客户端都能访问全局模型,从而带来了模型泄露的重大风险。已有研究探索了在本地模型中注入水印以实现知识产权保护,但这些方法要么关注不可追踪的水印,要么是可追踪但仅限于白盒环境的水印技术。针对文献中关于可追踪黑盒水印的正式定义及其在联邦学习系统中注入问题的研究空白,本文首次对在联邦学习中注入可追踪黑盒水印的问题进行了形式化定义。在此基础上,提出了一种新颖的服务器端水印方法——TraMark,该方法为每个客户端创建独特的、可追踪的水印模型,支持在黑盒环境下验证模型泄露。TraMark 通过将模型参数空间划分为两个区域——主任务区域和水印区域来实现这一目标。具体而言,TraMark 为每个客户端构建个性化的全局模型,仅聚合主任务区域的参数,而保留水印区域的独特性。随后,每个模型在水印区域内使用独特的水印数据集学习专属水印,再将其发送回本地客户端。广泛的实验结果表明,TraMark 在多种联邦学习系统中能够确保所有水印模型的可追踪性,同时保持其主任务性能不受影响。本研究为联邦学习中的模型安全提供了重要的技术支持,对知识产权保护具有实际意义。
联邦学习可追踪水印黑盒水印模型安全知识产权保护
可验证的指数机制用于中位数估计
📝 作者: Hyukjun Kwon, Chenglin Fan
📄 中文摘要:
差分隐私(Differential Privacy, DP)是一种广泛应用于数据分析和机器学习的严格隐私标准。然而,其隐私保障依赖于正确引入随机噪声,这一假设在实现有误或受到不受信任的分析师操纵时可能不成立。为解决这一问题,本文提出了首个使用zk-SNARKs实现的可验证指数机制。作为具体应用,作者展示了首个可验证的差分隐私中位数估计方案,该方案利用这一构造同时确保隐私性和可验证性。研究方法将指数机制和中位数的效用函数编码为算术电路,并采用缩放逆CDF技术进行采样。这种设计支持通过密码学手段验证报告输出的结果是否符合预期的DP机制,从而在不泄露敏感数据的情况下保障隐私和完整性。研究背景聚焦于差分隐私实现中的信任问题,强调了现有方法在面对潜在错误或恶意操作时的局限性。关键发现表明,通过zk-SNARKs技术,可以有效验证指数机制的执行过程,确保输出结果符合隐私要求,同时避免数据泄露。作者还讨论了该方法在计算复杂性和实际应用中的可行性,指出其在中位数估计等统计任务中的潜力。结论指出,该研究为差分隐私的可靠实现提供了新的技术路径,可能对隐私保护数据分析领域产生重要影响,尤其是在需要高信任度的场景中。
差分隐私可验证计算指数机制中位数估计zk-SNARKs
面向下一代扩展现实系统的多模态多任务联邦基础模型:实现AR/VR/MR中的隐私保护分布式智能
📝 作者: Fardis Nadimi, Payam Abdisarabshali, Kasra Borazjani, Jacob Chakareski, Seyyedali Hosseinalipour
📄 中文摘要:
扩展现实(XR)系统,包括虚拟现实(VR)、增强现实(AR)和混合现实(MR),为沉浸式、多模态和具身化的人机交互提供了变革性的界面。本文提出了一种基于多模态多任务(M3T)联邦基础模型(FedFMs)的创新方法,旨在通过结合M3T基础模型的强大表征能力与联邦学习(FL)的隐私保护训练原则,为XR系统提供突破性能力。作者设计了一种模块化的FedFMs架构,包含不同的模型训练和聚合协调范式。研究核心在于通过SHIFT维度对XR系统实施FedFMs所面临的挑战进行系统化编码,这五个维度分别是:(1)传感器和模态多样性,(2)硬件异构性和系统级约束,(3)交互性和具身化个性化,(4)功能/任务多样性,以及(5)时间性和环境变化性。文章进一步通过一系列新兴和预期的XR应用案例,阐述了这些维度的具体表现。此外,作者提出了用于开发资源感知型FedFMs的评估指标、数据集需求以及设计权衡方案。本研究的愿景是为下一代XR系统中的上下文感知、隐私保护智能奠定技术和概念基础。通过这种方法,FedFMs有望在保护用户隐私的同时,显著提升XR系统的智能化水平和应用潜力,为未来沉浸式技术的广泛应用铺平道路。
扩展现实联邦学习多模态多任务隐私保护分布式智能
多传感器系统在多重数据包丢失下的隐私保护融合
📝 作者: Jie Huang, Jason J. R. Liu, Xiao He
📄 中文摘要:
无线传感器网络(WSNs)是现代信息物理系统中的关键组成部分,通过空间分布的传感器实现高效的数据收集与融合。然而,此类网络中存在的窃听风险和数据包丢失问题对安全状态估计构成了重大挑战。本文针对多传感器系统在多重数据包丢失和窃听攻击下的隐私保护融合估计(PPFE)问题展开研究。为解决这些问题,作者提出了一种基于分布式编码的隐私保护机制(PPM),该机制在控制理论框架内确保数据传输过程中的隐私,同时维持合法状态估计的性能。研究开发了一种集中式融合滤波器,考虑了数据包丢失与基于编码的PPM之间的耦合效应。通过改进的代数Riccati方程,推导了合法用户估计误差协方差的有界性条件。此外,通过证明窃听者平均估计误差的发散性,严谨分析了所提出的PPFE算法的数据保密性。针对基于互联网的三罐系统的仿真结果验证了该方法的有效性,表明其在不牺牲估计精度的前提下显著增强了隐私保护能力。这一研究为无线传感器网络的安全状态估计提供了重要的理论支持和实践指导,具有较高的应用价值。
隐私保护无线传感器网络数据包丢失融合估计窃听攻击
自适应编码联邦学习:隐私保护与掉队者缓解
📝 作者: Chengxi Li, Ming Xiao, Mikael Skoglund
📄 中文摘要:
本文针对联邦学习中存在的掉队者问题提出了一种解决方案。传统的编码联邦学习框架通过中央服务器聚合来自非掉队者的梯度以及从隐私保护的全局编码数据集中计算的梯度来减轻掉队者的负面影响。然而,现有方法在梯度聚合时使用固定的权重,忽略了全局编码数据集的生成过程以及模型在迭代过程中的动态变化,可能导致学习性能下降。为解决这一问题,本文提出了一种名为自适应编码联邦学习(ACFL)的新方法。在ACFL中,训练开始前,每个设备将带有加性噪声的编码本地数据集上传至中央服务器,以在满足隐私保护要求的前提下生成全局编码数据集。在训练的每次迭代中,中央服务器聚合来自非掉队者的梯度和从全局编码数据集中计算的梯度,并设计了一种自适应策略来动态调整聚合权重。通过该策略,本文在隐私保护和学习性能两方面优化了系统表现,其中学习性能通过收敛性分析进行评估,隐私性能则通过互信息差分隐私进行表征。最后,通过仿真实验验证了ACFL相较于非自适应方法的优越性。研究表明,ACFL在处理掉队者问题时能够有效提升联邦学习的效率和隐私保护能力,为分布式机器学习提供了一种创新的解决方案。
联邦学习隐私保护掉队者缓解自适应编码梯度聚合