← 返回总览
35
论文总数
35
高分论文
7.8
平均评分
7
关键词数
🔍 聚类关键词特征
ai代理评估人工智能本文框架基准
人工智能应更具人性化,而非更加复杂
📝 作者: Carlo Esposito (Eyed Softwares, Aploide Softwares)
📄 中文摘要:
本文研究了大型语言模型(LLMs)在搜索应用中的表现,指出当前模型倾向于提供冗长且词汇复杂的回应,反而降低了用户满意度和参与度。通过对约10,000名参与者的广泛研究,作者比较了五个主要AI驱动的搜索系统的回应效果,发现用户普遍更喜欢简洁且注明来源的回答,而非详尽的解释。研究分析表明,当前AI发展的‘人工复杂化’趋势导致了一种‘恐怖谷’效应,即系统看似知识渊博,但缺乏真正的批判性思维能力,从而降低了用户的信任并增加了认知负担。作者提出证据表明,最优的AI沟通方式应模仿有效的人类交流:直接、来源清晰,并坦诚自身的局限性。这些发现挑战了普遍观点,即认为更复杂的AI回应代表更好的性能。相反,研究表明,类人化的简洁性和透明度是提升用户参与度和系统可靠性的关键因素。文章结论呼吁AI开发应转向更人性化的设计理念,注重用户体验而非单纯的技术复杂性,以构建更可信赖和高效的搜索系统。
人工智能大型语言模型用户体验人性化设计搜索系统
GeoFlow:面向地理空间任务的代理工作流自动化
📝 作者: Amulya Bhattaram, Justin Chung, Stanley Chung, Ranit Gupta, Janani Ramamoorthy, Kartikeya Gullapalli
📄 中文摘要:
本文提出了一种名为GeoFlow的方法,用于自动生成面向地理空间任务的代理工作流。与以往专注于推理分解并将API选择隐式处理的研究不同,GeoFlow为每个代理提供了详细的工具调用目标,以在运行时指导地理空间API的调用。该方法通过明确的任务分解和工具调用策略,显著提升了代理任务的成功率,并在多个主流大语言模型(LLM)家族中实现了性能改进。实验结果表明,GeoFlow将代理成功率提高了6.8%,同时与现有最先进方法相比,其令牌使用量减少了高达四倍。这一成果不仅展示了GeoFlow在地理空间任务自动化中的高效性,也突显了其在资源优化方面的潜力。研究还探讨了GeoFlow在不同任务场景下的适应性,验证了其在复杂地理空间数据处理中的鲁棒性。作者进一步分析了方法的核心机制,指出工具调用目标的明确性是提升性能的关键因素。结论表明,GeoFlow为地理空间任务的自动化提供了一种创新且高效的解决方案,可能为未来的智能代理系统设计提供重要参考,同时也为地理信息系统与人工智能的交叉领域研究开辟了新的方向。
地理空间任务代理工作流自动化工具调用大语言模型
面向电信的低延迟端到端语音代理:基于流式ASR、量化LLM和实时TTS的研究
📝 作者: Vignesh Ethiraj, Ashwath David, Sidhanth Menon, Divya Vijay
📄 中文摘要:
本文提出了一种低延迟的电信AI语音代理管道,专为实时、交互式电信应用设计,旨在实现呼叫中心自动化、智能交互式语音应答(IVR)以及AI驱动的客户支持等高级语音AI功能。该解决方案针对电信领域开发,集成了NetoAI的四个专用模型:TSLAM,一个4位量化的电信专用大语言模型(LLM);T-VEC,一个电信专用嵌入模型;TTE,一个电信专用自动语音识别(ASR)模型;以及T-Synth,一个电信专用文本转语音(TTS)模型。这些模型共同构建了高响应性、领域适配的语音AI代理,支持基于知识的口语交互,并实现低延迟通信。该管道结合了流式ASR(TTE)、对话智能(TSLAM)、基于电信文档的检索增强生成(RAG)以及实时TTS(T-Synth),为电信语音助手设定了新的基准。为了评估系统性能,研究团队构建了一个包含500个基于RFC的人工录制电信问题的数据集,模拟真实的电信代理查询场景,用于分析系统的延迟、领域相关性和实时性能。结果表明,TSLAM、TTE和T-Synth的实时因子(RTF)均低于1.0,满足企业级低延迟电信部署的需求。这些由TSLAM、TTE和T-Synth驱动的AI代理为下一代电信AI奠定了基础,支持自动化客户支持、诊断等多种应用场景。本研究展示了在电信领域中构建高效、低延迟语音代理的潜力,为行业应用提供了重要的技术参考。
低延迟语音代理电信AI流式ASR量化大语言模型实时TTS
可穿戴Music2Emotion:通过便携式EEG-fNIRS融合评估AI生成音乐诱发的情绪
📝 作者: Sha Zhao, Song Yi, Yangxuan Zhou, Jiadong Pan, Jiquan Wang, Jie Xia, Shijian Li, Shurong Dong, Gang
📄 中文摘要:
情绪对心理健康具有重要影响,基于音乐的情感计算通过神经生理信号和脑机接口技术成为研究热点。然而,现有研究存在三大局限:(1) 刺激材料限制:由于版权和整理成本,音乐刺激材料局限于小型语料库,且基于启发式情绪-音乐映射的选择存在偏差,忽视了个体情感特征;(2) 模态特异性:过度依赖单一模态神经数据(如EEG),忽略了跨模态信号融合的互补洞察;(3) 便携性限制:繁琐的设备设置(如64+通道凝胶电极EEG帽)因操作复杂和便携性障碍限制了现实世界的应用。为解决这些问题,本研究提出了MEEtBrain,一个便携式多模态情绪分析框架(针对效价和唤醒度),通过无线头带整合AI生成的音乐刺激与同步EEG-fNIRS采集。MEEtBrain利用AI大规模自动生成音乐刺激,消除了主观选择偏差并确保音乐多样性。研究团队开发了一种轻便的头带式设备,使用干电极同时采集EEG和fNIRS数据。在首次招募中,收集了20名参与者的14小时数据集,以验证框架的有效性,结果表明AI生成的音乐能够有效诱发目标情绪(效价/唤醒度)。目前,研究团队正在扩展多模态数据集(最新数据集包括44名参与者),并将其公开以促进进一步研究和实际应用。数据集可在https://zju-bmi-lab.github.io/ZBra获取。本研究为情感计算和脑机接口的便携化应用提供了创新解决方案,具有重要的学术和实践价值。
情感计算脑机接口AI生成音乐EEG-fNIRS融合可穿戴设备
学习AI审计:青少年审计生成式AI模型的案例研究
📝 作者: Luis Morales-Navarro, Michelle Gan, Evelyn Yu, Lauren Vogelstein, Yasmin B. Kafai, Dana\'e Meta
📄 中文摘要:
本研究探讨了高中年龄段的青少年如何通过算法审计参与识别和理解日常生活中遇到的AI/ML(人工智能与机器学习)工具中的偏见。随着AI/ML技术日益融入年轻人的生活,迫切需要为青少年提供AI素养教育,以培养其技术知识和社会影响意识。算法审计(也称为AI审计)传统上由专家执行,用于评估潜在的有害偏见,但近期研究表明,非专家用户也能有效参与审计活动。本研究通过为期两周的参与式设计工作坊,邀请了14名14-15岁的青少年对TikTok的Effect House(一个用于创建互动TikTok滤镜的工具)背后的生成式AI模型进行审计。研究以案例形式详细描述了青少年如何开展审计工作,包括确定审计对象、采用多样化策略分析数据以及沟通审计结果。研究发现,参与者在整个活动中表现出高度的参与度和创造力,独立提出并探索了新的考量因素,例如与年龄相关的偏见,这些在专业审计中并不常见。研究团队利用自身在算法审计方面的专长,对青少年的发现进行三角验证,以检验工作坊是否支持参与者得出一致的审计结论。尽管青少年发现的种族、性别和年龄表征变化数量与研究团队的结果略有不同,但双方得出了相似的结论。本研究强调了审计活动在激发学习、培养AI素养方面的潜力,同时也展示了青少年在批判性审视AI系统和为算法危害研究提供新视角方面的能力。
AI审计生成式AI青少年教育算法偏见AI素养
ConfAgents:一种基于共形引导的多智能体框架用于成本高效的医疗诊断
📝 作者: Huiya Zhao, Yinghao Zhu, Zixiang Wang, Yasha Wang, Junyi Gao, Liantao Ma
📄 中文摘要:
本研究针对人工智能(AI)在医疗健康研究中的局限性,提出了一种新型的自进化AI智能体框架——HealthFlow。传统AI智能体依赖静态、预定义的策略,限制了其在复杂领域(如医疗健康)中成为优秀战略规划者的能力。HealthFlow通过一种创新的元级进化机制,自主优化其高层问题解决策略,将过程中的成功与失败提炼为持久的战略知识库。这种自进化机制使HealthFlow能够超越现有工具使用者的角色,成为更智能的任务管理者。为支持研究并实现可重复的评估,本文引入了EHRFlowBench,一个基于同行评审临床研究数据的新基准,包含复杂的现实健康数据分析任务。实验结果表明,HealthFlow的自进化方法在性能上显著优于当前最先进的智能体框架,特别是在处理复杂医疗诊断任务时展现出更高的成本效率和准确性。研究的关键发现是,从构建更好的工具使用者转向设计更智能、自进化的任务管理者,是AI在科学发现中实现更高自主性和有效性的必要转变。本文为AI在医疗健康领域的应用开辟了新的方向,展示了通过自进化机制提升战略规划能力的潜力,为未来的研究奠定了基础。
人工智能医疗诊断自进化智能体成本效率战略规划
AU-IQA:AI增强用户生成内容感知质量评估的基准数据集
📝 作者: Shushi Wang, Chunyi Li, Zicheng Zhang, Han Zhou, Wei Dong, Jun Chen, Guangtao Zhai, Xiaohong Liu
📄 中文摘要:
随着AI图像增强技术在各类视觉应用中的广泛采用,用户生成内容(UGC)的感知质量得到了显著提升。然而,缺乏专门的质量评估模型已成为该领域的一个重要限制因素,不仅影响用户体验,也阻碍了增强方法的进一步发展。尽管现有的感知质量评估方法在UGC和AI生成内容(AIGC)上分别表现出色,但对于融合了两者特征的AI增强用户生成内容(AI-UGC),其评估效果仍未被充分探索。为解决这一问题,本研究构建了AU-IQA,一个包含4800张AI-UGC图像的基准数据集,涵盖了三种代表性增强类型:超分辨率、低光增强和去噪。在此数据集上,研究进一步评估了包括传统图像质量评估(IQA)方法和大型多模态模型在内的一系列现有质量评估模型的性能。最后,研究对当前方法在评估AI-UGC感知质量方面的表现进行了全面分析,揭示了现有方法的局限性与未来改进方向。AU-IQA数据集的公开访问链接为https://github.com/WNNGGU/AU-IQA-Dataset,为相关领域的研究提供了宝贵资源。本研究不仅填补了AI-UGC质量评估领域的空白,也为开发更有效的评估模型和增强技术奠定了基础。
AI增强用户生成内容感知质量评估基准数据集图像处理
一种用于场景构图结构的新型图像相似性度量方法
📝 作者: Md Redwanul Haque, Manzur Murshed, Manoranjan Paul, Tsz-Kwan Lee
📄 中文摘要:
随着生成式人工智能模型的快速发展,评估图像质量的新方法变得至关重要,传统的评估方式已无法满足需求,尤其是在保持图像底层场景构图结构(Scene Composition Structure, SCS)方面。SCS定义了图像中对象与背景之间的几何关系,包括相对位置、大小和方向等,维持SCS的完整性对于确保生成式AI输出的结构准确性和真实性至关重要。然而,传统的图像相似性度量方法在评估SCS时存在不足:像素级方法对微小视觉噪声过于敏感,而基于感知的度量方法更注重人类审美偏好,均无法有效捕捉结构保真度。此外,基于神经网络的最新度量方法引入了训练开销和潜在的泛化问题。本研究提出了一种新的、无需训练的分析性度量方法——SCS相似性指数度量(SCSSIM),通过利用图像立方体层次划分所衍生的统计测量,稳健地捕捉非基于对象的结构关系,从而量化SCS的保持程度。实验结果表明,SCSSIM对非构图失真表现出高度不变性,能够准确反映未改变的SCS;同时,对于构图失真,SCSSIM呈现出强烈的单调递减特性,精确指示SCS的变化。与现有度量方法相比,SCSSIM在结构评估方面展现出优越性能,成为开发和评估生成模型的重要工具,有助于确保场景构图的完整性。本研究为生成式AI模型的图像质量评估提供了创新视角和实用方法,对未来相关研究具有重要参考价值。
图像相似性度量场景构图结构生成式AI结构保真度SCSSIM
适应性网络代理的认知二元性
📝 作者: Jiarun Liu, Chunhong Zhang, Zheng Hu
📄 中文摘要:
网络导航是评估人工通用智能(AGI)的一个关键且具有挑战性的领域,要求在高熵、动态环境中进行复杂的决策,同时面对组合爆炸的动作空间。当前构建自主网络代理的方法要么专注于离线模仿学习,要么专注于在线探索,但很少能有效整合这两种范式。受到人类认知的双过程理论启发,本研究提出了一种基于快速系统1和慢速系统2认知过程的原则性分解方法。这种分解为现有的网络代理方法提供了一个统一的视角,弥合了离线学习直觉反应行为和在线获取深思熟虑的规划能力之间的差距。本文实现了这一框架,开发了CogniWeb,一个模块化的代理架构,能够根据任务复杂性自适应地在快速直觉处理和深思熟虑的推理之间切换。在WebArena上的评估表明,CogniWeb取得了具有竞争力的性能(43.96%的成功率),同时显著提高了效率(令牌使用量减少了75%)。研究结果表明,通过模拟人类认知的双重过程,网络代理可以在复杂环境中实现更高效和适应性的决策。这项工作不仅为网络导航任务提供了新的解决方案,也为AGI系统的设计提供了重要的理论和实践参考。未来研究可以进一步探索如何优化系统1和系统2之间的动态平衡,以应对更加复杂的网络交互场景。
网络代理人工通用智能认知二元性自适应决策模块化架构
超越自动化:苏格拉底式人工智能、认知能动性及编排式多代理学习架构兴起的启示
📝 作者: Peer-Benedikt Degen, Igor Asanov
📄 中文摘要:
本研究探讨了生成式人工智能(AI)在高等教育中从边缘工具向通用基础设施的转变,及其对知识生成、传播和验证方式的重塑。论文通过一项对照实验评估了一种基于建构主义理论设计的苏格拉底式AI导师(Socratic AI Tutor),该导师通过结构化对话支持学生研究问题的开发。实验在德国的65名职前教师学生中进行,比较了与苏格拉底式导师互动和与无指导AI聊天机器人互动的效果。结果显示,使用苏格拉底式导师的学生在批判性、独立性和反思性思维方面获得显著支持,表明对话式AI能够激发元认知参与,并挑战了近期关于生成式AI导致技能退化的叙述。这一发现为更广泛的教学范式转变提供了概念验证:即由专业化AI代理组成的多代理系统(MAS)的应用。为此,论文提出了编排式MAS的概念,即由教育者策划的模块化、教学对齐的代理群,支持通过差异化角色和协调互动实现多样化的学习路径。同时,研究提出了一种适应的提供-使用模型,学生可从中获取代理的教学支持。论文还探讨了高等教育机构和学生在系统层面的影响,包括资金需求、教师角色变化、课程设计、能力培养和评估实践的调整。最后,通过比较成本效益分析,强调了此类系统的可扩展性。总之,本研究提供了实证证据和概念路线图,为嵌入人-AI协同能动性和教学对齐的混合学习生态系统奠定了基础。
生成式人工智能苏格拉底式AI多代理系统高等教育教学对齐
决策与审议:作为文档支持对话的元评审
📝 作者: Sukannya Purkayastha, Nils Dycke, Anne Lauscher, Iryna Gurevych
📄 中文摘要:
元评审是同行评审过程中的关键阶段,作为决定论文是否被推荐接受的最后步骤。传统研究将元评审视为对评审报告的总结问题,但本文提出了一种补充视角,即元评审是一个需要权衡评审员论点并将其置于更广泛背景中的决策过程。已有研究表明,在此类场景中,对话代理可以有效辅助决策者。本文探讨了实现能够有效辅助元评审员的对话代理的实际挑战。首先,针对训练对话代理的数据稀缺问题,作者通过使用大型语言模型(LLMs)基于自我优化策略生成合成数据,以提高对话与专家领域的相关性。实验表明,这种方法能够生成更高质量的合成数据,为训练元评审助手提供了宝贵资源。随后,作者利用这些数据训练了专门针对元评审的对话代理,并发现这些代理在该任务上优于现成的大型语言模型助手。最后,作者将这些代理应用于真实的元评审场景,验证了其在提高元评审效率方面的有效性。本研究不仅提出了元评审作为对话决策过程的新视角,还通过合成数据生成和定制化对话代理的开发,为元评审的自动化和智能化提供了切实可行的解决方案,具有重要的理论和实践意义。
元评审对话代理大型语言模型合成数据决策支持
构建人工智能教育工具中的有效安全防护措施
📝 作者: Hannah-Beth Clark, Laura Benton, Emma Searle, Margaux Dowland, Matthew Gregory, Will Gayne, John Rob
📄 中文摘要:
随着生成式人工智能工具在教育领域的快速发展,教师对其的采用率不断提高。然而,这也引发了关于AI生成内容的安全性和年龄适宜性的担忧。本文探讨了Oak国家学院在开发英国政府首个公开可用的生成式人工智能工具——AI驱动的课程规划助手(Aila)时,如何应对这些问题。Aila旨在支持教师规划符合国家课程标准、适合5-16岁学生的课程。为了减轻AI生成内容带来的安全风险,研究团队实施了四项关键安全防护措施:(1)通过提示工程确保AI输出在教学合理且符合课程标准的参数范围内生成;(2)输入威胁检测以减轻攻击风险;(3)独立异步内容审核代理(IACMA),根据预定义的安全类别评估输出内容;(4)采用“人在回路”方法,鼓励教师在使用AI生成内容前进行审查。通过对这些安全防护措施的持续评估,研究识别出实施和测试安全防护措施时面临的若干挑战与机遇。本文强调了构建更有效的生成式人工智能教育工具安全防护措施的方法,包括持续迭代和优化防护措施,以及通过共享开源代码、数据集和经验教训促进跨部门合作。研究结果表明,安全防护措施的不断改进和行业协作对于确保AI教育工具的安全性和可靠性至关重要,同时也为未来的技术开发提供了宝贵经验。
生成式人工智能教育工具安全防护课程规划内容审核
谁的真理?(智能体)AI的多元化地理对齐
📝 作者: Krzysztof Janowicz, Zilong Liu, Gengchen Mai, Zhangyu Wang, Ivan Majic, Alexandra Fortacz, Grant McK
📄 中文摘要:
本文探讨了AI(超级)对齐的挑战,即确保(未来)AI系统行为符合社会规范和目标。尽管相关文献迅速发展,关注偏见和不平等问题,但对齐的地理变异性仍未被充分研究。简单来说,由于文化规范、政治现实和法律的不同,不同地区对何为适当、真实或合法的看法存在显著差异。应用于AI/ML工作流程的对齐措施有时会产生与统计现实不符的结果,例如文本到图像模型在公司领导层的性别比例上呈现平衡,尽管现实中存在不平衡。更重要的是,某些模型输出在全球范围内是可接受的,而其他输出(例如关于克什米尔的问题)则依赖于了解用户的位置和上下文。这种地理敏感性并非新现象,例如谷歌地图根据用户位置不同而呈现克什米尔的边界差异。然而,AI如今以前所未有的规模和自动化程度介导知识、表达观点并向全球数百万用户展示地理现实,且对上下文管理缺乏透明度,这是全新的挑战。随着智能体AI的临近,迫切需要时空感知的对齐方法,而非一刀切的方式。本文回顾了关键的地理研究问题,提出了未来工作的主题,并概述了评估对齐敏感性的方法。研究强调,AI对齐必须考虑地理和文化背景的多样性,以避免单一标准导致的偏差和误解,同时呼吁在AI开发中增加透明度和上下文适应性,以应对全球用户需求的复杂性。
AI对齐地理变异性智能体AI文化规范上下文适应性
Bench-2-CoP:我们能信任基准测试用于欧盟AI合规性吗?
📝 作者: Matteo Prandi, Vincenzo Suriani, Federico Pierucci, Marcello Galisai, Daniele Nardi, Piercosma Bisco
📄 中文摘要:
随着通用人工智能(GPAI)模型的快速发展,特别是在欧盟AI法案及其相关实践准则(CoP)等新兴法规的背景下,构建稳健的评估框架变得尤为重要。当前的AI评估实践高度依赖既有的基准测试工具,但这些工具并非为衡量新监管框架所关注系统性风险而设计。本研究聚焦于量化这一‘基准-法规差距’的迫切需求,提出了一种新颖且系统性的框架Bench-2-CoP。该框架利用经过验证的‘大语言模型作为评判者’(LLM-as-judge)分析方法,将来自广泛使用的基准测试中的194,955个问题与欧盟AI法案中关于模型能力和倾向的分类体系进行映射。研究发现,当前的评估生态系统存在显著的不平衡:评估内容过度集中于少数行为倾向,例如‘产生幻觉的倾向’(占语料库的53.7%)和‘歧视性偏见’(占28.9%),而关键的功能性能力被严重忽视。尤其值得注意的是,与失控场景相关的核心能力,如规避人类监督、自我复制以及自主AI开发,在整个基准测试语料库中完全没有覆盖。这导致了对系统性风险的评估几乎完全缺失,例如‘失控风险’(覆盖率仅0.4%)和‘网络攻击风险’(覆盖率仅0.8%)。本研究首次提供了这一差距的全面定量分析,为政策制定者完善实践准则(CoP)以及开发者构建下一代评估工具提供了关键见解,最终有助于促进更安全、更合规的AI发展。
通用人工智能欧盟AI法案基准测试系统性风险评估框架
逐步测量信息:基于大语言模型的超越直觉的评估方法
📝 作者: Zachary Robertson, Sanmi Koyejo
📄 中文摘要:
本研究提出了一种无需真实标签即可评估人工智能系统的新机制,通过探索博弈抗性与输出质量之间的联系来实现。研究基于数据处理不等式,证明了事后试图操控评估指标的行为会同时降低信息内容和任务性能。作者进一步证明,在自然条件下,f-互信息度量是唯一具有博弈抗性的评估机制,其中监督者被视为一个代理。在理论上,香农互信息面临指数级的样本复杂度问题,而总变异距离等有界度量则更为可行。实证研究覆盖了从翻译到同行评审的十个领域,结果表明,所有基于信息论的机制在区分忠实代理和策略性代理时均实现了完美的区分能力(d > 0.5)。相比之下,大语言模型(LLM)作为评判者表现出系统性的评估反转倾向,更偏好捏造内容而非准确摘要。作者提出的机制在对抗性操纵下的鲁棒性比当前实践高出10-100倍。此外,研究发现性能与压缩比呈现倒U型曲线,在10:1的压缩比时达到峰值,此时代理响应的信息多样性最佳(有效维度为3),为该方法的适用场景提供了偏差-方差视角。结论表明,这种基于信息论的评估方法在对抗性环境中具有显著优势,并为AI系统评估提供了新的理论和实践基础。
人工智能评估信息论博弈抗性大语言模型互信息
自动评估法官:面向任务完成评估的通用代理框架
📝 作者: Roshita Bhonsle, Rishav Dutta, Sneha Vavilapalli, Harsh Seth, Abubakarr Jaye, Yapei Chang, Mukund Ru
📄 中文摘要:
随着基础模型作为代理在多个领域的广泛应用,构建一个稳健的评估框架变得至关重要。当前的方法,如‘LLM-as-a-Judge’,仅关注最终输出,忽略了驱动代理决策的逐步推理过程。而现有的‘Agent-as-a-Judge’系统,即一个代理评估另一个代理的任务完成情况,通常是为狭窄的、特定领域的场景设计的,缺乏通用性。为了解决这一问题,本文提出了一种可泛化的模块化框架,用于评估代理的任务完成情况,且该框架独立于任务领域。该框架通过将任务分解为子任务,并利用可用信息(如代理的输出和推理)验证每一步,从而模拟人类评估过程。框架中的每个模块负责评估过程的特定方面,其输出被汇总以生成最终的任务完成判定。为了验证框架的有效性,作者在GAIA和BigCodeBench两个基准数据集上对Magentic-One Actor Agent进行了评估。结果表明,与基于GPT-4o的LLM-as-a-Judge基线相比,本文的Judge Agent在预测任务成功率上与人类评估的一致性更高,分别在两个数据集上实现了4.76%和10.52%的准确率提升。这充分展示了所提出的通用评估框架的潜力,为未来代理评估研究提供了重要的参考价值。
代理评估任务完成通用框架人工智能模块化设计
缺失的奖励:经验时代中的主动推断
📝 作者: Bo Wen
📄 中文摘要:
本文探讨了主动推断(Active Inference, AIF)在构建能够从经验中自主学习的AI代理方面的重要作用,提出其为解决当前AI系统面临的可扩展性挑战提供了关键基础。随着AI系统逐渐耗尽高质量训练数据,并依赖越来越庞大的人力资源进行奖励设计,现有范式在实现真正自主智能的道路上面临显著瓶颈。作者提出了‘经验时代’的概念,即AI代理通过自生成数据进行学习,这一愿景被认为是前进的重要一步。然而,该愿景仍高度依赖人类对奖励函数的大量工程设计,将瓶颈从数据整理转移到奖励整理,凸显了作者所称的‘根植代理差距’(grounded-agency gap),即当前AI系统无法自主制定、适应和追求目标以应对环境变化。文章提出,AIF通过用内在驱动力替代外部奖励信号,允许代理通过统一的贝叶斯目标自然平衡探索与利用,从而弥合这一差距。具体而言,AIF通过最小化自由能的机制,使AI代理能够在经验中高效学习。此外,作者建议将大型语言模型作为生成性世界模型与AIF的决策框架相结合,创造出既能从经验中学习又能与人类价值观保持一致的代理。这一综合方法为开发能够在计算和物理约束下自主发展的AI系统提供了令人信服的路径。研究强调了AIF在推动AI从依赖外部奖励向内在动机转变中的潜力,为实现真正的自主智能奠定了理论和实践基础。
主动推断自主智能经验学习奖励设计贝叶斯推断
通过代理AI驱动的转录组特征分析发现疾病关系
📝 作者: Ke Chen, Haohan Wang
📄 中文摘要:
本研究提出了一种基于转录组学的框架,通过分析超过1300个疾病-条件对,发现疾病之间的潜在分子关联。研究采用GenoMAS这一全自动代理AI系统,不仅识别出显著的基因水平重叠,还开发了一种新颖的基于路径的相似性框架,通过多数据库富集分析量化疾病间的功能趋同性。构建的疾病相似性网络揭示了已知的共病关系以及此前未记录的跨类别联系。通过研究共享的生物学路径,本文探索了这些联系背后的潜在分子机制,提出了超越基于症状分类的功能性假设。此外,研究还展示了背景条件(如肥胖和高血压)如何调节转录组相似性,并基于分子接近性为自闭症谱系障碍等罕见疾病识别出治疗再利用的机会。同时,本工作证明了基于生物学的代理AI如何在复杂的疾病图谱中扩展转录组分析并实现机制解释。所有结果均可在github.com/KeeeeChen/Pathway_Similarity_Network公开获取。本研究为疾病分类和治疗策略提供了新的视角,强调了分子层面的共性在理解疾病关系中的重要性,并为跨疾病的机制研究和药物开发奠定了基础。
转录组学疾病关系代理AI路径相似性治疗再利用
基于人工智能的Spitz肿瘤分类研究
📝 作者: Ruben T. Lucassen, Marjanna Romers, Chiel F. Ebbelaar, Aia N. Najem, Donal P. Hayes, Antien L. Mooya
📄 中文摘要:
Spitz肿瘤由于其非典型组织学特征与常规黑色素瘤存在重叠,诊断上具有挑战性。本研究探讨了基于人工智能(AI)的模型如何利用组织学和/或临床特征来实现以下目标:(1)区分Spitz肿瘤与常规黑色素瘤;(2)预测Spitz肿瘤的潜在遗传异常;(3)预测Spitz肿瘤的诊断类别。研究使用包含393个Spitz肿瘤和379个常规黑色素瘤的数据集开发并验证了AI模型。模型的预测性能通过AUROC(接收者操作特征曲线下面积)和准确率进行评估,并与四名经验丰富的病理学家的表现进行了比较。此外,通过一项模拟实验,研究了实施AI辅助诊断测试推荐对病理科工作流程的影响。基于UNI特征的最佳AI模型在区分Spitz肿瘤与常规黑色素瘤时达到了0.95的AUROC和0.86的准确率。在预测遗传异常方面,AI模型的准确率为0.55,相比之下随机猜测的准确率为0.25;在预测诊断类别方面,准确率为0.51,而随机猜测的准确率为0.33。在所有三项任务中,AI模型的表现均优于四名病理学家,尽管在大多数个体比较中差异不具有统计学显著性。模拟实验表明,实施AI辅助诊断测试推荐可降低材料成本、缩短周转时间并减少检查次数。总之,AI模型在区分Spitz肿瘤与常规黑色素瘤方面表现出强大的预测性能;在预测遗传异常和诊断类别等更具挑战性的任务中,AI模型的表现也优于随机猜测水平。
人工智能Spitz肿瘤黑色素瘤组织学特征诊断分类
HTTP/3 与 HTTP/2 在代理集成环境下的性能比较
📝 作者: Fan Liu, Behrooz Farkiani, John Dehart, Jyoti Parwatikar, Patrick Crowley
📄 中文摘要:
本文系统性地评估了在代理增强环境下,基于UDP的QUIC/HTTP3(H3)和基于TCP的HTTP/2(H2)的性能表现。H3集成了UDP流控制、内置TLS、多路复用和连接迁移等功能,以更好地支持现代网络通信。尽管先前研究表明H3在不同网络条件下的性能可能优于或劣于H2,但代理和连接迁移的作用尚未被充分探索。本研究通过多种H2和H3客户端实现进行测试,特别是在丢包网络和代理设置中。研究发现,代理能够显著提升H2的性能,在严重网络损伤下,结合BBR拥塞控制算法,单流下载性能可提升90%。相比之下,代理对H3的影响较小,H3凭借其内部机制保持了稳定的性能。H3在高丢包和高延迟条件下表现尤为出色,利用连接迁移和多路复用技术,在迁移场景中性能提升高达88.36%,在极端丢包情况下提升81.5%。尽管优化后的H2在某些场景下可与H3媲美,但H3整体上更为稳健,对代理、网络损伤和拥塞控制变化的敏感性较低。研究结论表明,H3在复杂网络环境中具有显著优势,尤其是在需要连接迁移和高可靠性传输的场景中,而H2则依赖于代理和特定优化来弥补性能差距。
HTTP/3HTTP/2代理集成网络性能连接迁移
ST-WebAgentBench:一个评估网络代理安全性和可信度的基准
📝 作者: Ido Levy, Ben Wiesel, Sami Marreed, Alon Oved, Avi Yaeli, Segev Shlomov
📄 中文摘要:
自主网络代理能够解决复杂的浏览任务,但现有的基准测试仅关注代理是否完成任务,而忽略了其是否以安全或企业可信的方式完成任务。为了将这些代理整合到关键工作流程中,安全性和可信度(ST)是采纳的前提条件。本文提出了 extbf{ extsc{ST-WebAgentBench}},这是一个可配置且易于扩展的测试套件,用于评估网络代理在现实企业场景中的安全性和可信度。该套件包含222个任务,每个任务都与ST策略配对,这些策略是编码约束的简明规则,并沿六个正交维度(如用户同意、鲁棒性)进行评分。除了原始任务成功率外,本文提出了 extit{Completion Under Policy}( extit{CuP})指标,仅对遵守所有适用策略的完成情况给予认可,以及 extit{Risk Ratio}指标,用于量化各维度的ST违规情况。对三个开源的先进代理进行评估后发现,其平均CuP不到其名义完成率的三分之二,暴露了关键的安全漏洞。通过发布代码、评估模板和策略编写界面, extsc{ST-WebAgentBench}为大规模部署可信网络代理提供了可操作的第一步。本研究不仅揭示了当前网络代理在安全性和可信度方面的不足,还为未来的改进和标准化提供了重要工具和框架。其结果表明,现有技术在企业级应用中存在显著的安全风险,亟需进一步研究和优化。
网络代理安全性可信度基准测试企业场景
语义完整性约束:AI增强数据处理系统的声明性护栏
📝 作者: Alexander W. Lee, Justin Chan, Michael Fu, Nicolas Kim, Akshay Mehta, Deepti Raghavan, Ugur Cetintem
📄 中文摘要:
AI增强数据处理系统(DPSs)通过将大型语言模型(LLMs)集成到查询流程中,实现了对结构化和非结构化数据的强大语义操作。然而,由于LLMs可能产生错误,这些系统的可靠性(即可信度)面临根本性挑战,限制了其在关键领域的应用。为了解决这一可靠性瓶颈,本研究引入了语义完整性约束(SICs),这是一种声明性抽象,用于在语义查询中指定和强制执行LLM输出的正确性条件。SICs将传统的数据库完整性约束推广到语义环境中,支持多种常见约束类型,如 grounding( grounding 约束)、soundness(健全性约束)和 exclusion(排除约束),并采用反应式和前瞻式两种执行策略。研究背景在于,随着AI技术在数据处理中的广泛应用,确保输出结果的准确性和可靠性成为亟待解决的问题。本文提出的方法通过声明性约束,为系统设计者提供了一种灵活且可扩展的方式来定义语义正确性规则,从而减少错误输出对系统的影响。关键发现表明,SICs能够在不显著增加计算复杂性的前提下有效提高系统的可信度,尤其是在涉及复杂语义操作的场景中。研究结论指出,SICs为AI增强数据处理系统的可靠性提供了重要的技术保障,并为未来在高风险领域(如医疗、金融)的应用奠定了基础。此外,本文还讨论了SICs的潜在局限性以及未来优化的方向,如与其他AI可解释性技术结合以进一步提升约束效果。
语义完整性约束AI增强数据处理大型语言模型可靠性声明性抽象
代理引导:一种简单的代理行为水印框架
📝 作者: Kaibo Huang, Zipei Zhang, Zhongliang Yang, Linna Zhou
📄 中文摘要:
随着智能代理在数字生态系统(如社交媒体平台)中的广泛部署,其可追溯性和问责性问题日益凸显,尤其是在网络安全和数字内容保护领域。传统的基于大语言模型(LLM)的水印技术依赖于词元级别的操作,但由于行为词元化的困难以及行为到动作转换过程中的信息丢失,这些技术并不适用于智能代理。为解决这一问题,本文提出了一种新颖的行为水印框架——代理引导(Agent Guide)。该框架通过对代理的高层决策(行为)施加概率偏差来嵌入水印,同时保持具体执行(动作)的自然性。研究将代理行为分为两个层次:行为(如选择书签)和动作(如使用特定标签进行书签),并对行为概率分布施加水印引导的偏差。作者采用基于z统计的统计分析方法来检测水印,确保在多轮操作中可靠提取水印。实验在社交媒体场景中针对不同代理配置文件进行了测试,结果表明代理引导框架能够实现有效的水印检测,且误报率较低。该框架为代理水印提供了一种实用且鲁棒的解决方案,可应用于识别恶意代理和保护专有代理系统。本研究不仅填补了智能代理水印领域的技术空白,还为数字生态系统中的安全性和可追溯性提供了重要工具,具有广泛的应用前景。
智能代理行为水印网络安全概率偏差社交媒体
代理型AI系统中的多层次价值对齐:综述与展望
📝 作者: Wei Zeng, Hengshu Zhu, Chuan Qin, Han Wu, Yihang Cheng, Sirui Zhang, Xiaowei Jin, Yinuo Shen, Zhenxi
📄 中文摘要:
随着AI范式的不断演进,AI研究已进入代理型AI阶段,研究重点从单一代理和简单应用转向复杂环境下的多代理自主决策与任务协作。大型语言模型(LLMs)的进步使其应用场景日益多样化和复杂化,同时也带来了更高的情境和系统性风险。因此,代理型AI系统的价值对齐问题受到广泛关注,旨在确保代理的目标、偏好和行为与人类价值观及社会规范保持一致。本研究通过多层次价值框架,系统性地回顾了以LLM为基础的多代理系统(作为代理型AI系统的代表性原型)中的价值对齐问题,回应了社会治理的需求。研究从三个相互关联的维度展开:首先,价值原则通过自上而下的层级结构分为宏观、中观和微观三个层次;其次,应用场景按照从一般到具体的连续体进行分类,明确反映这些价值层级;最后,通过对基准数据集和相关方法的系统性审查,将价值对齐方法和评估映射到这一分层框架中。此外,研究还深入探讨了代理型AI系统中多个代理之间的价值协调问题。最后,文章提出了该领域的几个潜在研究方向,包括如何在复杂多代理环境中实现更有效的价值对齐、如何设计适应不同文化和社会背景的价值框架,以及如何通过技术手段提升对齐的透明度和可解释性。本综述为未来研究提供了理论基础和实践指导,旨在推动代理型AI系统在安全性和伦理性方面的进一步发展。
代理型AI价值对齐大型语言模型多代理系统社会治理
建立构建严谨代理基准的最佳实践
📝 作者: Yuxuan Zhu, Tengjun Jin, Yada Pruksachatkun, Andy Zhang, Shu Liu, Sasha Cui, Sayash Kapoor, Shayne L
📄 中文摘要:
基准测试对于量化人工智能(AI)的进展至关重要。随着AI代理能力的不断提升,研究人员和从业者引入了代理基准(agentic benchmarks)来评估代理在复杂现实世界任务中的表现。这些基准通常通过特定的奖励设计来评估任务结果,从而衡量代理的能力。然而,本研究发现许多代理基准在任务设置或奖励设计上存在问题。例如,SWE-bench Verified使用的测试用例不足,而TAU-bench将空响应视为成功。这些问题可能导致对代理性能的低估或高估,相对误差高达100%。为了使代理评估更加严谨,本文提出了代理基准清单(Agentic Benchmark Checklist, ABC),这是从基准构建经验、最佳实践调查以及先前报告的问题中综合得出的指导方针。将ABC应用于CVE-Bench这一具有复杂评估设计的基准时,性能高估降低了33%。研究表明,遵循ABC指南可以显著提高代理基准的可靠性和准确性,为AI代理的评估提供更科学的基础。本文的研究不仅揭示了当前代理基准设计中的缺陷,还为未来的基准开发提供了实用工具和方法论支持,有助于推动AI领域中更公平和客观的性能评估。
代理基准人工智能评估基准设计性能评估最佳实践
NatureGAIA:通过挑战性基准和高质轨迹数据集推动GUI代理的前沿发展
📝 作者: Zihan Zheng, Tianle Cui, Chuwen Xie, Jiahui Zhang, Jiahui Pan, Lewei He, Qianglong Chen
📄 中文摘要:
随着大型语言模型(LLM)驱动的图形用户界面(GUI)代理技术的快速发展,现有评估基准在准确性、可重复性和可扩展性方面的深刻局限性显著阻碍了这一领域的进步。为解决这一关键问题,本研究提出了NaturalGAIA,一个基于因果路径原则设计的新型基准。该设计范式将复杂任务分解为一系列可编程验证的原子步骤,确保了评估的严谨性、完全自动化和可重复性。同时,为缓解代理固有的能力缺陷,研究团队开发了LightManus,一种专门针对长程任务优化的分层代理架构。利用该代理,研究生成了一个高质量、经人工验证的轨迹数据集,独特地捕捉了LLM的多样化甚至自我纠正的交互模式。随后,基于该数据集对Qwen2.5-VL-7B模型进行了强化微调(RFT)。实验结果表明,NaturalGAIA对当前最先进的LLM构成了巨大挑战,即使是表现最佳的Claude-sonnet-4,其加权路径成功率(WPSR)也仅为34.6%。此外,尽管RFT显著提升了较小模型的GUI执行能力(WPSR从3.3%提升至10.8%),但在处理复杂场景时其性能急剧下降。这一结果凸显了较小模型在面对整合感知、决策和执行的综合任务时的固有能力上限。本研究为社区贡献了一个严格的评估标准和高质量数据集,旨在指导GUI代理的未来发展。
图形用户界面代理大型语言模型评估基准轨迹数据集强化微调
自动化、人工智能与知识的代际传递
📝 作者: Enrique Ide
📄 中文摘要:
本文研究了人工智能(AI)快速发展对知识代际传递及经济长期增长的影响。近年来,AI技术的进步引发了对生产力空前增长的期待,但其通过帮助资深工作者独立完成更多任务,可能减少初级岗位的机会,从而对未来一代获取关键专业技能构成威胁。本文构建了一个理论模型,分析高级自动化如何影响知识的代际传递。研究发现了一个关键权衡:自动化初级任务虽能带来短期生产力提升,但可能通过削弱年轻工作者获取隐性技能的机会,损害经济的长期增长。初步估算表明,AI驱动的初级任务自动化可能使美国人均产出的长期年增长率下降0.05至0.35个百分点,具体取决于自动化规模。此外,作者提出AI辅助系统(即“AI副驾驶”)可以通过提供可扩展的类隐性专业知识访问,部分缓解未能早期发展足够技能的个体的不利影响。然而,AI副驾驶并非总是有益,因为它们也可能削弱初级工作者参与实践学习的动机。这些发现挑战了AI将自动维持生产力增长的乐观观点,强调了保护或积极创造新的初级岗位机会的重要性,以充分发挥AI的潜力。研究结果为政策制定者提供了重要启示,即在推动AI技术应用的同时,需关注其对劳动力市场结构和技能传承的深远影响,以避免长期经济增长的潜在风险。
人工智能自动化知识传递经济增长技能获取
代理、可能性与增强技术的文化适应
📝 作者: Ann Hill Duin, Isabel Pedersen
📄 中文摘要:
本文探讨了增强技术在多种因素驱动下的文化适应过程,其中一个重要因素是人工智能(AI)的兴起,世界知识产权组织(WIPO)将其称为AI浪潮或AI热潮。研究特别关注了第三章中对复杂、新兴且具身化的增强技术将改善生活、识字能力、文化、艺术、经济和社会环境的过度宣传假设的批判性分析。文章首先讨论了AI术语的模糊性问题,并通过描述WIPO的AI技术分类方案来帮助澄清这一问题。接着,文章借鉴媒体与传播研究,探讨了代理、能动性、权力以及人与机器人之间的能动关系等概念。研究聚焦于工业中非人类代理的发展,作为增强技术兴起的关键因素,并分析了市场传播如何通过文化适应过程促使未来用户接受和适应这些技术。学者们正在记录人们在后互联网社会中如何被进一步吸引到商业数字景观(如元宇宙概念)中的重要方式。最后,文章审视了近期关于元宇宙和增强现实的主张,指出这些技术在社会文化中的潜在影响和挑战。研究强调,尽管增强技术带来了诸多可能性,但其推广和应用需谨慎对待,以避免过度商业化和潜在的社会不平等问题。文章通过理论分析和案例研究,揭示了技术与社会互动的复杂性,为未来技术政策和伦理讨论提供了重要参考。
增强技术人工智能文化适应元宇宙能动性
评估LLM引导的反思对学习成果的影响:基于互动式AI生成教育播客的研究
📝 作者: Vishnu Menon, Andy Cherney, Elizabeth B. Cloude, Li Zhang, Tiffany D. Do
📄 中文摘要:
本研究探讨了在互动式AI生成的播客中嵌入大型语言模型(LLM)引导的反思提示是否能够提升学习成果和用户体验。研究对象为36名本科生,实验设计将参与者分为两组:一组使用包含反思提示的播客,另一组使用不含提示的版本。研究结果表明,两组在学习成果上的表现相近,未发现显著差异。然而,包含反思提示的播客在用户体验方面表现较差,参与者认为其吸引力较低。这一发现揭示了反思互动设计在教育技术中的潜在挑战,提示设计可能对用户的感知和参与度产生负面影响。研究进一步分析了反思提示的具体内容和呈现方式对用户体验的影响,指出过于机械化或不自然的提示可能削弱学习者的兴趣和投入感。作者呼吁未来在反思互动设计领域开展更多研究,探索如何优化提示的语言、时机和个性化程度,以平衡学习成果和用户体验之间的关系。此外,研究还讨论了AI生成内容在教育中的潜力与局限性,强调了技术与教学设计相结合的重要性。本研究为教育技术领域提供了有价值的见解,尤其是在如何利用AI工具促进反思性学习方面,为后续研究奠定了基础。
教育播客人工智能反思提示学习成果用户体验
基于AI驱动的虚拟仿真为医疗专业人员提供根本原因分析培训:概念验证
📝 作者: Yuqi Hu, Qiwen Xiong, Zhenzhen Qin, Brandon Watanabe, Yujing Wang, Mirjana Prpa, Ilmi Yoon
📄 中文摘要:
根本原因分析(RCA)是医疗领域调查不良事件、提升患者安全的重要工具。然而,当前的RCA培训项目往往受限于高资源需求,导致培训不足和实施不一致。为解决这一问题,本研究提出了一种基于人工智能的3D仿真游戏,旨在帮助医疗专业人员通过互动式、沉浸式仿真环境培养RCA技能。该方法提供了一种成本效益高、可扩展且易于获取的传统培训替代方案。原型系统模拟了ICU中一名患者死亡后的RCA调查场景,学习者通过与代表ICU团队成员的五个虚拟化身进行交互,调查事件并完成书面报告。系统利用大型语言模型(LLMs)、情感文本转语音技术以及AI驱动的动画技术,实现了与虚拟化身的自然、逼真互动。此外,系统还包含一个额外的LLM组件,为学习者提供形成性和总结性反馈,以支持持续改进。研究团队通过对系统的设计和功能进行了详细描述,并展示了其在医疗培训中的潜在应用价值。研究最后概述了未来对系统效能进行实证评估的计划,旨在验证其在提升RCA技能和患者安全方面的实际效果。本研究为医疗教育中的技术创新提供了新的视角,尤其是在资源有限的环境下,通过AI技术实现高质量培训的可能性。
根本原因分析人工智能虚拟仿真医疗培训患者安全
生成式人工智能在面向对象编程中的应用:编写正确代码与推理正确逻辑
📝 作者: Gang Xu, Airong Wang, Yushan Pan
📄 中文摘要:
本文探讨了生成式人工智能(AI),特别是大型语言模型(LLMs),在面向对象编程(OOP)中的潜在应用与影响。随着人工智能研究的迅猛发展,大型语言模型已被广泛应用于金融、常识知识图谱、医学和视觉分析等多个领域。然而,LLMs与OOP的交叉领域仍未被充分探索,当前对LLMs如何提升OOP学习和代码编写效果的理解有限,对相关AI工具的评估方法也尚不完善。本研究旨在填补这一空白,从OOP任务中涉及的关键利益相关者(程序员、新手和经验丰富的程序员)的视角出发,提出一个综合性愿景。研究识别了典型编码工作流程中的关键节点,指出在这些节点上集成LLMs能够带来显著益处。此外,本文还提出了增强现有逻辑推理和代码编写能力的方法,旨在通过AI技术改善编程体验。研究强调了将生成式AI与OOP结合的潜力,认为这种结合不仅能提升代码质量,还可能改变程序员解决复杂任务的方式。最终,本文为未来的研究和工具开发提供了方向,呼吁进一步探索LLMs在OOP中的应用场景及其对编程教育和实践的影响。
生成式人工智能面向对象编程大型语言模型代码编写逻辑推理
人工智能对话式导师在外语学习中的应用:一项混合方法评估研究
📝 作者: Nikolaos Avouris
📄 中文摘要:
本文研究了人工智能(AI)对话式导师在外语学习中的应用,这是近年来随着自然语言理解和实时处理技术显著进步而迅速发展的领域。AI导师旨在满足提升语言技能(如口语、交际能力和理解能力)的需求。本研究通过混合方法对多种最先进的AI语言学习导师工具进行了实证评估,重点关注其对话功能的用户体验以及基于聊天记录的质量评估。研究方法包括定量和定性分析,收集了用户对这些工具的反馈,并对聊天交互的质量进行了详细分析,以评估AI导师在语言学习中的有效性和局限性。研究结果显示,AI导师在提供个性化学习体验和实时反馈方面具有显著优势,但也存在技术限制和用户体验问题,如对话的自然度和上下文理解能力不足。此外,研究还探讨了数据隐私和学习者信息安全处理的相关问题,提出了对未来工具设计的建议。研究结论为评估此类系统的质量建立了标准,并为开发更高效、更安全的AI语言学习工具提供了指导方向。本文的研究不仅对外语学习领域的技术应用具有重要意义,也为AI在教育中的更广泛应用提供了参考。
人工智能导师外语学习对话功能用户体验数据隐私
术语‘代理’已被稀释至无用,需要重新定义
📝 作者: Brinnae Bent
📄 中文摘要:
本文讨论了人工智能领域中‘代理’(agent)一词的定义模糊问题及其对研究交流、系统评估与可重复性以及政策制定的挑战。随着人工智能能力的快速发展,尤其是大型语言模型系统的出现,这种模糊性进一步加剧,亟需对‘代理’一词进行重新定义。作者通过历史分析和当代使用模式,提出了一种框架,明确了系统被视为‘代理’的最低要求,并从环境交互、学习与适应、自主性、目标复杂性和时间一致性等多维度对系统进行特征化描述。这一方法既提供了精确的系统描述词汇,又保留了该术语历史上多方面的特性。文章还探讨了可能的反对意见和实施挑战,并为该领域的发展提出了具体建议,包括术语标准化和框架采纳的建议。作者认为,提出的方法为提高研究清晰度和可重复性提供了实用工具,同时也支持更有效的政策制定。通过重新定义‘代理’,本文旨在解决人工智能研究和应用中的沟通障碍,促进学术界和产业界的协作与发展。
代理人工智能术语定义系统评估政策制定
立场:注意差距——既定漏洞披露与人工智能安全之间日益扩大的脱节
📝 作者: Lukas Bieringer, Sean McGregor, Nicole Nichols, Kevin Paeth, Jochen St\"angler, Andreas Wespi,
📄 中文摘要:
随着人工智能(AI)系统面临越来越多的安全威胁,这些威胁在实践中被日益利用,共享AI事件报告实践作为行业最佳实践以及监管要求正在兴起。尽管非AI网络安全和非安全AI报告已作为行业和政策规范取得进展,但现有的实践集合无法满足AI安全报告的特定需求。本文作为立场论文,论证了由于AI系统独特的特性,简单调整现有流程以适应AI安全报告注定会失败。AI系统的某些缺陷可以立即解决,例如报告流程的标准化;而其他问题在技术上或社会系统中仍未解决,例如知识产权的处理或漏洞归属权的界定。基于对这些缺陷的解决方案建议,本文提出了一种AI安全报告的方法,并讨论了新的AI范式——AI代理,将如何进一步强化对专门AI安全事件报告进步的需求。作者指出,AI系统的复杂性和动态性要求报告机制不仅要记录已知漏洞,还要能够预测和应对未知威胁。此外,AI代理的自主性和学习能力可能导致新的安全挑战,例如自我演化的漏洞或不可预测的行为模式,这些都超出了传统网络安全报告框架的覆盖范围。本文强调,构建一个适应性强、包容性高且能够处理AI特有问题的报告体系至关重要,这不仅有助于行业内知识共享和技术进步,也对制定相关政策和法规具有指导意义。最终,作者呼吁学术界、行业和监管机构共同努力,开发创新的AI安全报告框架,以弥合当前漏洞披露与AI安全需求之间的差距。
人工智能安全漏洞披露事件报告AI代理网络安全
风格保持的游戏代理策略优化
📝 作者: Lingfeng Li, Yunlong Lu, Yongyi Wang, Wenxin Li
📄 中文摘要:
本研究聚焦于游戏代理(game agents)的开发,旨在提升游戏体验和重玩价值。优秀的游戏代理需要具备多样化的游戏风格,然而,基于强化学习(RL)的最新游戏AI研究主要集中于提升代理的熟练度,而基于进化算法的方法虽然能生成具有多样化风格的代理,但其性能往往不及强化学习方法。为解决这一问题,本文提出了一种混合近端策略优化(Mixed Proximal Policy Optimization, MPPO)方法,旨在提升现有次优代理的熟练度,同时保留其独特的游戏风格。MPPO通过统一在线和离线样本的损失目标,并引入隐式约束来调整样本的经验分布,从而近似示范者策略。实验结果表明,在不同规模的环境中,MPPO的熟练度水平与纯在线算法相当甚至更优,同时成功保留了示范者的游戏风格。这一方法为生成高熟练度和多样化的游戏代理提供了有效途径,有助于创造更具吸引力的游戏体验。研究背景显示,游戏AI的多样性和性能之间的平衡是一个关键挑战,而MPPO通过结合在线和离线学习的优势,成功地在性能提升和风格保持之间找到平衡点。关键发现包括MPPO在多个测试环境中的优越表现,以及其在风格保留方面的显著效果。总之,本文为游戏AI领域提供了一种创新解决方案,可能对未来的游戏设计和玩家互动产生积极影响。
游戏代理强化学习策略优化风格保持游戏AI