联合学习是培训机器学习模型的一种有前途的方法,同时保留了数据隐私,但其分布性质使其容易受到后门攻击的影响,尤其是在NLP任务中,而相关研究仍然有限。本文介绍了SDBA,这是一种新型的后门攻击机制,专为FL环境中的NLP任务而设计。我们跨LSTM和GPT-2模型的系统分析确定了后门注入最脆弱的层,并通过层梯度遮罩和这些层中的Top-k%梯度掩盖来实现隐形和持久耐用性 ...
矩阵完成旨在使用低复杂性结构(例如,低级)的假设来估计数据矩阵中的缺失条目,以便可以进行插补 ...
对于大型语言模型(LLM)进行复杂推理的一个关键挑战是,它们依赖培训数据中的推理模式,而不是主动选择最合适的认知策略来解决给定的任务。现有方法施加了固定的认知结构,可提高特定任务的性能,但在各种情况下缺乏适应性。为了解决此限制,我们介绍了Metascale,这是一个基于元思考的测试时间扩展框架 - 适用于每个任务的自适应思维策略 ...
事实证明,大型语言模型(LLMS)是其本领域以外的各个领域的有用工具,即自然语言处理。在这项研究中,我们提供了有关如何使用LLM来生成2D游戏房间的实用方向,以用于发达游戏,名为Metavoidal。我们的技术可以通过人类在循环微调来利用GPT-3的功能,这使我们的方法可以在非平凡游戏的情况下,从只有60个手工设计的房间来创建37%的可玩新颖水平,相对于(程序内容生成)PCG,它具有良好的局部和全 ...
神经文本排名模型已经见证了显着的进步,并越来越多地在实践中部署。不幸的是,它们还继承了一般神经模型的对抗性脆弱性,这些神经模型已被检测到,但仍未被先前的研究所遭到反抗。此外,Blackhat SEO可能会利用继承的对抗脆弱性来击败受保护的搜索引擎 ...
我们表明,可以将生成英文Wikipedia文章作为源文档的多文件摘要来访问。我们使用提取性摘要来确定显着信息和神经抽象模型来生成文章。对于抽象模型,我们引入了一个仅解码器的体系结构,该体系结构可以可伸缩到很长的序列,比序列转导中使用的典型编码架构长得多 ...
研究集中在多模式语义分割(MMS)上,其中像素方面的预测来自不同传感器捕获的多种视觉方式。最近,大型视觉模型,即“任何模型2”(SAM2),在图像和视频上都显示出强烈的零弹性分割性能。将SAM2扩展到MMS时,会出现两个问题:1 ...
基于及时的学习范式弥合了预训练和微调之间的差距,并在几次射击设置下有效地工作。但是,我们发现这种学习范式从训练阶段继承了漏洞,在该阶段可以通过将某些触发器插入文本中误导模型预测。在本文中,我们通过注射后门触发器或仅使用纯文本在预训练的语言模型上搜索对抗性触发器来探讨这种通用漏洞 ...