大型语言模型(LLMS)在各种任务上表现出了出色的性能,但是它们从特定于领域的数据集中提取和内部化更深入见解的能力仍然没有得到充实的态度。在这项研究中,我们研究了持续的预训练如何增强LLMS跨三种不同形式的洞察力学习能力:声明性,统计和概率见解。专注于两个关键领域:医学和金融,我们雇用Lora在两个现有数据集上培训LLM ...
0 0 0 2025/05/23 arXiv:2501.17840v1 smpublic
随着人工智能的进步,Experts(MOE)的组合已成为大型语言模型(LLM)的主要形式,其对模型压缩的需求正在增加。量化是一种有效的方法,不仅可以压缩模型,而且可以显着加速其性能。现有的量化方法已逐渐将重点从参数缩放转移到数据分布的分析 ...
0 0 0 2025/05/23 arXiv:2503.21135v2 jingxi
随着在智能系统中广泛使用深层神经网络(DNN),极大地要求具有高性能和能源效率的DNN加速器。作为可行的内存处理(PIM)体系结构之一,基于3D堆叠的DRAM PIM(DRAM-PIM)体系结构可实现大容量的存储器和低成本内存访问,这是DNN加速器的有希望的解决方案,具有更好的性能和能量效率。但是,堆叠DRAM的低成本特征以及存储器访问和数据存储的分布方式需要我们重新平衡硬件设计和DNN映射 .. ...
0 0 0 2025/05/23 arXiv:2305.19041v1 wangjun
场景中无缝移动对象是图像编辑的常见要求,但对于现有编辑方法来说,这仍然是一个挑战。特别是对于现实世界的图像,闭塞情况进一步增加了困难。主要困难是需要在移动进行之前完成遮挡部分 ...
0 0 0 2025/05/23 arXiv:2504.01873v1 heuwangchao
专家(MOE)模型的混合物由于其较大的参数计数和计算需求而面临部署挑战。我们探讨了MOE模型的量化,并突出显示了两个关键见解:1)线性块表现出不同的量化灵敏度,而2)不同的专家激活频率会产生异质的计算特征。基于这些观察结果,我们介绍了MXMOE,这是MOE模型的混合精液优化框架,它考虑了算法和系统观点 ...
0 0 0 2025/05/23 arXiv:2505.05799v1 ykkk
无监督的域适应性(UDA)旨在将所学的知识从标记的源域转移到未标记的目标域。先前的工作主要建立在卷积神经网络(CNN)上,以学习域名的表示。随着将视觉 Transformer (VIT)应用于视觉任务的最新指数增加,在文献中,VIT在适应跨域知识方面的能力仍未探索 ...
0 0 0 2025/05/23 arXiv:2108.05988v2 15966829631
图形用户界面(GUI)代理在理解和执行不同平台的用户指令方面取得了长足的进步。然而,将这些说明扎根于精确的界面元素仍然具有挑战性,尤其是在复杂,高分辨率,专业环境中。传统的监督芬特(SFT)方法通常需要大量不同的数据,并且表现出较弱的概括 ...
0 0 0 2025/05/23 arXiv:2505.12370v1 momoom
最近,基于强化学习(RL)的调整改变了多模式大语言模型(MLLM)的轨迹,尤其是在引入小组相对策略优化(GRPO)之后。但是,将其直接应用于医疗任务仍然具有挑战性,即实现临床基础模型行为。由于需要将模型响应与临床期望保持一致的动机,我们研究了四个关键维度,这些临界维度影响了基于RL的调谐在医学视觉问题答案中的有效性(VQA):基本模型初始化策略,医学语义一致性的作用,基于长度的奖励对长链推理的影响 ...
0 0 0 2025/05/23 arXiv:2505.13973v1 momoom

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)