大型语言模型(LLMS)通常在可视化任务中遇到的努力,例如绘制图,图表,成功取决于代码正确性和视觉语义。现有的指令调查数据集缺乏执行的监督,并为迭代代码校正提供了有限的支持,从而导致脆弱且不可靠的情节生成。我们提出了Viscode-200k,这是一种用于基于Python的可视化和自我纠正的大规模指令调整数据集 ...
0 0 0 2025/07/08 arXiv:2506.03930v1 15966829631
作为信息提取(IE)的重要任务,事件事件因果关系提取(ECRE)旨在识别和分类自然语言文本中事件提及之间的因果关系。但是,现有对ECRE的研究强调了两个关键挑战,包括缺乏文档级建模和因果幻觉。在本文中,我们提出了一种知识引导的二进制问题回答(KNOWQA)方法,其中包括ECRE的事件结构,由两个阶段组成:事件结构构建和二进制问题回答 ...
0 0 0 2025/07/08 arXiv:2410.04752v1 xuexizhanghao
与许多领域(例如医疗保健,公共政策或经济学),估计个人对干预措施的潜在反应具有很高的实际相关性。在这种情况下,通常可以同时采用干预措施的组合,例如,医疗保健或经济学的不同财政和货币措施中的多个处方。但是,现有的反事实推断方法仅限于不同时使用操作的设置 ...
0 0 0 2025/07/08 arXiv:2103.11175v1 zhr
我们介绍了Banc,这是一种神经双耳音频编解码器,旨在在单一和两扬声器场景中有效的语音压缩,同时保留每个说话者的空间位置信息。我们的关键贡献如下:1)我们提出的模型压缩和解码演讲重叠的能力。 2)一种新颖的结构,可分别压缩语音内容和空间提示,确保解码后每个说话者的空间环境保存 ...
0 1 0 2025/07/08 arXiv:2309.07416v4 wenwen
我们引入了一种新的基于神经网络的持续学习算法,被称为不确定性调节的持续学习(UCL),该算法基于传统的贝叶斯在线学习框架,并具有变异推理。我们专注于最近提出的基于正规化的方法的两个重要缺点:a)确定每次重量正规化强度的额外记忆成本,b)缺乏优雅忘记的方案,这可以防止在学习新任务中的绩效退化。在本文中,我们表明UCL可以通过对高斯平均场近似值的变异下限的Kullback-Leibler(KL)发散项 ...
0 0 0 2025/07/08 arXiv:1905.11614v3 19396386025
我们介绍了克罗内克(Kronecker)的在线拉普拉斯(Laplace)近似,以克服神经网络中的灾难性遗忘。该方法基于贝叶斯在线学习框架,在该框架中,我们在每项任务后都会递归地将后部近似于高斯,从而导致重量变化的二次惩罚。拉普拉斯的近似需要在一种模式周围计算黑森州,这通常在现代体系结构上很棘手 ...
0 0 0 2025/07/08 arXiv:1805.07810v1 19396386025
灾难性遗忘是神经网络的一个问题,它在训练第二任任务后失去了第一个任务的信息。在这里,我们提出了一种方法,即 ...
0 0 0 2025/07/08 arXiv:1703.08475v3 19396386025
空间引用是体现机器人与3D物理世界相互作用的基本能力。但是,即使有了强大的审慎视觉语言模型(VLM),最近的方法仍然没有资格准确地了解复杂的3D场景,并动态地了解指令指示的互动位置。为此,我们提出了Roborefer,Roborefer是一种3D感知的VLM,可以通过监督的微调(SFT)整合散布但专用的深度编码器,首先可以实现精确的空间理解 ...
0 0 0 2025/07/08 arXiv:2506.04308v1 李德栋

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)