科学发现的自动化一直是研究界的长期目标,这是在加速知识创造的潜力的推动下。尽管使用商业大型语言模型(LLM)作为研究助理或想法生成器取得了重大进展,但使用开源LLMS自动化整个研究过程的可能性仍然很大程度上尚未开发。本文探讨了使用开源后培训后的LLM作为能够执行自动研究和审查的整个周期的自主剂,从文献审查和手稿准备到同行评审和纸质细化 ...
0 0 0 2025/07/16 arXiv:2411.00816v3 ly123456
将自然语言转换为SQL查询(NL2SQL)对于数据驱动的业务应用程序至关重要。现有的框架在开源数据集中受过培训,与复杂的业务逻辑挣扎,并且缺乏针对域特异性数据进行微调。此外,评估方法通常需要带注释的数据和可执行数据库环境,这些数据在现实世界中很少 ...
0 0 0 2025/07/16 arXiv:2507.10629v1 18916369915
股票趋势预测的目标是预测未来的市场变动,以了解明智的投资决策。现有方法主要集中于通过接受大量注释数据训练的有监督模型来预测股票趋势。但是,人类注释可能是资源密集的,并且注释数据不容易获得 ...
0 0 0 2025/07/16 arXiv:2407.09003v1 yang1young
大型语言模型(LLM)彻底改变了自然语言处理,并扩大了其在各种商业应用中的适用性。但是,这些模型的部署受多语言设置中的高推理时间的限制。为了缓解这一挑战,本文探讨了投机解码助理模型的培训配方,该模型被利用来起草,然后由Target LLM验证其未来 Token  ...
0 0 0 2025/07/16 arXiv:2406.16758v2 Willow
事实证明,具有下一个标记预测的语言模型预训练对于扩展计算是有效的,但仅限于可用训练数据的数量。扩展强化学习 (RL) 为人工智能的持续改进打开了一个新轴,大型语言模型 (LLM) 有望通过学习探索奖励来扩展其训练数据。然而,之前发表的工作并未产生有竞争力的结果 ...
0 0 3 2025/07/16 arXiv:2501.12599v4 wtyang
自回归建模在自然语言处理(NLP)领域取得了巨大成功。最近,自回归模型已成为计算机视觉领域的一个重要关注领域,它们擅长生成高质量的视觉内容。 NLP 中的自回归模型通常对子词标记进行操作 ...
0 0 0 2025/07/16 arXiv:2411.05902v2 13718039169
接受强化学习培训的语言模型可以从事奖励黑客奖励 - 对高奖励的意外策略的剥削 - 没有在他们的经过想法的推理中揭示这种行为。这使得难以发现奖励黑客,这为高风险应用带来了风险。我们提出了语言微调(VFT),这是一种预先进行的微调干预措施,该干预措施训练模型,以明确承认它们受到及时提示的影响 - 所示 - 所示,这表明答案不正确(e ...
0 0 0 2025/07/16 arXiv:2506.22777v2 earl
无监督的异常检测(UAD)试图将输入图像的异常面膜定位在正常样品中。通过重建正常的对应物(基于重建),或通过学习图像特征嵌入空间(基于嵌入的),现有方法从根本上依赖于图像级或特征级匹配来得出异常得分。通常,这种匹配过程不准确而被忽略,导致了亚最佳检测 ...
0 0 0 2025/07/16 arXiv:2505.01476v2 lzx

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)