如今,DeepSeek,Chatgpt和Google Gemini是推理,多模式能力和全球一般语言性能的最流行和令人兴奋的大型语言模型(LLM)技术。 DeepSeek采用了专家的混合物(MOE)方法,仅激活与手头任务最相关的参数,这使其对特定于域的工作特别有效。另一方面,Chatgpt依赖于通过从人类反馈(RLHF)学习增强的密集 Transformer 模型,然后Google Gemini实际 ...
0 0 0 2025/05/27 arXiv:2503.04783v1 garming
现代工业应用要求机器人能够在不可预测的环境中运行,并且可以用最少的努力创建程序,因为任务可能经常发生更改。在本文中,我们表明,遗传编程可有效地用于学习行为树(BT)的结构,以在无法预测的环境中解决机器人任务。此外,我们建议使用一个简单的模拟器进行学习,并证明学习的BT可以在现实的模拟器中解决相同的任务,而无需特定任务的启发式方法即可达到融合 ...
0 0 0 2025/05/27 arXiv:2011.03252v1 mencius
Evolutionary机器人允许具有有限传感器和处理的机器人通过感觉运动协调来解决复杂的任务。在本文中,我们使用Evolutionary Robotics方法论将行为树框架的首次应用于真正的机器人平台。与传统的神经网络公式相比,该框架用于提高新兴机器人行为的清晰度 ...
0 0 0 2025/05/27 arXiv:1411.7267v2 mencius
我们引入 \model,一个文本到图像的框架,可以有效生成高达 4096$\times$4096 分辨率的图像。 \model 可以以极快的速度合成具有强大文本图像对齐功能的高分辨率、高质量图像,可部署在笔记本电脑 GPU 上。核心设计包括:(1)深度压缩自动编码器:与传统AE仅压缩图像8$\times$不同,我们训练了一个可以将图像压缩32$\times$的AE,有效减少了潜在标记的数量 ...
0 0 0 2025/05/27 arXiv:2410.10629v3 smallz
指令调优通过设计文本指令来指导多模态大语言模型(MLLM)调整不同模态,这似乎是增强基础模型能力和可控性的一项重要技术。在此框架中,采用多模态连续指令调优(MCIT)来持续指示 MLLM 在顺序数据集中遵循人类意图。我们观察到现有的梯度更新将严重破坏先前数据集的调整性能以及连续指令调整期间的零样本能力 ...
0 0 0 2025/05/27 arXiv:2410.10868v4 LanW
基于LLM的(大型语言模型)GUI(图形用户界面)代理可能会大大重塑我们的日常生活。但是,由于轨迹收集和奖励注释的困难,目前基于LLM的GUI代理遭受了高质量培训数据的稀缺。现有的作品一直在探索LLM,以收集模仿学习或为在线RL培训提供奖励信号的轨迹 ...
0 1 0 2025/05/27 arXiv:2505.18121v1 dqyzhwk
域概括(DG)旨在帮助对一组源域进行训练的模型,以更好地推广到看不见的目标域。当前的DG方法的性能在很大程度上取决于足够的标记数据,但是这些数据通常是昂贵或不可用的。由于未标记的数据更容易访问,因此我们试图探索无监督的学习如何帮助深层模型在跨域中推广 ...
0 0 0 2025/05/27 arXiv:2107.06219v2 15966829631
有限的对称组$ s_n $在组合,物理和化学等领域至关重要。但是,学习$ s_n $的概率分布构成了巨大的挑战,因为它的大小和离散的性质。在本文中,我们介绍了SymmetricDiffuser,这是一个新颖的离散扩散模型,通过将其分解为使用深层神经网络的更简单的反向扩散过渡,简化了对$ s_n $的复杂分布的任务 ...
0 0 0 2025/05/27 arXiv:2410.02942v2 smallz

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)