在本文中,我们介绍了Saullm-54B和Saullm-141b,这是针对法律部门量身定制的两个大型语言模型(LLMS)。这些模型分别具有540亿和1410亿个参数的架构基于混合体系结构。 Saullm-54B和Saullm-141b的开发受大规模领域适应的指导,分为三种策略:(1)涉及涉及基本语料库的持续预定率,其中包括超过5400亿的法律 Token ,(2)实施,(2)实施专门的法律指导遵循 ...
0 0 0 2025/02/15 arXiv:2407.19584v1 liuweitang
这篇综述论文探讨了多模态大型语言模型 (MLLM),它集成了 GPT-4 等大型语言模型 (LLM) 来处理文本和视觉等多模态数据。 MLLM 展示了生成图像叙述和回答基于图像的问题等功能,缩小了与现实世界人机交互的差距,并暗示了通用人工智能的潜在途径。然而,MLLM 在处理多模态语义鸿沟方面仍然面临挑战,这可能导致错误生成,给社会带来潜在风险 ...
0 0 0 2025/02/15 arXiv:2311.07594v3 wozengyi
人类通过模仿和社交互动来学习社交技能。现有的构建语言代理的研究很大程度上没有充分研究这种社会学习过程。受这一差距的启发,我们提出了一种交互式学习方法 SOTOPIA-$\pi$,以提高语言代理的社交智能 ...
0 0 0 2025/02/15 arXiv:2403.08715v3 15370090936
培训模型可以充当可以有效地在复杂环境中(例如Web浏览器)中导航和执行操作的代理商,通常由于缺乏培训数据而具有挑战性。大型语言模型(LLMS)最近证明了以零镜头或少数拍摄方式导航新颖环境的能力,纯粹由自然语言指导作为提示引导。最近的研究还表明,LLM具有通过自我完善的能力超过其基本绩效 ...
0 0 0 2025/02/15 arXiv:2405.20309v2 18636279200
现有的Internet规模图像和视频数据集涵盖了各种各样的日常对象和任务,从而带来了学习政策的潜力,这些策略在不同的情况下进行了推广。先前的作品通过不同的自我监督目标探索了视觉预训练。尽管如此,从先前的研究中仍不清楚学习策略的概括能力和比调整良好基线的优势尚不清楚 ...
0 0 0 2025/02/15 arXiv:2307.03567v2 Jacky777
图形神经网络(GNN)已成为欺诈检测,识别欺诈用户并发现恶意行为的有效工具。但是,对基于GNN的欺诈探测器及其风险的攻击很少受到研究,从而使潜在的威胁未受解决。最近的发现表明,欺诈行为越来越有组织成帮派或团体 ...
0 0 0 2025/02/15 arXiv:2412.18370v2 xixiaixixi
我们为机器人技术提供了一种自我监督的感觉运动预训练方法。我们的模型称为RPT,是一种在感觉运动 Token 序列上运行的 Transformer 。给定一系列相机图像,本体感受的机器人状态和动作,我们将序列编码为 Token ,掩盖子集并训练模型以预测其余内容中缺少的内容 ...
0 0 0 2025/02/15 arXiv:2306.10007v2 Jacky777
大型语言模型已经证明了他们在故事情节创建和类似人类角色角色扮演的能力。当前的语言模型代理主要关注个人水平的合理行为,其行为可能很难限制整个故事情节的水平。在本文中,我们介绍了易卜生(Ibsen),这是一个导演坐标辅助框架,生成戏剧脚本,并使代理商更具可控性的剧情 ...
0 0 0 2025/02/15 arXiv:2407.01093v1 15370090936

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)