开发通才基础模型最近引起了医学人工智能(AI4Medicine)领域研究人员的极大关注。开发这些模型的一个关键见解是它们对数据集缩放的依赖,这强调了开发开源医学图像数据集的要求,这些数据集包含跨各种成像模式的不同监督信号。在本文中,我们介绍了 RadGenome-Chest CT,这是一个基于 CT-RATE 的综合性、大规模、区域引导的 3D 胸部 CT 判读数据集 ...
0 0 0 2024/10/16 arXiv:2404.16754v1 ko440124
旋转位置嵌入 (RoPE) 在语言模型上表现出色,特别是对于 Transformer 的长度外推。然而,尽管 RoPE 似乎能够以类似于语言领域的方式增强视觉变换器 (ViT) 性能,但 RoPE 对计算机视觉领域的影响尚未得到充分探索。本研究利用 RoPE 的 2D 视觉数据实际实现,对应用于 ViT 的 RoPE 进行了全面分析 ...
0 0 1 2024/10/16 arXiv:2403.13298v2 xdykj
确保大型语言模型 (LLM) 的安全至关重要,但识别潜在漏洞却具有挑战性。虽然手动红队是有效的,但它非常耗时、成本高昂并且缺乏可扩展性。自动红队 (ART) 提供了一种更具成本效益的替代方案,可自动生成对抗性提示以暴露 LLM 漏洞 ...
0 0 0 2024/10/15 arXiv:2407.03876v2 yt
我们引入 \model,一个文本到图像的框架,可以有效生成高达 4096$\times$4096 分辨率的图像。 \model 可以以极快的速度合成具有强大文本图像对齐功能的高分辨率、高质量图像,可部署在笔记本电脑 GPU 上。核心设计包括:(1)深度压缩自动编码器:与传统AE仅压缩图像8$\times$不同,我们训练了一个可以将图像压缩32$\times$的AE,有效减少了潜在标记的数量 ...
0 0 0 2024/10/15 arXiv:2410.10629v1 tunan
最近的研究重点是利用大型基础模型 (LFM) 生成的输出,通过模仿学习来增强较小模型的能力。许多问题都会影响这些模型的质量,包括来自浅层 LFM 输出的有限模拟信号;小规模同质训练数据;最值得注意的是,缺乏严格的评估,导致高估了小模型的能力,因为它们倾向于学习模仿 LFM 的风格,而不是推理过程。为了应对这些挑战,我们开发了 Orca(我们正在与我们的法律团队合作,根据 LLaMA 的发布政策公开 ...
0 0 0 2024/10/15 arXiv:2306.02707v1 hellogdc
对大型语言模型 (LLM) 的提示已经超越了简单的用户问题。对于解决复杂问题的 LLM 来说,当今的做法是包括特定领域的说明、工具用法说明和/或长上下文,例如提示中的教科书章节。因此,提示的许多部分在请求之间是重复的 ...
0 0 0 2024/10/15 arXiv:2407.00023v2 hellogdc
这项工作引入了 LAB(聊天机器人大规模对齐),这是一种新颖的方法,旨在克服大型语言模型 (LLM) 训练指令调整阶段的可扩展性挑战。利用分类学引导的合成数据生成过程和多阶段调整框架,LAB 显着减少了对昂贵的人工注释和 GPT-4 等专有模型的依赖。我们证明,与使用传统人工注释或 GPT-4 生成的合成数据训练的模型相比,LAB 训练的模型可以在多个基准测试中实现具有竞争力的性能 ...
0 0 0 2024/10/15 arXiv:2403.01081v3 terry.yide

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)