这项研究揭示了熵最小化作为单独目标可显著提升大型语言模型在数学、物理和编程任务上的推理能力,无需任何标记数据。伊利诺伊大学厄巴纳-香槟分校的研究团队提出三种方法:无监督微调(EM-FT)、基于熵奖励的强化学习…详细
大联大成功跻身英国品牌评估机构Brand Finance 5月9日发布的“2025中国品牌价值500强”榜单并位列第218位。…详细
2025年5月19日,新加坡国立大学研究团队发表最新研究Thinkless,就像是给"内耗"的AI朋友配了一个心理咨询师,教会它什么时候该深度思考,什么时候可以快速回答。…详细
这篇文章介绍了马里兰大学研究团队开发的BLEUBERI方法,该方法惊人地发现被认为过于简单的BLEU评分系统在指导大语言模型遵循指令方面非常有效。研究表明,当使用高质量参考答案时,BLEU与人类偏好的一致率可达74.2%,…详细
VerifyBench是首个专门评估大语言模型基于参考的奖励系统的基准测试,填补了现有奖励评估基准的关键空白。由浙江大学、美团等机构联合开发,包含VerifyBench和更具挑战性的VerifyBench-Hard两个数据集。研究发现虽然…详细
BANDITSPEC是一项创新研究,将多臂赌博机算法应用于大型语言模型的推测解码过程,实现了无需训练的自适应超参数选择。研究团队通过理论分析和实验证明,该方法能在各种基准测试中显著提升模型推理速度,比现有方法快…详细
这篇博客解析了Datadog公司开发的TOTO模型,一款拥有1.51亿参数的时间序列预测基础模型,专为可观测性数据设计。研究团队同时推出了BOOM基准数据集,包含3.5亿个观测值和2,807个真实时间序列。TOTO创新性地结合了因果…详细
这项由Mohamed bin Zayed人工智能大学研究团队主导的研究首次建立了针对大型音频语言模型的安全性测试基准。研究发现,当前主流音频语言模型在面对特定音频扰动时,即使是微小的声学变化也能显著降低其安全防护能力,…详细
WebNovelBench研究为评估AI的长篇故事创作能力提供了突破性方法,利用4000多部中国网络小说建立基准,将AI小说家与人类作品进行直接比较。研究者设计了"摘要转小说"任务,通过八个叙事维度进行评估,发现顶级AI模型如…详细
这项研究提出了MultiHal,一个基于知识图谱的多语言数据集,用于评估大型语言模型的幻觉问题。研究团队从开放域知识图谱中挖掘了14万条路径,筛选出2.59万条高质量数据,并翻译成5种语言。基线实验表明,使用知识图谱…详细
HumaniBench是由Vector研究院和中佛罗里达大学联合开发的首个以人为中心的大型多模态模型评测框架,包含约3.2万对真实世界图像-问题对。与传统仅关注准确率的评测不同,它从公平性、伦理性、理解能力、推理能力、语言…详细
这篇论文介绍了美团研究团队开发的"自适应自恢复推理"(ASRR)框架,解决了大型推理模型在简单问题上过度思考的效率问题。研究发现模型具有"内部自恢复机制",能在生成答案时隐式补充推理。ASRR通过无思考模式抑制不…详细
马里兰大学和耶鲁大学研究团队提出"混合思维"(Mixture-of-Thought)框架,使大语言模型能够像人类一样通过自然语言、代码和真值表三种互补思维方式进行逻辑推理。这种创新方法在FOLIO和ProofWriter基准测试上比单一思…详细
麻省理工学院与IBM研究团队共同开发的TANGO框架通过强化学习同时训练大语言模型的生成器和验证器,实现双向互促进的能力提升。不同于传统方法使用固定验证器,TANGO的验证器随生成器共同演进,提供精确的步骤级反馈。…详细
这项研究探索了预提示工程(pPE)在强化微调(RFT)中的作用,证明不同类型的预提示可以引导语言模型习得不同行为模式。研究者将五种推理时提示策略转化为训练时预提示,发现所有pPE训练的模型都优于仅用推理时提示的…详细
这项研究首次提出了一个统一的量化感知训练(QAT)缩放定律,通过268组实验揭示了模型大小、训练数据量和量化粒度对4位量化误差的影响规律。研究发现量化误差随模型增大而减少,随训练数据增加和量化粒度变粗而增加。通…详细
上海交通大学与GAIR实验室研究团队开发了PC Agent-E,一种高效的计算机操作AI代理训练框架。通过仅使用312个人类操作轨迹并利用Claude 3.7 Sonnet进行数据增强,该模型在WindowsAgentArena-V2基准测试上取得了36.0%的…详细
这项研究比较了扩散与自回归语言模型在文本嵌入领域的表现差异。研究团队提出,自回归语言模型由于单向注意力机制而难以捕捉全局语境,而扩散语言模型的双向注意力架构天然更适合文本嵌入任务。他们开发的DIFFEMBED模…详细
如果您非常迫切的想了解IT领域最新产品与技术信息,那么订阅至顶网技术邮件将是您的最佳途径之一。