这项由华盛顿大学和微软联合开发的OMNIGUARD研究,提出了一种高效的AI安全检测方法,能够跨越语言和模态(文本、图像、音频)识别有害内容。该方法通过发现大型语言模型内部的通用表示,构建轻量级分类器,比现有方法…详细
这篇研究论文介绍了ReasonGen-R1,一个由微软与上海科技大学合作开发的创新框架,首次将链式思考(CoT)与强化学习(RL)应用到自回归图像生成模型中。研究通过两阶段方法实现:先用监督微调(SFT)教会模型生成推理文本,…详细
Nvidia 正在全球数据中心推广 AI 芯片,其最新 Blackwell 架构在 MLPerf 基准测试中获得最高性能,大幅加速下一代 AI 应用的训练与部署。…详细
HP新款ZBook Ultra G1a搭载AMD最新Ryzen AI Max+ PRO 395处理器,实现轻薄机身与高性能AI加速和创作需求的完美结合,为专业用户提供全新移动办公体验。…详细
在伦敦SXSW大会上,Klarna首席执行官西米亚特科夫斯基表示,公司在利用AI自动处理繁琐任务以降低成本、提升效率的同时,仍将为VIP客户保留专属人工服务。他透露,公司正通过技术与业务整合、数据集中管理及防范金融科…详细
Hugging Face 推出轻量机器人模型 SmolVLA,基于共享数据训练,支持异步推理,能在低成本硬件上运行,加速通用机器人研发。…详细
新一代 Smart-1 管理设备提高了效率,将管理网关和人工智能工具的自动化、策略洞察力和协调能力提高了 2 倍。…详细
这项研究针对现代文档检索系统中的关键缺陷:独立处理文档片段导致丢失上下文信息。研究团队开发了ConTEB基准测试来评估模型利用文档级上下文的能力,并提出了InSeNT方法,结合后期分块和创新的对比学习策略。实验表…详细
这项由布朗大学和Cohere实验室研究者联合进行的研究全面分析了大型语言模型(LLM)安全研究中的语言不平等现象。通过系统回顾近300篇2020-2024年间的安全相关论文,研究发现LLM安全研究严重偏向英语,即使中文这样的高…详细
这项研究提出了ChARM,一种创新的角色扮演AI奖励建模框架,通过行为自适应边界和自我进化策略大幅提升AI角色的真实性和一致性。研究团队创建了包含1,108个角色的RoleplayPref数据集,实验表明ChARM比传统模型提高了1…详细
这篇研究重新审视了循环神经网络中的双线性状态转换机制,挑战了传统观点。高通AI研究团队证明,隐藏单元不仅是被动记忆存储,更是网络计算的积极参与者。研究建立了一个从实数对角线到完全双线性的模型层级,对应不…详细
这项研究探讨了多模态大语言模型在增强推理能力时出现的视觉幻觉问题。研究发现,模型生成更长推理链时,对视觉信息的关注减少,导致幻觉增加。研究者提出RH-AUC指标和RH-Bench基准来评估模型在推理与幻觉间的平衡,…详细
这篇研究探讨了大语言模型在自动推理任务中的不确定性问题。研究者提出,模型生成形式规范时的概率不确定性不是缺陷,而是宝贵的信号源。通过引入概率上下文无关文法框架分析SMT-LIB程序分布,他们发现不确定性信号具…详细
来自沙特阿拉伯王子苏丹大学和阿尔法萨尔大学的研究团队开发了GATE(General Arabic Text Embedding)模型,这是一套专为阿拉伯语设计的文本嵌入系统。该研究结合了套娃表示学习和混合损失训练方法,解决了阿拉伯语特…详细
这篇来自ServiceNow的研究探讨了在生成低代码工作流时,微调小型语言模型(SLM)与提示大型语言模型(LLM)的效果对比。研究团队发现,尽管GPT-4o等大模型通过精心设计的提示可以产生合理结果,但在这类需要结构化输出的…详细
哈尔滨工业大学和鹏城实验室的研究团队开发了一种评估多模态大语言模型模态偏好的新方法,并证实这些模型在处理图像和文本信息冲突时确实存在偏好现象。研究者通过构建MC?基准测试,发现模型偏好受多种因素影响,并能…详细
韩国科学技术院研究团队提出"分叉-合并解码"方法,无需额外训练即可改善音视频大语言模型的多模态理解能力。通过先独立处理音频和视频(分叉阶段),再融合结果(合并阶段),该方法有效缓解了模型过度依赖单一模态的…详细
如果您非常迫切的想了解IT领域最新产品与技术信息,那么订阅至顶网技术邮件将是您的最佳途径之一。