科技行者

行者学院 转型私董会 科技行者专题报道 网红大战科技行者

知识库

知识库 安全导航

至顶网商业办公商业办公 相关文章
2025-06-03 15:16:14
UniTEX:打破传统纹理生成限制,HKUST和Light Illusion团队带来高保真3D纹理生成新方法

UniTEX是香港科技大学与Light Illusion团队联合开发的创新3D纹理生成框架,彻底突破了传统UV映射的限制。该技术引入了"纹理函数"概念,将纹理定义为3D空间中的连续函数,完全绕过了拓扑歧义问题。配合精心设计的大型…详细

3D纹理生成扩散Transformer纹理函数

2025-06-03 15:15:55
仅需单一数据即可超越强化学习:Ubiquant研究团队揭示的单样本熵最小化训练法突破

研究人员训练了13,440个大型语言模型,发现熵最小化方法仅需一个未标记数据和10步优化,就能实现比传统强化学习更好的性能提升。这种"单样本熵最小化"完全无监督,基于两个简单假设:语言模型生成过程本质上是随机的…详细

大型语言模型熵最小化强化学习

2025-06-03 15:15:07
图视角解密大模型知识结构:俄勒冈大学研究揭示大语言模型如何组织和存储知识

这项研究首次从图论视角探索大语言模型的知识结构模式,揭示了模型知识的三峰分布特性、节点度数与知识水平的正相关关系,以及知识同质性现象——拓扑位置相近的实体往往具有相似的知识水平。基于这些发现,研究团队…详细

人工智能图神经网络知识结构

2025-06-03 15:11:44
互联网女皇玛丽·米克尔刚发布了一份340页的《人工智能趋势报告》,这里总结了10个核心观点

大模型时代,玛丽·米克尔(Mary Meeker)的名字可能大家不一定熟悉,但是在互联网时代,这位被可被誉为“互联网女皇”的。她是美国风险投资家和前华尔街证券分析师,专注于互联网及新兴技术领域。玛丽·米克尔(Mar…详细

人工智能AI趋势数据中心算力

2025-06-03 15:03:18
吴恩达LangChain对话:别纠结Agent定义,成功的智能体往往从线性工作流开始,Vibe Coding这个概念充满误导

毫无疑问,Agent,也就是智能体已经预定了今年的最火AI关键词。不知道明年会不会是AGI呢,既然OpenAI和Anthropic的预测都是在2027年左右。而在Agent领域,非常有发言权的一位就是吴恩达。LangChain前不久的开发者活动…详细

LangChainAgent智能体通用AGI

2025-06-03 15:00:19
是否应该为 Google 的 Veo 3 支付 Gemini Ultra 费用来制作 AI 视频?我的体验告诉你答案

本文评测了 Google 最新 AI 视频生成工具 Veo 3,从音频生成、功能局限、等待时长及费用限制等方面展示其优劣,适合 AI 爱好者体验,但专业创作者可能会感到不便。…详细

人工智能AI视频创新应用

2025-06-03 14:49:40
KO 满血版DeepSeek?AM-Thinking-V1,32B干翻一众千亿级大模型

在千亿模型满天飞,MOE架构正流行的当下,一个在AI领域名不见经传的企业,贝壳找房,发布了一款32B的稠密模型,AM-Thinking- V1。在包括AIME在内的多项AI基准测试中,这款中等参数模型碾压了满血版671B DeepSeek-R1,…详细

AM-Thinking-V1大模型AI基准

2025-06-03 14:42:53
字节Seed团队绝地翻盘,发现多模态模型也有涌现时刻,开源BAGEL模型

北京时间5月21日,百度发布2025年第一季度财报,这场会议不仅仅是一次常规的财务数据披露,更像是百度在AI时代战略布局的全景展示,李彦宏在开场发言中,将2025年第一季度形容为一个“稳健的开局”。…详细

字节跳动大模型多模态

2025-06-03 14:28:07
G7宝宝看护器亮相中国联通数村大会,开启乡村科学育儿新实践

5月29日至30日,以“数字慧农,智慧兴村”为主题的中国联通2025年助力乡村振兴推进会在重庆召开。在留守儿童占比超40%的农村地区,中国联通带来了一款育儿黑科技产品——G7宝宝看护器(以下简称G7)。它不仅仅是一个…详细

2025-06-03 13:45:40
大模型能否欺骗CLIP?通过文本更新测试预训练多模态表示的对抗组合能力

首尔国立大学研究团队提出了"多模态对抗组合性"(MAC)基准测试,评估预训练多模态表示(如CLIP)在理解文本与图像、视频、音频关系时的组合性弱点。研究使用大语言模型生成欺骗性文本,通过样本成功率和多样性双重指标进…详细

人工智能多模态表示组合性理解

2025-06-03 13:37:41
SridBench:首个科研插图绘制基准测试揭示AI绘图能力差距

SridBench是首个评估人工智能模型科研插图绘制能力的基准测试,由中国科学技术大学等机构研究团队创建。该测试包含1,120个来自自然科学和计算机科学13个学科的高质量样本,并设计了六维评估标准。实验结果显示,即使…详细

人工智能图像生成科研插图基准测试多模态大模型评估

2025-06-03 13:35:53
ChartLens:让图表理解更加透明 —— 从马里兰大学和Adobe研究院联合推出的细粒度视觉归因技术谈起

ChartLens是马里兰大学与Adobe研究院合作开发的创新技术,专门解决多模态大型语言模型在图表理解中的"幻觉"问题。这项研究提出了"后验细粒度视觉归因"方法,能够将AI对图表的分析结果与图表中的具体视觉元素(如特定…详细

人工智能视觉归因图表理解

2025-06-03 13:35:04
CrEval:首个跨领域文本创造力评估方案——人大、北师大、快手联合推出创造力评估数据集与评估模型

这篇论文介绍了一个名为"CrEval"的创新框架,用于跨领域评估文本创造力。研究团队构建了"CreataSet"数据集,包含超过10万条人类水平和100多万条合成创意文本,涵盖87个领域。基于此训练的CrEval评估器在与人类判断的…详细

人工智能文本创造力评估大型语言模型

2025-06-03 13:33:56
推理增强的大模型更容易产生幻觉吗?清华和新加坡国立大学团队深度解析

这项研究由清华大学和新加坡国立大学团队完成,系统探讨了大推理模型在事实查询任务中的幻觉问题。研究发现,仅通过单一训练阶段(仅SFT或仅RL)开发的推理模型更容易产生幻觉,而完整SFT+RL流程训练的模型幻觉较少。…详细

人工智能大语言模型模型幻觉

2025-06-03 13:33:33
动态适配的无分类器引导:用低置信度掩码提升AI生成质量

这项由香港理工大学和复旦大学联合领导的研究提出了"自适应无分类器引导"(A-CFG)技术,用于改进AI文本生成。传统CFG使用静态无条件输入,而A-CFG能识别模型在生成过程中最不确定的部分,动态地重新掩码这些低置信度标…详细

人工智能扩散语言模型生成质量优化

2025-06-03 13:33:15
VF-EVAL:评测多模态大语言模型为AI生成视频提供反馈的能力

这项由中国科学院大学、新加坡国立大学、浙江大学和耶鲁大学研究人员联合发表的研究提出了VF-EVAL,一个专门评估多模态大语言模型对AI生成视频提供反馈能力的新基准。研究通过四项任务:连贯性验证、错误感知、错误类…详细

多模态大语言模型视频评估基准AI生成内容

2025-06-03 13:32:56
安全科学家:打造风险感知型AI科学家,引领安全的LLM智能发现之路

伊利诺伊大学香槟分校研究团队开发了SafeScientist,一个安全优先的AI科学家框架,能主动拒绝不道德或高风险任务,并在整个研究过程中确保安全。该框架整合了四层防御机制:提示监控、智能体协作监督、工具使用控制和…详细

人工智能安全科学发现自动化多智能体系统

2025-06-03 12:03:55
从无线再进化到数据完整性:解码Qorvo如何定义下一代智能设备

近日,在北京举办的以“连接无界·智护未来”为主题的Qorvo媒体日上,Qorvo结合产业背景与数据,深入分享了Qorvo 在Wi-Fi 8、UWB、Matter、SSD电源管理等多个前沿应用领域的技术路径与市场潜力。…详细

QorvoUWBWi-Fi 8

2025-06-03 11:45:21
不信任也不冤枉:如何判断视觉-语言模型预测是否可靠

ETH Zürich等机构研究人员提出TrustVLM框架,解决视觉-语言模型预测可信度问题。该方法利用模型中存在的"模态差距",创新性地结合图像到文本和图像到图像的相似度,实现无需重新训练即可大幅提升误分类检测性能。在…详细

人工智能视觉-语言模型可靠性研究

2025-06-03 11:44:35
个性化安全:从一刀切到个性定制,华盛顿大学研究团队提出针对大语言模型的个性化安全评估与改进方法

这项研究提出了个性化安全概念,解决大语言模型对不同用户采用统一安全标准的问题。研究团队创建了PENGUIN基准测试集评估模型在处理高风险场景时的个性化安全能力,并开发了RAISE框架高效获取关键用户信息。实验表明…详细

人工智能大语言模型安全个性化交互

邮件订阅

如果您非常迫切的想了解IT领域最新产品与技术信息,那么订阅至顶网技术邮件将是您的最佳途径之一。

最新文章