谷歌正全力打造具备“世界模型”的全能 AI 助手,通过深度整合各项技术与产品,旨在重塑搜索体验,并在 AI 竞争中超越微软和 OpenAI。
Anthropic 联合创始人兼首席科学家 Jared Kaplan 将于6月5日在 UC Berkeley 的 Zellerbach Hall 出席 TC Sessions: AI,讲解混合推理模型与风险治理框架,探讨 AI 如何革新人机互动。
2025年1月,DeepSeek 从中国闪亮登场,挑战 OpenAI 及美国巨头。其通过优化 KV 缓存、采用 MoE 策略及强化学习,提升硬件与能源效率,为大语言模型领域开辟新路径。
腾讯开源了基于Transformer架构的Hunyuan-Large模型,拥有3890亿参数,优于Meta的LLama3.1 - 405B模型。Hunyuan-Large采用MoE结构,高效训练和推理,支持长达256K上下文。使用了KV缓存压缩技术,减少内存占用。训练数据包括7万亿token,包括高质量合成数据。模型在CommonsenseQA、PIQA、WinoGrande等测试中表现优异。
球申请生成式AI专利前10位分别是:腾讯、平安保险、百度、中国科学院、IBM、阿里巴巴、三星电子、Alphabet(谷歌母公司)、字节跳动和微软。(排名按照专利数量)
图像自监督预训练极大降低了图像任务繁重的标注工作,节省大量人力成本,而transformer技术在NLP领域的巨大成功也为CV模型效果进一步提升提供了非常大的想象空间。