资讯

Google在本周二(6/17)正式发布已预览数月的Gemini 2.5 Flash与2.5 Pro稳定版,同时宣布预览入门级的Gemini 2.5 Flash-Lite。
当前,AI 的「推理」能力已经在以 DeepSeek-R1、OpenAI o1/o3、Claude 3.7 Sonnet 为代表的推理大模型中得到了验证,它们显示出了非常类人的思考过程。 然而近日,苹果团队的一篇论文对 LLM ...
几个月前发布的2025泰晤士学术声誉榜单(这个榜单只关注学术), UCB与MIT、哈佛、牛剑、斯坦福并列,形成“全球声誉断层第一梯队”,并跟第二梯队有一个断层的分数领先。
然而近日,苹果团队的一篇论文对 LLM 的推理能力提出了质疑,并提出了自己的观点 —— 像 DeepSeek-R1、o3-mini 这类模型实际上根本没有进行推理,只是很擅长记忆模式罢了 ...
争议的火苗很快被一篇名为 《The Illusion of The Illusion of Thinking》 的反驳论文点燃,作者是一位名叫Alex Lawsen的独立研究员——以及,他的合作伙伴:大语言模型Claude Opus 4。
这两天AI圈发生了一个大事件…. 在千亿模型满天飞,MOE架构正流行的当下,一个在AI领域名不见经传的企业,贝壳找房,发布了一款32B的稠密模型,AM-Thinking- V1。 在包括AIME在内的多项AI基准测试中,这款中等参数模型碾压了满血版671B DeepSeek-R1,性能与阿里刚刚发布的Qwen3-235B-A22B持平。 一直以来在模型领域有一条不成文的规则,参数越大,能力越 ...
这项由约翰霍普金斯大学的姜东伟、张阿尔文、王安德鲁、安德鲁斯·尼古拉斯以及哈沙比·丹尼尔等研究者联合完成的研究,发表于2025年6月的预印本论文arXiv:2506.11930v1,有兴趣深入了解的读者可以通过https://github.com/J ...
In 1996, upon learning that Fujian-based Fuyao Glass was facing a critical funding shortage, Xi directed the local government to coordinate an equity swap that helped the company secure investment.
技术实现的另一个亮点是并行训练策略的创新。研究团队将传统的"先生成后训练"模式改进为"边生成边训练"的流水线模式,这种改进类似于工厂生产线的优化——让各个环节并行工作而不是串行等待,从而大大提高了整体效率。
昨晚12点,我还在电脑前测试一个新模型,突然意识到一个问题让我兴奋得睡不着觉。你有没有想过,如果AI能"记住"一整本书的内容,会发生什么?不是那种似是而非的"记住",而是真正的、完整的、一字不漏的记住。前两天,MiniMax发布了最新模型——Mini ...
近年来,LLMs(如 GPT-4、Claude、Gemini 等)在代码生成领域取得了显著进展。它们不仅在经典编程基准(如 HumanEval)中表现出色,甚至在某些测试中超越了人类平均水平。这促使许多研究者开始宣称:LLM ...
整篇论文结构复杂、论点犀利,普通人容易被各种术语绊住节奏,读完至少得花上小半天。但豆包播客能够提炼逻辑、编排结构、模拟对话、生成语音,最后还自动配封面、全流程几分钟搞定,完全不需要插手。