来自清华大学、北京大学、复旦大学、上海交通大学、对外经济贸易大学和美本的,合计10名世毕盟学员,集体斩获2025年秋季入学的,美国卡耐基梅隆大学(CMU)计算机金融(MSCF,第一轮次申请)offer!
最近,美国交互设计硕士排名新鲜出炉,卡内基梅隆大学(CMU)再次蝉联榜首,引发了广泛关注。作为交互设计领域的顶尖学府,CMU凭借其强大的技术实力和丰富的实践资源,吸引了无数学子的目光。但是,你知道吗?即使没有留学的机会,我们也可以通过一些便捷的工具, ...
在人工智能领域,大语言模型(LLM)正在不断进化,最近,卡内基梅隆大学 (CMU)与 HuggingFace 的研究者们共同提出了一种名为 “元强化微调” (Meta Reinforcement Fine-Tuning,简称 MRT)的新方法。这一方法旨在优化大语言模型在测试时的计算效率,尤其是在解决复杂推理问题时,表现尤为突出。 研究表明,现有的大语言模型在推理过程中常常消耗过多的计算资源,而 ...
机器之心报道编辑:杜伟、陈陈大语言模型(LLM)在推理领域的最新成果表明了通过扩展测试时计算来提高推理能力的潜力,比如 OpenAI 的 o1 系列。通常来说,这些方法在训练模型时可以产生比典型正确解决方案更长的轨迹,并包含了试图实现某些「算法」的 ...
【财华社讯】3月4日,香港金融管理局总裁余伟文发文表示,迅清结算与香港交易所签署了合作备忘录,深化双方在优化香港资本市场的交易后证券基础设施的合作,是CMU迈向成为亚洲ICSD的又一重要基石。是次两大平台的策略性合作,将为香港长远建立一个多元化的资产存管平台铺路。以下是香港金融管理局总裁余伟文发布的文章《CM ...
最近,CMU、滑铁卢大学等机构的3名华人学者就发表了一篇论文,针对SFT做出了更进一步的改进,提出批判式监督微调方法(CFT,Critique Fine-Tuning),旨在让模型更有效地模仿模仿数据集。
具体来讲,xLSTM 7B 模型基于 DCLM 数据集,使用 128 块 H100 GPU,在 8192 上下文长度下训练了 2.3 万亿 token。研究者对原始 xLSTM 架构进行了改进,确保训练效率和稳定性,同时保持任务性能。新架构依靠 ...
在本文中,CMU、HuggingFace 的研究者提出从元强化学习(RL)的视角来形式化上述优化测试时计算的挑战。 在构建方法的过程中,研究者在给定问题 ...
在人工智能技术迅速发展的今天,深度学习与自然语言处理领域的进步令人瞩目。然而,传统的监督微调(SFT)方法在面对复杂的推理任务时,逐渐显露出其局限性。对此,来自卡内基梅隆大学(CMU)及其他机构的华人学者们提出了一种全新的训练方法——批判式微调(CFT)。根据最新的研究报告,这一方法仅使用50K样本便能在多项基准测试中优于传统方法,这一创新引发了行业内的广泛关注与讨论。 批判式微调(CFT)以突破 ...
大家好,我是小谷。 近年来,竞赛几乎成了“揠苗助长”“疯狂鸡娃”的代名词。一方面,有人谈赛色变,避之不及;也有人借助竞赛脱颖而出,实现了升学突破或个人成长。另一方面,进入AI时代后,传统竞赛的价值正在被重新审视: ...
谷歌的Gemini 2.0 Flash凭一句话PS的功能,还在全网不断掀起新的风暴!广告业直接被颠覆,模特从此彻底不存在了。去水印、梗图、交叉图像,已经被网友玩疯。甚至有人预言:谷歌已全面超越OpenAI,将率先实现AGI。