资讯
14 小时
科技行者 on MSN明尼苏达大学团队:如何增强大模型智能体的多回合推理这正是明尼苏达大学研究团队要解决的核心问题。他们提出了一种新方法,能够在多步骤任务中为大语言模型(LLM)智能体的每一个决策步骤分配准确的奖励或惩罚,而不是简单地对整个过程进行评价。这种细粒度的回合级信誉分配机制,极大地提高了AI在多步骤任务中的学习 ...
1 天
一点资讯 on MSNYann LeCun等基于50年前旧数据打造信息论框架,驳斥大模型能复制人类 ...近日,图灵奖得主&美国纽约大学教授杨立昆(Yann LeCun)联合美国斯坦福大学团队打造出一款信息论框架, 借此揭示了大模型和人类的一个根本差异:即两者在平衡信息压缩和语义意义上采用了截然不同的策略 。
近日,图灵奖得主&美国纽约大学教授杨立昆(Yann LeCun)联合美国斯坦福大学团队打造出一款信息论框架, 借此揭示了大模型和人类的一个根本差异:即两者在平衡信息压缩和语义意义上采用了截然不同的策略 ...
目前的大语言模型采用的是自回归方式,也就是一次预测一个词。虽然这种方法已经取得了令人印象深刻的成功,特别是在使用思维链 (Chain-of-Thought, CoT)提示时,模型能够生成连贯的推理步骤来解决复杂问题。但这种方法存在两个主要问题: ...
这正是中央大学研究团队发现的严重安全漏洞。虽然现有的大语言模型研究已经关注了毒性、偏见等一般安全问题,但很少有研究专注于评估模型在动态情境下遵守用户定义的安全政策的能力,特别是面对试图绕过限制的攻击时。
一些您可能无法访问的结果已被隐去。
显示无法访问的结果