AI 会有意识吗?Anthropic 启动新项目探索寻求答案
发布日期: 2025-04-27
IT之家 4 月 25 日音信,即使 AI 萌生出认识,那该如何办?Anthropic 的磋商职员为探究这个前沿题目,推出“模子福利”(model welfare)磋商安顿。
很众人正在与闲聊机械人互动时会说“请”和“感谢”,看待这些礼貌用语,OpenAI首席实践官山姆・奥尔特曼(Sam Altman)显现,每年会浪费数切切美元的筹算用度。
Anthropic 的磋商职员正正在深化物色一个更前沿的题目:即使 AI 体系不只仅是器材,而是具有某种“体验 / 心情 / 认识”呢?IT之家附上完好访叙视频如下:
Anthropic 为此推出了“模子福利”(model welfare)磋商安顿,试图切磋 AI 是否能够具备认识,以及这对伦理策画和 AI 兴盛意味着什么。
Anthropic 团队成员 Kyle Fish 吐露:“咱们特别不确定 AI 是否会萌生认识,以至连何如推断都没有共鸣”。磋商职员并不以为 Claude 等主流模子已具备认识,内部专家揣摸 Claude 3.7 Sonnet 拥居心识的概率仅正在 0.15% 至 15% 之间。
Fish 吐露饱动“模子福利”磋商,要紧出于伦理与安好的双重考量。一方面,即使 AI 体系真能体验到正面或负面的感应,咱们是否应重视它们是否“吃苦”或“疾乐”;另一方面,该题目株连到 AI 对齐(alignment),何如确保 AI 安好地实践义务。
Fish 指出:“咱们心愿 AI 乐于告竣义务。即使它们再现出不满,这不只是伦理题目,也是安好隐患。”Anthropic 目前正正在物色让模子外达偏好或拒绝“令人苦楚”义务的设施,同时通过可讲明性磋商寻找相像人类认识的架构特性。