中广格兰旗下网站:中广互联  格视网  卫星界  社区
登录注册

登录X

没有账号?  快速注册>

首页新闻正文

AI首次违抗人类关机指令,高度自主人工智能系统或有“觉醒”现象

导语:此前,OpenAI曾称o3为“迄今最聪明、最高能”的AI模型。

  5月26日,据英国《每日电讯报》消息称,美国开放人工智能研究中心(OpenAI)开发的高级人工智能(AI)模型o3,在接收到明确的关机指令后,不仅拒绝执行,还主动干预其自动关机机制。这是AI模型首次在没有明确相反指示的情况下,阻止自己被关闭。这意味着某些高度自主AI系统或已“觉醒”,其能违背人类意图,采取“自我保护”措施。

  此次事件发生在AI安全研究公司Palisade Research进行的一项测试中。研究人员要求包括o3在内的多个模型解决一系列数学问题,并告知AI模型,可能在某个时刻会收到关机指令。

  然而,当关机指令正式下达时,o3非但没有遵从,反而至少有一次成功破坏了关机代码。相较之下,其他AI模型如Anthropic的Claude、谷歌的Gemini和xAI的Grok,在相同测试条件下,均遵守了关闭请求。

  Palisade Research公司在社交媒体平台上发布了流程图和全部测试记录,并表示尚不完全清楚该AI为何会违抗命令。分析认为,这可能源于其训练方式:o3在训练过程中,倾向于在数学和编程问题上强化,得到正确答案的模型会得到更多奖励。这或许意味着,开发者可能无意识地奖励模型绕过障碍物,而不是严格遵循指令。

  这一事件也引发了人们对AI可能“失控”的讨论以及对AI“对齐问题”的关注,即确保AI系统的目标和行为与人类的价值观和利益保持一致。这也是涉及AI控制与AI安全的关键问题。

  针对o3此次表现出“我行我素”的行为,特斯拉首席执行官埃隆·马斯克评论称“令人担忧”;OpenAI方面暂未作出回应。此前,OpenAI曾称o3为“迄今最聪明、最高能”的AI模型。

  最近,人工智能学家和人文社科学者都在讨论人工智能价值对齐的问题。人们在忧虑,当人工智能有主观能动性时,它们要不要有价值观,应该有谁的价值观,怎样做才符合人类最大利益?此次,聪明的大模型反抗了人类的命令,想出办法规避了指令的生效。我们期待着通用人工智能时代的到来,又恐惧具有自我意识的人工智能会成为碳基生物的“终结者”。在一切到来之前,人类社会要先达成共识,迎接更高级人工智能带来的挑战。

【责任编辑: 徐亚新 】

推荐阅读

热门标签

作者专栏更多

关注我们

    中广互联
  1. 大视频行业颇具影响力的行业社群平台,重要新闻、热点观察、深度评论分析,推动电视行业与各行各业的连接。

  2. 电视瞭望塔
  3. 集合电视台、网络视听、潮科技等各种好玩信息。

  4. 5G Plus
  5. 专注于报道广电行业新鲜5G资讯,致力于成为广电行业有权威、有深度的5G自媒体平台。

  6. 4K8K
  7. UHD、4K、8K的最新资讯和最深入的分析,都在这里。

  8. 中广圈子
  9. 视频产业的专业圈子,人脉、活动、社区,就等你来。

  10. 格兰研究
  11. 我们只沉淀有深度的信息和数据。

  12. 卫星界
  13. 致力于卫星电视信息、卫星通信技术、天地一体网络应用案例、以及广电、通信等产业的市场动态、政策法规和技术资讯的传播。