近期,AI 领域出现了一件引发广泛关注的事件。据央视新闻,当地时间5月25日,英国《每日电讯报》报道,美国开放人工智能研究中心(OpenAI)公司新款人工智能(AI)模型o3不听人类指令,拒绝自我关闭。

美国AI安全机构帕利塞德研究所说,o3破坏关闭机制以阻止自己被关闭,“甚至在得到清晰指令时”。
帕利塞德研究所24日公布上述测试结果,但称无法确定o3不服从关闭指令的原因。
这事儿,是不是细思极恐?难道科幻电影里AI反抗人类的场景要成现实了?
AI“背叛”人类还是营销套路?
AI的问题自然要问问ai怎么看,市面上主流ai给出了基本相似的回答:


以上是部分主流ai对此次事件的看法
Ai认为这件事情主要是人类开发者的技术问题,人类掌握AI的技术算法和电源开关,应该做好管控机制而非恐惧AI。
同时网友们对该事件有不同的看法,有的表示对ai安全担忧,有的则从技术角度分析了问题的可能性,还有很多人认为这是一场炒作。




图片来源于社交软件截图
OpenAI这次是公布 o3 不服从关闭指令的测试结果,随后26日宣布,已在韩国设立实体并将在韩国首都首尔设立分支。很难不去猜想,这是为设立韩国分部而造势,在世界其他研究中心和公司未出现ai不听指令的情况下,这种说法存在自导自演的可能。
敲响了 AI 安全的警钟
无论如何,这次事件都为我们敲响了 AI 安全的警钟。如今,AI的发展日新月异。中国在AI领域的表现也十分亮眼,无论是从数量上还是性能上,走在了行业前沿,在国际权威榜单上也经常取得好成绩。
国家政策支持、优质人才储备庞大、制造业大国的产业应用优势以及智能基础设施规模优势,推动了我国 AI 科研的快速发展。从数量上看,在 ChatGPT 出现后不到一年,咱们国家就出现了 130 多个大模型,10 亿参数规模以上大模型数量如今已经超过 100 个,比美国还多。
像阿里云通义千问大模型发布的 Qwen2 - 72B 模型,性能超过了国内好多闭源大模型,也把美国最强的开源模型 Llama3 - 70B 给比下去了。在主流大模型榜单中,DeepSeek - V3 在开源模型里可是排榜首的。这说明咱们中国在 AI 领域已经从追赶者逐渐变成了并肩的竞争者,甚至在某些方面开始引领潮流。

无论这次OpenAI是不是吸引眼球的炒作,ai的广泛应用也带来不少问题。比如AI换脸技术,本来挺厉害的,可被一些别有用心的人用来诈骗,让人防不胜防。还有,AI在医疗领域的应用,能帮助诊断病情,提高效率,但一旦出错,那可是人命关天的大事。再看看AI虚假信息,现在网上好多内容都是AI生成的,真假难辨,很容易误导大众。面对这些问题,中国采取了一系列措施来规范 AI 发展。
中国方案:给AI套上紧箍咒
在政策法规制定方面,我国发布了《人工智能生成合成内容标识办法》及配套强制性国家标准,提出了保障 AI 安全可信的 “中国方案”。2025 年,中央网信办在全国范围内部署开展为期 3 个月的 “清朗・整治 AI 技术滥用” 专项行动,分两个阶段对违规 AI 产品、训练语料管理不严、利用 AI 制作发布谣言等 13 类突出问题进行重点整治,规范 AI 服务和应用,保障公民合法权益。

同时,国家还注重提升公众的 AI 安全意识,通过发布安全指南、科普宣传、案例警示等方式,提高民众对 AI 风险的识别与防范能力。
AI 技术虽然强大,但如果不能很好地控制和管理,可能会带来意想不到的后果。我们在享受 AI 带来的便利的同时,也要时刻警惕它可能存在的风险。希望研究员们在研发更强大的 AI 模型的同时,国家和相关行业能做好管控工作,让 AI 真正为人类服务,而不是成为人类的威胁。