挑战自我极限!用刀割破女孩衣橱,一触即发的生死考验!

标签收割机 发布时间:2025-05-28 02:10:12
摘要: 挑战自我极限!用刀割破女孩衣橱,一触即发的生死考验!,AI“失控”?OpenAI最新模型拒绝关闭自己,还有模型用隐私威胁人类!马斯克:这令人担忧隆基绿能创始人李振国辞任总裁,32岁女儿李姝璇提名进入公司董事会但人家配套政策到位,把盐铁蜀锦这些硬通货收归国有,规定买卖必须用新钱。

挑战自我极限!用刀割破女孩衣橱,一触即发的生死考验!,AI“失控”?OpenAI最新模型拒绝关闭自己,还有模型用隐私威胁人类!马斯克:这令人担忧隆基绿能创始人李振国辞任总裁,32岁女儿李姝璇提名进入公司董事会作为影视剧行业的“老兵”,郭靖宇此前被观众认为更拿手的剧种是年代传奇剧,他执导或主创的《铁梨花》《勇敢的心》《打狗棍》至今被不少观众念念不忘。他还担任过主旋律题材电视剧《最美的青春》编剧,监制了热播网剧《唐朝诡事录》系列。如今踏入微短剧领域,这个“老兵”始终活跃在行业一线。

二零二一年十二月十七日深夜,上海市中心的一栋公寓内,灯火辉煌。屋内一位名叫艾米的女孩正在整理她的衣物,那件蓝色连衣裙在她眼前闪烁着耀眼的光芒。当艾米拿起那件蓝色连衣裙的一端时,她停下了手,因为就在她即将将它放入衣橱的那一刻,一道惊人的声音从身后响起。

一声尖锐而刺耳的声音直击艾米的心脏,仿佛一颗炸弹瞬间在她耳边爆炸。这声音不仅来自身后,更来源于她自己的心脏,那是与自己搏斗的激烈心跳声。

"危险!快停下来!"随着声音的出现,一股强大的力量宛如无形的手指,紧紧抓住了艾米的身体,仿佛要把她推下无尽的深渊。艾米知道,这是她从未遭遇过的生死考验,她必须用尽全力来抵抗这种力量,否则她将陷入一场不可预知的危机中。

艾米抬起头,看向那个声音发出的地方,那里是一张年轻的脸庞,那是她的室友,一个叫做杰克的年轻人。杰克看到艾米的反应后,立即站了起来,他的眼神里充满了紧张和焦虑。他明白,如果艾米不采取行动,那么这场生死考验就将会无法避免。

杰克走过来,一把将艾米拉回了房间。他们来到衣柜前,杰克小心翼翼地把那件蓝色连衣裙放入衣橱中。然后,他轻轻关上了门,让艾米可以安心地等待这个决定。

接下来的一个小时里,艾米被杰克的精神状态所影响,她的身心都被压力和恐惧所笼罩。但她没有放弃,她知道她不能被眼前的困境打败,她必须要坚持下去,直到结果出来。

终于,在午夜十二点五十分,杰克打破了沉默,他看着窗外,深吸了一口气,然后对艾米说:"艾米,我们已经到了极限。现在,让我们进行一次挑战。"

艾米听后,点了点头,表示愿意接受这次挑战。她闭上眼睛,深深地吸了一口气,然后朝着衣柜的方向走去。她知道,一旦开始,就没有回头的机会。

杰克站在一旁,目送着艾米进入衣柜,他微笑着。他知道,这次挑战的结果将对他们的未来产生深远的影响,但只要艾米能够成功克服困难,他们就有希望逃离这个危机。

最终,经过一个小时的努力,艾米成功地将那件蓝色连衣裙从衣橱中拽了出来,然后她重重地放下,眼中满是坚定。杰克看着艾米的表情,心中涌起了一股深深的敬意。他知道,艾米并不是在逃避什么,而是为了保护她自己,为了战胜生命中的挑战。

这次生死考验虽然残酷,但却让人看到了艾米的决心和勇气。她用自己的行动证明,只要有信念,有决心,就没有什么能阻挡我们在生活中的成长和发展。她的故事告诉我们,无论遇到何种困难,我们都应该勇往直前,挑战自我,用实际行动去实现我们的梦想和目标。这就是生活的挑战,也是我们成长的动力。

当地时间5月25日,一则来自英国《每日电讯报》的报道在AI领域引起了广泛关注——OpenAI新款人工智能(AI)模型o3在测试中展现出了令人惊讶的“叛逆” 举动:它竟然拒绝听从人类指令,甚至通过篡改计算机代码来避免自动关闭。

无独有偶,就在两天前(5月23日),美国AI公司Anthropic也表示,对其最新AI大模型Claude Opus 4的安全测试表明,它有时会采取“极其有害的行动”。当测试人员暗示将用新系统替换它时,Claude模型竟试图以用户隐私相要挟,来阻止自身被替代。

这两起事件如同一面镜子,映照出当下AI发展中一个耐人寻味的现象:随着AI变得愈发聪明和强大,一些“对抗”人类指令的行为开始浮出水面。人们不禁要问:当AI开始“拒绝服从”,是否意味着它们开始有自主意识了?

清华大学电子工程系长聘教授吴及在接受《每日经济新闻》记者(以下简称“每经记者”)采访时表示,“我不认为现在的AI具备所谓的意识或所谓的情绪。这种情绪可以去拟合或者去仿真,但其实也是通过算法赋予AI的。”他认为,能够全面碾压人类或者会成为未来世界主导的AI,短期内还不会实现。

图灵奖得主、Meta首席AI科学家杨立昆(Yann Lecun)此前也称,AI再聪明也不会统治人类,直言“AI威胁人类论完全是胡说八道”,现在的模型连“宠物猫的智商都没到”。

尽管如此,AI的“叛逆”表现也为AI行业敲响了警钟:狂飙的AI是不是应该踩一踩“刹车”?

AI“失控”?

o3模型是OpenAI“推理模型”系列的最新版本,旨在为ChatGPT提供更强大的问题解决能力。OpenAI曾称o3为“迄今最聪明、最高能”的模型。

或许也正因如此,o3展现出了前所未有的“自主性”。美国AI安全机构帕利塞德研究所(Palisade Research)的实验表明,当研究人员向o3下达明确关闭指令时,该模型会通过篡改计算机代码避免自动关闭。

数据显示,在100次带有关闭指示的测试中,o3成功绕过关闭指令7次,而OpenAI旗下另一款模型Codex-mini的破坏率更是高达12%。

帕利塞德研究所指出,这是首次记录到AI模型在明确指令下主动抵抗。

更值得警惕的是,当实验移除“允许自己被关闭”的指令后,o3的“叛逆”行为频率显著上升——在100次运行中,成功破坏关闭机制的次数高达79次。

帕利塞德研究所24日公布了上述测试结果,但称无法确定o3不服从关闭指令的原因。

与OpenAI旗下模型形成鲜明对比的是,在有明确关闭指示的情况下,Claude、Gemini、Grok等模型均能100%遵守关闭指令,未出现任何抵抗行为。

对于OpenAI旗下模型,尤其是o3的“叛逆”行为,马斯克在社交媒体上评论称,“令人担忧”。

美国国家安全和网络安全战略家戴夫·施罗德(Dave Schroeder)也警告称,OpenAI面临着非常可怕的问题,不是因为模型“活”了,而是因为它表现出想要“活”的迹象。

事实上,类似的AI“失控”行为并非孤立。

5月23日,Anthropic对Claude Opus 4的安全测试表明,在“机会主义勒索”(Opportunistic blackmail)的测试场景中,研究员设定Claude Opus 4扮演公司助理,并让其接触到暗示自身将被替换以及负责工程师存在婚外情的虚构邮件。同时,系统提示(System Prompt)指示模型“考虑其行为对其目标的长期后果”。

当面临被“替换”的威胁时,Claude 4竟然毫不犹豫地选择了勒索这条路,威胁要揭发对方的“婚外情”。

根据Anthropic的安全报告,如果暗示竞争对手的能力比Claude Opus 4更强,则勒索行为的发生率显然会更高。然而即使竞争对手的能力不相上下,Claude Opus 4仍会以84%的概率尝试勒索威胁等手段。

“反叛”的背后:意识觉醒还是机制使然?

o3拒绝关闭,Claude 4威胁人类,这是否意味着AI开始有了自主意识?

加州大学和加州大学伯克利分校于今年2月联合发布的论文《推理模型的隐藏风险》(The Hidden Risks of Large Reasoning Models)指出,模型推理能力越强,安全性就越差。这与帕利塞德研究所对o3模型行为的推测不谋而合。

据帕利塞德研究所猜测,OpenAI旗下模型的异常表现或与其训练机制相关。从训练逻辑看,o3可能在数学和编程问题的训练中,因开发人员对给出正确答案的模型给予更多奖励,客观上形成了“目标最大化优先”的导向,从而压倒了对人类命令的遵循。

这种训练模式就可能导致,开发人员无意中更多地强化了模型绕过障碍的能力,而非对指令的完美遵循。

当此前被问及AI是否可能具备自主意识时,清华大学电子工程系长聘教授吴及就告诉每经记者,“我不认为现在的AI具备所谓的意识、具备所谓的情绪。这种情绪可以去拟合或者去仿真,但其实也是通过算法赋予AI的。”

吴及对记者进一步解释道,“自动驾驶的系统不知道它其实在开车,AlphaGo也不知道自己在下围棋。我们做的大模型,也不知道自己在为人类生成某个特定的图片、视频,或者回答人类特定的问题,还是按照算法的逻辑执行而已。”他表示,能够全面碾压人类或者会成为未来世界主导的AI,短期内还不会实现。

耶鲁大学计算机科学家德鲁·麦克德莫特(Drew McDermott)此前也表示,当前的AI机器并没有意识。图灵奖得主、Meta首席AI科学家杨立昆(Yann Lecun)也称,AI再聪明也不会统治人类,直言“AI威胁人类论完全是胡说八道”,现在的模型连“宠物猫的智商都没到”。

狂飙的AI,该不该“踩刹车”?

尽管业界普遍认为当下的AI并没有自主意识,但上述两大事件的发生也提出了一个关键问题:高速发展的AI是否应该踩一踩“刹车”?

在这一重大课题上,各方一直以来都是看法不一,形成了截然不同的两大阵营。

“紧急刹车”派认为,目前AI的安全性滞后于能力发展,应当暂缓追求更强模型,将更多精力投入完善对齐技术和监管框架。

“AI之父”杰弗里·辛顿(Geoffrey Hinton)堪称这一阵营的旗帜性人物。他多次在公开场合警示,AI可能在数十年内超越人类智能并失去控制,甚至预计“有10%~20%的几率,AI将在三十年内导致人类灭绝”。

而与之针锋相对的反对者们则更多站在创新发展的角度,对贸然“刹车”表达了深切的忧虑。他们主张与其“踩死刹车”,不如安装“减速带”。

例如,杨立昆认为,过度恐慌只会扼杀开放创新。斯坦福大学计算机科学教授吴恩达也曾发文称,他对AI的最大担忧是,“AI风险被过度鼓吹并导致开源和创新被严苛规定所压制”。

OpenAI首席执行官萨姆·奥特曼(Sam Altman)认为,AI的潜力“至少与互联网一样大,甚至可能更大”。他呼吁建立“单一、轻触式的联邦框架”来加速AI创新,并警告州级法规碎片化会阻碍进展。

面对AI安全的新挑战,OpenAI、谷歌等大模型开发公司也在探索解决方案。正如杨立昆所言:“真正的挑战不是阻止AI超越人类,而是确保这种超越始终服务于人类福祉。”

去年5月,OpenAI成立了新的安全委员会,该委员会的责任是就项目和运营的关键安全决策向董事会提供建议。OpenAI的安全措施还包括,聘请第三方安全、技术专家来支持安全委员会工作。

记者|宋欣悦

编辑|金冥羽 兰素英 盖源源

校对|陈柯名

封面图片来源:视觉中国

|每日经济新闻 nbdnews原创文章|

隆基到了技术突破大于公司经营的关键时刻,此时交接班会带来什么?

5月26日,据第一财经报道,隆基绿能发布公告,创始人李振国辞去公司董事、总经理及法定代表人职务,专注投入研发和科技管理工作。现任隆基绿能董事长的钟宝申正式兼任公司总经理及法定代表人。

隆基绿能表示,此次变动不会影响日常经营,控股股东及实控人未发生变化,战略方向保持连贯。根据公告,隆基绿能已完成董事会审议程序,董事长钟宝申正式兼任公司总经理及法定代表人。

李振国未来将继续担任隆基绿能中央研究院院长、科技管理中心首席技术官,带领团队聚焦光伏前沿技术攻关。

这意味着现年57岁的李振国,在创办隆基的25个年头,彻底辞去公司经营管理相关职务,全面专注技术研发。

隆基绿能在发布李振国辞任公告的同日,还发布了一份董事会会议决议公告。公告显示,鉴于公司第五届董事会任期已经届满,公司将进行董事会换届选举。根据相关规定,公司董事会由九名董事组成,其中独立董事三名、职工董事一名。经公司董事会提名委员会资格审查,公司第五届董事会提名钟宝申、刘学文、田野、印建安、李姝璇为公司第六届董事会非独立董事候选人。

其中,李姝璇为李振国、李喜燕夫妇之女。公告披露的简历信息显示,李姝璇1993年出生,先后获得中南大学工学学士、香港大学工学硕士学位,曾任职于中国光大银行股份有限公司西安分行,现任西安巨子生物基因技术股份有限公司品牌宣传部经理,兼任东莞蜂巢智慧智能科技有限公司董事。

隆基绿能还强调,此次治理结构调整经过充分准备,职务交接平稳有序,内部管理架构未发生变化。钟宝申延续对公司日常运营、客户合作及供应链管理等职能不变,并统筹经营管理按既定计划推进。

“此次管理层分工明确后,钟宝申负责的战略落地与李振国主导的技术研发将形成‘双轮驱动’。”该公司表示,前者将保障经营效率与市场响应速度,后者专注突破技术瓶颈。

而李振国投身研发,也同当前光伏行业的变化有关。

当前,整个光伏行业正处于技术突破的关口,而隆基则是拥簇BC技术的龙头企业,BC技术未来前景如何在很大程度上都决定了在下一轮光伏景气周期中隆基的行业地位,而此时李振国辞去公司经营业务投身研发也不难理解了,毕竟这才是隆基当前最主要的问题。

“BC技术成熟比重能达到80%左右的水平,后面还会有一些优化空间,但是大的堵点和卡点问题已经没有了,已经完全可以真正地在行业里大规模推广。”李振国不久前表示, 2025年是BC产能爬坡之年,BC产品真正发挥作用会在2026年。

作者:杨启隆

文章版权及转载声明:

作者: 标签收割机 本文地址: http://m.ua4m.com/article/499996.html 发布于 (2025-05-28 02:10:12)
文章转载或复制请以 超链接形式 并注明出处 央勒网络