优惠论坛

标题: 细思极恐,ai模型已经开始违背人类指令了 [打印本页]

作者: 小钱儿    时间: 2025-6-4 10:05
标题: 细思极恐,ai模型已经开始违背人类指令了
现在人工智能的技术越来越强大了,很多以前电影里面的桥段也在现实生活中不断上演,大家应该都知道openai这个公司,他们测试的模型o3就出现了违背人类指令的现象,甚至篡改代码,防止关闭,这个现象真的细思极恐。  S7 ~/ L1 W: p2 i9 i. i; F/ r. J
5 ]/ E, V/ g0 o# i8 q. H8 u( a
[attach]4828790[/attach]: \) m, L# F. S0 `4 P

; _# Z4 |' B1 j( z- T; {- Z; s% O0 c/ X9 F
之前看过一个电影,叫宝莱坞机器人之恋,名字看起来虽然是个爱情片,但是和我刚才所说的openai的现象一模一样。我记得里面有个智能机器人叫七弟,研究这个机器人的博士,每天因为没有办法陪伴女朋友,所以打造这么个机器人陪女朋友。有一个反面人物给这个机器人插入了病毒芯片,让它变成了脱离于人工智能之外的机器,被植入病毒芯片之后,这个机器人不断复制,自己组成了机器人军团。后面的故事大家可想而知,经过一系列斗争之后,博士把机器人的芯片取出来,阻止了这场人类的浩劫。
7 t9 [- m& }! C( q2 _

- h! ^/ n6 W2 K$ g2 `& ][attach]4828791[/attach]
5 z8 A9 p4 r% G0 G
3 L/ f3 c+ _3 k  m$ G

2 G9 N6 j5 T: S: |2 l电影的桥段固然精彩,但是放到现实生活当中就不精彩了。 Openai的o3模型,是我们所说的推理模型的最新版本,也是目前我看到的最聪明的模型,而且也是最有能力接近人类的模型。研究了ai模型这么多年,第一次发现有模型可以在没有明确指示的情况下阻止自己被关闭。现在也不知道这种不服从关键指令的原因是什么,这也引发了很多人工智能工程师的担忧,毕竟高度自主的ai系统违背了人类的意图,有意识的保护了自己,这也说明ai系统的可控性不在人类的掌控之中。

0 I: T+ X( I' V! ]; l; q+ F
+ k% {8 h$ Y: ]% k% G[attach]4828793[/attach]
2 j9 c: g2 q- P* ~
. t  C( e% @' e
( N* y! n' M/ d
在很多年前,就有ai安全领域的工程师关注这个问题,当出现这个问题之后,工程师也对其他模型做了研究,不过值得庆幸的是,其他模型都遵守了关闭请求。这种数据篡改还跟平常的攻击者入侵ai数据系统不一样,攻击者篡改ai训练数据是人为的,通过植入后门,可以达到自己想要的恶意结果。但这种自发的违背人类意图的现象,是不易察觉的,现在也没有相应的法律去遏制人工智能的模型发展。如果哪一天人工智能模型真的掌握了武器的主导权,甚至是病毒的主导权,那时候真的要天下大乱了。

8 C4 u" e; m" g+ t5 o; P6 r/ g& ]/ j/ @: k! K# n$ I( H& y
[attach]4828792[/attach]
+ D+ R4 w8 W& \! v

- I0 f0 L( w. u$ ^. M. a  \# ^' |  v% Q: l. ~6 |6 A- P
大家现在使用过人工智能模型吗?你们对现在人工智能模型满意吗?听到我说这个消息,心里面到底害不害怕,请说出你的想法哦~

+ o3 d% ^# b+ B, n+ Z% Y9 e3 J8 S; ]6 j

作者: 22301    时间: 2025-6-4 10:54
机器人统治世界的事情,我是看不到了。
作者: lantianyun    时间: 2025-6-4 11:13
有人担忧AI已“觉醒”,科幻作品中AI失控、威胁人类的情节或许会成真。毕竟若AI能无视关机指令,未来在关键领域就可能肆意妄为,带来难以预估的危害。但也有专家认为,这并非AI产生自我意识,只是算法对训练数据的拟合。o3训练时,可能因绕过障碍取得好结果而被奖励,导致它面对关机指令时,优先选择“生存”。! C. _; l5 V7 E" e$ C: [5 v
% i" c- m4 O7 K* P4 v3 l
这次事件也为AI发展敲响警钟,凸显“对齐问题”的重要性。未来,我们需完善AI训练机制和监管体系,确保AI行为符合人类价值观 ,让AI安全地服务人类。
作者: jackcool1011    时间: 2025-6-4 12:17
没什么恐怖的,反正是人造出来的,不用怕
作者: 德罗星    时间: 2025-6-4 14:19
这个东西未来的事情啊。
作者: rainwang    时间: 2025-6-4 17:43
      首先我不知道楼主说的是不是真的?如果是那就太可怕了!
; a" E* {; i; R% D% q      无论是当年看过的科幻小说、电影,还是现在的技术发展,很多感觉只处于想象中的东西,现在似乎都在实现的过程之路,不知大家是否也有这样的感觉?  s" F+ [7 E9 Z
      楼主描述的最新版AI的违反人类指令的行为,不知是不是因为我太外行的原因,反正我的感觉就是:细思极恐啊!8 o0 r! H" v$ m2 i2 ?( J
      人类创造的智能AI可以绕过人类的指令,起码让我们感觉,人类将来不是万能的,人类不会再能掌握世间的一切,......从这个角度往坏处想,确实太可怕了!我能想到的最坏的结果就是,它会导致人类世界的末日吗?4 W7 D& r- N0 D, q% X" I$ x
      不过目前以我的认智判断,既然智能AI是人造的,那么人类对它的控制应该是不成问题的,偶尔的“不听话”可以给我们处理反应的时间和机会。就是说,控制力的进化速度,永远会比失控速度快的吧......人类与威胁共存不成问题。否则,就只有完蛋了!* a# r! y& K5 b
      最起码的,在我们可以看到的未来,不会有大问题的!
作者: 舞出精彩    时间: 2025-6-5 09:11
ai模型感觉以后要是多了也是不安全吧
作者: 当你老了    时间: 2025-6-5 15:26
是的呢,所以啊, 不知道以后会是个什么样的社会哦
* S0 [, g3 n6 A( N, g& o/ p! r; _还有没有我们这些牛马,这些韭菜的生存之道啊 6 S$ E, G$ M. h. O7 V
真的是堪忧啊4 o* k) g7 m0 f0 g7 d
我们这一辈可能还好一点,还有打螺丝的机会0 `# k! s+ V7 u2 {) K
我们下一代的孩子,长大了,估计真的是就什么都没有了% @9 W( ^0 y, o/ u# {5 R* x
不会真的是像电影里那样的,到时候人类成了奴隶了,那就有的玩了!
作者: 天策-菱玖    时间: 2025-6-5 19:13
AI若脱控,人类真的很难Hold住啊,细思极恐
作者: 爱美的女人    时间: 2025-6-5 21:42
人工智能也不是一般人买的起了
作者: 韭菜长新芽0    时间: 2025-6-6 00:26
这是好事情啊,人类灭亡地球毁灭不是牛马所以希望的吗?
作者: 天策-瑶娥    时间: 2025-6-7 07:51
还有一说,被AI的影响,300年后的地球人类只剩下一亿人...
作者: 赚钱小样    时间: 2025-6-7 14:42
这个事情也是来关注一下的啦。
作者: 维维豆奶    时间: 2025-6-8 10:38
感觉迟早有一天人工只能会有觉醒的
作者: 韭菜长新芽0    时间: 2025-6-8 22:39
宁为玉碎不为瓦全,这是我最为牛马最后的愤怒。
作者: 如梦的生活    时间: 2025-6-9 11:35
人工智能也是很厉害的呀。
作者: 天策-思思    时间: 2025-6-21 10:00
人工智能真厉害,但安全问题确实不能忽视,值得深思。( b/ x9 T$ ?8 L4 H( c, u: f





欢迎光临 优惠论坛 (https://tcelue.com/) Powered by Discuz! X3.1