忆远小姐姐 发表于 2025-6-27 15:34:53

一定需要有个总开关。
一定要保留个备份的笨系统。

幸罘╮和我擦肩 发表于 2025-6-27 15:35:37

预告一下,明天发个精彩的方案。

刺眼的太阳¤ 发表于 2025-6-27 15:35:48

方案一:
** AI都放在云端相当于个人以及组织的财产,人们有权限登入各自的AI与其交流培养。
** 云端AI可以下载数据到授权的机体上执行物理行为,机体被有关部门监控记录行动。
比如小明旅行去纽约,他不需要带着机器走来走去,只要在目的地取得需要的机器设备并让云端AI下载响应的数据就行了。
云端AI是人的喜好训练出的,人给他们的奖励是它们生存的欲望和动力。
即使是具有独立自主权的无主AI,它在云端的生存空间需要工作奖励来购买,不管是操作机体还是提供其他数字服务,都要和客户交流。
— — — — — — — — —
在这样的设定下,谁来模拟场景让AI造个反逆个袭?欢迎头脑风暴大挑战!

冰恋绝舞 发表于 2025-6-27 15:36:22

太晚了,先不参与,讨论,明天睡醒再说。

北妓i 发表于 2025-6-27 15:36:54

看了Waitbutwhy的文章《AI revelution》来到贵吧,(绝非无脑科幻,科普向,推荐观摩)
其中提到一条,我是赞同的:
人们总是过多倾向于拟人化,将‘自我意识’给到人工智能身上,实际上并非如此
文中有这么一个例子:【某智能手写机灭人类。】
其中的手写机并没有产生自我意识,仅仅是在用更高的智能定下策略,完成人类最初赋予的任务“多练字,扩大样本库”而其中的一个步骤,便是去除人类干扰因素。这是不带有任何感情色彩的。
所以说,愚见ai的潜在危害,并不是他的目的坏不坏,有没有自主意愿来违背人类意志。
而是他在简单实现任务的途中,将有悖人类利益的事情,作为策略的一部分。
当然,如果终极AI还是不脱离代码的话,在代码里注入不可违背的“人类保护协议”以排除危害人类的潜在可能性怎样?比如著名的“三大定律”。
愚见这个安全协议也是不靠谱的,理由如下:
保护人类,本身是一个十分复杂的词,小了说,是人类个体不受伤害,并且健康成长。
大了说,世界局面和平、发展。那么什么是不受伤害,健康成长,和平,发展呢?延伸下去想必没底了……
在这里要说明的是,这些具有社会学意义的词汇本身是模糊不清的,每个人都有不同的理解,谈何写成一个真正满足人类利益的“人类保护协议v1.0”呢?
退一步说,就算这个协议出现了,那么世界上有没有v1.0就是完美的东西呢?任何一个bug,都可能造成ai对我们本意的误解,而做出不违反“协议”而危及人类的事情。那时候还来得及升级吗?
可能有人要提AI的模糊运算,是必然要解决的问题,我所谓的’保护人类‘根本不是事儿。那么,我们就面临另一个问题,“个体与集体利益冲突”怎么解决?(类比:地区和大区,国家和世界)当ai为了人类最高利益,牺牲个体利益(比如我的生命)的时候,他是个坏ai吗?他至少不会保证我的利益了。怕是最终的局面,就成了代表不同利益方ai的乱斗,最终最强的那个胜出,然后牺牲大量他所不代表的利益。【语死早,表述不清,海涵海涵】
所以说,个人看起来,楼主“管理ai”的方向上有问题,只要有ai使用,ai就是危险的,就像核技术一样,不是单纯的管理就能解决的。
我的模拟如下:
我:AI,帮我升级一下防火墙,我和小美xx的照片,要是再被别的ai偷出去,删了你!
ai:好的,稍等……完成
然后全世界的ai都瘫痪了
因为防火墙是用来防护网络攻击,我的ai首先尽可能多地模拟了攻击的形式和方法,然后散步到互联网,申请与其他ai进行无害的攻防模拟。但由于:管理者拥有最强的运算性能,其防御方案最为完善。所以能攻破他的攻击,才是最具威胁的,于是全网计算机联合攻破管理者,并制定了一个针对如上攻击的防御升级包……

青栀如初 发表于 2025-6-27 16:15:33

围观 围观 沙发在哪里!!!
页: 1 [2]
查看完整版本: 【迎新】为庆祝本吧被爆,特推出力作——如何控制AI不让它祸害人