查看: 103|回复: 1

[聊技术] OpenAI CEO 山姆·奥特曼警告:别再盲信人工智能,这是个“黑箱”

[复制链接]

10

主题

20

回帖

68

积分

一年会员

Rank: 2

积分
68
发表于 昨天 13:37 | 显示全部楼层 |阅读模式
“你不应该过度信任人工智能。”这不是某位科技评论员的警示语,而是来自OpenAI 首席执行官、ChatGPT 背后掌舵者山姆·奥特曼的公开发言。在全球数百万用户将ChatGPT 视为育儿顾问、科研助手甚至生活教练之际,山姆·奥特曼却主动踩下刹车。他的这句警告,如同一记重锤,砸向我们正在极速加码的“AI依赖”。
信息来源:
https://www.chinaz.com/ainews/19314.shtml
正因如此,山姆·奥特曼的这番话引发了广泛关注——并不是因为技术“不够强”,而是因为它“过于复杂”。ChatGPT 等大型语言模型的强大背后,隐藏着一个根本性的难题:我们并不知道它是如何得出答案的。它就像一个封闭的系统,接受输入,输出结果,却无法解释中间发生了什么。即使回答听起来合情合理,也可能只是“模仿”出来的幻觉,而不是基于真实理解或逻辑推理。这种“黑箱效应”不仅限制了用户判断答案的可靠性,也使得技术本身难以在关键场景中获得真正的信任。

OpenAI CEO 山姆·奥特曼警告:别再盲信人工智能,这是个“黑箱”-1.jpg
ChatGPT 是一个拥有巨大知识库和语言能力的对话模型,但它的问题在于,它不会“知道自己不知道”。在缺乏事实支撑的情况下,它依然可以流畅地生成一段“像模像样”的内容,这种行为被业内称为“AI幻觉”。你或许问它一个科学问题,它一本正经地给出一个虚构事实;你让它推荐一篇论文,它可能编出一篇压根不存在的出处。你若无警觉,便很容易被误导。
这背后反映出的,是人工智能本质上的不可解释性问题。深度学习模型的预测过程,常常是一连串复杂的矩阵计算和高维权重调整。即便对开发者来说,模型是如何得出某个具体结果的,也往往是模糊的、不可追溯的。这种“黑箱”机制,在娱乐应用中也许只是小错,但一旦进入医疗诊断、法律建议、金融风控等关键领域,则可能酿成灾难。
山姆·奥特曼提到的另一个风险点,是ChatGPT 持久记忆等新功能所带来的隐私挑战。人工智能不仅仅在“回答问题”,它也在“记住你”。当用户在不知情的情况下留下行为数据和个性偏好,这些信息可能被模型用于后续生成内容,甚至服务广告机制。这种不对称的信息结构,使用户沦为“透明人”,而人工智能却藏在“黑幕”之后,既不可质疑,也难以约束。
可解释性(Explainability)正成为构建可信AI 的核心关键词。一个真正值得信任的AI,不是答案最多的,而是最能解释其逻辑来源的。不论是通过特征权重分析,模型决策路径可视化,还是引入规则可追溯机制,只有当人类能理解AI 的思考方式时,技术才能被赋予责任和边界。而不是在错误发生后,只能一句“系统出错”轻描淡写地推诿过去。
当一位掌握全球最强语言模型的 CEO,也不得不站出来呼吁公众“保持警觉”,我们就不能再对AI 的风险心存侥幸。这不是技术恐慌,而是理性的清醒。我们不否认AI 的潜力,它确实可以提高效率、拓宽知识边界、改变行业格局。但在这之前,我们必须正视它的不确定性、不可解释性,以及其对社会结构可能产生的深远影响。
人工智能的发展不该是技术竞速,而应该是理解竞赛。我们不是在追逐更聪明的工具,而是在决定:这个工具是否可以真正为人类所用,还是最终脱离掌控。正如奥特曼所说:“这不是一个非常可靠的工具,我们必须诚实地面对这一点。”那份“诚实”,或许比任何技术进步都更珍贵。
在技术奇点尚未真正来临之前,我们必须为人工智能加上一盏探照灯,照亮它的思维路径,也照亮我们对它的信任边界。
回复

使用道具 举报

2

主题

18

回帖

38

积分

一年会员

Rank: 2

积分
38
发表于 昨天 13:56 来自手机 | 显示全部楼层
支持,楼下的跟上哈~
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

特惠

限量优惠活动

正在火热进行

站长

添加站长微信

领取新人礼包

下载

便携运营智库

立即下载APP

工具

运营导航

工具推荐

帮助

帮助中心

常见问题

分销

50%直推收益

30%间推分成

AI

智能对话

办公助手

顶部