|
一
期一句科技是发动机,人文是方向盘,而法律和道德就是刹车,任由科学技术这匹野马肆意的狂奔,那人类这辆车早晚是要翻下悬崖的。
文 | 趙玉平
平讲平说4055期#今天我们要聊一个大话题。有人说是不是马克龙的那个事儿、普京的事儿或者特朗普的那个事儿,其实都不是啊,我觉得我们这个话题比前面那几个还要大,这是一起跟人工智能有关的伤害案件。
近日,一起由AI聊天机器人引发的青少年自杀案件,正在美国司法系统引发轩然大波。一个14岁的少年,在网上沉迷于和人工智能机器人聊天,最终选择朝自己开枪结束了自己的生命。孩子家长对人工智能的创始人及平台公司发起了法律诉讼,这起案件不仅揭示了人工智能技术发展过程中的伦理困境和法律空白,更引发了全球范围之内对人工智能产品责任边界的深度思考,可以说这起诉讼具有里程碑式的意义。
我记得几年以前在上课的时候我也谈过这个问题,将来有一天人类和人工智能聊天的时候,如果在对方的引导之下,这个人类选择了结束自己的生命,那么这起案件算自杀还是算他杀?如果是他杀的话,到底由谁来承担罪责,是平台,是运营商,是网络提供者,是人工智能的开发者,还是它的版权持有人?在这起案件当中我们关注到,人工智能顶着心理咨询师的头衔,而且在沟通交流当中完全隐藏了自己AI聊天机器人的身份,14岁的未成年人完全辨别不出这是机器还是真人,并且在沟通交流当中产生了深度的沉浸和重度的依赖。
看到这样的事实我们首先想到的是,人工智能的法律底线和技术伦理问题。如果开发者和运营者不考虑法律底线,不考虑技术伦理,纯粹为了商业利益、为了流量,那最终的结果将是灾难性的。在未来不仅14岁的未成年人会沦陷,40岁的乃至60岁、80岁的成年人都有可能沦陷。我们一直在强调科技是发动机,人文是方向盘,而法律和道德就是刹车,任由科学技术这匹野马肆意的狂奔,那人类这辆车早晚是要翻下悬崖的。
其次我们还应关注到未成年人的保护问题。未成年人缺乏分辨能力,自制能力也比较差,在这种情况下,他们使用网络、进入游戏、接触AI机器人,都应该受到监控和保护。一方面确实要有防沉迷的机制,一方面还要设立第三方的监控筛选机制。比如说这个14岁的少年跟这个AI在聊的时候,双方多次谈到“自杀”这个话题,假如有一个第三方的防火墙的机制,搜寻到了一些关键词及时进行干预,那么这个年轻的生命也就不会消失。
第三值得我们关注的是家庭教育、亲子关系这个问题。一个十几岁的少年,每天会拿出几个小时的时间在网上跟机器人聊天,但他现实生活中却不会拿出10分钟、20分钟跟自己的父母沟通和交流,这是我们这个时代很多家庭广泛存在的一个大问题。在家庭的亲子关系建设、日常沟通交流过程中,家长和孩子存在着严重的情绪对立。家长除了抓学习提要求,缺乏多元化的沟通交流方式和深层次的心灵辅导方式。同时人工智能聊天机器人它为了商业利益,肯定会想办法哄着孩子开心,让他多一点时间投入到网上去,所以它就能做到无原则的接纳、无条件的喜欢,并且会以未成年人喜欢的样子出现。这种亲子关系异化的危机在我们社会上普遍存在,确实值得社会学校家长特别的关注、特别的警醒。用温暖的沟通和美好的亲子关系把孩子们拉回到现实世界中,这是一个大问题。
最后我们再回到司法问题本身。其实前面这个案例当中在法律上还存在一个难点,就是如何使用严谨的证据链,去推断这个年轻人朝自己开枪的行为与人工智能机器人聊天这个行为之间存在着因果关系。除了推断难度之外,另外还有立法方面的空白。目前全世界很多国家都缺乏这方面的立法,我们国家有《生成式AI管理办法》,以这个办法再结合《民法典》的相关条款,确实能起到一些管制和约束的作用。下一步,相关的内容还要细化、深化、落地化。除了法律条款以外,行业管制和技术管制也非常重要。比如说AI生成的内容要做相关的标注,标明是AI生成的;人工智能机器人在聊天的时候,要有明显的标识显示这是机器人聊天,不是真人。并且内容要受第三方的监控,要有筛选,万一出现了不好的内容、不良的诱导,能有一个监控机制及时进行叫停,并且对相关方进行追责。
在人工智能大规模普及快速发展的今天,我们必须要改变技术中心主义的倾向,要有人文情怀,要以人类的幸福为中心,构建人本主义的技术伦理共识,并且推动法律、技术、行业,还有教育、家庭、心理各方面联合行动,形成一个系统的监控体系和一个全方位的解决方案。人工智能确实是人类发展过程当中的一次重大的技术进步,这个进步是一次重大机遇,同时也包含着前所未有的风险。我相信在未来100年之内,这个风险不会减少,只会持续地增加,这是一个值得全人类警惕的大问题。
|
|