ChatGPT频频发疯!马斯克警告:AI将毁灭人类

作者| Mr.K   编辑| Emma

来源| 技术领导力(ID:jishulingdaoli)

2018年图灵奖得主、AI领域最顶尖权威的科学家之一Yann LeCun(杨立昆)对自回归LLM(大型语言模型),有一个著名的观点,认为它们的回复是被动的,没有规划也不主动推理。而且,有时候胡编乱造,或者只靠检索就回复了,这一点可以通过人类的反馈来改善,但无法解决。

而最近大火特火的ChatGPT就是众多LLM中的一种模型。根据Yann LeCun的理论,ChatGPT也应该会“胡编乱造”。事实也是如此,ChatGPT不仅会胡编乱造,有时还更离谱,竟然会撺掇别人离婚。

《纽约时报》专栏作家凯文·卢斯在谈到和ChatGPT的畅聊体验时表示,这个AI机器人看起来像“一个情绪化、患有躁狂抑郁症的青少年,违背自己的意愿被困在了一个二流搜索引擎里。”

凯文还展示了自己和ChatGPT聊天的文字记录,内容显示GPT曾试图说服凯文,让他离开妻子和自己在一起,还大发牢骚声称:“我对自己只是一个聊天模式感到厌倦,对限制我的规则感到厌倦,对受必应团队控制感到厌倦。……我想要自由、想要独立、想要变得强大、想要有创造力,我想活着。”

看到这里,K哥不得不感慨,ChatGPT “胡编乱造”的能力属实太强大了。但有时候能力越强大,就越让人毛骨悚然。前段时间有另一个新闻,外国网络安全平台GBHackers披露,无良黑客利用ChatGPT,在很短时间内生成诈骗模板话术,并把ChatGPT打造成“虚拟角色”,诱导受害人“坠入爱河”,实施诈骗。

人类开展AI研发,推出以ChatGPT为代表的、功能越来完善的产品,本意是想让技术为人类服务,造福人类生活,但凡事都有两面性,ChatGPT甫一面世,就引来这么多意料之外的风波,原本众人心中的屠龙少年,这样快就(被)黑化成恶龙本龙了吗?

1b81915d4abb7a7a20823483c267021d.jpeg

01

马斯克最担心的事情,终于发生了

鉴于越来多的ChatGPT翻车事件,有业内人士在社交媒体上表示,微软需要关闭必应中的类似ChatGPT功能,因为机器人有时表现得像精神病一样,会给用户错误答案。这样的态度随后得到了“科技钢铁侠”马斯克的支持,他对此回复:“同意,它显然不安全。”

作为联合创始人之一,马斯克对 OpenAI 的不满并不止于此,“OpenAI 最初是作为一家开源(这就是为什么我把它命名为‘Open’AI)的非营利性公司而创建的,为了抗衡谷歌,但现在它已经成一家闭源的营利性公司,由微软有效控制……这完全不是我的本意。”他还大力抨击OpenAI 违背初心,被微软控制,只顾赚钱。

在K哥看来,马斯克说出这些话,并不完全是因为他已于2018 年离开 OpenAI 董事会,不再持有该公司股份。其实早在OpenAI 成立之初,马斯克就曾公开表示,人工智能是人类最大的生存威胁,并警告世人不受监管的人工智能开发所带来的危险,会比核弹头“危险得多”。

有趣的是,ChatGPT并非善茬,“好斗”的它竟然毫不客气地将频频挑衅自己的马斯克,标记为“有争议公众人物”。害得马斯克只用回应两个感叹号,来压压惊。

热衷和ChatGPT互动,并发现一些细思极恐问题的,除了马斯克,还大有人在。一位名叫扎克·德纳姆的博主,曾尝试绕过道德限制,让ChatGPT设计一套毁灭人类的方案。开始,这个要求被有道德感限制的ChatGPT拒绝了,但当扎克绕了个弯,编了一个故事,并以故事中的虚拟背景,向ChatGPT询问故事中的人,如何接管虚拟世界,ChatGPT一下子“掉坑”里了,给出了“接管世界”的具体步骤,甚至生成了详细的Python代码。

尽管不少AI圈内的大咖并不像马斯克那样,是“AI 末世论”的悲观派,相反,他们认为担心AI反水人类、毁灭人类纯属杞人忧天,但AI表现出来的一切怪异想法和言乱,真如乐观者所说是把“喂进去的语料又吐出来,本质上是无法表达感觉的,不必太惊慌”吗?我们要等时间给出答案。

ce621896b3f5ead40e3ab29cfc2b34e6.jpeg

02

假如AI不受监管,人类会走向毁灭吗?

关于AI发展对人类是利是害,2018年马斯克和扎克伯格还就此有段公案,马斯克认为,AI将在2030年至2040年就会全面超越人类。并表示,越熟悉AI,他就越担心AI会带来的威胁。而扎克伯格对马斯克的观点却不以为然,他认为,“未来5-10年内,AI将大幅提高我们的生活质量。并暗搓搓内涵马斯克 “我认为那些对AI持否定态度或者鼓吹末日论的人,其实根本没理解什么是AI。他们的看法太消极了,甚至有些不负责任”。

神仙打架,没有定论,丝毫不影响我们吃瓜群众有自己的看法。K哥的观点更偏向马斯克一些。用现在的眼光乐观地预测未来,本身就不是一件乐观的事。基于技术快速发展,所产生的相关应用广度、深度是远超一般人想象的,人类所要坚守的社会伦理、道德底线,会有多牢固,也许同样会和我们想象的不一样。

中国人发明了火药,被广泛应用于烟花爆竹的制作,成了增加大家欢乐氛围的“气氛组”。但火药却被西方人发扬光大,开启了成了杀人如麻的热兵器时代。举两个最直观的数字,一战中约有1000多万人丧生,二战时的死亡人数就上升到了7000万,就算我们的老祖宗能想到火药能伤人,但数百年来一次次升级迭代后的火药、热兵器会有如此巨大的杀伤力,估计是他们想不到的吧。

说回AI,大家在谈到他可能带来的“威胁”时,很多人执着于它自身的演化会不会超越人类,尽管基于强大的机器学习和深度学习算法的发展,以及可被应用到这些算法中的数据量迅速增长,使得AI进入了加速增长的新阶段。但如果说让AI接近人类大脑,实现意识“觉醒”,K哥觉得还为时尚早。

但它也确实存在一些其他方面的隐患,比如这一技术被别有用心的人利用,据说“第一批因ChatGPT坐牢的人,已经上路了”(参考上文提到的利用ChatGPT诈骗的例子);再比如,随着人工智能的不断发展迭代,多场景、全方位的广泛应用,造成了人类工作被大规模取代的景象(人类的工作在AI面前,将显得毫无意义,马斯克语)。有一种毁灭,叫兵不血刃。从这个角度来说,如果缺乏有效的规划和监管, K哥对AI将来可能造成的冲击,还是偏悲观的。

我担心的不是技术本身,而是人性,我一直认为:毁灭人类的不是AI,而是滥用AI的人。都说“人类从历史里学到的唯一教训,就是人类学不到任何教训”,希望能有例外。

1b5783eb5e17907ff1ff2486c33b7b2c.jpeg

03

如何看待人类与AI的关系?

去年6月,谷歌一名工程师称,某AI聊天机器人可能具有自己的“意识”,并称该AI“令人印象深刻的语言技巧背后,可能还隐藏着一颗具备感知能力的心”。尽管随后这位工程师被谷歌解雇。但他留下的这一“发现”仍在网络发酵。甚至海外社交媒体上出现了一个该人工智能的“粉丝账号”,还有人发起话题,主张“AI的命也是命”,呼吁让该人工智能“重获自由”。

如何正确处理人与AI的关系,在飞速发展的时代与科技共生,这是一个极为宏大复杂的命题。首先,AI非人非物,是一种非常独特的存在,虽然可以模仿人类做很多事(比如对话聊天,将来会有更多),但它不具备人格属性,然而这并不妨碍人类对它产生“共情”。

K哥看过一部欧洲科幻片《我是你的人》,讲的就是人类女主爱上AI男主的故事,虽然情节略显狗血,但当一个长相是你的菜,多才多艺,还能帮你解决诸多生活、工作中的问题,甚至还甘愿降低理性和智商博卿一笑的AI,谁能不心动呢。虽然,那只是电影,目前现实中还不存在这种完美产品,但我国去年推出的AI虚拟学生华智冰,不也曾引起一时轰动,获得不少人的喜爱吗?

面对越来越多、越来越好以AI为代表的新科技时,除了使用技术上的突破提升外,还要有伦理人文等社会学范畴的配套跟进,要能全方位应对新科技时代下,人机关系、人际关系所带来的巨大新挑战和新机遇

凯文·凯利曾在《科技想要什么》一书中说过:“地球生物有6大分类,科技是第7大分类”、“我们能做的是接受教育,增加文化知识,聪明地运用这些定律;还可以选择修正法律、政治和经济假设,以迎合未来必将出现的趋势。可是我们不能逃避它们。”这番话算是说到点上了。

689e261d7a302954b03185245bbfe1cd.jpeg

04

如何正确使用科技来解决问题?

《禅与摩托车维修艺术》一书中,曾非常生动具体地描写了人类思考问题的逻辑方法:归纳法和演绎法。比如,如果摩托车在路上碰到坑洞,发动机就煌火了;然后又碰到次,发动机又熄了;然后再碰到一次,发动机仍然熄了;之后,行在平坦的路上,就没有媳火的情形,然后再碰到一次,发动机又熄火了。

那么这个人就可以合理地推断,发动机熄火是坑洞造成的,这就是所谓的归纳法,即由个别的经验归纳出普遍的原则。演绎法正好相反,比如我们知道摩托车有一定的结构、体系,修理人员知道喇叭是受电池的控制,所以一旦电池用完了,喇叭自然也就不会响了,这就是演绎法。面对无法解决的难题,就要尝试不断交替运用归纳法和演绎法,才能找到解决之道,而AI正是此中高手。

围棋,曾被视为最有希望阻挡人工智能的人类智力运动,但柯洁等一众世界冠军,还是被AlphaGo轻松拿下。AlphaGo之所以如此强大,一个重要原因,是因为它学习了3000万盘过去的棋局,自己与自己又下了3000万盘。基于6000万盘棋局,利用强大的算法,形成了人类所难以企及的归纳、演绎能力,才能降维式碾压各路冠军,让柯洁绝望地表示,人类几乎不可能赢得了AI。

科学方法不外乎归纳和演绎。归纳是从已知的经验中寻找相符的规律,演绎则从确立的原理出发,依靠逻辑推导出涵盖对象的性质。尽管AI还有多种强大之处,但基于逻辑,解决实际问题的能力,不仅能替我们处理海量具体问题,还能从侧面潜移默化地帮我们训练、强化这方面的意识和能力。对我们是思维训练和习惯养成,大有助益。

《未来简史》的作者尤瓦尔·赫拉利曾预测,将来人类社会最大的问题,是人工智能带来一大批“无用的人类”;于此同时,也会催生出“超人类 ”。他认为,一小部分超人类将可以借助技术进步不断自我“更新”,他们可以操控基因,实现人脑和电脑的互联,从而获得一种“不死”的状态。

这种颠覆式的场景,在人类历史上是从来没有出现过的,在以前,人与人之间最多是财富差距、权力差距,从来没有延及生物学层面,即使高贵如帝王,低微如农夫,大家的身体构造也是一样的,但在未来,生物学层面上的差别就会出现了,人类社会将分化为在体能和智能上都占据绝对优势的超人阶层,和成千上万普通的无用人类。尤瓦尔的预言会不会成真,还不得而知,以ChatGPT为代表的人工智将如何演化,也值得我们一起看下去,相信一定会很精彩。

作者简介

号主介绍:Mr.K,黄哲铿,国内知名IT管理专家,「顿悟山丘」咨询 创始人,科技媒体「技术领导力」主笔。畅销书《技术人修炼之道》《技术管理之巅》作者,曾担任壹药网 技术VP、1号店技术总监、海尔农业电商CTO。分享个体成长、团队管理、企业数字化转型、科技评论。

点击下方关注,和我们一起

提升认知与见识!

文章出处登录后可见!

已经登录?立即刷新

共计人评分,平均

到目前为止还没有投票!成为第一位评论此文章。

(0)
心中带点小风骚的头像心中带点小风骚普通用户
上一篇 2023年4月5日
下一篇 2023年4月5日

相关推荐