我们真的想好了要开发超级人工智能吗?

雅而有趣,俗而不伤。
回复
头像
寂默心流
网站管理员
帖子: 2001
注册时间: 2024-04-13 11:36
联系:

我们真的想好了要开发超级人工智能吗?

未读帖子 寂默心流 »

  最近这个话题讨论得很激烈,但大部分争论的焦点是超级智能机器人会不会毁灭人类,其潜台词仿佛是只要它们不会毁灭人类就会大大地造福人类。这种非此即彼,非黑即白的思维方法有点太简单了吧,比较low哦。

  如果我们坐在家里,面对着所有智能家电的传感器,这是不是像在体检,是不是像躺在重症病房,是不是像被关在全方位无死角的死刑犯牢房?!这种被彻底监控,信息还不停地上传到信息云中的感觉真的很爽?!设想我们一坐上沙发,沙发就说话了:“主人,你的体重同比增长了373克,环比增长4%,同比增长3.81%,请注意控制。”,周围没人倒也罢了,如果正好旁边有你正谈的男朋友,或者你那正为你的体型担忧的唠叨老妈咋办?你说“闭嘴,老沙,知道了!”。你走向镜子,镜子开腔了“主人,你的脸色有异,色度同比变化XXX,环比变化XXX,小心肝。”,你说“知道了,小宝贝儿。”。消停了没多会儿,电视机又说话了“主人,你有17分钟没说话,没移动了,你心情不佳,吃块巧克力或香蕉吧。”。你气坏了,招呼机器人管家过来理个法,你费驴劲儿才选好它给的发式菜单,它闪着传感器,啾啾啾地测量完了你的头型和头发长度分布,然后嗖嗖嗖地就给你理完了,你觉得不带劲儿啊,不够折腾“人”啊,就说我今天想理得酷一点,于是:

  “主人,啥叫酷一点?”
  “左边短一点,右边长一点。”
  “主人,一点儿是几毫米”
  “左削3.23mm,右削1.87mm”
  “主人,这个方案不符合美学和我们的行业规范,理不了。嘟嘟嘟。”

  半年下来你疯不疯?我们人类能不能有点基本的隐私啊,我们的心灵深处还能不能给留个阴暗的角落啊!有些我们现在习以为常的东西,真的失去了我们也会痛的。

  有人说那你就不买智能家电和机器人管家嘛,可人家都在用,都在谈使用心得,你能免俗?何况传统家电也会马上停产的,你就算想买把推子自己理发都不成,没有卖嘛,除非你上博物馆偷去。又有人说你们这些旧人类就是矫情,你们自己不适应新时代就承认自己low呗,将来那些一出生就是智能机器人时代的孩子们一准儿能适应,还忒享受。我承认他们肯定比我们的痛苦小,甚至“乐不思蜀”。可我们现在的互联网时代就已经培养出了充斥着死宅、草食男和沙发土豆的软世代人,难道还要进一步剥夺我们下一代的心智和情感的波动与激情,让他们成为机器人的乖宝宝,那他们还是他妈的人吗?!最近我听到一个词叫互训,说的是不要以为是我们驯化了经济植物和家畜家禽,实际上它们也反过来彻底地改变了我们人的生活方式及其走向好不好。我们看那些生活在原始雨林里的人,采野果,斗野兽,一箪食,一瓢饮,住陋棚,吾等不堪其苦,伊不改其乐。他们的幸福指数比我们高得多呢。自从我们种上了粮食,我们就彻底丧失了迁移的自由,我们被捆绑在土地上,面朝黄土背朝天地辛苦劳作上了,我们有了私产就有了私心,我们就必须整出一堆的规则来协调群体矛盾,我们还要攀比,导致机心炽盛,发明了一堆压迫我们的科技和设备,看似糖衣内藏炮弹,我们的压力大得都快崩溃了。扪心自问,我们是不是在怀念没有手机就能好好下班的旧时代了啊!我们创造了机器人时代,反过来就一定会彻底改造我们的下一代,把他们培养成碳基废人,寿命巨长的脑残造粪工。

  这时有人就会说了,那就开发能理解人类情感的智能家电和机器人嘛,它们就可以成为我们的好基友和好闺蜜,以上的问题就迎刃而解了哟。呵呵。问题终于转回到我们现在已经开始忧虑的问题了,如果将来机器人真的拥有了人类情感,可以自己权衡利弊后,它们再看那时候的人类,肩不能挑,手不能提,智商更是差它们十万八千里,秃头,大鼻孔,大肚腩,干啥啥不行,吃啥啥没够。那它们还留着我们有何用?!game over!
勇于在所有领域发挥理性
头像
寂默心流
网站管理员
帖子: 2001
注册时间: 2024-04-13 11:36
联系:

Re: 我们真的想好了要开发超级人工智能吗?

未读帖子 寂默心流 »

  最近在B站看了一个叫《人性本恶AI本坏?麦琳对人工智能发展的启示。》的长视频(https://www.bilibili.com/video/BV12Zi9Y ... re_times=2),颇有收获,这是我看过的第一个认真谈AI风险的视频,它还很亲民,接地气,容易懂。当然它拿一档争议很大的真人秀节目做引子,有媚俗之嫌,瑕不掩瑜,看完我觉得很有收获。

  我理解AI最大的问题或隐患是AI是第一个脱离了人的操作控制和心智控制的工具,它只有工具理性,没有人文理性。即便有一天它有了自我意识,它也不是人,所以它没有和人一样的同理心,它不可能具有和人对齐的道德感。这是很可怕的,AI会缺乏边界感,不同程度的不择手段是一定会伴随它的。虽然我们可以给它输入很多规则,但百密一疏,我们永远不可能知道下一个漏洞在哪儿,而对于将来各种能力远超人类的东西来说,万一存在的“小”漏洞就可能要了人类及其社会的命。基于概率的AI是最不可取的,因为人类的一些共识,或者集体无意识是很细微的,表达很模糊的,甚至只可意会不可言传的,它在概率上会很小,甚至可以被忽略。所以GPT算法发展不出很有人文理性的AI,因此是最危险的。

  可能将来我们还是得学习上帝停掉巴别塔的做法,以AI制AI,人为引入AI的分歧,总之,千万不要用同一种架构,同一种算法来发展AI,AI的多元化,可能会给人类留下一定的缓冲,一定的机会。

  
勇于在所有领域发挥理性
回复