logo

如何向人类同伴证明自己不是一个人工智能?

2017-03-19 06:36:55来源:知乎精选

话题: ,,
载入中...

【傅渥成的回答(81票)】:

直观的来说,我觉得以下几个方面的特点可能有助于向人类同胞表示自己的真实身份,当然,这些特点也对应着目前机器学习领域大家普遍关注的一些研究方向。

(1)人类似乎可以很好的解决小样本的学习问题。

举个例子,我们可能小时候某一天在画册上见到了⼀张动物的图片(例如大象),将它记在脑海中,随后当我们到了动物园亲眼见到大象时,我们马上可以许多种不同的动物中分辨出它来。仅仅一张大象的图片就真的会具有代表性吗?而且动物园看到的真实动物与我们见到的图片差异可能非常巨大,但我们从小样本中就已经提取到了关键信息。假设当时这本画册选择了另一位摄影师拍摄的大象的图片, 我们还能学会认出大象吗?应该还是可以的,这证明我们人类的小样本学习非常稳定,这有可能是通过类似于生成模型的方法实现的,也可能是通过迁移学习的方法实现的。

(2)从错误中学习和从别人的错误中学习。

2011 年时,IBM 的 Watson 曾经参加《危机边缘》电视节目。当时曾经发生过这样的情况,主持人提问:「填字游戏和奥利奥饼干出现的年代是……」,人类选手 Ken 抢答说 20 年代(1920s),然而主持人告诉他答案错误,接下来 Watson 抢到了回答的机会,只不过其回答仍然是 1920s 。这类错误很可能会暴露出一些人工智能系统的真实身份。当然,目前的强化学习等算法可以认为已经有了一定的“从错误中学习”的能力,但这与人类的学习还有一定的区别,例如人类会知道,分析对手的错误是有必要的,并且希望找到真正犯错的原因。以 Watson 的错误为例,一个可能的理由是,1913 年被发明的具有现代特征的 crossword 被命名叫“word-cross”(根据维基百科),如果是人类,从这个例子中可能会吸取教训,在搜索自己的数据库时需要一定程度考虑模糊化的用词等,这不但可能会帮助改正回答时遇到的错误,还可以避免以后也犯类似的错误。

(3)对复杂计算问题的直观感受能力。

对于许多复杂的多目标优化问题,人类的经验和直觉很可能要比计算机枚举和简单的模式识别强大得多。在科学研究领域,有大量这种有趣的案例。例如 Phylo 是一个 DNA 序列比对的游戏。序列比对是生物信息学和基因组学中的一个基本问题。在序列比对这方面,尽管目前已有大量成熟的的算法,但这些算法并不能真正完美地解决多序列比对的问题。目前,多序列比对被归为 NP 问题的一种。在解决这类问题时,人类玩家的直觉可能更加有效,在游戏中,四个不同的色块代表了四种构成 DNA 的 核苷酸,通过调整这些色块的排列,玩家就可以很轻松愉悦地按照自己心中模模糊糊的标准来匹配多条同源的序列。玩家们凭借直觉排列的结果常常可能比一些精心设计的算法和评分有着更为准确的判断。

如何向人类同伴证明自己不是一个人工智能?

(4) 关于能耗和临界性的一个注记。除此以外,一些物理方面的特点也可能可以帮助我们区分人类的智能和人工智能,例如临界性、能耗、结构形成的过程等。

@Summer Clover 已经在回答中提到了能耗的问题,我可以提供关于能耗问题的另一种视角。暂且先不考虑 Landauer 原理的限制,而是考虑一个很大的体系中的「集体智能」,类比为物理学中的凝聚态体系。当系统发生对称破缺时(例如外界出现了刺激),系统的能量面会形成「草帽状」,此时的系统有无数个能量最小态,而它们的能量相同,这就暗示我们,在这些状态之间的转变不需要耗费额外的能量的。

如何向人类同伴证明自己不是一个人工智能?

如何向人类同伴证明自己不是一个人工智能?

这种运动模式在能量面上对应于那些绕着“帽子”内沿的运动,它不需要耗费能量(一个自旋波的例子如上图所示),对应于最低频的运动模式。这种模式的出现与对称破缺(相变和临界现象)相关,它有着长的关联长度和大的敏感性,因而普遍认为与生物的智能相关。在物理学中,这种运动模式以物理学家哥德斯通(Jeffrey Goldstone)的名字命名,叫做哥德斯通模式(Goldstone mode),从这个意义上来看,临界性(学习时稳定性和可塑性的平衡)和能耗低很可能就是联系在一起的。

图片来源:

Cologne Talk (title page)Cologne Talk (title page)

Long-lived Higgs mode in a two-dimensional confined Fermi system

Open-Phylo: give science back to the people - On Biology

【SummerClover的回答(285票)】:

谢邀。

提供一个小角度:能耗

支持一个强大的AI,必然需要很强的计算机。但算力一强,计算机的能耗就降不下来了。

因为经典计算机是不可逆计算机,与非门是不可逆操作,经典计算机计算时会不断擦除信息。根据兰道尔原理 (Landauer's Principle),每抹去1比特信息,需要消耗的能量/释放的热量是 kTln2(k为玻尔兹曼常数,T为环境温度)。

这导致无法掩盖的能耗比——

在做类似任务,AI比人脑的能耗会高出很多个数量级。

所以有一个比较简单的区分方法:做任务,但不太去关心分数,关心能耗即可

测试一些对计算机来说计算量大的学习任务(比如一些视觉任务),然后用热辐射仪之类的探测器测热量或者能耗即可。这就是一个很可靠的单一指标。

无论AI系统进步什么程度,只要它还是运行在电子计算机上的,我们都能用这种方法可靠地辨别。

------------------

最后统一回复一下评论区关于人脑服从Landauer原理的问题。

第一,人脑也是不可逆的计算,没错。但人脑对于执行许多任务的能耗是非常低的。尤其是对于那些人类生存攸关的任务(视觉、强化学习等等)。这是漫长进化过程中不断优化的结果。包括大到神经网络的结构,小到蛋白质的折叠方式,都经过了漫长的自然选择。效率低、能耗高的计算方式会被淘汰

第二,人脑基础的计算单元,我们知道的不是很清楚。但人脑的能耗比电子计算机(处理人类擅长的那些任务)低很多是实验验证的。只要电子计算机还依赖不可逆的经典逻辑门运算,它的理论最低能耗都会比人脑(处理人类擅长的那些任务)高。它的问题在于经典逻辑门操作——每一次与非门都在擦除信息,然后对1比特的输入数据的处理(根据任务不同)又需要重复使用大量与非门操作。

简单总结就是,进化带来了低能耗的人脑设计;处理人类擅长任务时,人脑的能耗比电子计算机(因为经典逻辑门)的理论最低能耗还低。人脑和电子计算机都服从Landauer原理,但它们基础的计算单元有不同的设计,所以出现

【不可掩盖的能耗比】。

大脑消耗的能量占人体每天消耗的卡路里的20%。正常人日均消耗卡路里2000大卡(Kcal),那么大脑一天消耗的能量大约为400Kcal。大脑功率其实很稳定,大约20瓦特左右。且这是囊括CPU、GPU、硬盘、内存等所有设备且视觉、语音、语言处理功能全面开启的时的能耗。

我们再算一些与李世石对决的AlphaGo的能耗。1202块CPU(算100瓦),176块GPU(算300瓦)。视觉部分读棋盘的功能由DeepMind的工程师代劳了。语音、语言处理功能全没有,又省了。只算CPU和GPU,功率已经是173千瓦。

简单估算一下,AlphaGo作为一只简单纯朴的围棋AI的能耗大约是李世石的8650倍。一般认为最消耗计算力的视觉任务都没实现呢,能耗已经差了数千倍了。估算可能稍有一些误差,不过我们只关注数量级就好。

既然对方都是强人工智能,那就不玩智能测试了。这个测试是把对于智能的测试转移为对于人工智能系统计算复杂度和计算机架构设计的测试。那么,能耗就是一个简单又可靠的指标。要过这个测试可比单纯的human-level performance困难多了。

【熊辰炎的回答(43票)】:

不知道到底是多外行的人才能觉得这个居然是个问题。

讲真,“如何伪装自己是一个人工智能” 要难多了。

不信你可以试试装自己是微软小冰,你看你骗得过你同学不。

【Creamy络的回答(25票)】:

键盘侠:你是机器。

你:我不是机器。

键盘侠:你凭什么说你不是机器?

你:机器能打字?

键盘侠:智能聊天机器人笑而不语。

你:你sb,懂?机器人会骂你?

键盘侠:为什么不能?sb不是字?

你:我*你%#,你智障啊。

键盘侠:扣字程序太烂,差评。

你:%#玩意,你倒是找哪家公司能做智能骂人机器人啊?

键盘侠:哈哈,终于不小心暴露你是“公司”产品了,贵公司质检需要加强啊。

你:...........

【许铁-巡洋舰科技的回答(6票)】:

目前在定义上,对于人工智能与人类智能的区别,存在这样的意见“AI没有意识, 无法预测,没有创造力, AI几乎永远无法与人类智能望其相背”

而人类容易犯的错误之一, 就是用一些自己也无法严格定义的概念去套用机器。

“ 意识” “ 创造力”这些概念, 其实人类自身也不理解, 你站在人类的角度上, 去讨论ai有无意识这个问题, 是自己陷入了一个思维的陷阱。 因为究其根本, 我们对自己有没有意识这件事也没有一个掌控的时候, 整个这样的讨论流于空泛。 而对于这些概念的进一步掌握, 取决于神经科学的进步。虽然我比较怀疑很快强人工智能会出现, 但是即使出现, 它也不一定需要以我们人类能理解的方式产生意识, 达到目标。 说不定在另一个外星观测者看来, 我们也是无意识的, 意识不过是这个被称作“人”的东西所使用的多级神经网络里某个调节参数的辅助工具。

虽然目前我们可以通过一些表现自我情感意识的行为区别人类智能和人工智能。但是,人脑这个东西, 即使是情感这些我们觉得很柔软的功能,背后也是以海量运算为背景的,而目前的科学论文证实的是, 在视皮层的运算, 很多与目前的深度网路运算是很接近的。 有的人说人是向前看的动物而机器只会向后看, 事实上呢, 人对未来的预测也来自于对过去数据的大量积累。

我们并无太多证据证明AI是否和我们的大脑有着相类似的运转方式, 但是有一点肯定的是, AI的发展源自我们对自身的模仿, 而对AI的探究反过来正在帮助我们理解我们自身 ,这也是生命最终的意义。

正如费曼所说, 只有你知道如何制造一个东西, 你才真正理解它。

链接:人工智能vs人类智能小传 - 混沌巡洋舰 - 知乎专栏

来源:知乎

著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

【刘知远的回答(85票)】:

不同意排名第一的童哲的回答:

一个令人沮丧但是无法辩驳的事实是:人其实和机器没有本质区别。不是说人就是简单的齿轮,而是说人的复杂度已经被人工智在一定程度上被超过了(一些领域并没有,例如物体识别)。人类思维和机器的思维已经没有明显的上限界限了(包括创造力,可以搜进化的机器),无论我们是否愿意接受。目前机器的能力正在快速逼近人类,超过的部分将一骑绝尘地把我们甩在后面。

目前机器智能与人类智能的差距是全方位的,无论是复杂场景下的感知、认知与决策,还是对自我的意识,都是机器智能远未掌握的。说到创造力,以作诗和作文为例,都不过是对已有诗歌和文章的模仿,也就能比蹩脚的写手好些,“熟读唐诗三百首、不会吟诗也会吟”而已。

【陈忘尘的回答(42票)】:

「你不會是個人工智能吧?」女友俯下身,看著躺在床榻上的我。

哈?為啥?

「因為你比我自己還要瞭解我啊,不是人工智能,沒有大數據支持,我可不信。」

女友明顯是開玩笑的口吻,這幾年AI技術飛速發展是有目共睹的,但我可沒有聽說生化機器人可以做的與真人無異。更何況,我可是爹生媽養先生教的純種人類啊。

你真無聊,我隨意回答,電影看多了吧,人工智能可沒有我這麼聰明,它們最多和你聊聊天氣,比賽結果什麼的…

「…也不會在情人節送我禮物!」女友打斷了我。

怎樣,滿意麼。你想要了很久的Louis Vuitton,經典棋盤格…

「你怎麼知道我想要了很久的?」

啊?你和我說…不對,女友從來不會讓我給她買什麼,都是讓我自己猜的。

「你怎麼知道我想要了很久的?」女友重復了一遍問題。

我,我是怎麼知道的…?我的大腦飛快運轉,也許...男友的直覺?

「你是,怎麼知道我想要了很久的?」女友的表情有點不太對勁了。

我不知道。我坐起來,雙手抱住頭——那裡開始疼痛,一些不清晰的東西似乎流了進來。

空?…空間,對!是你上個月轉發的說說嘛,同學生日她男友給她買的包,我當時答應你說給你買的,忘了? 我終於想起來了。

「你胡說!我都不用OICQ很多年了」女友咄咄逼人

這……我苦思冥想,絞盡腦汁。

「好啦!你那麼緊張乾嘛,是我去年生日時說的,你忘了吧。」 女友突然又笑了起來,跑開了,似乎讓我難堪讓她很開心。真是多變啊,女人。

好像是有這麼回事,我就說嘛…寶貝你真是的。

我默默把本來已經拔出一半的合金折刀收回背後的皮下空間里,又順手用T恤擋上,偽裝血液與皮膚快速復原,沒有痕跡。好不容易找到偽裝身份,安安穩穩活了這麼久,可不能栽在一個女人手上。

【第54663次任務報告,時間20xx年8月28日,對實驗體α號進行第一次禁忌問題測試。結果:目標感情有較大變動,狀態不穩定,詢問是否終止實驗,將其帶回總部】

【總部已收到。】

【历岩的回答(9票)】:

很多答主根本就搞不清题意,都误以为人工智能代表机器人。人工智能是一种赛博空间的东西,可以存在于任何载体。它可以在仿人类机器人的脑状CPU上加载,也可以在网络中存在,不用和你面对面。什么下体肿胀的言论都出来了,我也是无语了。

现阶段还是很好证明的,目前人工智能还不具备人类等级的智能。

但是人工智能真正智能的时候,人类就属于弱智了。欺骗一个弱智太容易了。

原文地址:知乎

【上一篇】
【下一篇】 没有了

您可能还会对这些文章感兴趣!

最新评论文章

热门标签