桦南县| 湖南省| 滦平县| 柘城县| 宜兰县| 永济市| 慈利县| 鄂州市| 雅江县| 观塘区| 兴仁县| 彝良县| 彭州市| 龙门县| 怀仁县| 息烽县| 石阡县| 额尔古纳市| 深州市| 永新县| 肇州县| 普格县| 乌鲁木齐县| 宝兴县| 定日县| 永济市| 阿巴嘎旗| 盘山县| 通榆县| 赤水市| 商水县| 抚远县| 孟连| 汉寿县| 台安县| 通海县| 尚志市| 锦屏县| 沈阳市| 五华县| 镇原县| 鄂伦春自治旗| 陇川县| 商丘市| 黄平县| 玉树县| 江城| 台东市| 延庆县| 江华| 肇州县| 锡林郭勒盟| 通河县| 广西| 耒阳市| 德格县| 邵武市| 浙江省| 长顺县| 呼和浩特市| 琼结县| 乌兰浩特市| 麟游县| 元氏县| 淳安县| 新余市| 深水埗区| 中阳县| 大石桥市| 仪征市| 潜山县| 遂川县| 磐石市| 沽源县| 佛坪县| 武穴市| 阿鲁科尔沁旗| 南皮县| 高要市| 太湖县| 河西区| 广水市| 莱州市| 比如县| 饶阳县| 天台县| 平顺县| 利辛县| 嘉鱼县| 黄石市| 荥阳市| 会同县| 濮阳市| 浦城县| 正镶白旗| 株洲市| 临朐县| 什邡市| 休宁县| 黔西| 类乌齐县| 沈丘县| 乳源| 天台县| 郁南县| 东乡族自治县| 保亭| 辽宁省| 乐平市| 阆中市| 安龙县| 壤塘县| 上思县| 河北区| 宝山区| 内江市| 沙洋县| 凤台县| 城市| 璧山县| 湘阴县| 吴桥县| 增城市| 濮阳市| 抚松县| 辽阳市| 碌曲县| 中江县| 和硕县| 柞水县| 中牟县| 彩票| 古田县| 兴国县| 商河县| 永城市| 共和县| 芒康县| 彭州市| 中牟县| 太湖县| 敖汉旗| 略阳县| 珠海市| 洪泽县| 班玛县| 龙口市| 湟源县| 平湖市| 江安县| 朝阳区| 金门县| 仁化县| 林芝县| 托克逊县| 抚顺县| 义乌市| 连云港市| 桃源县| 津市市| 威海市| 五常市| 文化| 康定县| 望谟县| 正阳县| 山东| 武穴市| 固安县| 祁东县| 肃南| 台湾省| 日照市| 溆浦县| 澄江县| 黔东| 邢台县| 武乡县| 高碑店市| 衡阳县| 德化县| 青冈县| 太仆寺旗| 绥滨县| 安溪县| 肃南| 海淀区| 水富县| 色达县| 农安县| 长顺县| 辽中县| 潼南县| 花莲县| 杨浦区| 万宁市| 萨嘎县| 永新县| 长垣县| 万盛区| 万州区| 百色市| 赤壁市| 靖安县| 常山县| 高邑县| 泽普县| 张家界市| 泗水县| 沧源| 高州市| 许昌市| 龙胜| 丰城市| 九江市| 大关县| 游戏| 瓦房店市| 靖西县| 安顺市| 资溪县| 沂水县| 青岛市| 高青县| 枞阳县| 长海县| 黄大仙区| 吉木乃县| 友谊县| 湾仔区| 普宁市| 苏尼特右旗| 彭水| 靖边县| 漳浦县| 梁河县| 海兴县| 安丘市| 丰原市| 苍南县| 墨玉县| 古交市| 开平市| 大英县| 丘北县| 隆昌县| 来宾市| 公安县| 凤台县| 社会| 罗平县| 蓬莱市| 孙吴县| 叙永县| 阳高县| 淅川县|

百人抢怪大乱斗 《倩女幽魂》说好的青丘保卫战呢

2019-03-19 14:41 来源:凤凰社

  百人抢怪大乱斗 《倩女幽魂》说好的青丘保卫战呢

  因此,就算《头号玩家》最后无法直接性为VR消费市场给予正面刺激,但已经藉由大屏幕宣告全世界:有一天,这可能是你玩游戏的方式。十国之间除了敌对关系,还可拉帮结盟,使得世界局势瞬息万变,让国战更加变幻莫测。

老汉不会知道我记得这些,也许吧,也许我的记忆对过往自动进行了一些修订和篡改,也许那天在大马路上,那个蹿出来救我的人并没有那么好的身手,他毕竟是七十的人了,上楼梯的时候已经有些头重脚轻。其实目前网咖的装修风格完全可以满足这种经营方式,另外普通酒吧常用的驻场演出也可引进。

  能把家长深恶痛绝的游戏变成工作是一件令人羡慕的事,但劝服爸爸妈妈接受自己全职打比赛也不轻松。表面看来,京东已经取到了在3C尤其是PC领域上的话事权,但这一权力并不稳定,尤其是在价格血拼之中,这样的份额获得往往很容易被颠覆。

  许倬云谨记。《守望先锋》战队运动员年龄在1998年到2001年之间。

除了获得国内读者和文学界的认可,《暗算》更是走出了国门,先后推出英文版、西班牙语版等不同语言版本。

  对于这个微小的个体,有一位“造物主”,亦即人格化的“道”和“圣”,发下两条指令,写在同一页的两面,东边和西边各看了一半;于是,东边尽力在神赐给的环境中,求得最大的平衡和稳定,以安其身,以立其命;西方从犹太教以来,始终是尽力求表现、求发展,甚至于不惜毁损自己寄生的地球。

  这个寓言告诉我们,当涉及美貌问题,适应性会产生巨大魔力,使人们觉得自己追不到的那些吸引力非常高的人(葡萄),变得不那么吸引人了(酸了)。国内生产总值、失业率、通货膨胀率、进出口贸易额、消费者信心指数以及其他的许多关键性指标,都在我们的世界里占有举足轻重的地位,而发明这些指标的那些人,可能从未想象过这种状况。

  在美国权威系统学习方法著作《有效学习》中,作者伯泽尔谈到在成长过程中所经历的转变,很大程度上要归功于老师、父母和朋友。

  网咖在为顾客提供舒适、快速的上网环境之外,又加入了很多游戏与电子竞技的元素在内,因此渐渐成为了兼具娱乐与休闲功能为一体的新型业态。活动模式即在特定时期内可以体验到之前只能在自定义服务器体验的到的游戏模式,我们将通过这个模式尝试全新玩法,并验证不同的游戏参数。

  这被看做是传统的上网服务之外进行的服务升级,但这绝不是终点。

  统计数据欧睿信息咨询公司的市场调查报告显示,在全球范围内独居人口都在急剧增长,这个数字已经从1996年的亿增长到了2006年的亿,在短短十年间增长了33%。

  中国国家统计局公布的数据表明,在30岁以下的人口中,男性比女性多出两千万人。记得那时候未成年人上网有两种方式,第一种就是随便说一个成年人的身份证号,这样就可以正常上网,只要身份证号说对了,网吧的工作人员根本不会阻拦。

  

  百人抢怪大乱斗 《倩女幽魂》说好的青丘保卫战呢

 
责编:神话

百人抢怪大乱斗 《倩女幽魂》说好的青丘保卫战呢

2019-03-19 09:52:33 来源: 网易智能
0
分享到:
T + -

本文来自 第四范式,网易智能已获转载授权。

「范式大学」由第四范式发起,致力于成为“数据科学家”的黄埔军校,校长为第四范式首席科学家,华人界首个国际人工智能协会AAAI Fellow、唯一的AAAI 华人执委杨强教授。

[范式大学]在探索AI工业化的同时,也关注最新学术研究成果。近日,杨强教授在[范式大学]内部课程中,与大家分享了他在 “生成式对抗网络模型“ 和迁移学习等领域的独特见解和最新思考。在此特别感谢杨教授的博士生张颖华同学的帮助。

以下内容根据杨强教授演讲编写,略微有所删减。

有些人看过电视剧《西部世界》—在《西部世界》里,你可能问的一个关键问题是什么?就是当剧中的人们,其中任何一个人走到你面前,你能否区分出他/她是个真人? 你会问:咦,这不是图灵测试要解决的问题吗? 是的。 问题是,如果《西部世界》里的这些机器人已经通过了图灵测试,你又如何区分他/她们呢?

要解决这个问题,除了用“一枪把对方打死,然后看对方是否真的死了”这个极端的检测方法以外,还有什么更好的方法呢?这里有些剧透,答案是:拍苍蝇。当一个苍蝇飞到一个“人”的脸上,如果这个人没有感觉,不会去拨开或拍打苍蝇,他/她很可能就是机器人。结果因此还引发了一件趣事,去年美国大选的时候,希拉里在讲台上面,一个苍蝇飞到她脸上,她没有搭理,后来有人就说:糟了,我们要选一个机器人当总统了!那时《西部世界》恰好正在热播。

言归正传,从人工智能的角度,“拍苍蝇”这个例子,说明什么呢?它告诉我们有一些关键特征可供识别真人亦或机器人,但要找到这些关键特征并不容易。对《西部世界》而言,你得把整个剧看完才能知道。也就是说,你不但要有大量数据的训练,而且得知道剧里的机器人的制造原理,这样才能找到这个重要特征。那么问题来了:如果作为“游客”,我们对这个机器人的构造知道甚少怎么办?

要回答这一点,我首先要给大家讲一下概率模型的不同类型。概率模型是贯穿整个机器学习的主线。下面PPT上的这两张图是对一个女孩的素描,我们在素描里面可以看到很多的特征,比方说比较飘逸的笔画、或者是适合女性颜色等。我们把上面的问题简化一下:如何能够通过辨别这些体征、从而认出来画上的是男是女?

杨强漫谈西部世界、生成式对抗网络及迁移学习

这里我要介绍一个“生成”模型的概念。 在某个关于“人”的样本集里面找到某一个高概率的样本,我们认为这个样本很可能对应我们对“人” 这个概念的认识。然后我们根据这个样本来做完形填空或着彩。在小学中学我们经常做的一种题就是填空。其实,生成样本的过程和填空很相似:当我们看到这张画要给它着色时要选择颜色和图案,是因为这些选择符合“人”的概率分布。

再具体一些:如果数据是(X,Y),这里我们用X这个变量来代表笔画和颜色,Y这个变量来区分男女,那么这个概率数据是遵循一定分布规律的。但问题是,如何才能得到这个数据的分布?在现实中,做到这一点是非常难的,因为这需要我们获得概率的“联合分布”,就是所有显式和隐式的特征和它们所有可能取值的概率。知道了这个概率,生成某个样本就很容易了。 在机器学习的历史上, 关于要不要首先获得“联合分布”这个问题,有着很多的争论。比方说,有贝叶斯流派,就说:“是的,我们需要这样一个联合分布”。而深度学习流派,或者是SVM等算法对应的这些流派,就说:既然我们的目的是分类,那用简单的算法就可以了,所以”不需要”。 得到一个联合概率分布是非常非常难的事情,因为需要因果关系的知识,还需要很多先验概率。

生成模型是很有用的。比如说,我们在一幅画上如何确定这样着色是有意义的,但那样做是没有意义的?除了在画作上,在音乐作曲的问题上也是如此:如何做一首动听的曲子?为什么有的曲子就很好听,有的就很难听?这些任务,其实都是在做“生成”的工作。我们为什么很尊敬某些作曲家、电影导演、作家?  作为观众,我们去看电影很容易,但是让自己去做导演,做编剧往往就觉得很难。 这是为什么呢? “联合概率模型”的学习过程就帮助我们回答了这样一个问题。问题是:学习如何产生一个联合概率模型,需要大量的高质量数据来训练。真正能了解真实概率生成机制的只有少数人,即那些机器人的设计者。这也和我们的常识是一致的: 只有少数人能够成为好的作家,只有少数人能够成为好的诗人,而要做到这一点需要遵循所谓的“一万个小时定律”。

杨强漫谈西部世界、生成式对抗网络及迁移学习

因为生成式模型很难估计,所以,我们在机器学习中更多的是使用“判别式机器学习模型”的。这种模型和“生成式概率模型”是有一个本质的区别的。 我们过去熟悉的模型如逻辑回归,SVM和深度学习等,多是判别式模型。就是:给你一个样本,模型不关注样本是怎么“真正”生成的,也不关心样本构造的真实因果关系和概率值, 而是直接判别样本属于哪一类。 我们可以管这种判别的方式叫做“懒人主义”。 相反,生成式模型可以被认为是一个“完美主义。”  什么是完美主义呢?我们要去判别一个事,从它最原始的那个点开始分析,产生先验概率分布,然后根据因果关系一直推到可观察的样本分布,最后再得到样本。这样,一旦得到整个联合概率分布,就可以对缺失数据和未来的事件做出准确的预测。 所以,到了完成了这个联合分布的学习时,我们机器学习的工作就做的差不多了。

生成式模型和判别式模型的区别很像人和机器的区别:机器采取的是完美主义,因为它可以不断优化,追求极致。而人不会如此,人是够好了就满足了。从这一点上来说,人完全没有必要和阿尔法狗去比赛,因为这是不明智的。我们人类的构造不是干这个的,我们的构造是能把一件事给做完了。比方说,人应该去比的是你有多快能学会下围棋,并从中得到多少乐趣。而把围棋下的极致这件事是机器擅长的。

有没有办法,利用有限的数据,通过不断提高的方式,建立一个生成式模型呢?Ian Goodfellow提出了一种新的方法,很值得我们思考: 他的设想是用一个生成式模型(Generator)来生成模拟样本,再用一个判别式模型来区分这个生成的样本是否真实,这样的一对系统,可以互相对弈,共同提高。 以作画为例。 假设我们的目的是设计一台机器人来模拟大师们的画作。 最开始,机器人先通过生成式模型完成某个画作。 这幅画可能很差,离大师的水平差的很远。如果这个时候有一个评论员(判别式模型)来告诉机器人这幅画的缺点,那机器人就可以在下一幅画中加以提高。如果评论员自己犯了错误,没认对,那机器人就可以告诉评论员如何提高鉴赏能力。 评论员总是在问这样一个问题:这幅画是大师画的还是机器人画的?如果判别式模型可以准确地辨认出来是机器画的,那说明这个生成式模型还不够好,如果判别不出来,就说明画作已经能够以假乱真了,而判别式模型就有待提高。这里,生成式模型和判别式模型,利用不断反馈,实现相互提高。

杨强漫谈西部世界、生成式对抗网络及迁移学习

这让我们想起了图灵测试——计算机和裁判聊天,他们互相看不到彼此,如果在沟通的时候,裁判无法辨别哪个是计算机,“人工智能”在它身上就实现了。这个双机结构和图灵测试不同的地方就是,机器和判官都可以学习,不断提高,最后两者都可以达到最好。

这样,就把我们带到“生成式对抗网络” (GenerativeAdverserial Network, 或者GAN)这个概念。如下图所示, 我们有两个系统,在互相对抗, 两个系统都试图优化自己的目标函数。第一个系统对应判别式模型D: 判别式模型D在试图识别到来的样本是否是自然真实的;它在尽量增大对真实样本的识别率,同时减少对模拟生成的样本的误判率。另一个系统则对应着生成式模型G:G希望它生成的模拟样本可以在D那里鱼目混珠。 所以G试图最大可能地模拟真实的样本。 判别器D从判别角度来说,判别的越好,D的目标实现的就越优 。但对于生成器G来说,它要最小化(minimize)对方的优化函数,这就相当于最大化(maximize)它自己的优化函数。这个过程就像G和D在下棋一样(如下图的博弈树)。在这个树里有两个棋手,一个在不断更新判别器,一个是在不断更新生成器。把这两个合并起来,叫做Minimax算法,这是利用AI下棋的一个基本算法。在这里,就是G和D两个系统在竞争中不断成长,最后两个都达到最优。

杨强漫谈西部世界、生成式对抗网络及迁移学习

这个交互过程到底能不能同时优化两个目标?GAN的发明人Goodfellow有以下的解释。训练过程如下图所示,假设黑色的点是真实样本的分布,绿色的线是根据生成模型产生的生成的样本的分布,那么GAN网络就是在把生成的样本的概率空间映射到真实样本空间里,再去加以对比。这样得到的结果与真实情况会存在偏差,而根据这样的反馈,生成的样本的数据分布不断得到调整,直到和真实分布重合为止。这时,判别式模型G就分不出来真假数据,而学习任务就完成了。

杨强漫谈西部世界、生成式对抗网络及迁移学习

那么,有没有理论来证明以上这个博弈学习交互过程会最终得到令人满意的结果呢?我们看看下面这个定理:

杨强漫谈西部世界、生成式对抗网络及迁移学习

这里给大家翻译一下这个公式:

如果G是丈夫,D是妻子,妻子训练丈夫做家务。妻子不断指出丈夫的不足之处,以此希望丈夫提高自己。丈夫呢,有时他提高的办法是试图猜出妻子满意的家务到底是什么,就不断的试验。但一开始结果可能和妻子的需求不一样,然后得到一顿狠K。所以在提高如果夫妻两人同样好学,妻子能不断指出丈夫的错误,而丈夫也不放弃,一直很努力,那么这对夫妻就会一起进步,一直达到一个共同的最优值,这个家庭也就美满了。

那么这个定理到底是不是靠谱呢?因为它有很多的限制条件,这些条件在现实中都很难成立,所以我们只能通过实验来验证。比方说,我们可以使用手写识别的数据集MNIST和图像识别的数据集TFD来验证,最后发现GAN在集种不同的算法里面的得分是最高的!

杨强漫谈西部世界、生成式对抗网络及迁移学习

利用GAN也可以让电脑学写字。在训练好的时候,这些GAN写的文字几乎可以以假乱真。但它也有做不好的地方,比如说在一些复杂的图像中做出来的就是相当模糊的。我们后面会讨论,这是因为GAN在数据集之间的“距离”的概念还没有学好。

杨强漫谈西部世界、生成式对抗网络及迁移学习

我们接下来要问:样本到底是怎么产生的?一个简单的办法是“猜测”: 我们首先可以假设一个真实的概率分布是按照某种形式来分布的, 然后按照这种形式随机地产生一个样本。这样的结果如果不好,那就回来修改这个分布假设。但是,这种猜的办法质量低,速度慢,结果不靠谱。

那要怎么办呢?假设我们有一张很大的画,我们要把它压缩一张小画,一般是怎么做的呢?我们大家可能用过双筒望远镜。这个望远镜可以反着看,就会看到小版的画面,这个就相当于把一大块数字压缩成一个数字,这个过程叫做convolution(卷积),卷积神经网络就是在做这件事情。那如果我们正着看望远镜,会把一张画放大,我们会看到画作当中的某一个部分,这个过程就相当于从一个或几个数字产生了整个矩阵,这也就是“生成”的过程,即生成式模型在做的事情。理解了这个原理后,基于深度学习和卷积,我们把整个网络反过来,相当于正着用望远镜,把压缩的图形一步一步放大,最后形成了一个复原的样本,它叫“转置卷积(Transposed-Convolution)”, 这个产生样本的方法叫做DCGAN。比方说,可以通过几个例子的训练之后,用来产生新的中文字。还有一些漫画的社区也开始用这个网络,来自动生成漫画的图像。

杨强漫谈西部世界、生成式对抗网络及迁移学习

当然,还可以用DCGAN网络来分类,用它的判别式模型部分来做分类这件事。这就好像用大炮打蚊子是没有必要的,但用大炮里某个部件(即判别式模型)打蚊子,确实要比用大炮拍打蚊子要打的好。所以,我们取出一块深度网络中的一部分来分析,发现它确实可以帮助找到非常关键的一些数据特征,而且用它来做分类的效果就比其他的办法要好很多。再回到西部世界的那个例子,看“苍蝇趴在脸上,人的反应”这个特征,就可以被找出来了。

有了GAN这个方法,我们可以对任意样本做向量化,从而加以比较。比方说,我们可以比较“苹果”和“橘子”,看它们的距离到底是不是比“苹果”和“香蕉”近一些? 我们知道在自然语言界有一个技术叫Word2vec,从文字到向量表示(Embedding),是一个连续实数向量。它可以做什么呢?比方说它认为,v(“woman”)-v(“man”)+v(“king”) =v(“queen”),即女人减去男人,再加上一个国王,相当于把女人的特性赋予国王,这个国王对应的就应该是女王,这个过程做类比。类比是怎么产生的呢?在高维空间,大数据会表明,这两个字的用法差不多,它们的距离很近。而GAN网络也可以做这件事情,比方说这个男的戴墨镜,减去一个男的再加一个女的,就变成了一个女的戴墨镜,这个是可以用GAN可以做的,很神奇。

杨强漫谈西部世界、生成式对抗网络及迁移学习

但是这样设计的系统还是有一些缺点。 比如,如果我们稍微换一换模型的参数,模型效果就会急剧变差。这说明,直接用DCGAN建立的模型不大可靠。

怎么解决这个问题呢?我们在开始讲过,GAN的思想就是不断修改生成式模型使得模拟的概率模型尽量接近实际的概率模型。所以,可靠性问题的实质就在于:如何可靠准确地测量两个概率分布之间的距离。 这里有一个新的技术叫Wasserstein GAN。 因为传统的生成式模型的目标函数通常都是优化KLdivergence, GAN的目标函数在优化JS divergence.  但这两个距离都有缺点:就是不能准确表达所有分布之间的距离。所以有人提出一个更靠谱距离表达,叫做Wasserstein距离,外号叫“土地挖掘机” (Earth-mover),就是给你一个土山,那么如果你用挖掘机在这一座山,去复制另一座山,问你需要花多大的力气 — 这个移动土地的费用就是Wasserstein 距离,简称W距离。如果两座山的形状完全一样,那么就不需要任何费用。 如果两者完全不同,那么就需要很多的费用。

杨强漫谈西部世界、生成式对抗网络及迁移学习

如果换成这个W距离来测量概率分布就好得多。比如说,给定两个数据集的分布,其中一个是真实的新闻分布,一个是假新闻的分布。如果用KL或JS距离来表达,结果都不够好,会得到一个是无穷大,一个是一个常数。用这样的距离就没有办法识别真、假新闻了。 但如果我们用了W距离,得到的会是一个连续可导的距离。所以,用W距离来设计GAN (WGAN) 就靠谱多了。

生成式对抗模型(GAN)可以做哪些事呢?它可以做模型的解释,做图像分析和自然语言分析。还可以再加上一些新的边界条件,用来做迁移学习。

杨强漫谈西部世界、生成式对抗网络及迁移学习

上面这个例子,是把一个模糊影像变到清晰影像的任务,模糊影像的模型是有很多的不确定的地方。把一幅画变为清晰的过程,就是在一个矩阵里面找到丢失的值,并且把它用真实值填满;这个事和我们第四范式做推荐系统的概念是一样的。

再者,就是可以用GAN来很自然地实现迁移学习。比如说, 如果我们又一个很好的生成式模型,在某个数据集上已经训练好了,如果有一些新的数据,和前一个数据集有明显的区别, 那么我们可以利用“GAN+边界条件”,把生成式模型“迁移到” 新的数据分布上。比方说,我们写字的时候,每个人签名都是不同的,我们不会用印刷体来签名,因为我们每个人都有自己的写字的特点。那么,如果用大量的印刷体字作为第一部分的训练样本,来训练一个不错的通用模型,而用某个人手写的斜体字做第二部分的训练样本,就可以利用WGAN把印刷体的模型迁移到个人的签名。也就是说,这样的签名也就更具个性化特点。

所以说,即使源数据和目标数据在写法上、颜色上有一些区别,GAN的模型可以实现迁移学习的目标。

这里还有一个迁移学习的例子:在领域适应(Domain Adaptation)的问题中,在目标领域没有任何的标注,所有的标注都在源领域。 GANIN等人设计了一个类似于GAN的模型,在源领域用标注数据来做标注数据的分类,同时连接到一个“领域判别器”来区分输入的数据,看数据是来源还是目标领域。 这个过程进行到最后,当领域判别器不可以很好地区分数据来自哪个领域,就说明神经网络的中间层学会两个不同领域的相同特征部分了。这个时候,迁移学习的目的就达到了。

杨强漫谈西部世界、生成式对抗网络及迁移学习

总结起来我们看到,生成式对抗网络是一个新的机器学习的思想。它是由两个模型共同产生的——就像是两个学生同时成长,一个学生专注于生成样本,一个学生专注于判别真假,他们来互相促进。同时,生成式对抗网络也存在一定缺陷,首先它需要的数据量还是很大的;此外,理论的指导还是比较缺乏。

杨强漫谈西部世界、生成式对抗网络及迁移学习

最后我们还回到《西部世界》的场景。这个电视剧的一条主线是对机器人(或人类)的智能成长的路径,电视剧的后面几集提出了一个重要的思想:“二分心智”(Bicameral Mind)。这是个关于人类智能的发展的假说:提出大脑中的智能和意识的发展,是通过两个独立的智能体的不断对话和学习来实现的。也就是我们常说的 “脑袋里的两个小人在打架”。这个二份心智理论曾经在心理学界大行其道。

我们看到,生成式对抗网络GAN的模型,和这个“二分心智”的理论有些不谋而合:它们都是认为智能应该是能够不断学习提高的,都提出:智能成长的机制是由两个互动的系统来相互刺激。在GAN这个模型中,这两个机制分别是生成式模型和判别式模型。 在《西部世界》里,这个刺激来自很多的苦难和创痛,让机器人Dolores 和她的同伴们经历了很多痛苦艰难的事情,最后刺激让她/他们产生了“二分心智”,也就产生了意识。 就像这幅图中的两个Dolores在对话所表现的那样, 最终导致机器人们产生了意识 。

杨强漫谈西部世界、生成式对抗网络及迁移学习

当然,在生成式对抗网络GAN的学术方向上,并没有涉及到“意识的生成”这个问题, 实际上,整个人工智能的发展都还没有涉及到“意识”的概念。 但是,通过GAN来理解的“二分心智”, 以及“我们可以借两个对抗系统提高智能”这件事,还是非常有趣的!

扩展阅读:

[1] Goodfellow, Ian, et al. "Generative adversarial nets." Advances in neural information processing systems. 2014.

[2] Ganin, Yaroslav, et al. "Domain-adversarial training of neural networks." Journal of Machine Learning Research 17.59 (2016): 1-35.

杨强漫谈西部世界、生成式对抗网络及迁移学习 

小羿 本文来源:网易智能 责任编辑:王超_NT4133
分享到:
跟贴0
参与0
发贴
为您推荐
  • 推荐
  • 娱乐
  • 体育
  • 财经
  • 时尚
  • 科技
  • 军事
  • 汽车
+ 加载更多新闻
×

中国传媒大学女神:不读书输了什么?

热点新闻

态度原创

阅读下一篇

返回网易首页返回科技首页
用微信扫描二维码
分享至好友和朋友圈
x
隆回县 任县 牡丹江 巨鹿 莒南
巴楚 赞皇县 北安 丹东市 山亭