算法的棋道

开场白

AlphaGo两番力克了人类围棋世界的着实上手,世界第二的韩皇上牌李世石[\[1\]](https://www.jianshu.com/p/ca32e1e66a4b#fn1)

赛前,准确说是谷歌的DeepMind团队刚放出新闻说制伏了亚洲围棋季军樊辉并打算挑衅李世石的时候,我个人是很谨慎地说本场交锋很难讲,但实际内心觉得AlphaGo的赢面更大。只不过当时AlphaGo制服的樊辉虽说是澳大利亚季军,但满世界名次都不入百,实在算不得是大高手。但AlphaGo的优势在于有3个月多的小运可以不眠不休地学习进步,而且还有DeepMind的工程师为其保驾护航,当时的AlphaGo也不是完全版,再添加自己所获悉的人类固有的夜郎自大,那个战内战外的要素结合在同步,即使嘴巴上说那事难讲,但心中是认同了AlphaGo会赢得。

结果,李世石赛前说比赛应该会5:0或者4:1而团结的重任就是拼命三郎阻止那1的产出,但其实的战况却是现在AlphaGo以2:0的比分暂时超过。且,固然不出意外的话,最终的总比分应该是AlphaGo胜出——只可是到底是5:0如故4:1,那还有待事态发展。

这一幕不由地令人回看了当年的吴清源,将所有不屑他的敌方一一斩落,最后敢让天下先。

自然了,当今世界棋坛第一人的柯洁对此可能是不容许的,但让自身说,如若下7个月AlphaGo挑衅柯洁,或者柯洁主动挑战AlphaGo,那自己或者坚定地认为,AlphaGo可以制伏柯洁。

可是,这里所要说的并不是上述这个时代背景。

机械当先人类唯有是一个小时的难点,当然还有一个生人是还是不是肯丢下脸面去肯定的题目[\[2\]](https://www.jianshu.com/p/ca32e1e66a4b#fn2)

输赢不是主要,为啥会输怎么会赢,那才是第一。


AlphaGo的算法

首先局对弈中,李世石开局选取所有人都没有走过的序幕,是为着试探AlphaGo。而中后盘又出新了肯定的恶手,所以人们普遍可以认为AlphaGo是捕捉到了李世石本身的首要失误,那才成就的恶化。

实际上李世石本人也是这样觉得的。

但到了第二局,事情就全盘两样了。执黑的AlphaGo竟然让李世石认为自己有史以来就不曾真正地占有过优势,从而得以认为是被一道抑制着走到了最后。

并且,无论是第一局依然第二局,AlphaGo都走出了拥有工作棋手都赞不绝口的巨匠,或者是让抱有事情棋手都皱眉不接的怪手。

众多时候,明明在职业棋手看来是不应有走的落子,最终却仍旧发挥了离奇的功力。就连赛前觉得AlphaGo必败的聂棋圣,都对第二局中AlphaGo的一步五线肩冲表示脱帽致敬。

工作棋手出生的李喆一而再写了两篇文章来分析那两局棋,在对棋局的解析上本身本来是不容许比他更规范的。我那里所想要说的是,从AlphaGo背后的算法的角度来看,机器的棋道究竟是何许呢?


AlphaGo的算法,可以分成四大块[\[3\]](https://www.jianshu.com/p/ca32e1e66a4b#fn3)

  1. 方针网络
  2. 神速走子
  3. 估值互连网
  4. 蒙特卡洛树寻找

那七个部分有机整合在联名,就结成了AlphaGo的算法。

本来,这么说比较单调,所以让大家从蒙特卡洛树早先做一个大致的牵线。

当大家在玩一个嬉戏的时候(当然,最好是围棋象棋那种音信完全透明公开且完备没有不可见成分的游戏),对于下一步应该如何行动,最好的章程自然是将下一步所有可能的情形都列举出来,然后分析敌方具备可能的政策,再分析自己所有可能的对答,直到最后比赛截至。那就约等于是说,以后天的层面为种子,每三回预判都举行自然数量的分岔,构造出一棵完备的“决策树”——那里所谓的齐全,是说每一种可能的前程的变更都能在那棵决策树中被反映出来,从而没有跑出决策树之外的或许。

有了决策树,大家当然可以分析,哪些下一步的一举一动是对自己有利的,哪些是对友好伤害的,从而选用最有利的那一步来走。

也就是说,当我们具有完备的决策树的时候,胜负基本已经定下了,或者说怎么样回答可以制伏,基本已经定下了。

更极致一点的,梅策罗有条定律就是说,在上述那类游戏中,必然存在至少一条那种必胜的政策[\[4\]](https://www.jianshu.com/p/ca32e1e66a4b#fn4)

据此,原则上来说,在全知全能的上帝(当然是不设有的)面前,你不管怎么下围棋(或者国际象棋、中国象棋、扶桑将棋),上帝都知情怎么走必胜,或者最多最多就是你走的刚刚和上帝所预设的相同。

但,上述完全的齐全的周详的决策树,固然理论上对此围棋那样的游艺的话是存在的,但实质上大家无能为力获得。

不不过说大家人类不可以得到,更是说俺们的机器也无从获取——围棋最终的范畴可能有3361种可能,这一个数目领先了人类可阅览宇宙中的原子总数。

因此,现在的动静是:无论是人要么机器,都只能领会完全决策树的一片段,而且是足够可怜小的一有些。

所以,上述神之棋路是我们人类和机器都爱莫能助控制的。

于是,人和机具就使用了一定的手腕来多决策树做简化,至中将其简化到祥和能处理的水准。

在这些进度中,一个最自然的措施(无论对机械仍旧对人的话),就是只考虑少量层次的通通展开,而在那个层次之后的决策开展则是不完全的。

例如,第一步有100种可能,大家都考虑。而那100种可能的落子之后,就会有第二部的选项,那里比如有99种可能,但大家并不都考虑,大家只考虑之中的9种。那么自然两层开展有9900种可能,现在大家就只考虑之中的900种,计算量自然是极为减弱。

此处,大方向人和机具是一致的,差距在于到底哪些筛选。

对机器来说,不完全的仲裁开展所运用的是蒙特卡洛艺术——假定对子决策的自由采取中好与坏的分布与完全展开的场合下的分布是相似的,那么大家就足以用少量的妄动取样来代表全盘采样的结果。

简单就是:我不管选多少个可能的决策,然后最进一步分析。

此地当然就存在很大的风向了:借使刚好有一些决定,是不管三七二十一进度没有当选的,那不就蛋疼了么?

这一点人的做法并分裂,因为人并不完全是轻易做出取舍。

那边就拉扯到了所谓的棋感或者大局观。

大千世界在落子的时候,并不是对持有可能的大队人马个挑选中随机选一个出去试试以后的升高,而是选拔棋形、定式、手筋等等通过对局或者学习而得来的经验,来判断出什么落子的可行性更高,哪些地点的落子则基本可以无视。

据此,那就出现了AlphaGo与李世石对局中那一个人类棋手很莫名的棋着来了——按照人类的经历,从棋形、棋感、定式等等经历出发完全不应有去走的落子,AlphaGo就走了出去。

在观念只使用蒙特卡洛树搜索的算法中,由于对落子地点的取舍以自由为主,所以棋力无法再做出进步。那等于是说机器是一个全然没学过围棋的人,完全靠着强大的计算力来预测将来几百步的上进,但这几百步中的一大半都是随便走出的不能之棋局,没有实际的参考价值。

Facebook的DarkForest和DeepMind的AlphaGo所做的,就是将原本用来图形图像分析的纵深卷积神经网络用到了对棋局的解析上,然后将分析结果用到了蒙特卡洛树搜索中。

此处,深度卷积神经网络(DCNN)的效益,是经过对棋局的图形图像分析,来分析棋局背后所隐藏的原理——用人的话来说,就是棋形对全部棋局的熏陶规律。

接下来,将那个规律效用到对决策树的剪裁上,不再是全然通过自由的法子来判定下一步应该往哪走,而是选取DCNN来分析当下的棋形,从而分析当下棋形中怎么着地点的落子具有更高的价值,哪些地点的落子几乎毫无价值,从而将无价值的或者落子从决策树中减除,而对哪些具有高价值的裁定开展更为的解析。

那就杰出是将学习来的棋形对棋局的熏陶规律运用到了对将来或者进步的挑三拣四策略中,从而结成了一个“学习-实践”的正反馈。

从AlphaGo的算法来看,这种学习经历的选取可以认为分为两局地。一个是估值网络,对所有棋局大势做分析;而另一个是高速走子,对棋局的一些特征做出分析匹配。

为此,一个顶住“大局观”,而另一个担负“局地判断”,那八个最终都被用来做定夺的剪裁,给出有充分深度与准确度的解析。

与之相对的,人的裁决时怎样制定的呢?


人类的短处

自我尽管不是大师,只是了解围棋规则和简单的多少个定式,但人的一大特征就是,人的不可胜道思索方式是在生活的各种领域都通用的,一般不会产出一个人在下围棋时用的思绪与干其他事时的笔触彻底分歧那样的情形。

因此,我得以由此分析自己与观望外人在日常生活中的行为以及怎么着导致那种作为的缘由,来分析下棋的时候人类的周边一般性策略是如何的。

那就是——人类会依据自家的性格与心情等非棋道的要素,来展开裁决裁剪。

比如,我们常常会说一个好手的作风是韬光晦迹的,而另一个国手的风骨是偏向于激进厮杀的——记得人们对李世石的作风界定就是那般。

那代表什么样?这事实上是说,当下一步可能的决定有100条,其中30条偏保守,30条偏激进,40条中庸,这么个景况下,一个棋风嗜血的能手可能会选取那激进的30条政策,而忽视其余70条;而一个棋风保守的,则可能拔取保守的30条方针;一个棋风稳健的,则可能是那柔和的40条方针为主。

她们采纳策略的元素不是因为那些政策可能的胜率更高,而是这个策略所能浮现出的一部分的棋感更合乎自己的品格——那是与是或不是能折桂无关的价值判断,甚至足以说是和棋本身无关的一种判断方法,依照仅仅是上下一心是或不是喜欢。

更进一步,人类棋手还足以依照对手的棋风、性格等元素,来筛选出对手所可能走的棋路,从而筛选出可能的方针进行回手。

从而,也就是说:由于人脑无法处理那样高大的新闻、决策分岔与可能,于是人脑索性利用自身的脾气与经历等要素,做出与处理难题毫无干系的新闻筛选。

那可以说是AlphaGo与人类棋手最大的不比。

人类棋手很可能会因为风格、性格、心绪等等因素的震慑,而对少数可能性做出不够尊重的判断,但那种气象在AlphaGo的算法中是不存在的。

个中,感情可以通过各个手法来避免,但权威个人的风骨与更深层次的人性元素,却截然可能导致上述弱点在友好不可能控制的情事下冒出。但这是AlphaGo所不拥有的毛病——当然,这不是说AlphaGo没弱点,只但是没有人类的通病罢了。

究其一向,这种通过战局外的要向来筛选战局内的决策的图景于是会油可是生,原因在于人脑的音信处理能力的不足(当然倘使我们统计一个单位体积如故单位质量的拍卖难点的力量来说,那么人脑应该仍然优于现在的微处理器很多居多的,那一点毋庸置疑),从而只好通过那种手段来下降所需分析的新闻量,以保证自己可以成功职务。

那是一种在个别资源下的挑三拣四策略,捐躯广度的还要来换取深度以及最终对问题的缓解。

与此同时,又由于人脑的那种效益并不是为了某个特定义务而付出的,而是对于任何生存与生存的话的“通识”,因而那种舍去自己只可以与人的个人有关,而与要处理的难点毫无干系,从而不可以形成AlphaGo那样完全只通过局面的解析来做出筛选,而是经过棋局之外的元一向做出取舍。

那就是人与AlphaGo的最大差距,可以说是个别写在基因与代码上的命门。

更进一步,人类除了上述裁决筛选的通用方案之外,当然是有指向特定难题的一定筛选方案的,具体在围棋上,那就是种种定式、套路以及各类成熟或者不成熟的关于棋形与趋势的论战,或者唯有是感觉。

也就是说,人通过学习来支配一些与大局特征,并采取这个特色来做出决定,这么些手续本身和机器所干的是千篇一律的。但不同点在于,人可能过于看重这一个已有些经验统计,从而陷入可能出现而无人专注的圈套中。

那就是本次AlphaGo很多次走出有违人类经历常理的棋着但后来意识很有用很锋利的因由——大家并不知道自己数千年来计算下来的阅历到底能在多大程度上使用于新的棋局而如故有效。

但AlphaGo的算法没有那地点的苦恼。它就算依旧是运用人类的棋谱所付出的经历,利用这么些棋谱中所突显出的大局或者有些的法则,但最后依然会由此蒙特卡洛树找寻将那么些经验运用到对棋局的推理中去,而不是直接利用这几个原理做出定式般的落子。

之所以,不但定式对AlphaGo是没意义的,所谓不走平时路的新棋路对AlphaGo来说威吓也不大——这一次先是局中李世石的新棋路不就同一失效了么?因而即使吴清源再世,或者秀哉再世(佐为??),他们就算开创出全新的棋路,也不可以作为自然能打败AlphaGo的依据。

辩论上的话,只要出现过的棋谱丰富多,那么就能找出围棋背后的法则,而那就是机器学习要打通出来的。新的棋路,本质上只是是那种规律所衍变出的一种无人见过的新情景,而不是新原理。

那么,AlphaGo的症结是何许?它是不是全无弱点?

这一点倒是未必的。


AlphaGo的弱点

从AlphaGo的算法本身来说,它和人一如既往不能对拥有可能的裁决都做出分析,即使可以接纳各样手法来做出价值判断,并对高价值的表决做出长远解析,但归根到底不是漫天,依旧会有遗漏。这一点我就认证:AlphaGo的设想不容许是齐全的。

再者,很明朗的是,假若一个生人可能展开的政策在AlphaGo看来只会牵动不高的胜率,那么那种政策本身就会被消除,从而那种策略所带来的转移就不在AlphaGo当下的设想中。

就此,即使说存在一种棋路,它在先前时期的多轮思考中都不会推动高胜率,那么那种棋路就是AlphaGo“意想不到”的。

而如果那种每一步都没有高胜率的棋路在多少步后方可付出一个对人类来说绝佳的框框,从而让AlphaGo无法逆袭,那么那种棋路就成了AlphaGo思路的死角。

也就是说说,在AlphaGo发觉它往日,它的每一步铺垫都是低胜率的,而最后构造出的棋形却具有相对的高胜率,那种低开高走的棋路,是会被AlphaGo忽略的。

即使我们并不知道那种棋路是不是留存,以及那种棋路即使存在的话应当长什么样,但我们足足知道,从理论上的话,那种棋路是AlphaGo的死角,而这一死角的存在就依照那么些谜底:无论是人或者AlphaGo,都不容许对富有策略的享有演化都驾驭,从而无论如何死角总是存在的。

自然,这一反驳上的死穴的存在性并不可以支持人类赢球,因为那要求极深的观察力和预判能力,以及要布局出一个即使AlphaGo察觉了也已回天乏力的几乎可以说是一槌定音的范畴,那两点本身的渴求就不行高,尤其在构思深度上,人类可能本就比不过机器,从而这样的死角可能最终唯有机器能成就——也就是说,我们得以针对AlphaGo的算法研发一款BetaGo,专门生成克制AlphaGo的棋路,然后人类去读书。以算法战胜算法[\[5\]](https://www.jianshu.com/p/ca32e1e66a4b#fn5)

但如此到底是机械赢了,如故人赢了吗?

单向,上述方式尽管是辩论上的AlphaGo思维的死角,本人们并不不难领会。那有没有人们可以控制的AlphaGo的死角啊?

这一点或者至极难。我觉得李喆的眼光是格外有道理的,那就是运用人类现在和历史上的共同体经验。

创建新的棋局就非得面对处理你自己都尚未丰盛面对丰富准备过的规模,那种景况下人类拥有前面所说过的五个缺陷从而要么思考不完全要么陷入过往经验与定式的坑中没能走出来,而机械却可以更匀称地对负有可能的规模尽可能分析,思考更完美周翔,那么人的局限性未必能在新棋局中讨到什么好果子吃。

扭动,倘诺是全人类曾经研讨多年不行足够熟稔的层面,已经远非新花样可以玩出来了,那么机器的得心应手考虑就未必能比人的千年经验更占用。

为此,面对AlphaGo,人类自以为傲的创制力恐怕反而是阻碍,回归传统应用传统积累才有可能胜利。

但,那样的获胜等于是说:我创建力不如机器,我用自己的经验砸死你。

人类引以为傲的创制力被撇下,机器本应更擅长的被定式却成了救命稻草,那不是很虐心么?

那就是说,立异棋路是或不是真正不容许征服AlphaGo?那点至少从此时此刻来看,大约不能,除非——

若是李世石和其别人类实际通过那两日,或者说在这几年里都排演过一个被演绎得很丰裕的新棋路,但那套棋路一贯没有被以其它款式公开过,那么这么的新棋路对AlphaGo来说可能会促成麻烦,因为原先革新中AlphaGo的平衡周全考虑或者会败给李世石等人类棋手多年的演绎专修而来的集体经验。

因此,大家今日有了三条可以征服AlphaGo的也许之路:

  1. 经过每一步低胜率的棋着协会出一个具备极高胜率的局面,利用先前时期的低胜率骗过AlphaGo的方针剪枝算法,可以说是钻算法的漏洞;
  2. 接纳人类千年的围棋经验统计,靠传统定式而非创制力打败思考均衡的AlphaGo,可以说是用历史战胜算法;
  3. 人类棋手秘而不宣地研讨没有公开过的新棋路,从而突破AlphaGo基于传统棋谱而总计学习来的经历,可以说是用创制力战胜算法。

内部,算法漏洞是必杀,但人类未必能控制,只好靠未来更上进的算法,所以不算是全人类的出奇制胜;用历史克服算法,则足以说放任了人类的骄傲与自豪,胜之有愧;而用成立力制服算法,大约算是最有范的,但却仍然很难说必胜——而且万一AlphaGo自己与和睦的千万局对弈中早就发现了那种棋路,那人类依旧会小败。

综上所述,要克制AlphaGo,实在是一条充满了费劲的征途,而且未必能走到头。


人相对AlphaGo的优势

即便说,在围棋项目上,人一定最后败在以AlphaGo为代表的微处理器算法的脚下,但那并不意味AlphaGo为代表的围棋算法就着实已经超(英文名:jīng chāo)越了人类。

题材的关键在于:AlphaGo下棋的目标,是预设在算法中的,而不是其和好生成的。

海洋世界,也就是说,AlphaGo之所以会去下围棋,会去拼命赢围棋,因为人类设定了AlphaGo要去这么做,这不是AlphaGo自己能决定的。

那可以说是人与AlphaGo之间做大的不等。

而,进一步来分析的话,我们不由地要问:人活在那些世界上是不是确实是无预设的,完全有自己控制的呢?

也许未必。

概括人在内的富有生物,基本都有一个预设的对象,那就是要力保自己能活下来,也即求生欲。

人得以透过各类后天的阅历来讲那么些目的压制下去,但这一对象本身是写在人类的基因中的。

从那点来看,AlphaGo的难点也许并不是被预设了一个对象,而是当前还不抱有设置自己的目标的力量,从而就越是谈不上以协调安装的对象覆盖预设的对象的可能了。

那么,怎么着让算法可以友善设定目的呢?那一个难题恐怕没那么不难来应对。

而,如若将以此标题局限在围棋领域,那么就成了:AlphaGo固然知道要去赢棋,但并不知道赢棋那些目的能够分解为前中后三期的子目标,比如人类日常谈及的争大势、夺实地以及尾声的胜利,那类子目的。

即便在少数小片段,DCNN如同显示了足以将难题解释为子目的并加以解决的能力,但至少在设置总体目标那几个标题上,方今的算法看来还不可能。

那种自助设定目的的能力的紧缺,恐怕会是一种对算法能力的制约,因为子目的有时候会极大地简化策略搜索空间的布局与大小,从而防止总括资源的浪费。

一头,人超过AlphaGo的单向,在于人负有将各个区其余移动共通抽象出一种通用的规律的能力。

大千世界得以从平常生活、体育活动、工作学习等等活动中架空出一种通用的原理并收为己用,那种规律可以认为是世界观仍旧价值观,也依然其余什么,然后将这种三观运用到比如写作与下棋中,从而形成一种通过那种求实活动而呈现出团结对人生对生存的眼光的例外风格,那种能力近期计算机的算法并不可能操纵。

那种将各分化世界中的规律进一步融会贯通抽象出更深一层规律的能力,原则上来说并不是算法做不到的,但大家如今没有观看标一个最爱抚的由来,恐怕是随便AlphaGo依然谷歌(Google)的Atlas或者其余什么类型,都是针对性一个个一定领域规划的,而不是陈设性来对平日生活的凡事举行处理。

也就是说,在算法设计方面,大家所持的是一种还原论,将人的力量分解还原为一个个领域内的蓄意能力,而还不曾设想什么将那些解释后的力量再另行组成起来。

但人在自然演变进度中却不是这么,人并不是经过对一个个品类的探讨,然后会聚成一个人,人是在一向面对平常生活中的种种领域的标题,间接衍生和变化出了大脑,然后才用这几个大脑去处理一个个一定领域内的求实难点。

由此,算法是由底向上的规划格局,而人类却是由顶向下的统筹方法,那可能是互相最大的分裂吧。

那也就是,纵然在某个具体难点上,以AlphaGo为表示的电脑的操练样本是远大于人的,但在一体化上来说,人的陶冶样本却可能是远抢先计算机的,因为人可以行使围棋之外的其余经常生活的移位来操练自己的大脑。

那也许是一种新的学习算法设计方向——先规划一种可以运用具有可以探测到的活动来练习自己的神经互连网演变算法,然后再利用这一个算法已经成形的神经网络来学学某个特定领域的题材。

那种通用的神经网络算法相对于专门领域的算法到底是优是劣,那说不定在那一天出来从前,人类是无能为力领悟的了。


人与AlphaGo的不同

说到底,让我们回去AlphaGo与李世石的对弈上。

我们得以看到,在那两局中,最大的一个特色,就是AlphaGo所精通的棋道,与人所驾驭的棋道,看来是存在很大的不比的。

那也就是,人所安插的下围棋的算法,与人团结对围棋的敞亮,是见仁见智的。

那代表怎样?

那象征,人为领会决某个难题而规划的算法,很可能会做出与人对那一个难点的领会分歧的行为来,而这几个行为知足算法本身对这一个标题的接头。

那是一件细思极恐的事,因为那象征所有更强力量的机器可能因为明白的例外而做出与人不等的表现来。那种行为人无法了然,也不能断定究竟是对是错是好是坏,在最终结果到来此前人根本不亮堂机器的作为到底是何目标。

据此,完全可能出现一种很科幻的范畴:人规划了一套“能将人类社会变好”的算法,而那套算法的一举一动却令人统统不可以驾驭,以至于末了的社会可能更好,但中间的行为以及给人带来的范围却是人类有史以来想不到的。

那大约是最让人担忧的吧。

自然,就当前来说,这一天的过来大约还早,近日大家还不用太操心。


结尾

前日是AlphaGo与李世石的第三轮对决,希望能具有惊喜啊,当然我是说AlphaGo能为人类带来更多的惊喜。


本文听从编著共享CC BY-NC-SA
4.0说道

透过本协议,您可以享受并修改本文内容,只要您坚守以下授权条款规定:姓名标示
非商业性一致方法分享
具体内容请查阅上述协议注解。

正文禁止任何纸媒,即印刷于纸张之上的成套组织,包涵但不防止转载、摘编的其它利用和衍生。网络平台如需转发必须与我联系确认。


假诺喜欢简书,想要下载简书App的话,轻戳这里~~
<small>私人推荐订阅专题:《有意思的篇章》《严穆码匠圈》</small>


  1. 对,是世界第二,因为就在新年他刚好被中国围棋天才柯洁斩落马下,所以柯洁现在是世界首先,李世石很糟糕地降落到了世道第二。当然了,AlphaGo背后的DeepMind团队打算挑衅李世石的时候,他依然社会风气第一。

  2. 有一个很有意思的功力,称为“AI效应”,大意就是说就算机器在某个世界跨越了人类,那么人类就会发表这一世界不可以代表人类的精晓,从而一贯维持着“AI不能逾越人类”的层面。那种只见树木的鸵鸟政策其实是令人叹为观止。

  3. 这一部分能够看非死不可围棋项目DarkForest在虎扑的篇章:AlphaGo的分析

  4. 策梅洛于1913年提出的策梅洛定理表示,在二人的星星点点游戏中,假设双方皆享有完全的音讯,并且运气因素并不牵扯在玩耍中,那先行或后行者当中必有一方有胜利/必不败的政策。

  5. 那上头,有人已经切磋了一种算法,可以专门功课基于特定神经互连网的学习算法,从而构造出在人看来无意义的噪声而在微机看来却能识别出种种不存在的图纸的图像。将来那种针对算法的“病毒算法”恐怕会比学习算法本身具有更大的商海和更高的关怀。