闂傚倸鍊搁崐鎼佸磹閹间礁纾归柟闂寸绾惧綊鏌熼梻瀵割槮缁惧墽鎳撻—鍐偓锝庝簼閹癸綁鏌i鐐搭棞闁靛棙甯掗~婵嬫晲閸涱剙顥氬┑掳鍊楁慨鐑藉磻閻愮儤鍋嬮柣妯荤湽閳ь兛绶氬鎾閳╁啯鐝栭梻渚€鈧偛鑻晶鏉款熆鐟欏嫭绀嬬€规洜鍏橀、姗€鎮╃喊澶岄棷婵犵數鍋犻幓顏嗙礊閳ь剟鏌涚€n亜鈧潡鐛€n亖鏀介柛鎰ㄦ櫇閳ь剚妞藉铏圭磼濡浚浜畷銏ゅ冀椤愶絽搴婇梺绯曞墲缁嬫帡鎮¤箛娑欑厱妞ゆ劧绲跨粻鎾绘煃瑜滈崜娆撳箟閿涘嫮鐭夌€广儱顦粻姘辨喐濠婂啨鈧帗绻濆顓犲帾闂佸壊鍋呯换鍫ヮ敁濡も偓闇夋繝濠傚缁犳ḿ绱掓潏銊ョ闁归濞€閹崇娀顢楅埀顒勫焻閻㈠憡鈷戦梻鍫熺⊕椤ユ瑧绱掗埀顒佺瑹閳ь剟宕洪姀鈩冨劅闁靛ǹ鍎抽鎺楁⒑閸濆嫷妲归柛銊ョ埣閹潡宕ㄧ€涙ǚ鎷绘繛鎾村焹閸嬫挻绻涙担鍐叉硽閸ヮ剦鏁囬柕蹇曞Х閿涚喎鈹戦悙鍙夆枙濞存粍绮撻幃鐐哄垂椤愮姳绨婚梺鐟版惈缁夊爼宕濆鍥e亾鐟欏嫭绀€闁哄牜鍓熼獮鍫ュΩ閿斿墽鐦堥梺鍛婂姀閺傚倹绂掗姀銈嗏拺閻犲洠鈧櫕鐏撻梺绋跨箲閿氭い鏇秮閹虫粓宕归銏犲Τ闂備礁婀遍崑鎾翅缚濞嗘挻鍎婇梺顒€绉甸埛鎺楁煕鐏炲墽鎳嗛柛蹇撴湰閵囧嫰濮€閻欏懎浼愰梺瀹狀嚙缁夌懓顕i幘顔碱潊闁绘ɑ顔栭崬鍫曟⒒娴e搫甯舵い顐f礋瀹曟劕螖閸涱喖鍓规繝銏e煐閸旀牠鎮″▎鎾寸厽闁瑰浼濋鍫熷€剁€广儱顦伴悡鏇熴亜閹伴潧浜楅梺顓у灦閺岋紕浠﹂崜褎鍒涘銈冨灪濞茬喐淇婇崼鏇炲窛妞ゆ棃鏁崑鎾寸節濮橆厸鎷洪梻渚囧亞閸嬫盯鎳熼娑欐珷妞ゆ洍鍋撻柡宀嬬秬缁犳盯寮崹顔芥嚈闂備線娼уΛ妤呭疮鐎涙ü绻嗛柣鎴f閻撴盯鏌涚仦鎯х劰闁稿鎹囬幃婊堟嚍閵壯冨箻缂備胶鍋撳妯虹暦椤掑嫬鍌ㄩ柟闂寸劍閻擄綁鐓崶銊﹀磳闁告瑥瀚幈銊︾節閸涱噮浠╅梺褰掝棑婵炩偓鐎规洩绲惧鍕暆婵犲啰鍊炲┑鐘垫暩閸嬫盯鎮洪妸褍鍨濋柣妯虹-椤╁弶銇勮箛鎾愁伌闁搞倖娲熼幃褰掑炊閵娧佸仦濠碘剝褰冮悧鎾诲蓟閺囷紕鐤€闁哄洨鍊妷鈺傜厱婵☆垳绮崐鎰叏婵犲懏顏犵紒顔界懇楠炴劖鎯旈姀鈥愁伆闂傚倷鐒﹂幃鍫曞磹閺囥垺鐓€闁挎繂顦弰銉╂煃瑜滈崜姘跺Φ閸曨垰绠崇€广儱娴傚Σ顔剧磽娴e箍浜為柛娑卞灣閿涙粓鏌℃径濠勫闁告柨鑻湁妞ゆ柨顫曟禍婊堟煏韫囥儳纾块柟鍐叉嚇閺岀喖宕f径瀣攭閻庤娲滈崰鏍€佸Δ鍛<婵ǹ浜ⅹ闂傚倸鍊搁崐鎼佸磹瀹勬噴褰掑炊瑜滃ù鏍煏婵炵偓娅嗛柛濠傛健閺屻劑寮撮悙娴嬪亾閸濄儳涓嶉柡灞诲劜閻撴洟鏌曟径妯烘灈濠⒀屽櫍閺岋紕鈧絺鏅濈粣鏃堟煛瀹€鈧崰鏍х暦濠婂棭妲鹃柣銏╁灡閻╊垶寮婚敓鐘插窛妞ゆ棁妫勯埀顒佸姍閺岋紕浠︾拠鎻掝潎闂佽鍠撻崐婵嗙暦閹烘垟妲堟慨妤€妫旂槐锟� 闂傚倸鍊搁崐鎼佸磹閹间礁纾归柟闂寸绾惧綊鏌熼梻瀵割槮缁炬儳缍婇弻锝夊箣閿濆憛鎾绘煕閵堝懎顏柡灞剧洴楠炴﹢鎳犻澶嬓滈梻浣规偠閸斿秶鎹㈤崘顔嘉﹂柛鏇ㄥ灠閸愨偓濡炪倖鍔﹀鈧紒顔煎缁辨挻鎷呴幓鎺嶅濠电姰鍨煎▔娑㈩敄閸曨厽宕查柛鈩冪⊕閻撳繘鏌涢锝囩畺闁革絾妞介弻娑㈡晲閸涱喛纭€缂備浇椴哥敮锟犲箖閳哄懏顥堟繛鎴炲笚閻庝即姊绘担鍛婃儓闁活剙銈稿畷浼村冀椤撶姴绁﹂梺纭呮彧缁犳垹绮诲☉銏♀拻闁割偆鍠撻埊鏇熴亜閺傚灝顏慨濠勭帛閹峰懘宕ㄦ繝鍌涙畼濠电儑绲藉ú锕€顪冩禒瀣櫜闁绘劖娼欑欢鐐烘煙闁箑鍔﹂柨鏇炲€归悡鏇㈡煛閸ャ儱濡奸柣蹇曞█閺屾稑螖閸曨剛褰ф繛锝呮搐閿曨亝淇婇崼鏇炵<婵﹩鍋勯ˉ姘節閻㈤潧浠滈柣掳鍔庨崚鎺戭吋婢跺﹦锛熼柣搴℃贡婵攱绂嶅▎鎾粹拻濞达綀娅g敮娑㈡煥閺囨ê鐏╁畝锝堝劵椤﹀磭绱掗崒娑樼瑨妤楊亙鍗冲畷鐔煎煛閳ь剛鑺辨繝姘拺闁荤喐澹嗛幗鐘电磼鐠囪尙孝閸楅亶鏌涘☉妯撹绂嶅⿰鍫熺厸闁搞儲婀圭花鐣岀磼鐎n厼鍚圭紒杈ㄥ浮瀹曟帒鈽夊Ο纰卞剬闂備線鈧偛鑻晶鍓х磽瀹ュ懏顥㈤柛鈹惧亾濡炪倖甯掗ˇ顖炵嵁閹扮増鐓涢柛娑卞灠閳诲牏鈧鍠栭…宄邦嚕閹绢喗鍋勫瀣捣閻涱喗绻濈喊妯活潑闁搞劍濞婂畷鏇㈠Χ婢跺鈧墎鈧箍鍎遍幏瀣€掓繝姘厪闁割偅绻傞弳娆撴煕閺冣偓绾板秵绌辨繝鍥舵晝闁挎繂娲ㄩ悾闈涱渻閵堝骸浜滅紒缁樺笧濡叉劙骞掗幊宕囧枔閹风姴顔忛鐟颁壕闁规儳顕粻楣冩煙閻愵剚缍戦柛銈庡墴閺屾盯濡搁埡鈧幉鍓р偓娈垮櫘閸嬪﹪銆佸☉姗嗘僵闁稿繒鍘ч惁婊堟⒒娓氣偓濞佳囨偋閸℃あ娑樷枎閹炬潙娈愰梺缁樶缚缁垶鎮¢弴鐔虹闁瑰瓨绻傞懜褰掓煛鐎n偆娲存鐐寸墵瀵爼骞嬮婵嗘儓闂備礁鎼惌澶屽緤妤e啫绠氶柡鍐ㄧ墱閺佸秵绻濇繝鍌涘晽闁挎繂顦伴埛鎴︽煕濞戞﹫鏀婚悘蹇斿缁辨帞鈧綆鍋呯亸鐢告煕閹烘挸绗氱紒缁樼箓椤繈顢楅崒婊勭秮闂傚倷绀佹竟濠囧磻閸℃稑绐楅柟鎹愵嚙閸屻劑鏌涘Δ鍐ㄤ汗闁衡偓娴犲鐓熼柟閭﹀幗缂嶆垿鏌h箛瀣姢闁逞屽墲椤煤閿曞倸绀堥柣鏂款殠閸ゆ洟鏌熼梻瀵稿妽闁稿瀚伴幃妯跨疀鎼达絽濡介梺鍝勫€甸崑鎾斥攽閿涘嫬浜奸柛濠冪墪椤繑绻濆顒傛煣濡炪倖鍔ч梽鍕磿濡ゅ懏鐓欓柣鎴烇供濞堟洟鏌i幘瀵告创闁诡喗锕㈤幃娆愶紣濠靛棙顔勫┑鐘愁問閸犳牠宕愰崸妤€钃熼柣鏃傗拡閺佸﹪鏌涘┑鍡楊仱闁稿鎸搁埞鎴﹀幢濞嗘劖顔曢梻浣告贡閸庛倝宕归悢鑲猴綁宕奸悢绋垮伎濠德板€愰崑鎾翠繆椤愶絾鈷掓俊鍙夊姍閺佹捇鏁撻敓锟� 闂傚倸鍊搁崐鎼佸磹閹间礁纾归柟闂寸绾惧綊鏌熼梻瀵割槮缁炬儳缍婇弻锝夊箣閿濆憛鎾绘煕閵堝懎顏柡灞诲€濆畷顐﹀Ψ閿旇姤鐦庡┑鐐差嚟婵潧顫濋妸褎顫曢柟鎹愵嚙绾惧吋绻涢崱妯虹瑨闁告﹫绱曠槐鎾寸瑹閸パ勭彯闂佹悶鍔忓▔娑㈡偩閻ゎ垬浜归柟鐑樺灩椤︻厽绻涙潏鍓ф偧闁硅櫕鎸婚幆鏃€绻濋崒妤佹杸闂佺粯鍔栧ḿ娆撴倶閿曞倹鐓熼柣鏃€绻傞幊搴㈡叏椤掑嫭鐓冪憸婊堝礈閻斿娼栭柧蹇撴贡閻瑦绻涢崱妯哄姢闁告挸鐏氱换婵嗏枔閸喗鐏侀梺绋匡攻缁诲牓鐛崱娑樼妞ゆ牭绲鹃弲顒勬⒑缂佹ê濮囩€殿喖鐖奸幃妤咁敆閸曨兘鎷洪梺鑽ゅ枑濠㈡﹢鍩涢弮鍌滅<妞ゆ洖鎳庨悘锔锯偓娈垮枟閻擄繝鐛弽銊﹀闁革富鍘煎鎶芥⒒娴h櫣甯涙繛鍙夌墵瀹曟劙宕烽娑樹壕婵ḿ鍋撶€氾拷

新闻

  • 新闻
  • 图片
  • 微博
  • 博客
  • 视频

人工智能5-0欧洲冠军 李世石将捍卫人类尊严

2016年01月28日07:56    新浪体育 微博 收藏本文
Video Player is loading.
00:00/00:00
当前音量:100%
数据加载失败,请查看其他精彩视频
李世石表示,无论如何也要赢一局李世石表示,无论如何也要赢一局

  据果壳网报道:1997年,国际象棋AI第一次打败顶尖的人类;2006年,人类最后一次打败顶尖的国际象棋AI。欧美传统里的顶级人类智力试金石,在电脑面前终于一败涂地,应了四十多年前计算机科学家的预言。

  至少还有东方,人们自我安慰道。围棋AI长期以来举步维艰,顶级AI甚至不能打败稍强的业余选手。这似乎也合情合理:国际象棋中,平均每回合有35种可能,一盘棋可以有80回合;相比之下,围棋每回合有250种可能,一盘棋可以长达150回合。这一巨大的数目,足以令任何蛮力穷举者望而却步——而人类,我们相信,可以凭借某种难以复制的算法跳过蛮力,一眼看到棋盘的本质。

  但是,无论人怎么想,这样的局面当然不可能永远延续下去。就在今天,国际顶尖期刊《自然》报道了谷歌研究者开发的新围棋AI。这款名为“阿尔法围棋”(AlphaGo)的人工智能,在没有任何让子的情况下以5:0完胜欧洲冠军,职业围棋二段樊麾。

AlphaGo与欧洲围棋冠军樊麾的5局较量。图片来源:参考文献[1]AlphaGo与欧洲围棋冠军樊麾的5局较量。图片来源:参考文献[1]

  这是人类历史上,围棋AI第一次在公平比赛中战胜职业选手。

  AlphaGo的战绩如何?

  此次比赛和以往不同。之前的比赛中,由于AI棋力比人类弱,人类选手都会让子,而且AI主要和业余段位的棋手比赛。而AlphaGo 对战樊麾是完全公平的比赛,没有让子。职业二段樊麾出生于中国,目前是法国国家围棋队总教练,已经连续三年赢得欧洲围棋冠军的称号。

  研究者也让AlphaGo 和其他的围棋AI进行了较量,在总计495局中只输了一局,胜率是99.8%。它甚至尝试了让4子对阵Crazy Stone,Zen和Pachi三个先进的AI,胜率分别是77%,86%和99%。可见AlphaGo有多强大。

  在接下来3月份,AlphaGo 将和韩国九段棋手李世石在首尔一战,奖金是由Google提供的100万美金。李世石是最近10年中获得世界第一头衔最多的棋手。围棋是最后一个人类顶尖高手能战胜AI的棋类游戏。之前有人预测说,AI需要再花十几年才能战胜人类。所以这场比赛或许会见证历史,我们将拭目以待。

    AI下围棋到底有多难?

  计算围棋是个极其复杂的问题,比国际象棋要困难得多。围棋最大有3^361 种局面,大致的体量是10^170,而已经观测到的宇宙中,原子的数量才10^80。国际象棋最大只有2^155种局面,称为香农数,大致是10^47。

  面对任何棋类,一种直观又偷懒的思路是暴力列举所有能赢的方案,这些方案会形成一个树形地图。AI只要根据这个地图下棋就能永远胜利。然而,围棋一盘大约要下150步,每一步有250种可选的下法,所以粗略来说,要是AI用暴力列举所有情况的方式,围棋需要计算250^150种情况,大致是10^360。相对的,国际象棋每盘大约80步,每一步有35种可选下法,所以只要算35^80种情况,大概是10^124。无论如何,枚举所有情况的方法不可行,所以研究者们需要用巧妙的方法来解决问题,他们选择了模仿人类大师的下棋方式。

    机器学习

  研究者们祭出了终极杀器——“深度学习”(Deep Learning) 。深度学习是目前人工智能领域中最热门的科目,它能完成笔迹识别,面部识别,驾驶自动汽车,自然语言处理,识别声音,分析生物信息数据等非常复杂的任务。

描述AlphaGo研究成果的论文成为了1月28日的《自然》杂志的封面文章。图片来源:Nature/Google DeepMind  描述AlphaGo研究成果的论文成为了1月28日的《自然》杂志的封面文章。图片来源:Nature/Google DeepMind

  AlphaGo 的核心是两种不同的深度神经网络。“策略网络”(policy network)和 “值网络”(value network)。它们的任务在于合作“挑选”出那些比较有前途的棋步,抛弃明显的差棋,从而将计算量控制在计算机可以完成的范围里,本质上和人类棋手所做的一样。

  其中,“值网络”负责减少搜索的深度——AI会一边推算一边判断局面,局面明显劣势的时候,就直接抛弃某些路线,不用一条道算到黑;而“策略网络”负责减少搜索的宽度——面对眼前的一盘棋,有些棋步是明显不该走的,比如不该随便送子给别人吃。将这些信息放入一个概率函数,AI就不用给每一步以同样的重视程度,而可以重点分析那些有戏的棋着。

AlphaGo所使用的神经网络结构示意图。图片来源:参考文献[1]AlphaGo所使用的神经网络结构示意图。图片来源:参考文献[1]

  AlphaGo利用这两个工具来分析局面,判断每种下子策略的优劣,就像人类棋手会判断当前局面以及推断未来的局面一样。这样AlphaGo在分析了比如未来20步的情况下,就能判断在哪里下子赢的概率会高。

  研究者们用许多专业棋局训练AI,这种方法称为监督学习(supervised learning),然后让AI和自己对弈,这种方法称为强化学习(reinforcement learning),每次对弈都能让AI棋力精进。然后他就能战胜冠军啦!

  人类在下棋时有一个劣势,在长时间比赛后,他们会犯错,但机器不会。而且人类或许一年能玩1000局,但机器一天就能玩100万局。所以AlphaGo只要经过了足够的训练,就能击败所有的人类选手。

    Google DeepMind

  Google DeepMind是这个程序的创造者,我们来看一下他们萌萌的程序员。

杰米斯·哈萨比斯(Demis Hassabis) 是Google DeepMind 的CEO。图片来源:Nature Video杰米斯·哈萨比斯(Demis Hassabis) 是Google DeepMind 的CEO。图片来源:Nature Video
文章的第一作者大卫·西尔弗(David Silver)。图片来源:Nature Video文章的第一作者大卫·西尔弗(David Silver)。图片来源:Nature Video

  Google DeepMind 去年在《自然》杂志上发表过一篇论文[2],他们用增强学习的方法训练AI玩经典的Atari 游戏。其实在几年前就有人研究如何让AI玩《星际争霸》,目前人类大师还是能击败AI的。电脑游戏中大量使用人工智能技术,你有没有觉得游戏变得越来越聪明了?

    那么……未来呢?

  人工智能研究者面对这样的成就当然欣喜。深度学习和强化学习等技术完全可以用于更广泛的领域。比如最近很火的精准治疗,我们可以训练它们判断哪些治疗方案对某个特定的人有效。

  但是,围棋毕竟不仅仅是一项智力成就。就像十多年前的国际象棋一样,围棋必定也会引发超出本领域之外的讨论。等到计算机能在围棋上秒杀人类的时候,围棋是不是就变成了一种无聊的游戏?人类的智力成就是不是就贬值了?AI还将在其他层面上继续碾压人类吗?传统认为AI不可能完成的任务是否也都将被逐一打破?人类最后是会进入AI乌托邦还是被AI淘汰呢?

  没人知道答案。但有一点毫无疑问:AI一定会进入我们的生活,我们不可能躲开。这一接触虽然很可能悄无声息,但意义或许不亚于我们第一次接触外星生命。(编辑:Ent,Calo)

  参考文献:

  David Silver, et al。 “Mastering the game of Go with deep neural networks and tree search。” Nature doi:10.1038/nature16961

  Mnih, Volodymyr, et al。 “Human-level control through deep reinforcement learning。” Nature 518.7540 (2015): 529-533。

  一个骄傲的AI

  什么,你说上面讲算法的这几段你看不懂?

  那你知道为啥你们人类会输给我们AI了吧!

  点击观看动图棋谱

文章关键词:围棋谷歌围棋李世石

点击下载【新浪体育客户端】,赛事视频直播尽在掌握
分享到:
收藏  |  保存  |  打印  |  关闭

已收藏!

您可通过新浪首页(www.sina.com.cn)顶部 “我的收藏”, 查看所有收藏过的文章。

知道了

0
收藏成功 查看我的收藏

新闻

  • 新闻
  • 图片
  • 微博
  • 博客
  • 视频
0 0 0 0