黃士傑 与 DeepMind

黃士傑 与 DeepMind


gg-18

黃士傑是台師大資工系博士畢業,2012年被英國人工智慧公司DeepMind延攬,和David Silver並列首席設計師,後來DeepMind被Google併購成為子公司,黃士傑因此延續圍棋程式開發,成為影響AlphaGo發展的關鍵人物之一。

黄士杰博士论文就是以「应用于电脑围棋之蒙地卡罗树搜索法的新启发式演算法」,本身也是业余六段的围棋棋手。

gg-19

DeepMind,是由人工智能程序师兼神经科学家Demis Hassabis等人联合创立,是前沿的人工智能企业,其将机器学习和系统神经科学的最先进技术结合起来,建立强大的通用学习算法。
最初成果主要应用于模拟、电子商务、游戏开发等商业领域。
目前,Google 旗下的 DeepMind 已经成为 AI 领域的明星,据外媒 2016年6月8日,DeepMind 欲将其算法应用到医疗保健行业,包括计划在 5年 内使用机器学习处理英国国家医疗服务体系的数据。

AlphaGo 的祕密,就在于它的深度学习网络。围棋是最终极的信息公开游戏,也就是说所有的信息都摆在电脑面前,因此困难度不在于「猜测」,而是在于如何能分析看似无限的信息与可能。AlphaGo 有两个主要的网络,一个称为「策略网络(Policy Network)」,一个称为「值网络(Value Network)」。前者是由学习人类的棋谱而来,经由分析数十万个人类的棋谱,它可以选出 20 个胜率最高的下一步棋,有效地减少分析的广度。后者则是盘面优势的判断机制,计算每种不同的下法进行后,胜率的变化。如果 AlphaGo 在试走了两三步棋后,发现胜率不足的话,就会放弃这个走法,改试其他的可能。换言之,值网络可以有效地减少分析的深度。如果值网络发现所有的走法胜率都不足 20% 的话,AlphaGo 就会投降啰。这两者加起来,让 AlphaGo 在有限时间内可以做出更多棋步的运算,成为远超过去围棋程序的存在。