Quantcast
Channel: 工程師 – TechOrange
Viewing all articles
Browse latest Browse all 585

Google AlphaGo 主要開發者黃士傑:台灣人才技術不弱,就是缺乏信心

$
0
0

IMG_4826

Google 人工智慧 AlphaGo 在圍棋賽中以 4:1 的成績打敗南韓九段棋王李世乭,代表機器深度學習進展里程碑,而背後程式主要開發的開發者,就是來自台灣的師大博士黃士傑。身為「AlphaGo 之父」,黃士傑在這場「全世界都關注」的人機大賽中,同樣代表了台灣人才在技術領域上的卓越成就。

Google 台灣邀請這次 AlphaGo 的主要開發者之一、比賽執棋者黃士傑,針對機器深度學習的原理,以及就比賽歷程做分享。黃士傑表示:「我在師大學習的論文,成為我做出 AlphaGo 的基礎。」,並且表示,台灣人才其實很優秀,但一方面資源較少,更缺乏信心,例如害怕英文不好無法與外籍人士溝通。他當初剛到國外上班時,也花了很大時間訓練聽力,但是這些外在因素都不影響他在技術上的傑出表現,鼓勵台灣開發者人才應該勇敢走出去。

黃士傑在 Google 旗下的人工智慧公司 DeepMind 擔任資深研究員。DeepMind 目前員工約 200 多名,其中便有 4 名台灣人在裡面貢獻所長。裡面員工來自世界各地,大家都在技術、表現上有強烈的企圖心。這其實也給台灣人一個啟示,黃士傑說:「我們(台灣人)其實不弱,但就是要走出去。」

其實,不只一次台灣人才在機器學習、人工智慧的領域上成就亮眼。例如新創團隊 Appier 便是用人工智慧技術,投入廣告產業;台大教授洪士灝也曾說過,台灣其實擁有世界需要的人工智慧人才,但是能否將這些人才變成專業研發團隊,才是台灣未來考驗。

這次,AlphaGo 在圍棋技藝上的驚人成就,更是大眾焦點。到底,機器是如何超越人腦取勝的?根據黃士傑的分享,AlphaGo 基本上就是機器的深度學習。這套系統仰賴兩套網路:策略網路(Policy Nets)、價值網路(Value Nets)。價值網路負責判斷賽局,搜尋哪方佔優勢關鍵;策略網路則可判斷最佳棋路,類似人類用直覺下棋。AlphaGo 透過學習 20、30 萬套棋譜,將棋譜知識整合分析後,內化成 AlphaGo 的知識,並且在系統內日以繼夜的與自己下棋,增進棋藝,這也稱強化式學習(reinforcement learning )。透過兩套網路的搭配使用,讓 AlphaGo 的棋藝可以大幅提伸。

在唯一一場 AlphaGo 落敗的比賽中,黃士傑也表示,團隊目前還在查詢原因,或許是價值網路出現 Bug 因而產生誤判,而不是外界所傳聞的故意讓棋。未來,AlphaGo 的技術將會被應用在醫療領域,例如利用融合大量醫療病例,為未來的問診做出醫學診斷。

而至於是否會使用 AlphaGo 挑戰其他旗手,或是其他遊戲,黃世傑表示團隊仍在考慮中。


Viewing all articles
Browse latest Browse all 585

Trending Articles