10月19日消息,谷歌旗下人工智能研究部門DeepMind發布了新版AlphaGo(阿爾法狗)軟件,它可以完全靠自己學習圍棋。這款名為AlphaGo Zero的系統可以通過自我對弈進行學習,它利用了一種名為強化學習的技術。在不斷訓練的過程中,這套系統開始靠自己的能力學會圍棋中的一些高級概念。
經過3天的訓練后,這套系統已經可以擊敗AlphaGo Lee,也就是去年擊敗韓國頂尖棋手李世石的那套系統,而且比分高達100比0。經過40天訓練后,它總計運行了大約2900萬次自我對弈,使得AlphaGo Zero得以擊敗AlphaGo Master(今年早些時候擊敗世界冠軍柯潔的系統),比分為89比11。
結果表明,具體到不同技術的效果,人工智能在這一領域仍有很多學習的空間。AlphaGo Master使用了很多與AlphaGo Zero相同的開發技術,但它需要首先利用人類的數據進行訓練,隨后才切換成自我對弈。
值得注意的是,雖然AlphaGo Zero在幾周的訓練期間學會了一些關鍵概念,但該系統學習的方法與人類有所不同。另外,AlphaGo Zero也比前幾代系統更加節能,AlphaGo Lee需要使用幾臺機器和48個谷歌TPU機器學習加速芯片。其上一代AlphaGo Fan則要用到176個GPU芯片。AlphaGo Zero只需要使用一臺配有4個TPU的機器即可。