當前位置: 九九免費小說 都市爽文 重塑千禧年代 249 弱小(4k)

《重塑千禧年代》 249 弱小(4k)

易科的“太白”出世,以一種迅雷不及掩耳的速度擊穿人類圍棋陣營,但即便是1V5,即便是人類頂尖棋手,不人對于易科堂而皇之的宣稱AI已經在圍棋領域超越人類智慧還是不滿。

這里面還有許多言之有理的理由,比如,AI出現的太突然,所有人都來不及仔細研究它的下棋路數;比如,時間太近,棋手們沒有完全調整到最佳狀態……

只是,眼下已經來不及為人類棋手憾了,現在趕到戰場的是來自谷歌的“阿爾法”。

繼AI無可匹敵的戰勝人類,易科快速確定與谷歌的技切磋時間,直接定在了7月3日,仍舊是全程開啟直播。

方卓不懂圍棋,但他對于這種技的驗證和流很有興趣。

這次不僅僅是兩個AI的對弈,易科也是在申城舉辦了一次與谷歌的深度學習Deep Learning的流活,同時還有英偉達以及硅谷近期這領域的研發人員、創業公司一起參加。

易科是真的抱著切磋的意愿,谷歌與硅谷那邊也沒有太多比試高低的意思,因為,這個賽道的折騰確實還沒瞧見太多突破的希,仍舊屬于蓄力階段。

也正是基于這種況,不沒被邀請的研發者和公司瞧見兩大公司的互,也積極報名參加活,而易科在與谷歌討論之后就干脆擴大了規模,時間也順勢推遲到7月10日。

這便不是一場圍棋對弈的AI互,而是以它當作開胃菜的深度學習DL的研討會議。

7月10日,易科、谷歌、英偉達等公司在申城的易科中心舉辦會議,同時,易科還邀請了先前被擊敗的柯潔、李世石、申真谞等人作為嘉賓,見證“太白”與“阿爾法”的對決。

這兩個AI都有擊敗人類頂尖棋手的履歷,太白上個月掀起的多面打與輿論炒作也功讓大眾對AI充滿興趣,再加上又有現場直播,所以,觀看者眾多。

上午九點鐘,兩臺機人坐在舞臺的正中央,現場架設了大屏幕,方卓、拉里等人坐在第一排,棋手柯潔、申真谞等嘉賓在直播室點評。

不同于上次同樣直播的1V5,“太白”與“阿爾法”的落子都十分迅速,偶爾也有遲疑的時候,但這種時刻相較于人類便顯得極其短暫。

對弈是傳統規則,各自是有三小時時間,然而,僅僅三十二分鐘,這場萬眾矚目的棋就以“太白”贏下1子而結束。

這三十二分鐘是絕大多數人看不懂的三十二分鐘,不過,他們能看到棋手們的表現,能看到直播室里剛開始有分歧,中間有爭執,最終變沉默的過程。

當柯潔被邀請上臺,以專業人士的份對這盤棋進行點評,他面對鏡頭十分茫然,好一會之后才說道:“AI在圍棋上可能已經完全超出人類想象了,上個月我好像在AI的棋里看到了古力、李昌鎬、吳清源他們的影子,又、又好像看到了我自己的影子。”

柯潔神中帶著掙扎和痛苦,手捂臉:“今天,我看不到了,完全看不到了,我好像不懂,不懂圍棋到底該是什麼樣了……”

主持人眼看柯潔已經有些失態,趕把這位人類頂尖棋手請下臺,并且打了打圓場,但這個場面無疑讓觀看直播的人印象深刻。

AI對弈的開胃菜結束,方卓拿到話筒進行了簡單的發言。

“圍棋是人類智慧的杰作,但AI也是如此。”

“我對于AI的期待就是它能夠極大的解放人類的雙手,這一天大概很遠,但就像今天的‘太白’相較于上個月的它,已經又有進步。”

“AI會以一種讓人驚嘆的迭代速度進化,我們今天匯聚在這里也是為了尋找正確的發展方向。”

“AI是在圍棋領域贏了人類,但這不是人類智慧的終結,反而是人類智慧的延,是科技的又一次進步,也是對未來的又一次探索。”

方卓這種看法的表達還是贏來了不掌聲與直播間的好評。

對于許多人來說,這場熱鬧也就看到這里了,但對從業者、研發人員來說,真正的部分才剛剛開始,不論易科還是谷歌都在深度學習DL領域有很深的研究,這種圍棋對弈只是展出的表象,里的運轉與思考才是更讓人重視的。

吳恩達作為易科“Venus”項目的負責人之一,與谷歌旗下公司的席爾瓦就DL的模型邏輯進行了流。

不管太白還是阿爾法,它們都是基于卷積神經網絡的發展而來,這一基礎是類似的,而它的突破源于2012年Alex、Ilya和Hinton合作發表的關于AlexNet深度卷積神經網絡的論文,也正是在這之后,相關的研究出現了炸式的增長。

吳恩達與席爾瓦談的是在AlexNet之后的架構創新,是將傳統的搜索算法與深度學習模型的有效整合,以及,整個團隊在局部野、參數共與稀疏連接、平移不變這些方面做出的努力。

這種易科與谷歌以及場下嘉賓的流極其愉快,也讓方卓頗為滿意,他雖然不懂,但瞧著這樣的場面就覺得知識被塞進了腦子里。

只是,等到第二天,當吳恩達提出團隊在研發上的困時,激烈的辯論到來了。

易科是有“Siri”這樣的語音助手作為人工智能的實踐,而吳恩達的團隊不僅在做卷積神經網絡CNN的研究,也在做循環神經網絡RNN的研究,他們認為后者更適合與語音助手相結合,但效果并不算很好,完全達不到想要的績。

問題出在哪里?

吳恩達表述了困,也談了談易科部的解決方向。

參會的一部分人贊同易科的解題思路,但谷歌方面卻出現了不同的聲音。

“為什麼非要使用循環神經網絡?”谷歌的烏思克爾特本來正在休假,但因為對DL的興趣便報名過來,“為什麼不試試自注意力Self-attention?我認為它對NLP領域將會有更優秀的改變。”

“Self-attention可以進行更好的并行計算能力,而不是像RNN那樣進行順序理,它還能直接比較序列中任意兩個位置的向量表示,這樣就能更有效的捕捉和利用長距離依賴關系,但RNN不行!”

“RNN雖然理論上也能捕捉長距離依賴,但實際上往往因梯度消失或炸問題而難以實現!”

烏思克爾特研究的是谷歌的機翻譯改進方法,他的父親就是計算語言學的教授,盡管剛開始進谷歌時對語言翻譯的工作很不喜歡,但最終還是專注于這一領域的研究,而他近期正在琢磨的便是“自注意力Self-attention”在相關領域的改善。

猜你喜歡

分享

複製如下連結,分享給好友、附近的人、Facebook的朋友吧!
複製鏈接

問題反饋

反饋類型
正在閱讀: