當前位置: 九九免費小說 玄幻奇幻 重生學神有系統 第20章 寫論文

《重生學神有系統》 第20章 寫論文

二十來分鐘后,大家鍛煉完畢,回寢室稍作整頓,盥洗一番之後,就去了食堂。

由於早起運的關係,每個人都多吃了一個饅頭,神頭也好了不

飯後溜達了一會兒,幾個人就結伴回班,上早讀。

江寒端正地坐在座位上,拿出一個嶄新的筆記本,開始寫論文的第一稿。

先寫下標題:《知機:大腦信息存儲和組織的概率模型》。

然後是摘要:「本文探討了生神經元的工作機制,並建立了一個簡單的數學模型,以及探索了如何在機學習中運用這個模型……通過對生神經元的模擬,來解決線可分的二分類問題。」

寫完摘要后,又設了幾個關鍵字,接下來就進了正文。

第一部分是背景介紹,主要討論生神經元。

「要了解智能對知覺識別,泛化,回憶和思考的能力,首先我們要回答三個問題:生系統如何知或檢測理世界的信息?以什麼形式存儲或記住信息?存儲或記憶中的信息如何影響識別和行為?

第一個問題屬於生理學領域,而且人們對它已經有了可觀的認識。第二和第三個問題,目前仍然只有大量的猜測,而且神經生理學提供的一些相關事實,還沒有被整合為一個可以被人們接的理論……」

開宗明義之後,接下來,就可以詳細討論生神經元的工作機制了。

足足用了兩千來字,才寫完這些羅里吧嗦的東西,最後下了結論。

「綜上所述,不管什麼信息被保留,都必須以某種方式,存儲為特定響應的偏好,即信息包含在連接或關聯中!」

接下來,進下一環節,建立數學模型。

對於很多人來說,這是論文寫作之中,最為困難的地方。

就算拿出「知機」這種大殺,江寒也並不擔心,會被人懷疑是重生者。

除非屢見不鮮,否則誰會一到厲害的人,就懷疑是穿越、重生來的?

網上關於劉秀和王莽的段子,只是調侃和玩笑罷了。

但江寒仍然決定,將數學部分簡一下,盡量不涉及太高深的東西。

很多高等數學的東西,大學生學起來都費勁,自己一個普通高中生,憑啥能練運用?

除非能證明自己,的確是個不世出的天才,不然很難解釋。

如果得到足夠的學點,將七維屬都加到10以上,那自己不想當天才都不可能。

可現在是起步階段,還是穩一點的好。

知機」的工作邏輯很簡單,本來也不是什麼複雜的東西,只是表述上要稍微嚴謹一點。

前世刷過的那篇同名論文,大部分容都是枯燥的論述,數學推導並不多,關於如何在計算機上實現,則基本沒怎麼講。

這也不怪原作者,那個年代的計算機科學,本來就不怎麼發達。

而且那篇論文的華,也就是一個模型,一個原理。

至於編程實現,有了模型之後,那還不是Soeasy嗎?

但現在是2012年,計算機技已經取得了長足進步,足夠將機學習技,運用於生產生活實踐了。

所以,江寒將這篇論文的重點,放在了原理解析,以及如何實現上。

除了開頭第一段,江寒並沒有照抄原文,事實上,他也沒那個本事。

那麼長的論文,能記住大概思路,就相當不錯了。

一個字不差背下來?江寒做不到啊!

據自己對該技的理解,江寒開始自由發揮。

先從最簡單的況,也就是單變數開始討論。

「對於只含有1個輸信號xi的樣本集T,我們期找到一個線函數y=wx+b,通過輸的數據xi和標籤yi,確定其中的權重w和偏置b,其中權重w控制輸信號的重要,而偏置b可調整神經元被激活的難易程度……」

江寒越寫越順,下筆如飛。

「……

我們定義損失函數如下:L(w,b)=(1||w||)∑yi(wxi+b),據預設的學習率η,不斷調整權重w和偏置b,直到損失函數到達極小點,即可得到可用的函數模型。

綜上所述,學習演算法如下:

首先選定訓練數據集T=(x1,y1),(x2,y2),...,(xN,yN),yi∈{1,+1}並指定一個學習率η(0<η<1);

1、任意選定權重w和偏置b;

2、讀數據點(xi,yi);

3、判斷該數據點是否為誤分類點,如果yi(wxi+b)≤0則更新w=w+ηyixi;b=b+ηyi;

4、重複進行2、3步,直到沒有誤分類點。

此時,我們就獲得了最佳的w和b,把它們代y=wx+b,就得到了一個數學模型。」

知機的學習過程,有個非常形象的比喻。

假設在一個棋盤上,有一堆黑子,和一堆白子,它們不相混合。

下面,拿一放上去。

我們希子,能恰好將黑子和白子分開,子的一邊全是黑子,另一邊全是白子。

先把子隨機扔到棋盤上,如果恰好將黑子和白子分開了,那就皆大歡喜,否則的話,就平移和調整子的角度,直到所有白子和黑子恰好分開……

子就是知機,而挪子的過程,就是知機在學習。

子的角度和平移量,就是要尋找的參數w和b,也就是直線(子)在平面直角坐標系(棋盤)里的函數解析式。

瞧,夠通俗易懂吧?

可惜寫論文就不能這麼寫了。

知機是人工神經網路的雛形,其中有個關鍵概念,激活函數,它決定了一個神經元是否有輸出。

江寒在這裡,用一個階躍函數sign(x)作為激活函數,其定義為:x<0時函數取值-1;x≥0時函數值為1。

只要將sign換sigmoid或者其他非線函數,就是真正的單層前饋神經網路了。

但江寒並沒有著急將sign之外的函數拋出去。

在第一篇論文里,最重要的是提出概念,其他東西完全可以在下一篇論文中再討論。

能多水幾篇,豈不更加滋滋?

搞定了輸空間是1維的況,接下來,就可以擴展到N維。

「對於一般況,當有n個輸信號時,假設輸空間是x∈Rn,輸出空間是y∈{+1,-1}。輸x∈X表示實例的特徵向量,對應於輸空間的點;輸出y屬於Y表示實例的類別。

由輸空間到輸出空間的如下函數:Ψ(x)=rsign(w1x1+w2x2+……+wnxn+b)=rsign(wTx+b),就可以稱之為知機,其中w∈Rn,b∈R為知機演算法的參數……」

在討論完n個輸信號的況后,江寒指出:

「模型建立之後,經過訓練,就可以得到一組權重和偏置,這些參數確定了一個分離超平面(定義為n維空間上的一個n-1維子空間),此超平面可以將訓練集中的數據,完全正確地分兩份,一份為正,一份為負(或者0,可以自己定義)。」

取得了模型的參數后,就可以把測試數據放進去,據模型函數運算的結果,就能對數據進行分類。

很廣泛,幾乎所有二分類問題,都可以用它來試一試。

當然,必須是線可分的問題,線不可分的問題,是不能用單層解決的。

例如年齡和有沒有生活經驗,就不存在線關係;長得帥不帥和學習好不好,也沒有線關係……

關於如何高效地判斷數據是否線可分,江寒還真研究過,只是這個題目比較大,三言兩語說不清楚。

嗯……好像又能多水一篇或幾篇SCI?。

猜你喜歡

分享

複製如下連結,分享給好友、附近的人、Facebook的朋友吧!
複製鏈接

問題反饋

反饋類型
正在閱讀: