夏禹
神經(jīng)網(wǎng)絡已經(jīng)被廣泛運用于決策系統(tǒng)的非線性數(shù)據(jù)關系的建模。首次公開募股價格的預測大都又基于不完整的外部信息,因此神經(jīng)網(wǎng)絡的特性適合于首次公開募股的價格研究。當代,為了提高金融決策的質量,人們把大量的神經(jīng)網(wǎng)絡的知識運用于金融界,特別是那些需要模式匹配和模式區(qū)分的情況中。
人工神經(jīng)網(wǎng)絡起源于對大腦及其神經(jīng)系統(tǒng)的研究,是一種信息處理的技術。它模仿人類大腦對知識習得和信息組織的過程。人工神經(jīng)網(wǎng)絡由最基本的處理器、神經(jīng)元和它們之間的聯(lián)系通道的陣列構成。通過向這一陣列輸入數(shù)據(jù)信息,經(jīng)過處理器處理后輸出或得到結果。
每個神經(jīng)網(wǎng)絡是由在其各層中的一系列神經(jīng)元構成的。下圖1所示就是神經(jīng)網(wǎng)絡的基本結構。
圖1 本文人工神經(jīng)網(wǎng)絡的基本結構
神經(jīng)網(wǎng)絡設計,主要目的是通過對一個實驗對象處理來研究和辨識神經(jīng)網(wǎng)絡的模型,使輸出擁有更高的精確度。人工神經(jīng)網(wǎng)絡的預測模型,特別是在經(jīng)濟領域中的預測,通常采用反向傳播的監(jiān)督式的學習模型。
本文數(shù)據(jù)由Merrill Lynch和www.ipo.com提供。針對各種模型,所要求的數(shù)據(jù)量是不同的。本文采用的數(shù)據(jù)量要求的公式[2]如下:
Dmin=2×(1+N+0)
Dmax=10×(1+N+0)
I表示輸入數(shù)目,N表示神經(jīng)元數(shù)目,O表示輸出數(shù)目運用這一公式本文研究一個17個輸入,6個神經(jīng)元和1個輸出的問題,所需48個到240個數(shù)據(jù)點,網(wǎng)絡含有一個隱含層。
● 數(shù)據(jù)量是介于200天到600天之間的市場數(shù)據(jù)。
● 輸入數(shù)據(jù)量應該至少是神經(jīng)元之間聯(lián)絡數(shù)量的2倍。
本文所運用的研究方法描述如圖3.1的流程表。
人工神經(jīng)網(wǎng)絡模型的輸入變量如表3.1
?
人工神經(jīng)網(wǎng)絡的原始數(shù)據(jù)在輸入之前進行歸一化是十分重要的。因此,我們需要對神經(jīng)網(wǎng)絡的每個輸入數(shù)據(jù)進行歸一化處理,把輸入限制于可接受的范圍內。這里的范圍通常是指-1到1區(qū)間。
運用雙曲正切方程進行歸一化處理:
F(x)=μ代表所有輸入x的均值;sd是x的標準差。
實踐表明,通過雙曲正切方程處理,可以把原始數(shù)據(jù)壓縮到本文所要求的區(qū)間范圍內。
2.5.1 傳遞方程
高斯補充方程是高斯方程的修正方程,這是本文提出的創(chuàng)新型的方程,未見于任何文獻之中,但是通過大量實際研究,它對神經(jīng)網(wǎng)絡的收斂速度的提升以及精確度的提高有一定程度的幫助。本文所選取的神經(jīng)網(wǎng)絡具有較高的實用價值。
高斯補充方程
F(x)=1-e-x2
2.5.2 學習率,權值和動量因子
反向結構中的權值矢量的變化與差值的負梯度有直接關系,當訓練對象給定之后,在采用不同權值時差值也隨之變動。權值大小的取決于所選擇的學習率。選擇較大學習率值可能會引起權值的巨烈變化,另外,選擇偏小的學習率值會導致學習緩慢。因此,本文將會以一個默認的權值為始,然后增大或減小該權值以減小輸出值與期望值的誤差。同樣的嘗試也可以運用到動量因子的選擇之中。
2.6.1 反向傳播
作為訓練算法,反向傳播的主要目的是通過調整網(wǎng)絡的權值,對應于預先所設置的訓練模式的17個輸入,使之得到滿意的輸出結果。反向傳播理論是一種監(jiān)督式的學習算法,對于每種模式都存在作為學習過程目標的修正輸出。網(wǎng)絡輸出與目標之間的差異是需要減小的誤差。
訓練神經(jīng)網(wǎng)絡需要一系列的輸入和相應的令人滿意的輸出。另外,誤差方程是衡量網(wǎng)絡輸出和理想值的差異。反向傳播算法的基本步驟:
1) 提出一種訓練模式,通過網(wǎng)絡傳播獲得結果。
2) 將所得有輸出與期望的結果對比,計算差值。
4) 調整權值減小誤差。
5) 從步驟2)重復以上過程直到差值足夠小。
2.6.2 反向傳播網(wǎng)絡的算法推導
反向傳播網(wǎng)絡推導的基本步驟如下:
1.根據(jù)網(wǎng)絡設定訓練模式,進行前向傳播獲取輸出。網(wǎng)絡可以計算出輸出值與期望值之間的誤差,通常依據(jù)下列的平方求和方程求得誤差:
P參數(shù)代表訓練組的當前模式,i代表輸出節(jié)點數(shù),dpi和ypi分別代表在p模式下第i個輸出節(jié)點的網(wǎng)絡輸出和目標值。每個節(jié)點i計算得到一個輸入的權值和ai,然后把ai送到傳遞方程或激活方程部分,獲得節(jié)點的輸出yi。參見圖3.2。
2.誤差計算
誤差的顯著性是由誤差方程E來描述。
3. 求導方程
在計算完誤差,下一步根據(jù)權值對所求得的誤差進行求導。
上述方程在反向傳播網(wǎng)絡中有很好的效率,該方程的變形如下:
K值涵蓋了所有輸出節(jié)點,aj是j節(jié)點從求和方程獲得的權值的和作為輸入,基于每個節(jié)點的誤差δi,誤差計算如下:
上式表明了在當前的模式下ai對衡量誤差的貢獻。對于輸出節(jié)點,誤差的導數(shù)方程如下:
方程(8)是由方程(4)得來,方程(9)是在當前激活值下的激活方程求導的結果。因為隱含層節(jié)點只能通過對與輸出相連的節(jié)點k作用來影響誤差,所以:
方程(11)的第一個因子δk是輸出節(jié)點k的誤差,所以替代方程(11)中的δk,我們可以得到:
方程(11)中的第二個因子起標記作用,當節(jié)點i直接與節(jié)點k相連,那么,否則等于0。因此, 隱含層節(jié)點的誤差方程如下:
方程(13),除了因子,相對于激活單元,對誤差的平方和模式作微分是導數(shù)方程的一部分,它也同時控制著這一單元變量的大小值。
通過上述推導進行總結,前向傳播后,在輸出節(jié)點上運用方程(10)來計算誤差,通過人工神經(jīng)網(wǎng)絡運用方程(13)計算隱含層節(jié)點的誤差。因為δk必須在δi前計算,整個過程開始于輸出節(jié)點,再返回到輸入部分,因此該算法被稱為“反向傳播”,見圖3.3。另外,誤差對于權值的微分方程如下:
圖3 前向傳播
圖3 反向傳播
為了測試網(wǎng)絡的性能,測試數(shù)據(jù)(由 Merrill Lynch和www.ipo.com 提供)可以從數(shù)據(jù)集 A(n=480)和數(shù)據(jù)集B(n=198)中獲得,測試數(shù)據(jù)大約占所有數(shù)據(jù)的20%左右。
2.7.1 數(shù)據(jù)集A(n=480)
通過訓練數(shù)據(jù)集 A訓練網(wǎng)絡后,最優(yōu)的神經(jīng)網(wǎng)絡是含有一個隱含層的反向傳播的前饋網(wǎng)絡。均值表示首次公開募股的價格的平均值;標準差表示是首次公開募股價格偏離平均價格的距離的平均數(shù),它是離均差平方和平均后的平方根;中值(或中位數(shù))是個類似平均值的統(tǒng)計學概念,是把所有數(shù)值從大到小(或從小到大)排列后,數(shù)列隊中居于正中央的那個數(shù)值。通過訓練數(shù)據(jù)集 A訓練網(wǎng)絡后,最優(yōu)的神經(jīng)網(wǎng)絡是含有一個隱含層的反向傳播的前饋系統(tǒng),其預測中間值與首次公開募股的市場價格的中間值很接近。
表3.2 數(shù)據(jù)集A是首次公開募股價格
表3.3 基于神經(jīng)網(wǎng)絡由數(shù)據(jù)集A獲得的首次公開募股的價格
NN(19)(0.1;0.1;0.3)中NN(19)表示神經(jīng)網(wǎng)絡的隱含層中的神經(jīng)元的數(shù)目為19;(0.1;0.1;0.3)表示(學習率;動量項;權值).
2.7.2 數(shù)據(jù)集B(n=198)
根據(jù)數(shù)據(jù)集B(n=147)的訓練過程,神經(jīng)網(wǎng)絡最終形成的基本結構是一個具有一個隱含層的反向傳播的神經(jīng)網(wǎng)絡系統(tǒng),它擁有13個輸入節(jié)點和一個隱含層。
表3.4 首次公開募股價格
表3.5 基于神經(jīng)網(wǎng)絡由數(shù)據(jù)集B獲得的首次公開募股的價格
NN(19)(0.1;0.1;0.3)中NN(19)表示神經(jīng)網(wǎng)絡的隱含層中的神經(jīng)元的數(shù)目為19;(0.1;0.1;0.3)表示(學習率;動量項;權值)
神經(jīng)網(wǎng)絡的性能可以同多重回歸算法的性能作比較。運用多重回歸的方法,進行預測所用的輸入輸出變量與神經(jīng)網(wǎng)絡的輸入輸出變量是相同的;即輸入量是獨立變量,輸出量是應變量。
在多重線性回歸中,趨勢圖的離散點繪成一條直線;這條線形成的方程被稱為多重回歸方程。多重回歸算法是估計方程中的βi
其中X是獨立變量;Y是應變量。下標i代表觀測次數(shù)。β是未知的回歸系數(shù)。β是原始未知的參數(shù),而b是β的估計值。e1是第i行的誤差。盡管回歸問題可以由一系列的方法解決,但是最常用的方法是最小二乘方法。在最小二乘方回歸分析中,通過對b值的選擇來減少平方和的值。b值的集合不一定是正確真實的數(shù)據(jù)集,因為它們的值可能會受到外部擾動的影響?;痉匠痰男问綖椋?/p>
bo是回歸面與Y軸的交點,b1s是回歸面與Xi軸方向的斜率。這些系數(shù)被稱為偏回歸系數(shù)。每個偏回歸系數(shù)代表第i個變量對于應變量的凈效應,使方程中剩余X的值保持為常量。
正如前文所述,神經(jīng)網(wǎng)絡的性能同多重回歸的結果作比較。多重回歸所運用的輸入變量和數(shù)據(jù)集同前文神經(jīng)網(wǎng)絡模型一樣。輸入變量如表3.1。多重回歸對于數(shù)據(jù)集A和B的結果示于表4.1。
表4.1 回歸價格分布
結果表明由線性回歸產(chǎn)生首次公開募股價格不能達到理想的預測效果(精確度比神經(jīng)網(wǎng)絡預測的精確度差)。另外,數(shù)據(jù)量全面且足夠多時,多重回歸訓練數(shù)據(jù)預測性能和神經(jīng)網(wǎng)絡預測的性能近似,但是數(shù)據(jù)量的因素會帶來多重回歸算法過擬合,所以誤差出現(xiàn)且不斷加大。
首次公開募股的價格預測是一個十分艱難,復雜和繁瑣的工作。真正的首次公開募股的市場價格只有在公司上市和股票開始交易后才為人所知。在本文中,由神經(jīng)網(wǎng)絡的產(chǎn)生預測價格會同首次公開募股的首發(fā)價格作對比。另外,神經(jīng)網(wǎng)絡模型的性能會同多重回歸技術的性能相比較。實驗表明神經(jīng)網(wǎng)絡模型在提高首次公開募股的預測價格的準確度方面比多重回歸技術有效。
[1]Wang F.Efficient Verification of Timed Automata with BDD-like Data-structures[M]. London:Springer-Verlag,2003.
[2]Jain B A. Nag B N.Artificial neural network models for pricing initial public offerings[J]. Decision Sciences,1995.
[3]BILLINGS S A,Radial Basis Function Network Configuration using Genetic Algorithms[J-].Neural Networks,1995.
[4]閻平凡,張長水,人工神經(jīng)網(wǎng)絡與模擬進化算法[M].清華大學出版社,2000.
[5]Shaikh A. Hamid Primier on using neural networks for forecasting market variable working paper No.2004-03.