亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        有限理性條件下決策品質的提升策略研究

        2016-11-28 02:07:46魏靜
        統(tǒng)計與決策 2016年20期
        關鍵詞:效用函數(shù)決策者排序

        魏靜

        (天津科技大學應用文理學院,天津300457)

        有限理性條件下決策品質的提升策略研究

        魏靜

        (天津科技大學應用文理學院,天津300457)

        文章針對有限理性決策問題,以一套仿真數(shù)據(jù)實驗流程測試三種決策方法的有效性,給予偏好效用函數(shù)不同的參數(shù)設定模擬有限理性決策者排序的差異。結果顯示:PLP法與AHP法通過互動的方式能較v IKOR法的排序更為準確地提供符合有限理性決策者偏好的方案?;臃椒ㄖ械腜LP法又較AHP法更好,原因在于其互動次數(shù)遠較AHP法要少。v IKOR法因難以提供符合有限理性決策者的理想排序,不適合排序方案。

        有限理性決策、PLP法、AHP法、v IKOR法

        0 引言

        有限理性決策者在進行多準則決策(MCDM)時,可能會受到各種不同的效應影響。再加上目前帕雷多可視化技術所受到的限制,MCDM有限理性決策者無法快速且有效地表達偏好。因此有限理性決策者往往需要與分析者或使用決策軟件進行多次互動,通過不斷的互動以找出有限理性決策者的真正偏好。但高級管理者受時間與成本的限制,需要在資源有限的情況下進行決策,多數(shù)決策屬于有限理性決策。決策者在進行決策時,多半不喜歡重復互動式的啟發(fā)偏好決策。多次互動行為或許可以用來確保周延性、完整的誘導決策者表達其偏好,但也可能引起有限理性決策者的負面情緒,這可能會使有限理性決策者無法專注于當下的問題,影響偏好的呈現(xiàn)。且互動式方法是否真的較其他MCDM方法更符合有限理性決策者偏好,仍有待商榷。再加上有限理性決策者在過量的信息與有限時間的壓力下進行決策,會產生認知偏誤。因此目前發(fā)展處多種準則方法,希望能減低管理者的決策時間并增加決策的品質,但又無法確定這些MCDM方法同互動方法的結果是否一致,其信度及效度難以驗證。評選MCDM時面對眾多方案,該使用哪種方法較為可信且有效,目前尚無定論。因此本文通過不同的樣本組合進行重復試驗,比較PLP法、VIKOR法及AHP法間的決策差異。

        1 多準則決策實驗方法設計

        本文以三種MCDM方法:PLP法、VIKOR法及AHP法進行模擬實驗,并搭配三種有限理性決策者偏好效用函數(shù),計算MCDM方法評的最佳方案,作為有限理性條件下的決策評估的依據(jù)。本文以R X64 3.1.0為主要工具。MCDM方法中的PLP法、VIKOR法及AHP法分別適用于R X64 3.1.0中的pcr套件、ahp程序及MCDM套件中的vik程序,采用上述套件進行運算。

        1.1 VIKOR法

        VIKOR法步驟如下:

        ②計算Si和Ri

        ③計算Qi

        v為決策機制系數(shù)在VIKOR中將v設定為0.5,以同時追求群體效用最大化和個別遺憾最小化。

        ④根據(jù)Qi、Si和Ri的大小進行排序

        ⑤若同時符合下列兩個條件,則Qi值最小的方案(A(1))為最佳解。

        條件一:可接受的優(yōu)勢

        A(2)為Qi第二小的方案,A(1)與A(2)間的差大于門檻值,表示A(1)顯著地優(yōu)于A(2)。

        條件二:可接受的穩(wěn)定性,A(1)的Si或(和)Ri必須優(yōu)于其他方案。

        ⑥若無法同時達成兩個條件,則形成一組可行方案,依下述判斷法則:

        條件二未達成時,A(1)與A(2)都為最佳方案。

        條件一未達成時,以式(3)為判斷標準檢驗所有方案,通過者都為最佳方案。

        VIKOR在參數(shù)設定部分,將決策機制系數(shù)設定為0.5,以同時追求群體效用最大化和個別遺憾最小化。而由于在本文的實驗中,有限理性決策者的偏好是固定的,即權重固定,因此假定偏好一致且已知。故本實驗將原本步驟5與步驟6的優(yōu)勢與穩(wěn)定條件省略,改以直接使用Qi值得大小進行排序,Qi值越小越好,最小者為最佳解。

        1.2 PLP法

        PLP方法的步驟如下:

        ①建立集合X與集合Q,集合X包含潛在最佳解,集合Q最初為空集合,用來收集所有被排除方案y。

        Q={y|決策者偏好Xr勝于y}

        ②選擇或確定一個參考點,最初參考點的選擇為所有方案的線性最大值者。將現(xiàn)在參考方案從集合X中移除。

        ③每次迭代開始前,必須先對集合X內的所有方案解下列線性規(guī)劃問題,找到使各方案擁有與參考方案最大差異值得權重組合,且該組權重組合使集合Q內所有方案的線性規(guī)劃解都為非正值。

        ④所有集合X內線性規(guī)劃解為負值將被從集合內移除,若集合X為空集,則參考方案為最佳解,否則參考方案Xr需與鄰近解進行兩兩比較。鄰近解的選擇為線性規(guī)劃值最大者。若決策者較偏好鄰近解超過參考方案,則使其為新的參考方案,并更新集合X與集合Q。

        ⑤重復步驟1到步驟4,直至集合X為空集合。

        PLP法中所需兩兩比較的部分,由相對應的決策者偏好效用函數(shù)取代。PLP方法的虛擬程序碼如下:

        為求得PLP方法對方案的所有排序,本文在逐次進行實驗時,將最佳方案選出后從備選方案集合中移除,并對剩余的方案再次進行求解過程,直至備選集合為空集合為止。也就是說在首次PLP方法中選出并排除的方案為最佳,第二次選出方案次佳,并以此類推。

        1.3 AHP法

        AHP方法的步驟如下:

        ①建立評估屬性和各屬性下不同方案的成對比較矩陣

        由于本研究為模擬實驗,因此省略將決策問題的評估結構化與建立層級結構的過程,直接以生成的數(shù)據(jù)建立成對比較矩陣。a12為方案1和方案2的比較,本文以相對應的有限理性決策者偏好效用函數(shù)值帶入計算,求得成對比較矩陣。因此需要進行的成對比較。

        a12為方案1與方案2的比較,本文以相對應的有限理性決策者偏好效用函數(shù)值帶入計算,求得成對比較矩陣。當被評估的指標有m個時,需要進行次的成對比較。就研究而言,方案數(shù)為10,因此每次的AHP方法都需要45次的成對比較。

        ②計算各屬性的相對權重和各方案的相對評估值

        本文采用行向量平均值標準化法求取向量值:

        ③根據(jù)特征值大小進行排序

        由特征值大小進行排序,特征值最大者為最佳方案,依次排序。

        在實驗方法與效用函數(shù)間,差異最小者為PLP法,次小者為AHP法,最大者為VIKOR法。在三種方法中,PLP法與AHP法都為互動式方法,導入有限理性決策者偏好效用函數(shù),因此較能準確掌握有限理性決策者的偏好,使其排序與最優(yōu)決策較為相符。

        2 有限理性決策者偏好效用函數(shù)設計

        在本文中,PLP方法需要有限理性決策者的偏好作為兩兩比較的選擇依據(jù)。以及本文為目的為找出在不同有限理性決策者偏好效用函數(shù)下,MCDM方法是否都能準確找到有限理性決策者所希望的答案,因此為能模擬有限理性決策者的偏好,Chebycheff效用函數(shù)(CHEBYCHEFF)表示非補償性的有限理性決策者行為,即由加權后表現(xiàn)最差的屬性決定該方案的優(yōu)劣。觀點理論的效用函數(shù)(PROSPECT)認為,當有限理性決策者為風險規(guī)避者時,會對已擁有的事物持較高的評價,因此往往不愿將其出售或舍棄。反之,風險追求者則較愿意追求更好的事物。

        表1列出實驗方法在兩個有限理性決策者偏好效用函數(shù)下不同情境的表現(xiàn),四個效用函數(shù)分別為CHEBUYCHEFF和PROSPECT,在PROSPECT下設立不同的P值借以表示不同的風險偏好。P值為1表示風險中立,無特殊偏好,無論獲益或損失都不影響其對方案的看法;P值為0.5代表風險愛好者,較重視獲益勝于損失,因此降低對損失的權重;P值為2則為風險規(guī)避者,當遇到既有方案與參考方案比較時,會叫重視既有方案的損失而非參考方案的獲益。

        表1 實驗方法在各有限理性決策者偏好效用函數(shù)的比較表

        更進一步在PROSPECT下設立不同參考點的情境,分別為maX、min和medium,maX表示在效用函數(shù)計算時,取各準則的最大值作為參考方案,以獲得對方案損失或獲益的評價。反之,min則取各準則的最小值作為參考方案。由于在最初生成方案時,準則都是介于0到1間的隨機數(shù),因此取其中間數(shù)0.5作為參考方案及參考方案的個準則值都為0.5,是為medium。在P=1的情況下,不會因參考方案對權重產生影響,因此予以省略。

        3 實驗數(shù)據(jù)選擇與結果分析

        本文設計以Lahdelma(2003)為基礎,實驗數(shù)據(jù)生成的部分包含的變量包含方案數(shù)、準則數(shù)及分配方式,在加上權重分配以及是否為有限理性決策集合,共五個變量。實驗方法考慮有限理性決策者偏好效用函數(shù)和多準則決策方法,總共四個因變量在R X64 3.1.0上進行25次的模擬實驗。表2列出本實驗的所有操作性變量和控制性變量。

        表2 操作性變量與控制性變量列表

        本文設計的實驗數(shù)據(jù)包含準則數(shù)和分配方式兩個控制變量。并針對每種樣本進行25次重復實驗,生成的資料范圍為兩個準則數(shù)和兩種分配方式。方案數(shù)(m)固定為8組方案集合,準則數(shù)(n)分成3個準則和6個準則,分配方式(d)可分為SPHERE球面分配和SIMPLEX簡單分配。

        Sphere_X(n)為SPHERE球面分配的生成方式,其虛擬程序代碼如下:

        SIMPLEX簡單分配在生成資料的部分與SPHERE球面分配大致相同,雖然SIMPLEX法也可使用拒絕法,但在高維度下效率不明顯,隨機生成一組符合限制式的N為資料并將其降冪排列,任意兩個連續(xù)數(shù)值間差異具有密度函數(shù)f(xj)=n(1-xj)n-1將其兩兩間的差視為一筆資料,并進行有效性的判定。Simple_X(n)為SIMPLEX簡單分配的方式,以虛擬程序碼的方式呈現(xiàn)如下:

        在效用函數(shù)部分,除了VIKOR外,CHEBYCHEEF在各實驗方法中都為最小值,可以推測當有限理性決策者的偏好誒線性時,PLP法與AHP最能反映有限理性決策者的決策。本文以表3來解釋。為去掉實驗方法與有限理性決策者偏好效用函數(shù)間的關聯(lián)程度與差異是否顯著,本文以Kendall's檢定作為驗證。

        表3中的tau值表示相關程度,p則是雙尾時的p值表示其差異的顯著程度。從實驗方法來看,AHP對CHEBYCHEEF的tau值為-1,表示當有限理性決策者偏好為CHEBYCHEEF時,使用AHP法會得到完全相反的結果。本文推估是因為CHEBYCHEEF的公式帶有負號以及AHP法的兩兩比較所導致,造成其方法排序會完全與效用函數(shù)的排序相反。以p值來看,兩者其實是完全負相關的,因此有限理性決策者偏好為CHEBYCHEEF時使用AHP法需特別注意。PLP法雖然在PROSPECT與CHEBYCHEFF尚不完全相等,但其p值小于0.05,表示具顯著的一致性。由于PROSPECT仍是以線性為基礎,僅多了對權重的調整,因此其差距為次小者。PROSPECT和CHEBYCHEEF兩種效用函數(shù)的差值較大,代表當有限理性決策者的偏好為這兩個函數(shù)時,不適合使用VIKOR法作為工具。

        表3為25次重復實驗的平均值,并非代表所有樣本都未通過Kendall's檢定。在本文獲得的80530筆資料中,共有20520筆數(shù)據(jù)的p值大于0.05,表示其與有限理性決策者偏好效用函數(shù)具有顯著差異。表4為p值大于0.05的20520筆資料在各個變量表現(xiàn)的情形:

        表3 Kendall’s檢定結果表

        表4 顯著差異樣本在各變量的比例表(單位:%)

        從表4中可看出,在生成方案與權重的部分其比重差異不大,主要差異來自偏好效用函數(shù)中的PROSPECT函數(shù),以及實驗方法中的VIKOR法上。表示這兩者可能在排序上的特性容易導致顯著差異。因此當有限理性決策者的偏好為PROSPECT時應特別注意選用的方法,而VIKOR法可能不適用于排序方案。PLP法與AHP法雖然都為互動法,但在互動次數(shù)與反映有限理性決策者偏好的準確度上仍有差異。由于PLP法的過程中內含CHEBYCHEEF函數(shù),因此其在CHEBYCHEEF時可以完全反映有限理性決策者的偏好,但在采用其他偏好效用函數(shù)時則會產生偏差,雖然以整體而言仍具有顯著的一致性,但卻不保證PLP法排序出的最佳方案即是有限理性決策者的理想方案。反之,AHP則無內含的函數(shù),不同偏好的效用函數(shù)都可完整的帶入其中,因此在PROSPECT、CHEBYCHEFF時都具有顯著一致性。不過AHP法雖可一次將所有方法進行排序,但無論樣本型態(tài),因此本文的方案數(shù)為8,每次的AHP方法都需要25次的成對比較。反之,PLP法在樣本不為有限理性決策集合時,僅需一次互動就可獲得最佳解,若為有限理性決策集合,則平均為4.43次的兩兩比較。

        4 結論

        本文通過30次的重復實驗,比較有限理性決策者偏好效用函數(shù)與MCDM方法間排序的差異,以及不同樣本模型對實驗結果的影響,提出以下結論:

        (1)有限理性決策問題有效解集合時較結構化問題有效解集合時的平均絕對差值來得大,是因為有限理性決策問題內的方案較無明顯優(yōu)劣差異,因此造成實驗方法的排序較為困難,易與有限理性決策偏好函數(shù)產生差異。

        (2)PLP法與AHP法通過互動的方式能較VIKOR法的排序更為準確地提供符合有限理性決策者偏好的方案。因此本文認為交互式方法的確能提供有限理性決策者較好的排序?;臃椒ㄖ械腜LP法又較AHP法更好,原因在于其互動次數(shù)遠較AHP法來得少。雖然因其方法的關系,內含CHEBYCHEFF函數(shù)的基礎,但在各偏好效用函數(shù)上仍具有顯著一致性,可以充分表達各種偏好的排序。

        (3)除交互式方法外,當有限理性決策者偏好為PROSPECT時須特別注意選用方法,本文的三種方法在PROSPECT函數(shù)時,產生的平均絕對差值較大,表示這些方法都較無法充分表達有限理性決策者的偏好并加以排序。

        (4)以本文而言VIKOR法較不適用于排序方案、篩選最佳方案,因為與三種有限理性決策者偏好效用函數(shù)的平均絕對差值都最大,且不具有顯著的一致性。

        [1]Anderson R M,Clemen R Toward an Improved Methodology to Construct and Reconcile Decision Analytic Preference Judgments[J].Decision Analysis,2013(10).

        [2]董堅,陳春芳.溫磊基于等級偏好占優(yōu)關聯(lián)系數(shù)的群決策模型[J].統(tǒng)計與決策,2015,(05).

        [3]盧劍峰.混合多屬性群決策理想點方法[J].統(tǒng)計與決策,2014,(19). [4]李春好,蘇航,佟軼杰.孫永河基于理想決策單元參照求解策略的DEA交叉效率評價模型[J].中國管理科學,2015,(02).

        [5]李光旭,彭怡.寇綱不確定冪加權幾何平均算子的動態(tài)多目標決策[J].系統(tǒng)工程理論與實踐,2015,(07).

        (責任編輯/易永生)

        C931

        A

        1002-6487(2016)20-0057-04

        天津市教委高等學校人文社會科學研究項目(20132421)

        魏靜(1983—),女,天津人,碩士,講師,研究方向:企業(yè)管理、財務管理。

        猜你喜歡
        效用函數(shù)決策者排序
        排序不等式
        熱浪滾滾:新興市場決策者竭力應對通脹升溫 精讀
        英語文摘(2021年12期)2021-12-31 03:26:20
        效用函數(shù)模型在動態(tài)三角模糊多屬性決策中的應用
        恐怖排序
        節(jié)日排序
        “最關鍵”的施工力量——決策者、執(zhí)行者與實施者
        當代陜西(2018年9期)2018-08-29 01:20:56
        基于冪效用函數(shù)的最優(yōu)投資消費問題研究
        刻舟求劍
        兒童繪本(2018年5期)2018-04-12 16:45:32
        供給側改革的微觀基礎
        決策者聲望尋求行為、團隊努力與團隊績效
        軟科學(2014年8期)2015-01-20 15:36:56
        无码8090精品久久一区| 亚洲av综合av一区| 国产精品成人aaaaa网站 | 亚洲人成色777777老人头| 国产精品高清视亚洲乱码有限公司| 91精品国产综合久久青草| 国产黄色一区二区三区,| 综合国产婷婷精品久久99之一| 轻点好疼好大好爽视频| 丰满人妻被中出中文字幕| AV无码免费不卡在线观看| 日本视频一区二区三区三州 | 日韩 亚洲 制服 欧美 综合| 国精产品一区一区三区有限公司杨| 国产精品美女久久久久久久久| 2020亚洲国产| 国产白浆大屁股精品视频拍| 日韩女优av一区二区| 人妻无码中文字幕| av人摸人人人澡人人超碰小说| 级毛片无码av| 成人自拍偷拍视频在线观看| 久久午夜福利电影| 日本道精品一区二区三区| 欧美日韩精品一区二区三区高清视频| 国产三级视频一区二区| 91精品国产乱码久久中文| 成人特黄a级毛片免费视频| 久久久久久久久888| 麻豆国产成人AV网| 一区二区三区中文字幕在线观看| 无套熟女av呻吟在线观看| 久久综合九色综合欧美狠狠| 国产女人91精品嗷嗷嗷嗷| 国产一区二区三区在线观看免费版| 青青草亚洲视频社区在线播放观看| 成在线人免费视频| 国产成人AV无码精品无毒 | a级黑人大硬长爽猛出猛进| 久久精品国产亚洲av成人擦边 | 国产高清一级毛片在线看|