You are on page 1of 17

A veszteségadatok összesítési problémájának maximális entrópia-megközelítése

Erika Gomes-Gongalves, Henryk Gzyl és Silvia Mayoral, 2016

elvont
A működési kockázatszabályozó tőke meghatározására szolgáló fejlett mérési megközelítés
egyik fő problémája a veszteségek eloszlásának kiszámítása, amikor az adatok a különböző
típusú kockázati események által különböző üzletágakban okozott összesített veszteségekből
állnak. Hasonló probléma jelenik meg a biztosítási ágazatokban, amikor különböző típusú
veszteségek összesítésére van szükség. Ha az adatokat jól gyűjtik, azaz amikor a veszteségeket
közös vektorként gyűjtik, a maxentropikus technikák alkalmasak az összesített veszteség
valószínűségi sűrűségének megállapítására. Ha az adatok nem jól gyűjtött, a maxentropikus
eljárás biztosítja számunkra a marginális sűrűségek, amelyek aztán párosítható néhány
megfelelő copula, majd folytassa az egyik a két eljárás, hogy alkalmazzuk. Mindenesetre a két
lehetőség alapvetően függ a maxentropikus technikától, hogy meghatározza a valószínűségi
sűrűséget a Laplace transzformációból. Ez annak a ténynek köszönhető, hogy az ilyen technikák
a sűrűségek analitikus kifejezéseit biztosítják számunkra, ami számos numerikus eljárást
könnyebbé tesz.
E megjegyzés célja, hogy megvizsgálja és összehasonlítsa az aggregált veszteségek
sűrűségének meghatározásával kapcsolatos probléma megoldásának ezen alternatív módjait.
Kulcsszavak: Veszteségadatok elemzése, veszteség összesítés, maximális entrópia módszer,
sűrűség rekonstrukció.
1. Bevezetés és előkészületek
Ennek a megjegyzésnek nem annyira implicit célja egy hatékony és hatékony módszer
alkalmazása az aggregált veszteségek valószínűségi sűrűségének elérésére, amikor a
rendelkezésre álló adatok a több időintervallumban gyűjtött aggregált veszteségből állnak. Egy
korábbi feljegyzésben, Gzyl és mtsai. (2013) egy maximális entrópia-alapú módszer
teljesítményét teszteltük, hogy egy összetett véletlenszerű változó sűrűségét két másik
lehetséges módszerrel szemben kapjuk meg. A vizsgálatot azzal a feltételezéssel végezték, hogy
a veszteségek Poisson-frekvenciával és Gamma-egyéni sűrűséggel rendelkeztek. Ezt a modellt
azért vették figyelembe, mert ennek a modellnek a teljes veszteségsűrűsége analitikusan
kiszámítható. A teszthez szimuláltunk egy adathalmazt ebből az eloszlásból, kiszámítottuk az
aggregált veszteség Laplace-transzformációját a paraméter 8 értékén, és a Laplace inverziós
problémát pillanatproblémává alakítottuk. Összehasonlítottuk a maxentropikus módszer
eredményét egy egész pillanat alapú technikával és egy Fourier inverzió-alapú technikával, és
a maxentropikus technika számos módon felülmúlta őket.
Ezután Gomes-Gongalves és mtsai (2014a,b) és (2015a,b) és az abban található
hivatkozásokban a probléma számos kiegészítő aspektusát vizsgáltuk. A Gomes-Goncalves et
al (2014a) című szakkönyvben bemutattuk, hogyan lehet kiterjeszteni a standard maxentropikus
technikákat az adatok hibáinak figyelembevétele érdekében. A Gomes-Goncalves et al (2015a)
és a Gomes-Goncalves et al (2014b) eredményeinek felhasználásával megmutattuk, hogyan
lehet helyreállítani az egyéni veszteségeloszlásra vonatkozó információkat, amikor az egyetlen
rendelkezésre álló információ a teljes összesített veszteségből áll. Végül a Gomes-Goncalves
et al (2015b) című művében egy fontos gyakorlati problémával foglalkoztunk, nevezetesen az
adatok méretének a sűrűségrekonstrukció minőségére és a szabályozó tőke kiszámítására
gyakorolt hatásával, amelyet VaR-ként vagy TVaR-ként számítottak ki. Ezekben a
dolgozatokban a veszteségek gyakoriságának és az egyes veszteségeloszlásoknak a különböző
lehetséges eloszlásait vettük figyelembe, és a rekonstrukció minőségének különböző
mérőműszereit alkalmaztuk a kapott végső sűrűség vizsgálatára. Ezen tanulmányok alapján
magabiztosan mondhatjuk, hogy a maximális entrópia-alapú technikák megbízható és hatékony
eszközt kínálnak a teljes veszteség valószínűségi sűrűségének eléréséhez az összesített adatok
felhasználásával.
A Bázeli Bizottság által javasolt normatíva fontos hozzájárulása volt a veszteségadatok
elemzésének a fejlett mérési megközelítésen belüli végrehajtására vonatkozó eljárás
kidolgozása. Az üzletágakra jutó kockázati típusok meghatározása és az üzletágak
specifikációja fogalmilag egyszerűbbé teszi az életet. Matematikai modellezési szempontból
három aggregációs szintet hoz létre. Az alapnál van egy összesítés egy adott típusú kockázat
teljes veszteségének kiszámításához, majd van egy összesítés az adott üzletágon belüli teljes
veszteség kiszámításához, és végül ott van a kockázat összesítése a különböző üzletágakon
keresztül.
A tárgy standard "klasszikus" irodalmának nagy része az összesítés első szintjére vonatkozik.
Lásd például Panjer (2006) vagy Schevchenko és mtsai (2014) köteteit, vagy tekintsük Aue és
Kalkbrener (2006), Brockmann és Kalbrener (2010) köteteit és az azokban szereplő
hivatkozásokat, hogy felsoroljuk, de nagyon kevés. Megemlítjük Shen és Jia munkáját is
(2012), amelyben a maximális entrópia módszerét használják a veszteségeloszlások becslésére
a megközelítésünktől független módon. Ezen a ponton megemlítjük, hogy az összesítés
kifejezést arra a fontos problémára is használják, amely a különböző forrásokból származó
adatok összevonásából áll. Ezzel itt nem foglalkozunk.
A jelenlegi munka általános motivációja az, hogy hatékony technikát fejlesszenek ki a pozitív
véletlenszerű változók összegének numerikus meghatározására, amikor a summandokat
közösen mérik.
Az alábbiakban ismertetett munka konkrét motivációja abból ered, hogy a Bázeli Bizottság
irányelvei szerint ki kell számítani a működési kockázati veszteségekre vonatkozó szabályozói
tőkét. A szabályok betartása érdekében a kockázatelemzőnek adatokat kell gyűjtenie, és a
modellezési folyamat kimenete a becsült működési kockázat szabályozó tőke. A feladat
elvégzésének szisztematikus módja a teljes veszteségsűrűség kiszámítása, majd a VaR vagy a
TVaR nagy megbízhatósági szintű meghatározása.
Egy másik eset, amikor a teljes veszteséget leíró véletlenszerű változó eloszlása érdekes, a
biztosítási ágazatból származik, ahol a sűrűséget a kockázati díjak árára használják a veszteség
biztosításához.
Visszatérve a problémára a működési kockázat szempontjából, a legtöbb módszernél két
probléma közös a bankok által gyűjtött adatokból származó veszteségek sűrűségének
meghatározására: Egyrészt, ha a bank által gyűjtött adatok mennyisége nem nagy,
számszerűsíteni kell a variabilitást vagy a mintafüggőséget , a rekonstruált sűrűség. A
maxentropikus technika segíthet ebben a feladatban, amint azt a kísérő megjegyzés (Gomes-
Goncalves és mtsai (2015b)) mutatja. Másrészről, még akkor is, ha az adatok mennyisége
magas, előfordulhat, hogy nem ismerjük az adatok közötti statisztikai függőség jellegét.
Kiderül, hogy az adatok megfelelő gyűjtése esetén ez a modellezési szempont nem feltétlenül
szükséges a maxentropikus technikához.
A jegyzet többi része az alábbiak szerint van rendszerve. A rész további részében
meghatározzuk a megoldandó matematikai problémát. A 2. szakaszban röviden felidézzük a
maximális entrópia módszert, a 3. és 4. szakaszban pedig az adatgenerálási eljárást, majd a
numerikus példákat. Az 5. szakasz néhány megjegyzésével zárjuk.
1.1. Probléma beállítása
Mint mondta, célunk egy S változó valószínűségi sűrűségének meghatározása, amelyet több
aggregáció után kapunk. Jelöljünk B-vel egy egész számot, amelyet úgy kell értelmezni, mint
egy pénzügyi intézmény üzletágainak számát. Az összesítés utolsó szintjén

ahol b =1,... , B a (pozitív) S b véletlenszerű változó a b üzletág teljes kockázatát jelöli.


Minden üzletág esetében a H b az S b-hez hozzájáruló kockázati típusok számát j e l ö l i . Az
aggregáció második szintjén

ahol Sb,h a b üzleti vonal teljes veszteségét jelöli a h kockázati típus miatt. Most elértünk a
legalapvetőbb szintre, az Sb,h összetett véletlenszerű változóként való leírására. Követjük a
fejlett módszertanban alkalmazott standard, aktuáriusi modellezést a működési kockázatban, és

ahol az Nb,h egész számban értékelt véletlen változók, amelyek a kiválasztott modellezési
időintervallum eseményeinek gyakoriságát jelölik, és az {Xb,h,k,| k≥1} véletlenszerű változók,
amelyek a b üzletág htípusú egyedi kockázati eseményének veszteségeit jelzik. Ez az
összesítés legalapvetőbb szintje. A szokásos modellezési feltételezés az, hogy az Xb,h,k
egymástól és az Nb,h- függetlenek egymástól. De az Nb,h függőséget mutathat egymás között.
A teljes aggregált veszteség fS sűrűségének eloszlásának meghatározására javasolt módszer két
alapvető lépésből áll: először becsüljük meg a Laplace transzformáció E[E−αiS] értékét néhány
(M=8) transzformációs paraméter valós értékeire α, majd alakosítsuk át a Laplace
transzformáció inverziójának problémáját frakcionált pillanat problémává. A második szakasz
a frakcionált pillanat problémájának megoldásából áll a maximális entrópia módszerrel. A
veszteségek valószínűségi sűrűségének meghatározásához megjegyezzük, hogy

ahol P(S=0)=P(N=0)=e−l, ahol l-t az adatokból kell megbecsülni, vagy az elemzőnek kell
megadnia. Beállítás

problémánk az lesz, hogy meghatározzuk az f S-t a

A középfogalom az y=e−xαváltozók változását követő elsőből származik. A 0=0 és μ0=1α


állítjuk be, hogy gondoskodjunk az fY (y)természetes követelményéről.
2. A standard maximális entrópia eljárás
A teljesség kedvéért az alábbiakban gyorsan felidézünk néhány jól ismert eredményt a standard
maximális entrópia megoldási módszerről (4). A standard maximális entrópia módszer (KKV)
a Jaynes (1957) által javasolt variációs eljárás neve az (inverz) probléma megoldására, amely
bizonyos integrál kényszereknek megfelelő valószínűségi sűrűség megtalálásából áll. Ha többet
szeretne megtudni magáról a módszerről és a különböző alkalmazásokról, lásd Gzyl (1995), és
az alábbiakban összefoglalt eredmények matematikailag légmentes bizonyítéka Borwein és
Lewis (2000) című tanulmányában található.
A kkv-k alapötletének nagyon rövid leírása a következő. Figyelje meg, hogy a (4) megfelelő
sűrűségosztály konvex, és annak érdekében, hogy egy pontot egy domború halmazban
felvegyen, a legegyszerűbb módja annak, hogy meghatározzon egy homorú függvényt, és
maximalizálja a kiválasztott függvényt. Esetünkben a függvényt (az entrópia) adja meg

A homorú (vagy domború függvény) kiválasztása tetszőleges, és nyilvánvalóan más választás


is lehetséges. Gzyl és Recht (2006) Gzyl és Recht (2006) egy lehetséges geometriai
magyarázatot ad arra, hogy miért jelenik meg az alábbi exponenciális ábrázolás.

amelyben az M pillanatok száma kifejezetten megjelenik. Általában e −λ*0=Z(λ*)−1írása szokás,


ahol λ*=(λ* 1,...,λ*M)egy M–dimenziós vektor. Nyilvánvaló, hogy a normalizációs tényező
általános formáját a

Ezzel a jelöléssel a megoldás általános formája átírható

A λ* vektor a kettős entrópiát minimalizálva található:

ahol a,b <a >a standard euklideszi skalárterméket jelöli, és μ az M–vektor


μkkomponensekkel, és nyilvánvaló, hogy a α való függés μY-on keresztül történik.
2. Numerikus eljárások
Az összesítés minden szintjén számos kérdés merül fel a numerikus példák figyelembe vitelével
kapcsolatban. Kezdjük a legegyszerűbb kérdéssel, nevezetesen az üzletágak számával és a
kockázati típusok számával. Figyelembe vesszük a B=3 üzletágat és a Hb=7 kockázati típust
minden üzletág esetében. Az összesítés legalapvetőbb szintjén mérsékelten nagy mennyiségű
adatot veszünk figyelembe, hogy elkerüljük a Gomes-Gongalves et at (2015b) minta
variabilitási kérdéseit. Ezen a szinten, hogy a modell valamiféle realizmus, úgy gondoltuk, több
frekvencia modellek és több különböző egyéni veszteség sűrűsége. Ahhoz, hogy ettől a második
aggregációs szintre menjünk, és kiszámítsuk a teljes veszteséget az üzletágon belül, copulát
használtunk az egyes üzletágakon belüli események gyakorisága közötti függőség
létrehozásához. Így minden b=1,2,3 esetén eseményminták gyakoriságát generáljuk
( N b , 1 , . . . , N b , 7 ) , és minden frekvenciamintához egyedi veszteségeket generálunk minden
egyes eseményszám szerint, hogy megkapjuk az Sb,h-t a (3) szerint, és ezeket összesítjük Sb-
re a (2) szerint. Ily módon ezen a szinten vezetjük be a függőséget.

Az (1) bekezdés szerinti teljes veszteség eléréséhez az intézménynek össze kellett volna
gyűjtenie/nyilván kellett volna tartania a veszteségek együttes értékét (S1(t), S2(t), S3(t)), ahol
t=1,2,...,T, ahol T az adatgyűjtés hosszú időtartamát jelöli, majd becslést ψ(α)

majd alkalmazza a 2. szakaszban ismertetett maxentropikus rutint a teljes veszteség


valószínűségi sűrűségének eléréséhez.
Mivel általában nem ez történik, tegyük fel, hogy az üzletágankénti veszteségeket megfelelően
gyűjtötték, de nem adatvektorként, hanem különálló összetevőiként. Ezen a ponton behozhatjuk
a 2. szakaszban leírt maxentropikus technikát, és megszerezhetjük az fSbsűrűséget, amely után
két lehetőség van:
1 Hozzon be egy ésszerűnek tűnő kopulát, párosítsa őket egy f(x1,x2,x3) ízületi
sűrűséggel, amellyel kiszámíthatja az S=S1 +S2+S3 Laplace-transzformációját, és ezt
az átalakítást a maxentropikus technikával kombinálva az fSvalószínűségi sűrűség
eléréséhezhasználja.
2 Használja a copulát, és alkalmazza az Alexander (2003) által javasolt iterációs
konvolúciós eljárást az fSsűrűségeléréséhez.
Mindkettőt összehasonlítás céljából alkalmazzuk, és összehasonlítjuk a maxentropikus
eljárással kapott eredményekkel, feltételezve, hogy az adatokat megfelelően gyűjtötték.
3.1. Az adatgenerálási eljárás
Először részletesebben ismertetjük az adatgenerálási folyamatot, majd ismertetjük az eljárás
sajátosságait.
1. Minden rögzített b=1,2,3-ra az aggregáció első két szintjét és a függőség első szintjét az
alábbiak szerint gondoskodunk. Az első lépésben szimuláljuk a h=7 összetett eloszlást,

ahol Nb,h több frekvenciaeloszlást követ, amelyeket copulákkal


kombinálva hozzuk létre a függőségek első szintjét. A használt kopulák Gauss különböző
korrelációs értékekkel ρ=0,3, 0,5 és 0,8. Az egyéni veszteségek leírásához figyelembe
vettük az általánosan használt folyamatos eloszlásokat, a Champernowm, Pareto, gamma,
lognormális és Weibull eloszlásokat. Ezeket megfelelően összeadták, hogy S h-t kapjanak.
2. Az 1. lépést B-szor ismételgeti az Sbeléréseérdekében. Ezután összefoglalják őket, hogy
megszerezzék az S-t arra az esetre, ha függetlennek kellene lenniük. A függőségek
figyelembe mentek a 3. lépéshez.
3. Az Sb közötti függőség létrehozásához az egyes Sb sűrűségeit a maxentropikus módszer
alkalmazásával határozzuk meg. Ezeket a 3.2. szakaszban leírt kapcsolási eljárások
alkalmazásával fS teljes veszteségsűrűség elérésére használják.
Az alábbi táblázatokban összegyűjtött konkrét részletek a következők: Az S 1 és S2 esetében
ugyanazokat a bemeneteket használjuk, azzal a kivétellel, hogy az S 2 előállításához nagy
veszteségeket (nagyobb, mint 14000) adtunk hozzá egy Pareto disztribúcióból. Ezt azért tették,
hogy kurtózist adjanak a mintához, és nehezebbé tegyék az eloszlást a faroknál. Lehet, hogy
két különböző módon gondolkodunk erről. Egyrészről, ha ezt egy adott üzletágban
bekövetkezett nagy veszteségekre vonatkozó adatoknak tekintjük, amelyeket vagy az elemzést
készítő intézmény gyűjtött össze, vagy más intézményektől szereztek be anélkül, hogy azokat
bármilyen kockázati típushoz vagy hasonló jellegű, de valamilyen konkrét típusú kockázati
eseményhez kapcsolódó adatnak tulajdonítanák. Emellett az üzletágak közötti függőség
generálása érdekében a frekvenciákat a következőképpen kapcsoltuk össze: Egy normál copulát
hívtunk meg az N11, N12 ésN 13 paraméterekkel, egy normálcopulát 0,5 paraméterrel az N14,
N15és egy 0,3 paraméterrel az N16,N17paraméterhez. Ugyanez történt az S2generálásárais . Az
S1 és S2 esetében csak az11000-et meghaladó értékeket használjuk. Minden Si-hez 9000
adatpontot szimulálunk.
A (2) táblázatban csak az S1megszerzésére használt eljárással kapott mintához hozzáadott
(nagyon) nagy veszteségek részleteit említjükmeg, a második üzletág potenciális nagy
veszteségeinek szimulálása érdekében.

A (3) táblázatban bemutatjuk az S 3szimulációjához használt eloszlásokat, ebben az esetben az


összes eloszlás független. Az erre az esetre generált adatokhoz 35000-nél egy farkát csatoljuk,
és csak a 32000-nél nagyobb értékeket vesszük a generált adatkészletből. MEGJEGYZÉS:
A maxentropikus eljárás alkalmazásához a sűrűség kiszámításához nagy számok empirikus
Laplace-transzformációit kell figyelembe vennünk. A túlcsordulás és az alulcsordulás
elkerülése érdekében a veszteségeket megfelelő méretezési tényezővel osztjuk el, és a sűrűség
megszerzése után visszavonjuk a méretezést. Ez Gomes-Goncalves és mtsai (2015b) területén
történt.
3.2. A kapcsolási eljárás
A copulák mindenütt jelen lévő módszerré váltak a véletlenszerű változók közötti függőség
bevezetésére. Néhány jelölés bevezetéséhez röviden felidézzük a copula módszert, majd azt,
hogy hogyan használjuk fel adatok előállítására és a maxentropikus eljárás kimenetének
összehasonlítására a copula módszer alkalmazásával kapott kimenettel. Kereteinken belül a
copula c(u1,u2,u3) csak egy[0,1] 3 valószínűségi törvény együttes eloszlásfüggvénye. Ha F b-
vel jelöljük az f Sb-hez kapcsolódó kumulatív eloszlást, akkor meghatározzuk azt az ízületi
sűrűséget, amelyet a copula

A copulákról és néhány példáról további információt a McNeil et al (2005) 5.


fejezetében talál. Ha c(u1,u2,u3) a három változó tekintetében folyamatosan
differenciálható, akkor az Fc-ből kapott kapcsolt sűrűség

3.2.1. A szekvenciális konvolúciós eljárás


Ha copula és egyéni sűrűség áll rendelkezésre, az összeg sűrűségét az ízületi sűrűségből ismételt
konvolúcióval lehet elérni. Ez az egyszerű megfigyelés meglehetősen hatékony eszközt
biztosít. A rekurzív eljárás leírásához Alexander munkájához (2003) utaljuk az olvasót. A
rekurzív folyamat a következőképpen megy.
1. Először az S1+S 2 értékpár összegének eloszlását nyerjük le az ízületi sűrűségből

ahol fS1 és fS2 a marginális


sűrűségek és c(s1,s2) egy adottfüggőségi struktúra, amelyet a C copula modell
határoz meg . 2. Az L12= S 1+S2összeg valószínűségi sűrűségét a konvolúciós integrál

adja
Az összeg többi részében az 1. és a 2. lépést ismételjük meg, L123=S1+S2+S3=L12+S3, amíg az
S összegsűrűségét ki nem számítjuk. Valójában, mi teszi ezt érdekessé a jelenlegi beállítás, az
a tény, hogy a copulas általában egyszerű funkciók kezelésére, és a maximális entrópia módszer
biztosítja analitikus kifejezés a marginális sűrűségek fSb. Az ilyen analitikai kifejezések
rendelkezésre állása a marginális sűrűségek számára sokkal könnyebbé teszi a copulákkal való
számításokat.
3.3. Maxentropikus sűrűségrekonstrukciók
Mint mondtuk, a teljes veszteség valószínűségi sűrűségének eléréséhez két útvonalat követünk.
Az elsőnél megkapjuk az intézmény minden tevékenységi vonalában a veszteségek
(marginális) valószínűségi sűrűségét, majd a kopulából a . segítségével közös sűrűséget
hozunk létre, amelyet ezután a teljes veszteség de Laplace transzformációjának kiszámítására
használunk, amelyet a teljes veszteségsűrűség kap. A Laplace-transzformáció számítása a (s 1
,s 2,s3) tér nagy finom diszkrétítésével történik:

ahol N a diszkretizációban és a közös eloszlásban használt partíciók

száma, c a C copula modell sűrűsége és


fS1..... fsB marginális sűrűség.
Amint a ψ ( α ) kéznél van, a kkv-eljárást alkalmazzuk az fS1+S2+... összeg
sűrűségénekmegszerzésére. +SB.
A második megközelítés kihasználja az ízületi sűrűség ismeretét, hogy rekurzív konvolúcióval
megszerezze az összeg sűrűségét.

4. A számszerű eredmények leírása


Az adatgenerálási folyamat első lépése az üzletágankénti veszteségek generálása. Az
adatgenerálási folyamat részleteit a 3.1. Az (1) ábra mindhárom paneljén megjelenítjük az S b
histogramját és valószínűségi sűrűségét a kkv-módszeralkalmazásával kapott b =1,2,3-ra.
Amint azt korábban jeleztük, ezek mindegyike hét különböző típusú esemény összege, amelyek
közöttük korrelálnak. Ez a három sűrűség lesz az alábbi példák alapanyaga.
Tekintsük a (4) táblázatot, amelyben a MAE (átlagos átlaghiba) és az RMSE (gyökér közép
négyzethiba) távolságokat mutatjuk a rekonstruált f S i sűrűségek és a histogram között. A
megállapodás elég jó.

4.1. Első eset: ismert a copula


Az alábbiakban bemutatandó eredmények azt feltételezik, hogy tudjuk, hogy a különböző
üzletágak veszteségeit valamilyen copula kísérheti.
Mivel a maximális entrópia-eljárás kimenete minden sűrűségre analitikus kifejezés, a fentiek
szerint ( S 1 ,...,Sb) együttes sűrűséget lehet előállítani. Ezzel az ízületi sűrűséggel két dolgot
tehetünk. Először ki tudjuk számítani az S1+S2+Laplace transzformációját ... +S b , és használja
bemenetként a maxent rutinhoz. Vagy használhatjuk az Alexanderben (2003) ismertetett iterált
konvolúciós eljárást az összeg valószínűségi sűrűségének megszerzésére. Mindkettőt
elvégezzük, és összehasonlítjuk az eredményeket.
A 2. ábrán a copulák különböző kombinációival és a konvolúciós és kkv-megközelítés
korrelációival megfigyelhetjük az így kapott sűrűségeket. Az első panelen ábrázoljuk az összeg
histogramját, feltételezve, hogy a veszteségek függetlenek. Az egyes panelek folytonos
vonalában ábrázoljuk a sűrűség maxentropikus rekonstrukcióját, és szaggatott szaggatott
vonalat használunk a konvolúciós technikával kapott rekonstrukció bemutatására. A másik
három bemenetként használt adatok szimulálására használt copulák a következők voltak: Két
gauss kopula ρ=0,5 és ρ=0,8 és egy diák copula ρi=0,7, ν=10 paraméterekkel. Az egyes
panelek felirata megemlíti, hogy melyik copulát használták. Hozzáteszik, hogy a t-student
copula gyakran használják a kockázati irodalom modell farok függőség. Az 5. táblázatban
összehasonlítjuk a MAE és rsme által mért rekonstrukciós hibákat a maxentropikus és a többi
rekonstrukció között. Az eltérés mértékét Gomes-Gongalves és mtsai. (2014a) magyarázata
szerint számították ki. Ezek az eredmények megerősítik a 2. ábrán látható vizuális
eredményeket.
Ezután a 6. táblázatban bemutatjuk a nagy mintával (9000-es méretben) számított empirikus
VaR és TVaR konfidenciaintervallumokat, valamint a független copulának megfelelő összeg
sűrűségéből kiszámított VaR és TVaR konfidenciaintervallumokat.
Befejezésképpen a 7. táblázatban összegyűjtjük a VaR és a
4.2. Második eset: Az adatok jól gyűjtve
Mint mondtuk, ez megfelel annak az esetnek, amikor az intézmény összegyűjtötte az egyes
kockázati típusok közös veszteségeit, hogy megszerezze az üzletágankénti összesített
veszteséget, azaz az intézmény összegyűjtötte a vektorokat ( S 1 , . . . , S b ) , majd kiszámította
a teljes veszteséget S = ∑ S b . Három példát mutatunk be az alábbiak szerint rendezve.
Mindegyiknél figyelembe veszünk egy kopulát, amellyel a marginális maxentropikus
sűrűségeket párosítjuk, majd adatokat generálunk az ízületi sűrűségből, és két módszerrel
határozzuk meg a teljes veszteség sűrűségét. Először a maxentropikus eljárással, majd a
konvolúciós eljárással két különböző copulával: egyszer a megfelelő copulával (a
maxentropikus eljárással kapott eredmény tesztelésére), és egy másik copulával a rossz copula
választás hatásának vizsgálatára. Az eseteket az adatok előállításához használt copula nevével
utalják. A gyakorlat lényege annak bizonyítása, hogy ha az adatokat jól gyűjtötték, a
maxentropikus eljárás lesz a megfelelő eszköz a használatra.
4.2.1. 1. eset: A Gumbel copula
Például az adatok 1000 adatvektorból (S1,S2,S3) állabból az eloszlásból, amelyet akkor kapunk,
amikor a marginálisokat gumbel copulával párosítjuk. A 3. ábrán az S 1 + S2+S 3histogramját
mutatjukb e , a fent említett három módszerrel kapott teljes veszteségsűrűség maxentropikus
rekonstrukciójával együtt. Az összehasonlításhoz használt copulák a Clayton és Gumbel
copula, amelyek paraméterei megegyeznek a 2- vel, illetve a 3-assal.
Úgy tűnik, hogy a kkv-k általában jobb eredményeket produkálnak, mint a konvolúciós
megközelítés. A 8. táblázatban felsoroljuk a MAE-t és az RSME-t az empirikus eloszlás és a
KKV által kapott sűrűségek között, valamint a konvolúciós módszert a Gumbel és Clayton
copulákkal.
A 9. és 10. táblázat a SMEerr.&Conv.err értékeket az empirikus VaR és/vagy TVaR abszolút
különbsége. Az empirikus VaR és TVaR értékek a szimulált minta mintakvantilisei, és
konfidenciaintervallumait bootstrap módszerrel kapjuk meg. Az alkalmazott módszerek (KKV
és Convolution) VaR és TVaR-ját a Gomes-Gongalves et al. (2014a) szerint számítják ki.
4.2.2. 2. eset: A Gauss-kopula negatív korrelációval
Bemutatjuk a rutin megismétlésének eredményét egy gauss kopulával, amely negatív
korrelációval rendelkezik. A 4. ábrán a szimulált adatok (500 adatpont) histogramját, valamint
a Gauss-kopula segítségével végzett rekonstrukciókat figyelhetjük meg −0,2 korrelációval.
Megfigyelhetjük a konvolúciós technika alkalmazásával kapott eredményt is egy t-diák
segítségével, amelynek korrelációja −0,2 és 2 szabadságfok, mint találjuk. A számszerű
összehasonlítások a 11., 12.
Az eljárások minőségének méréséhez összehasonlítjuk a különböző rekonstrukciókat a
szimuláció histogramjával, MAE&RMSE hibák, valamint VaR és TVaR számítások
alkalmazásával.
Úgy tűnik, hogy a kkv-k általában jobb eredményeket produkálnak, mint a konvolúciós
megközelítés.
4.2.3. 3. eset: A Gauss-copula pozitív korrelációval
Túl befejezni megismételjük az eljárást, ezúttal egy Gauss-kopula, amely pozitív korreláció. A
6. ábrán az S 1 + S 2 +S 3 -5 0 0 szimulált adatponttal kapott - histogramját jelenítjük meg,
valamint a rekonstrukciókat egy Gauss-kopula segítségével, 0,8 pozitív korrelációval. Ebben
az ábrában is ábrázoljuk a konvolúciós technika alkalmazásának eredményét egy t-diák
segítségével, 0,8 és 2 szabadságfokkal egyenlő korrelációkkal, mint találgatás. A számszerű
összehasonlításokat a 14., 15.
A rekonstrukciók minőségének méréseként kiszámítjuk a MAE&RMSE hibákat a kapott
sűrűség és a histogram között. Az eredményeket a 14. táblázat mutatja.

Egy másik összehasonlítást a 15. és 16. táblázat nyújt, amelyben az empirikus VaR és TVaR a
maxentropikus és konvolúciós eljárások által meghatározott sűrűségekből nyert értékek mellett
szerepel.

Úgy tűnik, hogy a kkv-k általában jobb eredményeket mutatnak, mint a konvolúciós
megközelítés.
5. Záró megjegyzések
Az általunk bemutatott példákból egyértelmű, hogy a maxentropikus eljárás fogalmilag
egyszerű, gyors és hatékony módszer az aggregált veszteségek valószínűségi sűrűségének
meghatározására a kockázatmérés, a szabályozási vagy gazdasági tőke meghatározása és a
kockázati felírás céljából.
Elemzésünk fontos morálja, hogy érdemes olyan adatgyűjtési eljárásokat kidolgozni, amelyek
kifejezetten beépítik a veszteségekbe a közös empirikus eljárást. Láttuk, hogy amikor ez
megtörténik, a maxentropikus eljárás alkalmazása rutinügy lesz.
És még akkor is, ha a veszteségek nincsenek jól rögzítve, a copulák használata a maxentropikus
technikával együtt hatékony módszert biztosít az LDA sűrűségmeghatározási problémájának
kezelésére az AMA megközelítésben a működési kockázat szabályozó tőkéjének
meghatározására.
Hivatkozások
[1] Sándor, C. (2003). Működési kockázat összesítése, Működési kockázat-technikai
cikkek.
[2] Aue, F. and Kalkbrener, M. (2006) LDA at work: Deutsche Bank approach to
quanting operational risk, Journal of Operational Risk, 1, 49-93.
[3] Borwein, J.M. és Lewis, A.S., Domború analízis és nemlineáris optimalizálás CMS-
Springer, Berlin, (2000).
[4] Brockman, M. és Kalkbrener, M. A kockázat összesítéséről, The Journal of Risk, 12,
45-68.
[5] Gomes-Gongalves, E. Gzyl, H., Mayoral, S. (2014a). Két maxentropikus megközelítés
az összetett kockázati veszteségek valószínűségi sűrűségének meghatározására.
Biztosítás: Matematika és közgazdaságtan, 62, 42-53.
[6] Gomes-Goncalves, E., és Gzyl, H. (2014b). Disentangling frekvencia modellek, Journal
of Operational Risk, 9(2), 3-21.
[7] Gomes-Goncalves, E. Gzyl, H., Mayoral, S. (2015a). Maxentropikus megközelítés az
aggregált kockázati veszteségek lebontására, Biztosítás: Matematika és közgazdaságtan
65,526-536.
[8] Gomes-Gongalves, E. Gzyl, H., Mayoral, S. (2015b) LDA: A
sűrűségrekonstrukció mintafüggésének elemzése maxentropikus módszerekkel (Beküldve).
[9] Gzyl, H. A módszer a maximális entrópia, WorldScient. Pubs., Szingapúr, (1995)
[10] Gzyl, H. and Recht, L. (2006) Geometria a valószínűségek terében II. Vetítőterek és
exponenciális családok, Revista Matemtica Iberoamericana. MA/MTNSA,... 3, 833-
849
[11] Jaynes, E.T. (1957) Információelmélet és statisztikai fizika. MAGYAR KÖZ. A
Phys. Rev., 106, 620-630.
[12] McNeil, A., Frey, R. és Embrechts, P. Quantitative Risk Management, Princeton
Univ. Press, Princeton, NJ, (2005).
[13] Panjer, H. Működési kockázat: Modeling Analytics, John Wiley & Sons, Inc.,
Hoboken, NJ (2006).
[14] Shen, P. and Jia, W. (2012) Maximum entrópia based működési kockázat
distribution becslése commertial bankok, in Management Science and Engineering
(ICMSE), 2012 International ConferenceIEEE, 1398-1403.
[15] Sevcsenko, P.V. Modellezés Működési kockázat, Springer Verlag, Berlin, (2011).

You might also like