Szürkedobozmodell
A matematikában, a statisztikában és a számítási modellezésben a szürkedobozmodell[1][2][3][4] a részleges elméleti struktúrát adatokkal ötvözi a modell befejezéséhez. Az elméleti felépítés változhat az eredmények simaságára vonatkozó információktól kezdve azokon a modelleken át, amelyek csak az adatok vagy a meglévő szakirodalom paraméterértékeit igénylik.[5] Így szinte az összes modell szürkedobozmodell, szemben a feketedobozzal, ahol nem feltételezzük a modell formáját, vagy a fehérdobozmodellek, amelyek pusztán elméleti jellegűek. Egyes modellek speciális formát öltenek, például lineáris regressziót[6][7] vagy neurális hálót.[8][9] Ezek speciális elemzési módszerekkel rendelkeznek. Különösen a lineáris regressziós technikák[10] sokkal hatékonyabbak, mint a legtöbb nemlineáris technika.[11] [12] A modell lehet determinisztikus vagy sztochasztikus (azaz véletlenszerű összetevőket tartalmazhat) attól függően, hogy mire akarjuk használni.
Formanyomtatvány
[szerkesztés]Az általános eset egy nemlineáris modell, részleges elméleti felépítéssel és néhány ismeretlen részből, amelyek adatokból származnak. Az elméleti struktúrával ellentétes modelleket egyedileg kell értékelni,[1][13] esetleg szimulált hőkezelési vagy genetikai algoritmusokkal.
Egy adott modellstruktúrán belül lehet, hogy meg kell találni a paramétereket[14] [15] vagy a változó paraméterek relációit[5] [16] Egy adott szerkezetben önkényesen feltételezzük, hogy az adatok takarmány vektorok F, termék vektorok p, illetve működő állapotban lévő vektorokból állnak. Általában c tartalmaz f-ből kivont értékeket, valamint egyéb értékeket. Sok esetben egy modell átalakítható a következő alakzat függvényévé:[17] [18]
- m (f, p, q)
ahol az m vektorfüggvény megadja a hibákat a p adatok és a modelljóslatok között. A q vektor ad néhány változó paramétert, amelyek a modell ismeretlen részei.
A q paraméterek a meghatározandó módon változnak a c működési körülményektől.[5] [17] Ez az összefüggés q = Ac formátumban határozható meg, ahol A ismeretlen együtthatójú mátrix, és c, mint a lineáris regresszióban[6] [7] tartalmaz egy állandó kifejezést és az eredeti működési feltételek esetlegesen átalakított értékeit a nemlineáris összefüggések megszerzéséhez[19] [20] az eredeti működési feltételek és q között. Ezután ki kell választani, hogy az A mely tagjai nem nullák, és hozzárendelni az értékeiket. A modell befejezése optimalizálási problémává válik a nem nulla értékek meghatározására A-ban, amely minimalizálja az m (f, p, Ac) hibákat az adatok fölött.[1] [16] [21] [22] [23]
Modell befejezése
[szerkesztés]Amint a nem nulla értékek kiválogatása megtörtént, a fennmaradó együtthatók A-ban meghatározhatóak m(f,p,Ac) minimalizálásával az adatokon keresztül, figyelembe véve a nem nulla értékeket A-ban, jellemzően a nem-lineáris legkisebb négyzetek segítségével. A nem nulla kifejezések kiválasztása optimalizálási módszerekkel történhet, például szimulált hőkezelési és evolúciós algoritmusokkal. Szintén a nem-lineáris legkisebb négyzetek az A elemeinek becsléseket nyújthat a pontosságra[11] [15]annak meghatározására, hogy azok jelentősen különböznek nullától, így biztosítva egy eljárás modell kiválasztását.[24] [25]
Időnként lehetőség van q értékek kiszámítására minden adatsor esetében, közvetlenül vagy nemlineáris legkisebb négyzetek segítségével. Ezután a hatékonyabb lineáris regressziót lehet használni hogy megjósoljuk q értékét c használatával ezáltal kiválasztva a nem nulla értékeket A-ban és megbecsülni az értékeiket. Amikor a nem nulla értékek megtalálhatók, akkor az eredeti m (f, p, Ac) modellen nem lineáris legkisebb négyzetek használható ezen értékek finomítására.[16] [21] [22]
A harmadik eljárás a modellinverzió,[5][17][18] amely átalakítja a nem-lineáris m (f, p, Ac) egy majdnem lineáris formába az A elemein belül, amit meg lehet vizsgálni hasznos modell választás[24][25] és a lineáris regresszió értékelésével.[10] A legegyszerűbb esetet nézve q értéke (q = a T c) és egy becsült q* q-nak. dq = aTc - q* eredménye egyenlő
- m (f, p, a T c) = m (f, p, q * + d q) ≈ m (f, p.q *) + d q m '(f, p, q *) = m (f, p.q *) + (a T c - q *) m '(f, p, q *)
úgy, hogy aT most lineáris helyzetben van az összes többi ismert kifejezéssel, és így lineáris regressziós technikákkal elemezhető. Egynél több paraméter esetében a módszer közvetlen módon terjed.[5] [18] [17] Miután leellenőriztük hogy a modell fejlődött ez a folyamat ismételhető konvergenciáig. Ennek a megközelítésnek megvan az az előnye, hogy nincs szüksége a q paraméterekre ahhoz, hogy az egyedi adatsorból meghatározható legyen, és a lineáris regresszió az eredeti hibafeltételeken alapszik
A modell érvényesítése
[szerkesztés]Ahol elegendő adat áll rendelkezésre, ajánlott az adatok felosztása külön modell-konstrukcióra és egy vagy két értékelési halmazra. Ezt meg lehet ismételni a konstrukciókészlet többszörös kiválasztásával, és az eredményül kapott modelleket átlagoljuk vagy felhasználjuk az előrejelzési különbségek értékelésére.
Egy statisztikai teszt, például a Khí-négyzet eloszlás a maradékokon nem különösebben hasznos.[26] A chi négyzet teszt megköveteli az ismert szórásokat, amelyek ritkán állnak rendelkezésre, és a sikertelen tesztek nem utalnak arra, hogy miként lehetne javítani a modellen.[11] A beágyazott és a nem beágyazott modellek összehasonlítására számos módszer létezik. Ide tartozik a modelljóslások és az ismételt adatok összehasonlítása.
Egy próba megjósolni a maradékokat m(, ) a működési feltételek c segítségével lineáris regressziót használva megmutatja hogy a maradékokat előre meg lehet-e jósolni.[21][22] Azok a maradékok amelyeket nem lehet megjósolni, kevés esélyt kínálnak a modell fejlesztésére a jelenlegi működési feltételek alapján.[5] Azok a kifejezések, amelyek megjósolják a maradékokat, leendő kifejezések, amelyeket be kell építeni a modellbe annak teljesítményének javítása érdekében.
A fenti modellinverziós technika alkalmazható módszerként annak eldöntésére, hogy egy modell javítható-e. Ebben az esetben a nem nulla kifejezések kiválasztása nem olyan fontos, és lineáris predikciót lehet elvégezni a regressziós mátrix sajátvektor és sajátértékeinek felhasználásával. Az értékeket ilyen módon meghatározva A-ban helyettesíteni kell a nemlineáris modellbe hogy felmérje a javításokat a modell hibákban. Jelentős javulás hiánya azt jelzi, hogy a rendelkezésre álló adatok nem képesek a jelenlegi modellformát a megadott paraméterek felhasználásával javítani.[5] Extra paraméterek illeszthetők be a modellbe, hogy átfogóbb legyen a teszt.
Jegyzetek
[szerkesztés]- ↑ a b c Bohlin, Torsten P.. Practical Grey-box Process Identification: Theory and Applications. Springer Science & Business Media (2006. szeptember 7.). ISBN 978-1-84628-403-8
- ↑ Grey-box model estimation. Mathworks 2, 2012
- ↑ Kroll, Andreas (2000). Grey-box models: Concepts and application. In: New Frontiers in Computational Intelligence and its Applications, vol.57 of Frontiers in artificial intelligence and applications, pp. 42-51. IOS Press, Amsterdam.
- ↑ Sohlberg, B., and Jacobsen, E.W., 2008. Grey box modelling - branches and experiences, Proc. 17th World Congress, Int. Federation of Automatic Control, Seoul. pp 11415-11420
- ↑ a b c d e f g Whiten, B., 2013. Model completion and validation using inversion of grey box models, ANZIAM J.,54 (CTAC 2012) pp C187–C199.
- ↑ a b Draper, Norman R.. Applied Regression Analysis. John Wiley & Sons, 657–. o. (2014. augusztus 25.). ISBN 978-1-118-62568-2
- ↑ a b Weisberg, Sanford. Applied Linear Regression. Wiley (2013. november 25.). ISBN 978-1-118-59485-8
- ↑ Heaton, J., 2012. Introduction to the math of neural networks, Heaton Research Inc. (Chesterfield, MO), ISBN 978-1475190878
- ↑ Stergiou: Neural networks, 2013. [2009. december 16-i dátummal az eredetiből archiválva]. (Hozzáférés: 2013. július 3.)
- ↑ a b Lawson, Charles L.. Solving Least Squares Problems. SIAM (1995. december 1.). ISBN 978-0-89871-356-5
- ↑ a b c Press, W.H.. Numerical Recipes, 3rd, Cambridge University Press (2007. február 8.). ISBN 978-0-521-88068-8
- ↑ Gelman, Andrew. Bayesian Data Analysis, Third Edition. CRC Press (2013. november 1.). ISBN 978-1-4398-4095-5
- ↑ Mathworks, 2013. Supported grey box models
- ↑ .
- ↑ a b Nash, J.C. and Walker-Smith, M. 1987. Nonlinear parameter estimation, Marcel Dekker, Inc. (New York).
- ↑ a b c Whiten, W.J., 1971. Model building techniques applied to mineral treatment processes, Symp. on Automatic Control Systems in Mineral Processing Plants, (Australas. Inst. Min. Metall., S. Queensland Branch, Brisbane), 129-148.
- ↑ a b c d Whiten, W.J., 1994. Determination of parameter relations within non-linear models, SIGNUM Newsletter, 29(3–4,) 2–5. 10.1145/192527.192535.
- ↑ a b c Whiten, B., 2014. Determining the form of ordinary differential equations using model inversion, ANZIAM J. 55 (EMAC2013) pp.C329–C347.
- ↑ Polynomial
- ↑ Spline (mathematics)
- ↑ a b c Kojovic, T., and Whiten W. J., 1994. Evaluation of the quality of simulation models, Innovations in mineral processing, (Lauretian University, Sudbury) pp 437–446. ISBN 088667025X
- ↑ a b c Kojovic, T., 1989. The development and application of Model - an automated model builder for mineral processing, PhD thesis, The University of Queensland.
- ↑ Xiao, J., 1998. Extensions of model building techniques and their applications in mineral processing, PhD thesis, The University of Queensland.
- ↑ a b Linhart, H.. Model selection. Wiley (1986). ISBN 978-0-471-83722-0
- ↑ a b Miller, Alan. Subset Selection in Regression. CRC Press (2002. április 15.). ISBN 978-1-4200-3593-3
- ↑ Deming, William Edwards. Out of the Crisis p272. MIT Press (2000). ISBN 978-0-262-54115-2
Fordítás
[szerkesztés]Ez a szócikk részben vagy egészben a Grey box model című angol Wikipédia-szócikk ezen változatának fordításán alapul. Az eredeti cikk szerkesztőit annak laptörténete sorolja fel. Ez a jelzés csupán a megfogalmazás eredetét és a szerzői jogokat jelzi, nem szolgál a cikkben szereplő információk forrásmegjelöléseként.