Presentasjon lastes. Vennligst vent

Presentasjon lastes. Vennligst vent

Kurs i praktisk bruk av Bayesianske metoder.. Hvorfor statistikk? Problemstillinger med ukjente størrelser: modellparametre, tidsserie-størrelser, kalibrering.

Liknende presentasjoner


Presentasjon om: "Kurs i praktisk bruk av Bayesianske metoder.. Hvorfor statistikk? Problemstillinger med ukjente størrelser: modellparametre, tidsserie-størrelser, kalibrering."— Utskrift av presentasjonen:

1 Kurs i praktisk bruk av Bayesianske metoder.

2 Hvorfor statistikk? Problemstillinger med ukjente størrelser: modellparametre, tidsserie-størrelser, kalibrering av hydrologiske modeller. Trenger metoder for å håndtere det ukjente ut ifra det kjente: målinger. Målingene har gjerne et innslag av tilfeldigheter. Kan ikke på forhånd spå hva utfallene skal bli -> sannsynlighet. Statistikk: Fag der man fra målinger forsøker å si noe om modellene.

3 Bayesiansk statistikk Bayesiansk statistikk anvender sannsynligheter hele veien. Ukjente størrelser håndteres via det som er kjent og tilknyttet de ukjente størrelsene. Sannsynlighet for modell regnes ut via sanns. for måledata via Bayes formel: Pr(M | D) = Pr(D | M) Pr(M) / Pr(D) Hvis det er modell-parametre, , det er snakk om, fås tilsvarende: f(  |D) = f(D|  ) f(  ) / f(D) Krever a) en modell som angir f(D|  ). b) en førkunnskap om modellen, f(  ). Får fordelingen til parameterene etter datahåndtering. Altså vår kunnskap om modellen etter at data er blitt lagt til.

4 Hvorfor Bayesiansk statistikk? I hydrologi og geofysiske fag generelt finnes for oftest førkunnskap om modeller og modell-parametre. Resultatene fortolkes ofte enkelt av ikke- statistikere. Mer egnet til risikoanalyse. Kan håndtere svært komplekse modeller

5 Bayesianske resultater Primært resultat: f(  |D) (a’ posteriori-fordelingen). Alt annet avledes av dette. Kan lage histogram og spredningsplott av f(  |D) Kan finne fordelingen til avledede størrelser,  =g(  ). Kan finne fordelingen til nye målinger, prediksjon. Kan lage et ‘beste estimat’ for  via fordelingens forventningsverdi eller median. Kan angi spredningen via standardavvik eller troverdighetsintervaller. Kan benytte resultatet til å beregne risiko=forventet tap.

6 Problemer med Bayesiansk statistikk Det kan være lenger vei til målet i Bayesiansk statistikk. Spesifisering av førkunnskap i form av en fordeling kan være vanskelig. Normaliseringskonstanten i Bayes formel: f(D) =  f(D|  )f(  )d , kan være umulig å regne ut analytisk. Median, forventning, standardavvik og troverdighetsintervall til f(  |D) er ikke alltid analytisk tilgjengelig.

7 Probabilistisk tenkning Håndterer utsagn med ukjent sannhetsgehalt via sannsynligheter, f. eks. sannsynligheten for ”det blir regn i morgen” eller ”det er liv på Mars”. Pr(utsagn)=1 angir at vi er sikker på at utsagnet er sant. Tilsvarende: Pr(utsagn)=0 angir at det er usant. Alt imellom angir ulik grad av usikkerhet. Når nye data kommer inn, oppdateres sannsynlighetene ved å se på sannsynligheten for utsagnet betinget på det du nå vet, Pr(utsagn | data). Håndteres via basislovene for sannsynlighet.

8 Basislover for sannsynlighet 1) 0  Pr(A)  1 for alle utsagn A. Sannsynlighet måles fra 0-100%. 2) Pr(A) + Pr(ikke A)=1. Sannsynlighet for at det regner pluss sannsynlighet for at det ikke regner er lik 1 (sikkert). 3) Pr(A og B) = Pr(A|B)Pr(B) = Pr(B|A)Pr(A) Lov for betinget sannsynlighet. Gir også definisjonen av uavhengige hendelser. A og B er uavhengig hvis Pr(A|B)=Pr(A) => Pr(A og B)=Pr(A)Pr(B)

9 Nyttige avledede regler 4) Pr(B 1 eller B 2 eller B 3 )= Pr(B 1 )+Pr(B 2 )+Pr(B 3 ) hvis B 1, B 2 og B 3 er gjensidig utelukkende. Eks: Sannsynlighet for å få 2, 4 eller 6 på terningen er Pr(toer)+Pr(firer)+Pr(sekser)=3/6=1/2. 5) Pr(A eller B)=Pr(A)+Pr(B)-Pr(A og B) generelt. Eks: Pr(partall eller over to på terningen)= Pr(partall)+Pr(over to)-Pr(partall over to)= ½+4/6-2/6=5/6. 6) Hvis B1,…,Bk er gjensidig utelukkende, og dekker alle muligheter (partisjon), så er Pr(A)=Pr(A|B 1 )Pr(B 1 )+…+Pr(A|B k )Pr(B k ) Eks: Sannsynlighet for at du blir våt på en tur er sannsynlighet for at du blir våt gitt at det regner ganger sannsynligheten for at det regner + sannsynligheten for at du blir våt gitt at det ikke regner ganger sannsynligheten for at det ikke regner.

10 Bayes formel Starter med basisregel 3, og antar at M er en modell og D er data: Pr(M og D)=Pr(M|D)Pr(D)=Pr(D|M)Pr(M) Snur litt på denne, og får Bayes formel: Pr(M|D)=Pr(D|M)Pr(M)/Pr(D). Kan bruke avledet regel 6 til å finne Pr(D). Pr(D)=Pr(D|M 1 )Pr(M 1 )+….+Pr(D|M k )Pr(M k ) Bayes formel nå:

11 Probabilistisk tenkning - eksempel Anta at hvis det regner, så er det overskyet og at det ikke alltid regner og ikke alltid er overskyet eller ikke. Du vet ikke om det regner eller ikke, men du ser ut vinduet og ser at det er overskyet. Er det nå større grunn til å tro at det regner? Pr(regn|overskyet) = Pr(overskyet|regn)Pr(regn)/Pr(overskyet)= Pr(regn)/Pr(overskyet)>Pr(regn) Altså, sannsynligheten for at det regner har økt med observasjonen ”det er overskyet”. Tall-eksempel: Pr(regn)=20%. Pr(overskyet)=40%. Pr(regn|overskyet)=20%/40%=50%. Altså øker sannsynligheten fra 20% til 50%. I logikken er det å argumentere mot implikasjonspilen feil. Men ikke her.

12 Eksempel 2 – flom over gitt terskel. Lurer på gjentaksintervallet til en flomhendelse der vannet flommer over noen gitte jorder. Feltet er umålt, men en bonde forteller at de 50 år han har vært der, har det flommet slik kun to år. Hva blir sannsynligheten for en slik flom per år og hva blir estimert gjentaksintervall?

13 Kontinuerlige modell-parametre Når en modell består av masse modeller av samme type kun karakterisert ved ulike parameter- verdier, håndterer vi disse som vi håndterer modell-sannsynligheter. Forskjellen er at de har kontinuerlige mulige verdier. Benytter sannsynlighetstettheter heller enn sannsynligheter. Bruker integraler hellers enn summer, f.eks. i regel 6:

14 Eksempel 2 - forts Modell: Pr(k flomhendelser over n år | p) = Førkunnskap: mer eller mindre ingen førkunnskap, f(p)=1 for 0  p  1. p|D ~ beta(k+1,n-k+1) Beta-fordelingen

15 Eks. 2, resultat (plott) zoom

16 Eks 2 – estimering Estimat på den ene parameteren vi har, p: a)E p|D = (k+1)/(n+2) (=3/52= ).. b)Mode p|D = k/n (=2/50=0.04). c)Median p|D har inget analytisk uttrykk. Kan trekke ganger fra f(p|D)=beta(3,49) og beregne sample-medianen. Fikk i så tilfelle  2.6/50.

17 Eks 2- usikkerhets-estimat Standardavvik/varians. Analytisk resultat: var(p|D)=(k+1)(n-k+1)/(n+2) 2 (n+3). I vårt tilfelle: sd(p|D)=0.032 Troverdighetsintervall, et intervall som med en gitt sannsynlighet omslutter riktig verdi. Typisk: 95% troverdiget. 1) Enten finne et nivå som gjør at det område der f(p|D)>nivå har sannsynlighetsmasse ) Eller finne p min,p max slik at Pr(p p max |D)=0.025.

18 Eks 2 - troverdighetsintervall Metode 2. Kan benytte seg av tabeller til å finne at Pr(p |D)=0.025.

19 Eks 2 - prediksjon Ser på hva fremtidige data kan bli, k 2 av n 2 Betinget på data heller enn den ukjente parameteren p, er ikke fremtidige data binomisk fordelt lenger, men med en spesielt fordeling som ligner på hypergeometrisk fordeling.

20 Eks 2 - prediktiv fordeling Ser på prediksjon av 100 nye år basert på data og basert på frekventistisk estimat, p=0.04.

21 Eks 2 - gjentaksintervall Gjentaksintervall er definert som forventet antall år før gjentak av en hendelse, T=1/p. Gitt fordelingen til p kan vi finne fordelingen til T, men egenskapene til denne kan være ganske ukjente. Benytter derfor simulasjon. Trekker igjen p|D~beta(2+1,48+1) og får derfor også sampler av T|D. Kan så studere histogram, forventning, standardavvik og troverdighetsintervall basert på sample-estimat.

22 Eks 2 – gjentaksintervall-samples Estimere forventing fra sample-gjennomsnitt: E T  Sample standardavvik, sd(T)  25 Troverdighetsintervall fra estimerte kvantiler (2.5% og kvantil): (7.4 – 81.7)

23 Eks 3 – Normalfordelte data Skal finne forventet vannføring 24/6 for stasjon Nor (2.2.0). Har et tidsserie-sett fra 1937 til 1997 med vannføringer for 24/6, n=61. Antar at q i =log(Q i )~N( ,  2 ) u.i.f. Antar i utgangspunktet kjent standardavvik,  = Førkunnskap: Ønsker en førkunnskap for log vannføring på formen N(  0,  2 ), altså spesifisert ved forventet nivå og usikkerhet. Antar at spesifikt avløp ligger mellom 1 og 1000 l/s/km 2 med 95% sannsynlighet. Nor har nedbørsfelt 19040km2, som gir et 95% troverdighetsintervall før data (prior), på ca. 19m 3 /s til 19000m 3 /s. For log vannføring blir dette (2.947,9.854). For normalfordelingen er et 95% troverdighetsintervall (  ,   ), som gir  0 =6.40,  =1.76 for vårt tilfelle.

24 Grafisk modell: Naturlig konjugert: Førkunnskap har samme form som likelihooden’s funksjonsavhengning for parameterene. Gir ofte en kunnskap etter data på samme formen. For binomisk fordelte data var beta-fordelingen den konjugerte. For normalfordeling er normalfordelingen den konjugerte Gir at den nye fordelingen igjen kan karakteriseres med hyper-parametre.  0,  2  q 1,…,q n Hyper-parametre Parametre Data

25 Eks 3 - utregning Førkunnskap: Data: Etter data:

26 Eks 3 – Før og etter Har q=6.01, n=61 gir  ~N(6.02, ) Altså  0 * =6.02,  *= Merk at forventningen er nesten lik q og varians nesten lik  2 /n. Førkunnskapen spilte relativt liten rolle i dette tilfellet.

27 Eks 3 - forventet vannføring Prediktiv fordeling: q new |D~N(  0 *,  2 +  * 2 ) Har at Q new =exp(q new ), som gir EQ=exp(  0 * +(  2 +  * 2 )/2) =472.6m 3 /s (Gjennomsnittelig Q: 472.9m 3 /s) f(exp(  0 *)|D) f(Q new |D)

28 Eks 4 – normalfordelt med ukjent varians,  2 Antar igjen q i ~N( ,  2 ), med  ~N(  0,  2 ) men nå med ukjent  2. Trenger altså en prior for  2 også. Vanlig:  2 ~ IG( ,  ) (gir enklere regning) f(  2 )=   /  (  ) (  2 ) -  -1 exp(-  /  2 )

29 Eks 4 – ukjent  2 – grafisk modell  0,  2  q 1,…,q n Hyper-parametre Parametre Data 22 ,  I vårt tilfelle fra eks 3, tilpasser ,  slik at Pr(log(1.25)< 

30 Eks 4 - utregning Førkunnskap: Data: Etter data: som før Ingen analytisk normalisering!

31 Simulering Simulering benyttes når analytiske metoder kommer til kort. Bruker det til: a)Beregne momenter og andre integral som ikke er direkte analytisk tilgjengelig. (Monte Carlo). b)Trekke fra en fordeling med ukjent normalisering (MCMC).

32 Monte Carlo-metoder Betegnelsen ”Monte Carlo metoder” benyttes på alt som bruker tilfeldige trekninger fra gitte fordelinger til å beregne noe. Mest vanlig å benytte til å beregne integraler: Eks: Vår beregning av ET=E1/p i eks 2. Beregning av  ved å trekke fra uniform fordeling over [-1,1]x[-1,1] og se andelen som er innefor enhetssirkelen.  /4  andel.

33 Importance sampling Metode som kan effektivisere Monte Carlo- metoder. Skal fortsatt beregne E f g(x), men nå ved en alternativ forslagsfordeling, q. Monte Carlo-estimat:

34 Fordeler med importance sampling Økt effektivitet hvis q(x)  f(x)g(x) Er ikke avhengig av normaliseringen til f(x), siden vi har w(x)=f(x)/q(x) både over og under brøkstreken. Kan beregne momenter til f(  |D)=f(D|  )f(  )/f(D) uten å kjenne f(D). Ulempe: Kan ha stabiliseringsproblemer i enkelte sammenhenger.

35 Trekning fra a’ posteriori- fordelingen Hvis normaliseringkonstanten f(D) =  f(D|  )f(  )d  ikke er kjent, kan vi likevel trekke fra f(  |D) = f(D|  )f(  )/f(D). Metodene for å gjøre dette heter Markov Chain Monte Carlo-metoder (MCMC).

36 Markov-kjeder En Markov-kjede er et sett tilfeldige variable der en trekning kun avhenger av forrige trekning: f(x i | x i-1,x i-2,…,x 1 )=f(x i |x i-1 ). Eks: x i =x i-1 +e i der e i ~N(0,  2 ) uif. (Random Walk, RW) (Muligens også en del av våre tidsserier) Under visse omstendigheter vil kjeden konvergere mot en fast fordeling, f(x i )  h(x) når i . MCMC: Lager en Markov-kjede over parameter-rommet, , slik at f(  i )  f(  |D).

37 Første MCMC-Metropolis (en parameter) Lagd i 1952 i forbindelse med H-bombe-utviklingen. Algoritme for å trekke fra f(  |D), gitt unormalisert versjon av fordelingen, h(  ) (typisk f(D|  )f(  )): 1.Start med en trekning av  (0) ~g() der g er en forslagsfordeling (gjerne a’ priori-fordelingen). 2.Loop: i=1…N 3.Trekk  new ~p(  new |  (i-1) ) der p er en symmetrisk forslagsfordeling, p(x|y)=p(y|x). Eks: normalfordeling eller uniform fordeling sentrert rundt  (i-1). (RW-Metropolis) 4.Trekk u~U(0,1) 5.Hvis u

38 MCMC med mer enn en parameter Kan lage forslagsfordelinger for enkelt- parametre, og så gjennomløpe rekka av parametre. Kan lage forslagsfordelinger, p(  new |  old ), for mer enn en parameter av gangen. (Gjort rett kan dette være svært effektivt, men mer jobb for statistikeren/programmereren!)

39 Eks 4 – R-kode # Antar vi allerede har lest inn data, q # Førkunnskap: alpha=1.38 beta=0.215 mu0=6.40 tau=1.76 ig=function(x, a, b) a^b/gamma(a)*x^(-a-1)*exp(-b/x) h=function(mu,sigma2) { if(sigma2>0) prod(dnorm(q, mu, sqrt(sigma2)))* dnorm(mu,mu0,tau)*ig(sigma2,alpha,beta) else 0 } draw.theta=function(N) { # 1. Første trekning: mu=rnorm(1,mean(q),0.1) sigma2=1/rgamma(1,alpha,beta) # 2. Løkke: for(i in 1:N) { mu.new=rnorm(1,mu,1) # 3 u=runif(1) # 4 if(u

40 Resultat: Har nå 100 trekninger fra f(  =( ,  2 )|D). Kan estimere forventing og varians via gjennomsnitt og sample-varians. E  1/100  i  (i) =6.01 E  0.59

41 Triks for økt robusthet – logaritmisk sanns. # Antar vi allerede har lest inn data, q # Førkunnskap: alpha=1.38 beta=0.215 mu0=6.40 tau=1.76 ig=function(x, a, b) a^b/gamma(a)*x^(-a-1)*exp(-b/x) log.h=function(mu,sigma2) { if(sigma2>0) sum(log(dnorm(q, mu, sqrt(sigma2))))+ log(dnorm(mu,mu0,tau))+ log(ig(sigma2,alpha,beta)) else -1e+200 } draw.theta=function(N) { # 1. Første trekning: mu=rnorm(1,mu0,tau) sigma2=1/rgamma(1,alpha,beta) # 2. Løkke: for(i in 1:N) { mu.new=rnorm(1,mu,1) # 3 u=runif(1) # 4 if(log(u)

42 Effektivitet – burnin og effektiv uavhengighet Har at en MCMC konvergerer mot riktig fordeling, men hvor mange trekninger trenger vi? (burnin) Når vi har nådde en stabil fordeling, burde vi slippe å starte på ny for å trekke en gang til. Hvis vi kan anta at  (i+k) ca. uavhengig av  (i), bør det holde å fortsette kjeden og beholde hver k’te trekning.

43 Burnin Kan undersøke burnin ved å se på grafen {i,  (i) }. Typisk vil kjeden i starten bevege seg mot senteret i fordelingen, før den stabiliserer seg. Mer avansert: Kan starte flere kjeder og studere når variansen innad i kjedene blir større enn variansen mellom kjedene. Kan også bruke andre mål for å sjekke om det er forskjell på kjedene. Viktig: Start fra ulike startsteder!

44 Effektiv uavhengighet For å trekke slippe å trekke forferdelig mange ganger, ønsker vi at antall iterasjoner, k, før effektiv uavhengighet skal bli så liten som mulig. Formel basert på autoregresiv antagelse: k=  /(1-  ) der  er estimert ett-stegs autokorrelasjon. For liten akseptanserate og mange trekninger må foretas før en vi kan anta uavhengighet. For lite bevegelse kan også komme av at forslagsfordelingen gir forslag som er svært nærme forrige verdi. Akseptanseraten blir høy, men kjeden beveger seg lite for hver iterasjon. Må derfor finne et kompromiss mellom for høy og for lav akseptanserate. Anbefalt: akseptanserate mellom 0.25 og 0.5.

45 Typisk rutine: draw.theta=function(N, rw.mu, rw.sigma2, burnin, spacing) { # 1. Første trekning: mu=rnorm(1,mu0,tau) sigma2=1/rgamma(1,alpha,beta) theta=array(NA,c(2,N)) j=i=k=1 # 2. Løkke: while(i<=N) { mu.new=rnorm(1,mu,rw.mu) # 3 u=runif(1) # 4 if(log(u)burnin && k>=spacing) { theta[,i]=c(mu,sigma2) i=i+1 k=0 } theta # 6 - returner theta }

46 Metropolis-Hastings I Metropolis-algoritmen er det et krav om symmetriske forslagsfordelinger. Kan fjerne dette kravet i Metropolis-Hastings. Antar vi igjen ønsker å trekke fra den unormaliserte fordelingen h(  ). 1.Start med en trekning av  (0) ~g() der g er en forslagsfordeling. 2.Loop: i=1…N 3. Trekk  new ~p(  new |  (i-1) ) 4. Trekk u~U(0,1) 5. Hvis u

47 Metropolis-Hastings eksempel: independence sampler Anta vi vet at  |D er ca. fordelte som en kjent fordeling p(  ). Bruker p som forslagsfordeling, og forslår dermed ny  uavhengig av forrige trekning. Godtar nytt forslag hvis u

48 Gibbs-sampling En spesialversjon av MH-algoritmen som sørger for at akseptanseraten er lik 1. Kun meningsfylt når man har flere parametre. 1.Start med en trekning av  (0) ~g() der g er en forslagsfordeling. 2.Loop: i=1…N 3. Loop: j=1…k der k er antall parametre 4. Trekk  (i) j ~ f(  j | D,  (i) 1,…,  (i) j-1,  (i-1) j+1,…,  (i-1) k )= f(  j | D,  (i) -j )

49 Gibbs-sampling – eks 4 Har at Ser vi på funksjonsavhengigheten for  når  2 er kjent, har dette formen til en normalfordeling, som vi kjenner normaliseringen til. Dette ble allerede gjort i eks 3: Tilsvarende fås for  2 når  er kjent:

50 Gibbs-sampling - kode draw.theta=function(N, rw.mu, rw.sigma2, burnin, spacing) { # 1. Første trekning: mu=rnorm(1,mu0,tau) sigma2=1/rgamma(1,alpha,beta) n=length(q) meanq=mean(q) theta=array(NA,c(2,N)) j=i=k=1 while(i<=N) { mu=rnorm(1,(mu0*sigma2/n+meanq*tau^2)/(sigma2/n+tau^2),sqrt(tau^2*sigma2/n/(sigma2/n+tau^2))) sigma2=1/rgamma(1,alpha+n/2,beta+sum((q-mu)^2)/2) j=j+1 k=k+1 if(j>burnin && k>=spacing) { theta[,i]=c(mu,sigma2) i=i+1 k=0 } theta # 6 - returner theta }

51 Erfaringer med Gibbs-sampling Svært effektiv når parametrene er mer eller mindre uavhengige. Mindre effektiv når det er stor avhengighet mellom parametrene. Ikke alle parametre lar seg Gibbs-sample Det går an å lage sampler av blokker av parametre ved å trekke noen via annen metodikk (independence sampler), deretter noen via Gibbs- aktig sampling og deretter ta Metropolis-Hastings- akseptans på hele blokken.

52 Avledede parametre og prediksjoner Med ett sett trekninger av parametrene kan avledede parametre simpelthen beregnes og analyseres slik som parametrene selv. Eks: prediksjon av vannføring: Q * ~logN( ,  2 ). EQ * =exp(  +0.5  2 ), der  er  2 hentet fra Gibbs-trekningene. Får EQ *  m 3 /s.

53 Modell-valg Har et sett med modeller,M k, og ønsker å beregne Pr(M k |D)=f(D|M k )Pr(M k )/f(D). Trenger derfor f(D|M k ). Modellene kan hver ha et parametersett  k. f(D|M k ) =  f(D|  k, M k ) f(  k |M k ) d  k Kan beregnes via Monte Carlo-metoder som importance sampling. Finn en forslagsfordeling g k (  k ) (f.eks. ved å tilpasse en multinormal fordeling til estimerte momenter fra MCMC-trekninger fra a’ posteriorifordelingen til modellparametrene) og beregn Evt. finnes det en algoritme for å hoppe mellom modellrommene, kalt ”Reversible Jumps”, der andelen av iterasjoner der rutinen oppholder seg i modell k gir estimatet for Pr(M k |D).

54 Hierarkiske modeller Har så langt sett på tilfeller der parametrene lager data direkte. Men kan også ha parametre som gir andre parametre. Vi har da flere lag av parametre og andre stokastiske variable (skjulte variable) før vi kommer til data. Bayes formel kan benyttes til å lære om lag k fra lag k-1.

55 Hierarkiske modeller - eks Flomfrekvensanalyse: Antar at vi kan lære om hva fornuftige a’ priori-antagelser om GEV-parametrene for en stasjon j er ved å se på hele regionen:  1  1  1 GEV_parametre      2  2  2  3  3  3         Q 1,1,Q 1,2,…,Q 1,n1 Q 2,1,Q 2,2,…,Q 2,n2 Q 3,1,Q 3,2,…,Q 3,n1 hyper-parametre Data

56 Forenklet bilde av hierarkisk modell hyperparametre              j  j  j j=1,…,J=antall stasjoner Q i,j i=1,…,n j Data

57 Andre hierarkiske eksempler - 1 Vannføringskurve med dynamisk bunnvannstand: Q i =a(h i -h 0,t ) b, der h 0,t =  h 0,t-1 +  t Vannføringskurve der også vannstandsmålingene er å anse som uperfekte: Q i,real =a(h i,real -h 0 ) b, Q i =Q i,real +  i, h i =h i,real +  i Ifylling av hull med tidsseriemodell. Vannførings-tidsserie med skjult regn- variabel: Q t =  i a i R t-i +  t, der R t =  R t-1 +  t

58 Konklusjon Med Bayesiansk metodikk og muligheter for simulering, er det bare fantasien og programmeringsferdighetene som setter begrensningene!


Laste ned ppt "Kurs i praktisk bruk av Bayesianske metoder.. Hvorfor statistikk? Problemstillinger med ukjente størrelser: modellparametre, tidsserie-størrelser, kalibrering."

Liknende presentasjoner


Annonser fra Google