www.vorhilfe.de
Vorhilfe

Kostenlose Kommunikationsplattform für gegenseitige Hilfestellungen.
Hallo Gast!einloggen | registrieren ]
Startseite · Forum · Wissen · Kurse · Mitglieder · Team · Impressum
Forenbaum
^ Forenbaum
Status Vorhilfe
  Status Geisteswiss.
    Status Erdkunde
    Status Geschichte
    Status Jura
    Status Musik/Kunst
    Status Pädagogik
    Status Philosophie
    Status Politik/Wirtschaft
    Status Psychologie
    Status Religion
    Status Sozialwissenschaften
  Status Informatik
    Status Schule
    Status Hochschule
    Status Info-Training
    Status Wettbewerbe
    Status Praxis
    Status Internes IR
  Status Ingenieurwiss.
    Status Bauingenieurwesen
    Status Elektrotechnik
    Status Maschinenbau
    Status Materialwissenschaft
    Status Regelungstechnik
    Status Signaltheorie
    Status Sonstiges
    Status Technik
  Status Mathe
    Status Schulmathe
    Status Hochschulmathe
    Status Mathe-Vorkurse
    Status Mathe-Software
  Status Naturwiss.
    Status Astronomie
    Status Biologie
    Status Chemie
    Status Geowissenschaften
    Status Medizin
    Status Physik
    Status Sport
  Status Sonstiges / Diverses
  Status Sprachen
    Status Deutsch
    Status Englisch
    Status Französisch
    Status Griechisch
    Status Latein
    Status Russisch
    Status Spanisch
    Status Vorkurse
    Status Sonstiges (Sprachen)
  Status Neuerdings
  Status Internes VH
    Status Café VH
    Status Verbesserungen
    Status Benutzerbetreuung
    Status Plenum
    Status Datenbank-Forum
    Status Test-Forum
    Status Fragwürdige Inhalte
    Status VH e.V.

Gezeigt werden alle Foren bis zur Tiefe 2

Navigation
 Startseite...
 Neuerdings beta neu
 Forum...
 vorwissen...
 vorkurse...
 Werkzeuge...
 Nachhilfevermittlung beta...
 Online-Spiele beta
 Suchen
 Verein...
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Dt. Schulen im Ausland: Mathe-Seiten:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
Forum "Uni-Stochastik" - Verteilungsprobleme
Verteilungsprobleme < Stochastik < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Stochastik"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

Verteilungsprobleme: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 14:51 Do 20.01.2011
Autor: janisE

Aufgabe
a) Gegeben sie eine standardnormalverteilte ZV [mm] X \sim \mathcal{N}(0,1) [/mm]. Zeigen Sie: Für [mm] \mu \in \IR [/mm] und [mm] \sigma > 0[/mm] gilt: [mm] \sigma X + \mu \sim \mathcal{N}(\mu,\sigma^2) [/mm]
b) Gegeben seien n unabhängig Poission(1)-verteilte ZV [mm] X_1,\cdots,X_n [/mm]. Bestimmen Sie die Verteilung von [mm]X_1 + X_2 + \cdots + X_n [/mm]



Hallo!

Zu a)

Mir ist zwar klar, was gefragt ist - aber wie soll man das zeigen? Anhand der Definition hätte ich:

[mm]\sigma \left( \frac {1}{\sqrt{2\pi}}\exp\left(-\frac {1}{2} x^2\right) \right) + \mu = \frac {1}{\sigma\sqrt{2\pi}}\exp\left(-\frac {1}{2} \left(\frac{x-\mu}{\sigma}\right)^2\right)[/mm]

ist das richtig?

Zu b)

[mm]P(X_1+X_2=n) =\sum_{k=0}^n P(X_1=k) \, P(X_2=n-k)\\ =\sum_{k=0}^n \frac{\lambda_1^k}{k!}\, \mathrm{e}^{-\lambda_1} \, \frac{\lambda_2^{n-k}}{(n-k)!} \,\mathrm{e}^{-\lambda_2}\\ =\frac{1}{n!}\, \mathrm{e}^{-(\lambda_1+\lambda_2)} \, \sum_{k=0}^n \binom{n}{k} \lambda_1^k \, \lambda_2^{n-k}=\frac{(\lambda_1+\lambda_2)^n}{n!} \, \mathrm{e}^{-(\lambda_1+\lambda_2)} [/mm]

dies rekursiv angewandt zeigt, dass [mm] X_1 + X_2 + \cdots + X_n [/mm] ebenfall Poisson verteilt ist, richtig?

Vielen Dank für eure Hilfe!


        
Bezug
Verteilungsprobleme: Antwort
Status: (Antwort) fertig Status 
Datum: 17:04 Do 20.01.2011
Autor: dormant

Hi!

> a) Gegeben sie eine standardnormalverteilte ZV [mm]X \sim \mathcal{N}(0,1) [/mm].
> Zeigen Sie: Für [mm]\mu \in \IR[/mm] und [mm]\sigma > 0[/mm] gilt: [mm]\sigma X + \mu \sim \mathcal{N}(\mu,\sigma^2)[/mm]
>  
> b) Gegeben seien n unabhängig Poission(1)-verteilte ZV
> [mm]X_1,\cdots,X_n [/mm]. Bestimmen Sie die Verteilung von [mm]X_1 + X_2 + \cdots + X_n[/mm]
>  
>
> Hallo!
>  
> Zu a)
>  
> Mir ist zwar klar, was gefragt ist - aber wie soll man das
> zeigen? Anhand der Definition hätte ich:
>  
> [mm]\sigma \left( \frac {1}{\sqrt{2\pi}}\exp\left(-\frac {1}{2} x^2\right) \right) + \mu = \frac {1}{\sigma\sqrt{2\pi}}\exp\left(-\frac {1}{2} \left(\frac{x-\mu}{\sigma}\right)^2\right)[/mm]

So geschrieben ist das noch nichts. Die Aussage zeigst du indem du die Verteilungsfunktion von [mm]\sigma X + \mu [/mm] ausrechnest und dann diese mit [mm] \mathcal{N}(\mu,\sigma^2)[/mm] vergleichst (oder noch schneller über die charakteristische Funktionen, falls dir das etwas sagt). Wenn die übereinstimmen, so ist die Aussage richtig.

Dazu fängst du so an:

[mm] \IP (\sigma X + \mu \le t) = \IP (X \le \bruch{t-\mu}{\sigma}) = \int_{-\infty}^{\bruch{t-\mu}{\sigma}} \phi (u) du = \cdots [/mm] und mit einer Substitution, so dass du bis [mm] t [/mm] integrierst kriegst du Verteilungsfunktion von [mm] \mathcal{N}(\mu,\sigma^2)[/mm] .

>  
> ist das richtig?
>  
> Zu b)
>  
> [mm]P(X_1+X_2=n) =\sum_{k=0}^n P(X_1=k) \, P(X_2=n-k)\\ =\sum_{k=0}^n \frac{\lambda_1^k}{k!}\, \mathrm{e}^{-\lambda_1} \, \frac{\lambda_2^{n-k}}{(n-k)!} \,\mathrm{e}^{-\lambda_2}\\ =\frac{1}{n!}\, \mathrm{e}^{-(\lambda_1+\lambda_2)} \, \sum_{k=0}^n \binom{n}{k} \lambda_1^k \, \lambda_2^{n-k}=\frac{(\lambda_1+\lambda_2)^n}{n!} \, \mathrm{e}^{-(\lambda_1+\lambda_2)}[/mm]
>  
> dies rekursiv angewandt zeigt, dass [mm]X_1 + X_2 + \cdots + X_n[/mm]
> ebenfall Poisson verteilt ist, richtig?

..mit Inetsitätsparamter gleich der Summe der einzelnen Intesitäten, ja.
  

> Vielen Dank für eure Hilfe!
>  

Grüße,
dormant

Bezug
                
Bezug
Verteilungsprobleme: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 18:00 Do 20.01.2011
Autor: janisE

Danke für deine Antwort!

> So geschrieben ist das noch nichts. Die Aussage zeigst du
> indem du die Verteilungsfunktion von [mm]\sigma X + \mu[/mm]
> ausrechnest und dann diese mit [mm]\mathcal{N}(\mu,\sigma^2)[/mm]
> vergleichst (oder noch schneller über die
> charakteristische Funktionen, falls dir das etwas sagt).
> Wenn die übereinstimmen, so ist die Aussage richtig.
>  
> Dazu fängst du so an:
>  
> [mm]\IP (\sigma X + \mu \le t) = \IP (X \le \bruch{t-\mu}{\sigma}) = \int_{-\infty}^{\bruch{t-\mu}{\sigma}} \phi (u) du = \cdots[/mm]
> und mit einer Substitution, so dass du bis [mm]t[/mm] integrierst
> kriegst du Verteilungsfunktion von
> [mm]\mathcal{N}(\mu,\sigma^2)[/mm] .
>  

Charakteristische Funktionen haben wir angesprochen, jedoch hatten wir bisher noch nicht die Berechnung des Lebesgue-Integrals, weshalb uns nur die Definition über den Erwartungswert bleibt.

Deine Ideen verstehe ich in der Theorie, aber es hakt bei mir schon am Anfang. Wie kommst du auf [mm] \IP (\sigma X + \mu \le t) = \IP (X \le \bruch{t-\mu}{\sigma})[/mm] (also wie hast du den Term umgeformt), und wie berechne ich [mm]\phi[/mm]?

Vielen Dank und noch einen schönen Abend!


Bezug
                        
Bezug
Verteilungsprobleme: Antwort
Status: (Antwort) fertig Status 
Datum: 18:06 Do 20.01.2011
Autor: dormant

Hi!

> Danke für deine Antwort!
>  
> > So geschrieben ist das noch nichts. Die Aussage zeigst du
> > indem du die Verteilungsfunktion von [mm]\sigma X + \mu[/mm]
> > ausrechnest und dann diese mit [mm]\mathcal{N}(\mu,\sigma^2)[/mm]
> > vergleichst (oder noch schneller über die
> > charakteristische Funktionen, falls dir das etwas sagt).
> > Wenn die übereinstimmen, so ist die Aussage richtig.
>  >  
> > Dazu fängst du so an:
>  >  
> > [mm]\IP (\sigma X + \mu \le t) = \IP (X \le \bruch{t-\mu}{\sigma}) = \int_{-\infty}^{\bruch{t-\mu}{\sigma}} \phi (u) du = \cdots[/mm]
> > und mit einer Substitution, so dass du bis [mm]t[/mm] integrierst
> > kriegst du Verteilungsfunktion von
> > [mm]\mathcal{N}(\mu,\sigma^2)[/mm] .
>  >  
>
> Charakteristische Funktionen haben wir angesprochen, jedoch
> hatten wir bisher noch nicht die Berechnung des
> Lebesgue-Integrals, weshalb uns nur die Definition über
> den Erwartungswert bleibt.

Die Definition über den Erwartungswert ist OK. Aber ihr kennt die anderen Eigenschaften der charakteristischen Funktion nicht...
  

> Deine Ideen verstehe ich in der Theorie, aber es hakt bei
> mir schon am Anfang. Wie kommst du auf [mm]\IP (\sigma X + \mu \le t) = \IP (X \le \bruch{t-\mu}{\sigma})[/mm]
> (also wie hast du den Term umgeformt), und wie berechne ich
> [mm]\phi[/mm]?
>  
> Vielen Dank und noch einen schönen Abend!
>  

Ich habe in der Ungliechung [mm] \mu [/mm] abgezogen und durch [mm] \sigma [/mm] getielt, mehr nicht.

Mit [mm] \phi [/mm] ist die Dichtefunktion der standard Normalverteilung gemeint.

Grüße,
dormant

Bezug
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Stochastik"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
www.vorhilfe.de