Начать. Это бесплатно
или регистрация c помощью Вашего email-адреса
Statistik 1. Semester создатель Mind Map: Statistik 1. Semester

1. Einführung

1.1. Skalenniveaus

1.1.1. Nominalskala

1.1.1.1. nur Aussagen über Gleich- und Verschiedenheit möglich

1.1.1.1.1. z.B. Lieblingsfarbe, Geschlecht

1.1.2. Ordinalskala

1.1.2.1. Grösser-Kleiner-Relationen

1.1.2.1.1. z.B. Rangreihen, Militärische Grade, Windstärke

1.1.3. Intervallskala

1.1.3.1. Intervalle zwischen den Objekten

1.1.3.1.1. z.B. Grad Celsius, IQ,

1.1.4. Verhälltnisskala

1.1.4.1. Aussagen über Verhältnisse sind möglich, natürlicher Nullpunkt

1.1.4.1.1. z.B. Längen, Gewichte, Volumen, Geschwindigkeit

1.1.5. Absolutskala

1.1.5.1. natürliche Masseinheit

1.1.5.1.1. z.B. Anzahl Objekte

2. Inferenzstatistik (schliessende Statistik)

2.1. Prinzip des (Null)Hypothesentest

2.1.1. Nullhypothesentest = KEIN Effekt

2.1.2. Falsifikationismus

2.1.3. Schritte beim statistischen Testen

2.1.4. Merksätze zur Anwendung von (Null)Hypothesentests

2.2. Binäres Entscheidungskonzept

2.3. Arten und Wahrscheinlichkeiten richtiger und falscher statistischer Schlüsse

2.3.1. Nullhypothese und Fehler erster Art (α-Fehler)

2.3.1.1. Kritischer Wert und Ablehnungsbereich

2.3.2. Spezifische Alternativhypothese und Fehler zweiter Art (β-Fehler)

2.3.2.1. Teststärke (Power)

2.3.2.2. Zusammenhang zwischen β und Signifaknzniveau α

2.3.2.3. Zusammenhang zwischen β und der Grösse des Effekts

2.3.2.4. Zusammenhang zwischen β und der Streuung der Populationsverteilung

2.3.2.5. Zusammenhang zwischen β und der Streuung der Stichprobengrösse

2.4. Exkurs: Population

2.4.1. Endliche vs. unendliche Populationen

2.4.1.1. endliche Population = Modell OHNE Zurücklegen

2.4.1.2. unendliche Population = Modell MIT Zurücklegen

2.4.2. Fiktive vs. konkrete Populationen

2.5. Parameterschätzung und Testen an Stichproben

2.5.1. Strichprobenkennwertverteilung

2.5.2. Standardfehler des Mittelwerts

2.5.3. Zentraler Grenzwert

2.5.4. Zusammenfassung Teststärke

2.5.5. Qualitätskriterien

2.5.5.1. Erwartungstreue

2.5.5.2. (Konsistenz)

2.5.5.3. (Suffizienz)

2.5.5.4. (Effizienz)

2.6. Testen an Stichproben

2.6.1. Einstichproben-Gauss-Test

2.6.1.1. Gerichtete Alternativhypothese und einseitiger Test

2.6.1.2. Ungerichtete Alternativhypothese und zweiseitiger Test

2.6.1.3. Zweiseitiger Test: p-Wert

2.7. Parameterschätzung

2.7.1. Konfidenzintervalle

2.8. Einstichproben-Gauss-Test (z-Test)

2.8.1. Wird verwendet, wenn die Varianz bekannt ist. Falls nicht: t-Test (für ab-/unabhängige Stichproben)

2.9. Einstichproben t-Test

2.9.1. Student's t-Verteilung

2.9.2. Konzept des Freiheitsgrads

2.9.3. Quantile der t-Verteilung

2.9.4. Konfidenzintervalle

2.10. Effektgrössen

2.10.1. Cohens δ

2.11. Testplanung

2.11.1. optimaler Stichprobenumfang

2.11.2. A-priori Poweranalyse

2.12. Intervallschätzung

2.12.1. Quantile der Stichprobenkennwerteverteilung des Mittelwerts

2.12.2. Zentrales Schwankungsintervall → Konfidenzintervall

2.12.2.1. Eigenschaften des Konfidenzintervalls

3. Zweistichproben-t-Tests

3.1. t-Tests werden verwendet, wenn die Varianz unbekannt ist (bei bekannter Varianz: z-Test (Gauss-Test)

3.2. für unabhängige Stichproben

3.2.1. Definition und Voraussetzungen

3.2.2. Hypothesen & Empirische Prüfgrösse

3.2.3. Definition des Standardfehlers des Mittelwerts

3.2.4. Konfidenzintervall

3.2.5. Effektgrösse

3.2.6. optimale Stichprobenumfänge

3.2.7. Verletzung der Voraussetzungen?

3.3. für abhängige Stichproben

3.3.1. Paired Samples und Differenzvariable

3.3.2. Hypothesen, Emprischie Prüfgrösse & Voraussetzungen

3.3.3. Konfidenzintervall

3.3.4. Effektgrösse & Optimale Stichprobenumfänge

4. Produkt-Moment Korrelation

4.1. Bivariate Deskriptivstatistik

4.1.1. Definition und Darstellung (Streudiagramm)

4.1.1.1. Zusammenhang zwischen 2 Merkmalen

4.1.1.2. "Gemeinsame Verteilung" oder "Kovariation" zweier Merkmale

4.1.2. Zusammenhangsmasse bei metrischen Variablen

4.1.2.1. Kovarianz

4.1.2.2. Korrelation (=standardisierte Kovarianz) nach Bravais-Pearson (Produkt-Moment-Korrelation)

4.1.2.2.1. gleichsinnige oder positive Korrelation

4.1.2.2.2. gegensinnige oder negative Korrelation

4.1.2.2.3. Lineares Zusammenhangsmass

4.2. Vom Kreuzprodukt zur Produkt-Moment-Korrelation

4.2.1. Kreuzprodukt

4.2.2. Kreuzproduktsumme

4.2.3. Kovarianz und Korrelation

4.2.4. Produkt-Moment-Korrelation

4.3. Spezialfälle

4.3.1. Nicht definierte Korrelation

4.3.2. Perfekt positive / negative Korrelation

4.3.3. Hohe lineare Korrelation trotz quadratischer Funktion

4.3.4. Nullkorrelation (Kein linearer Zusammenhang)

4.3.5. Einfluss von Ausreissern

4.3.5.1. Hohe positive Korrelation durch 1 Wert verursacht

4.4. Eigenschaften...

4.4.1. ...der Kovarianz

4.4.2. ...der Korrelation

4.5. Stichproben-Kovarianz und Stichproben-Korrelation

4.6. Selektionsfehler bei der Korrelationsanalyse

4.7. Korrelation und Kausalität

4.8. Inferenzstatistik zur Produkt-Moment-Korrelation

4.8.1. t-Test einer Produkt-Moment-Korrelation gegen 0

4.8.2. Fisher's Z-Transformation und Konfidenzintervall des Korrelationskoeffizienten

5. Häufigkeitstests

5.1. Anteiltests für eine Stichprobe

5.1.1. Binomialtest

5.1.1.1. Wiederholung Binomialverteilung

5.1.1.2. Definition Binomialtest

5.1.1.3. Hypothesen und Prüfgrösse S

5.1.1.4. Exakter p-Wert

5.1.1.5. Asymptotischer Binomialtest

5.1.1.6. Konfidenzintervall und Effektgrösse für den asymptotischen Binomialtest

5.1.1.7. Konfidenzintervall und Effektgrösse für den asymptotischen Binomialtest

5.1.2. Einstichproben-Chi-Quadrat-Test

5.1.2.1. Dem Test liegt immer eine ungerichtete Hypothese zugrunde!

5.1.2.2. Exkurs: Χ²-Verteilung

5.1.2.3. Datenbespiel und Prüfgrösse

5.1.2.4. Voraussetzungen und Eigenschaften

5.1.2.5. Vergleich Einstichproben-Χ²-Test und Binomialtest

5.1.2.6. Effektgrösse Cohen's ω

5.2. Anteiltests für zwei Stichproben

5.2.1. Vierfelder-Chi-Quadrat-Test

5.2.1.1. Wahrscheinlichkeiten und Hypothesen

5.2.1.2. Erwartete Häufigkeiten und Teststatistik / Prüfgrösse

5.2.1.3. Effektgrössen

5.2.1.3.1. Differenz zweier bedingter Wahrscheinlichkeiten

5.2.1.3.2. Odds-Ratio

5.2.1.3.3. Cohen's ω

5.2.1.4. 𝝋-Koeffizient

5.2.2. Pearson-Zweistichproben-Chi-Quadrat-Test (allgemeine Form)

5.2.2.1. Prüfgrösse, Voraussetzungen und Effektgrösse

5.2.2.2. Datenbeispiel

5.2.2.3. Einzelvergleiche und Pearson-Residuen

6. Univariate Deskriptivstatistik (beschreibende Statistik)

6.1. nominalskalierte Variablen

6.1.1. absolute Häufigkeit

6.1.2. relative Häufigkeit

6.1.3. Prozentwerte

6.1.4. Kennwerte von Verteilungen

6.1.4.1. Zentrale Tendenz (Lagemasse)

6.1.4.1.1. durchschnittlicher Messwert

6.1.4.1.2. mittlerer Messwert

6.1.4.1.3. typischer Messwert

6.1.4.1.4. Modus (Modalwert)

6.1.4.2. Dispersionsmasse (Streuungsmasse)

6.1.4.2.1. relativer Informationsgehalt H

6.2. ordinalskalierte Variablen

6.2.1. Arten

6.2.1.1. Singuläre Daten

6.2.1.1.1. Rangplatz

6.2.1.1.2. Rangbindungen (verbundene Ränge)

6.2.1.2. Variablen mit geordneten Kategorien

6.2.2. Darstellung

6.2.2.1. Relative kumulierte Häufigkeitsverteilung

6.2.3. Kennwert der zentralen Tendenz

6.2.3.1. Modus

6.2.3.2. Median

6.2.3.2.1. Berechnung bei geradem/ungeradem n

6.2.3.2.2. Bestimmung über Häufigkeitstabelle

6.2.3.3. Dispersionsmass

6.2.3.3.1. bei singulären Daten nicht interessant

6.2.3.3.2. bei geordneten Kategorien

6.3. metrische Variablen

6.3.1. Zusammenfassende Darstellung

6.3.1.1. Primäre Häufigkeitsverteilung

6.3.1.1.1. entsteht aus der Urliste

6.3.1.2. Sekundäre Häufigkeitsverteilung

6.3.1.2.1. Bildung von Kategorien (entsteht aus der primären Häufigkeitsverteilung)

6.3.1.3. Verteilungsformen

6.3.1.3.1. Symmetrie vs. Asymmetrie

6.3.1.3.2. Gipfelform

6.3.1.3.3. linksgipflig / linkssteil / rechtsschief und umgekehrt

6.3.1.3.4. breitgipflig / schmalgipflig / steilgipflig

6.3.1.3.5. unimodal / bimodal / multimodal

6.3.1.3.6. u-förmig, l-förmig, j-förmig

6.3.1.4. Box- und Whiskers-Diagramm (Box-Plot)

6.3.1.4.1. oberes / unteres Quartil

6.3.1.4.2. Interquartilsabstand (IQA)

6.3.1.5. Stamm-Blatt-Diagramm

6.3.2. Lagemasse (Masse der zentralen Tendenz)

6.3.2.1. Modus (Modalwert)

6.3.2.2. Median

6.3.2.3. arithmetisches Mittel

6.3.2.4. gewogenes arithmetisches Mittel (GAM)

6.3.2.5. robuste Lagemasse

6.3.2.5.1. getrimmtes Mittel

6.3.2.5.2. winsorisiertes Mittel

6.3.3. Dispersionsmasse

6.3.3.1. p-Quantil

6.3.3.2. Streubereich

6.3.3.3. Variationsbreite

6.3.3.4. Interquartilsabstand (IQA)

6.3.3.5. Semiquartilsabstand (SQA)

6.3.3.6. Empirische Varianz

6.3.3.7. Empirische Standardabweichung

6.3.3.8. Stichprobenvarianz

6.3.3.9. Stichprobenstandardabweichung

6.3.4. Standartwerte und z-Transformation

6.3.4.1. z-Transformation (z-Standardisierung)

7. Wahrscheinlichkeitstheorie

7.1. Mengen und Mengenoperationen

7.1.1. Element der Menge

7.1.2. Teilmenge

7.1.3. Schnittmenge

7.1.4. Vereinigungsmenge

7.1.5. Differenzmenge

7.1.6. Komplementärmenge

7.1.7. Potenzmenge

7.2. Zufallsexperiment

7.2.1. Zufallsvorgang

7.2.2. Zufallsexperiment

7.2.3. Zufallvorgang

7.2.4. Ergebnisraum

7.3. Zufallsereignisse

7.3.1. (Zufalls-)Ereignis

7.3.2. Elementarereignisse

7.3.3. unmögliches Ereignis

7.3.4. sicheres Ereignis

7.3.5. disjunkte Ereignisse

7.4. Laplace-Wahrscheinlichkeit

7.4.1. Alle Wahrscheinlichkeiten sind gleich gross

7.5. Zufallsvariablen und deren Verteilungen

7.5.1. Verteilungen diskreter Zufallsvariablen

7.5.2. Verteilungen stetiger Zufallsvariablen

7.6. Kombinatorik

7.6.1. Urnenmodell

7.6.2. Grundgesamtheit

7.6.3. Stichprobe

7.6.4. Modelle mit Zurücklegen

7.6.5. Modelle ohne Zurücklegen

7.6.6. Modelle mit Berücksichtigung der Reihenfolge

7.6.7. Modelle ohne Berücksichtigung der Reihenfolge

7.6.8. Permutation

7.6.9. Fakultät

7.7. Wahrscheinlichkeit

7.7.1. Axiome von Kolomogroff

7.7.1.1. Nichtnegativität

7.7.1.2. Normiertheit

7.7.1.3. Additivität

7.7.1.4. Zahlenzuordnung

7.7.2. Rechenregeln für Wahrscheinlichkreiten

7.7.3. Wahrscheinlichkeit eines Ereignisses

7.7.4. relative Häufigkeit

7.7.5. bedingte Wahrscheinlichkeit

7.7.6. stochastische Unabhängigkeit

7.7.7. Bayes-Theorem

7.7.8. Satz von der totalen Wahrscheinlichkeit

7.7.9. verallgemeinertes Bayes-Theorem

7.8. Zufallsvariablen und deren Verteilungen

7.8.1. Definition reellwertiger Zufallsvariablen

7.8.2. Diskrete Zufallsvariablen

7.8.2.1. Wahrscheinlichkeitsverteilung und Verteilungsfunktion

7.8.2.2. Erwartungswert (theoretischer Mittelwert)

7.8.2.3. Varianz

7.8.2.4. Standardabweichung

7.8.2.5. (diskrete) Gleichverteilung

7.8.2.6. Bernoulliverteilung

7.8.2.6.1. nur 2 mögliche Werte

7.8.2.7. Binomialverteilung

7.8.2.7.1. wichtigste diskrete Verteilung

7.8.2.7.2. Modell MIT Zurücklegen

7.8.2.7.3. Reihenfolge ist egal

7.8.2.7.4. Wahrscheinlichkeitshistogramme

7.8.2.7.5. Erwartungswert und Varianz

7.8.2.7.6. Symmetrieeigenschaft

7.8.2.8. Weitere wichtige Verteilungen

7.8.2.8.1. Multinomialverteilung

7.8.2.8.2. Hypergeometrische Verteilung

7.8.2.8.3. Poission-Verteilung

7.8.3. Stetige Zufallsvariablen

7.8.3.1. Dichtefunktion und Wahrscheinlichkeit

7.8.3.2. Normierungseigenschaft und Verteilungsfunktion

7.8.3.2.1. Berechnung der Wahrscheinlichkeit eines Intervalls über Verteilungsfunktionen

7.8.3.2.2. Kumulative Verteilungsform

7.8.3.3. Erwartungswert, Modus, Median, Quantile und Varianz einer stetigen Zufallsvariablen

7.8.3.4. Stetige Gleichverteilung

7.8.3.4.1. Laplace: Alle Wahrscheinlichkeiten sind gleich gross / Hier: Gleichverteilung, weil die Dichtefunktion gleich gross ist

7.8.3.5. Normalverteilung (Gauss-Verteilung)

7.8.3.5.1. Dichtefunktion der Normal- und Standardnormalverteilung

7.8.3.5.2. Verteilungsfunktion (inkl. Tabellierung)

7.8.3.5.3. Quantile der Standardnormalverteilung sowie Umrechnung

7.8.3.5.4. Zentrale Schwankungsintervalle der Standardnormalverteilung