Inhalt
Einführung in IBM SPSS Statistics
Daten und Import/Export - Vorbereitung der Metadaten / Codebook - Validierungsregeln - Ungewöhnliche Fälle identifizieren - Daten filtern, aggregrieren und transformieren - Befehlssyntax von SPSS - Aktionen in Skripten speichern und ausführen
Deskriptive Statistik
IBM SPSS-Prozedur "Deskriptive Statistiken" verstehen und verwenden - Maßzahlen der Häufigkeit: Mittelwerte (Modus, Zentralwert, Quantile, Arithmetisches / geometrisches / harmonisches Mittel - Streuungsmaße: Spannweite, Quartilsabstand, Mittlere absolute Abweichung, empirische Standardabweichung, Variationskoeffizient - Formparameter: Schiefemaße, Wölbungsmaße - Diagramme erstellen - IBM SPSS-Prozedur "Kreuztabellen" verstehen und verwenden - Prozedur "Zusammenfassen" einsetzen
Multivariate Statistik: Zusammenhänge, Modelle und Regression
Diagramme für multivariate Datensätze - IBM SPSS-Prozedur "Bivariate Korrelationen" - Koeffizienten bei nominal skalierten Merkmalen: Quadratische Kontingenz, Phi-Koeffizient, Kontingenzkoeffizient - Koeffizienten bei ordinal skalierten Merkmalen: Rangkorrelationskoeffizient nach Spearman - Koeffizienten bei metrisch skalierten Merkmalen: Empirische Kovarianz, Empirischer Korrelationskoeffizient nach Bravais-Pearson - IBM SPSS-Prozedur "Lineare Regression" für metrische Variablen: Modell erstellen, mit Gütemaßen und Residualanalyse bewerten, grafisch darstellen und verwenden - IBM SPSS-Prozedur "Kurvenanpassung" für lineare Modelle - Varianzanalyse (ANOVA) mit einem und mehreren Faktoren
Kurze Einführung in die Wahrscheinlichkeit
Grundlagen: Zufallsexperiment, Ergebnismenge und Ereignis, Zusammengesetzte Ereignisse, Absolute und relative Häufigkeiten - Wahrscheinlichkeitsbegriffe: Klassischer, statistischer und subjektiver Wahrscheinlichkeitsbegriff - Rechnen mit Wahrscheinlichkeiten: Axiome und ihre Folgerungen, Bedingte Wahrscheinlichkeit, Multiplikationssatz, Stochastische Unabhängigkeit, Satz der totalen Wahrscheinlichkeit, Bayessches Theorem - Kombinatorik: Permutationen, Kombinationen mit und ohne Wiederholung, Eigenschaften des Binomialkoeffizienten, Urnenmodell
Induktive Statistik: Wahrscheinlichkeitsverteilungen
Zufallsvariablen - Diskrete Verteilungen: Binomialverteilung, Poissonverteilung, Hypergeometrische Verteilung, Geometrische Verteilung - Stetige Verteilungen: Gleichverteilung, Exponentialverteilung, Normalverteilung - Maßzahlen: Erwartungswert, Mathematische Erwartung, Varianz - Grafische Darstellung von wichtigen Verteilungen
Induktive Statistik: Statistisches Testen
Intervallschätzungen: Konfidenzintervall für den Mittelwert und für die Varianz einer Normalverteilung sowie für den Anteilswert - Parametertests: Test für Mittelwert einer Normalverteilung, Test für Anteilswert, Fehler beim Testen, Test für Varianz, Differenztests für den Mittelwert und Anteilswert, Quotiententest für die Varianz - Verteilungstests: Chi-Quadrat-Anpassungstest, Chi-Quadrat-Unabhängigkeitstest (Kontingenztest)
Dozent/in
Unser Statistik- und Data-Mining-Trainer Marco Skulschus studierte in Wuppertal und Paris Ökonomie und arbeitet schon seit mehr als 10 Jahren als Dozent, Fachbuch-Autor zum Thema Datenbanken und als Business Intelligence-Berater. Zu seinen Kunden zählen Marktforschungsunternehmen oder Behörden wie der Deutsche Bundesrat sowie Abteilungen für die Qualitätssicherung und Prozessoptimierung.
Veröffentlichungen
- Grundlagen empirische Sozialforschung ISBN 978-3-939701-23-1
- System und Systematik von Fragebögen ISBN 978-3-939701-26-2
- Oracle SQL ISBN 978-3-939701-41-5
- SQL Server 2012: Data Mining und multivariate Verfahren ISBN 978-3-939701-85-9
- SQL und relationale Datenbanken ISBN 978-3-939701-52-1
Projekte
Als Berater und Projektleiter konzipiert Herr Skulschus Business Intelligence-Systeme auf Basis von OLAP und Data Warehouse-Technologien mit MS SQL Server und Oracle mit Berichtskomponenten im Intranet oder MS Excel, statistische Analysen und Data Mining-Modulen. Je nach Aufgabe setzt er R, IBM SPSS oder Minitab ein.
Forschung
Er leitete ein mehrjähriges Forschungsprojekt zur Entwicklung eines Fragebogensystems mit ontologie-basiertem Datenmodell und innovativen Frage-Antwort-Darstellungen. Förderung durch das BMWi und Zusammenarbeit mit verschiedenen Universitäten.