4.0 KiB
Hoorcollege
Statistical Analysis
Bij statistische analyze wordt slechts een kleinere sample van een populatie geobserveerd. Middels statistische inferentie kunnen we deduceren wat de eigenschappen van de populatie zijn gegeven dat we een sample hebben geobserveerd.
Regression Analysis
Regressie modelering wordt gebruikt voor predictive modelling en onderzoekt een relatie tussen de afhankelijke (target) en onafhankelijke (predictor) variabelen.
Dit helpt dus bij het begrijpen van hoe de dependant variabelen verandert naarmate één van de onafhankelijke variabelen wordt aangepast (terwijl eventuele andere variabelen hetzelfde blijven).
Binnen Regression Analysis kennen we de volgende variabelen:
- De onbekende parameters
\beta_i - De onafhankelijke variabelen
x_i - De afhankelijke variabelen
y
Regressie types:
- Linear Regression - Vindt een relatie tussen afhankelijke en een of meer onafhankelijk variabelen door een rechte lijn te trekken (de best fit lijn)
- Logistic Regression - Wordt gebruikt om de probability te vinden van een 'Success' event. Kan worden gebruikt wanneer de dependant variabelen binair is.
- Polynomial Regression - Wanneer de beste lijn niet recht is
Formeel gezien wat een model doet: Y = f(\textbf{X}) + \epsilon
- Waar
\textbf{X} = (X_{1}, X_{2} ...X_p)representeerd de input variabelen (onafhankelijke) \epsilonRepresenteerd random error, bestaat uit:- Reducible Error: Error die potentieel verkleind kan worden door een leertechniek toe te passen dat
fbeter schat. - Irreducible Error: Error dat niet verkleind kan worden onafhankelijk van hoe goed we
finschatten. Dit type is onbekend en onmeetbaar.
- Reducible Error: Error die potentieel verkleind kan worden door een leertechniek toe te passen dat
Yrepresenteerd de output variabelen (afhankelijke)
Statistical Learning bevat methodes om deze f(\textbf{X}) in te schatten. Redenen hiervoor zijn:
- Prediction - Wanneer we een goede estimate hebben van
\hat{f}(\textbf{X}kunnen we deze gebruiken om voorspellingen te maken op nieuwe data. We gebruiken\hat{f}als een black box. We geven er niet om hoe of waarom het werkt, zolang de uitkomst redelijk accuraat is. - Inferentie - We willen begrijpen wat de relatie is tussen
\textbf{X}enY. We behandelijk\hat{f}niet langer als een black box. We willen begrijpen hoeYverandert ten opzichte van\textbf{X}
Model eigenschappen:
-
Parametric - Modellen die een assumptie aannemen over de distributie van de data (bijvoorbeeld linear). Hierbij hoeven slechts de correcte parameters te worden gevonden. Maar als de daadwerkelijke distributie anders is zal dit een slecht model opleveren.
-
Non-Parametric - Modellen welke geen assumpties maken over de distributie. Deze kunnen worden op meer type distributies worden toegepast maar kunnen gemakkelijk overfit worden.
-
underfitting - Betekent dat er een hoge bias is en het model niet helemaal klopt
-
Overfitting - Betekent dat het model te veel is afgestemd op de trainingsset
Discussiecollege
Metrics:
- Confusion Matrix -
- Accuracy - Ratio van correcte voorspellingen over totale voorspellingen.
accuracy = \frac{TP+TN}{TP+TN+FN+FP} - Precision - Hoevaak de classifier correct is met het voorspellen van positives.
precision = \frac{TP}{TP+FP} - Recall / Sensitivity - Hoevaak de classifier correct is
recall = \frac{TP}{TP+FN} - Specificity - Hoevaak de classifier correct is met het voorspellen van negatives.
specificity = \frac{TN}{FP+TN}
Cross validation:
- Validation Set - Splits data in train- en validatieset. Train model op trainingsset en test op validatieset.
- Leave-One-Out CV (LOOCV) - Splits data in train- en validatieset. Alleen bestaat de validatieset uit slechts één record. Herhaal dit totdat elke record in de validatieset heeft gezeten. Test error is het gemiddelde van alle tests
- k-Fold CV - randomly divide data into k groups (folds) of approximately equal size. First fold is used as validation and the rest as training. Then repeat k times and find average of the k estimates.