Hernoemen en aanvullingen
This commit is contained in:
55
lesstof/week 3.md
Normal file
55
lesstof/week 3.md
Normal file
@ -0,0 +1,55 @@
|
||||
## Hoorcollege
|
||||
|
||||
### Statistical Analysis
|
||||
Bij statistische analyze wordt slechts een kleinere *sample* van een *populatie* geobserveerd. Middels statistische inferentie kunnen we deduceren wat de eigenschappen van de *populatie* zijn gegeven dat we een *sample* hebben geobserveerd.
|
||||
|
||||
### Regression Analysis
|
||||
Regressie modelering wordt gebruikt voor *predictive modelling* en onderzoekt een relatie tussen de afhankelijke (target) en onafhankelijke (predictor) variabelen.
|
||||
|
||||
Dit helpt dus bij het begrijpen van hoe de dependant variabelen verandert naarmate één van de onafhankelijke variabelen wordt aangepast (terwijl eventuele andere variabelen hetzelfde blijven).
|
||||
|
||||
Binnen *Regression Analysis* kennen we de volgende variabelen:
|
||||
|
||||
* De onbekende parameters $\beta_i$
|
||||
* De onafhankelijke variabelen $x_i$
|
||||
* De afhankelijke variabelen $y$
|
||||
|
||||
Regressie types:
|
||||
|
||||
* **Linear Regression** - Vindt een relatie tussen afhankelijke en een of meer onafhankelijk variabelen door een rechte lijn te trekken (de *best fit* lijn)
|
||||
* **Logistic Regression** - Wordt gebruikt om de probability te vinden van een 'Success' event. Kan worden gebruikt wanneer de dependant variabelen binair is.
|
||||
* **Polynomial Regression** - Wanneer de beste lijn niet recht is
|
||||
|
||||
Formeel gezien wat een model doet: $Y = f(\textbf{X}) + \epsilon$
|
||||
|
||||
* Waar $\textbf{X} = (X_{1}, X_{2} ...X_p)$ representeerd de input variabelen (onafhankelijke)
|
||||
* $\epsilon$ Representeerd random error, bestaat uit:
|
||||
* *Reducible Error*: Error die potentieel verkleind kan worden door een leertechniek toe te passen dat $f$ beter schat.
|
||||
* *Irreducible Error*: Error dat niet verkleind kan worden onafhankelijk van hoe goed we $f$ inschatten. Dit type is onbekend en onmeetbaar.
|
||||
* $Y$ representeerd de output variabelen (afhankelijke)
|
||||
|
||||
*Statistical Learning* bevat methodes om deze $f(\textbf{X})$ in te schatten. Redenen hiervoor zijn:
|
||||
|
||||
* **Prediction** - Wanneer we een goede estimate hebben van $\hat{f}(\textbf{X}$ kunnen we deze gebruiken om voorspellingen te maken op nieuwe data. We gebruiken $\hat{f}$ als een *black box*. We geven er niet om hoe of waarom het werkt, zolang de uitkomst redelijk accuraat is.
|
||||
* **Inferentie** - We willen begrijpen wat de relatie is tussen $\textbf{X}$ en $Y$. We behandelijk $\hat{f}$ niet langer als een *black box*. We willen begrijpen hoe $Y$ verandert ten opzichte van $\textbf{X}$
|
||||
|
||||
|
||||
|
||||
* *underfitting* - Betekent dat er een hoge *bias* is en het model niet helemaal klopt
|
||||
* *Overfitting* - Betekent dat het model te veel is afgestemd op de trainingsset
|
||||
|
||||
## Discussiecollege
|
||||
|
||||
Metrics:
|
||||
|
||||
* **Confusion Matrix** -
|
||||
* **Accuracy** - Ratio van correcte voorspellingen over totale voorspellingen. $ accuracy = \frac{TP+TN}{TP+TN+FN+FP}$
|
||||
* **Precision** - Hoevaak de classifier correct is met het voorspellen van *positives*. $precision = \frac{TP}{TP+FP}$
|
||||
* **Recall / Sensitivity** - Hoevaak de classifier correct is $ recall = \frac{TP}{TP+FN} $
|
||||
* **Specificity** - Hoevaak de classifier correct is met het voorspellen van *negatives*. $ specificity = \frac{TN}{FP+TN} $
|
||||
|
||||
Cross validation:
|
||||
|
||||
* **Validation Set** - Splits data in train- en validatieset. Train model op trainingsset en test op validatieset.
|
||||
* **Leave-One-Out CV (LOOCV)** - Splits data in train- en validatieset. Alleen bestaat de validatieset uit slechts één record. Herhaal dit totdat elke record in de validatieset heeft gezeten. Test error is het gemiddelde van alle tests
|
||||
* **k-Fold CV** - randomly divide data into k groups (folds) of approximately equal size. First fold is used as validation and the rest as training. Then repeat k times and find average of the k estimates.
|
||||
Reference in New Issue
Block a user