ZeroR
|
Najbardziej prymitywny klasyfikator w programie. Jego zadaniem jest
przewidziec glówna klase w zbiorze treningowym (klasy kategoryczne) lub wartosc
srednia klasy gdy klasa jest numeryczna. Nie ma wiec sensu uzywac tego modelu do
przewidywan. Stosuje sie go raczej jako punkt odniesienia dla innych metod, jako
tzw. baseline performance. Zdarza sie, ze niektóre, metody daja wyniki gorsze od
ZeroR, ocznacz to, ze wystapilo zbytne dopasowanie do danych treningowych.
|
OneR
|
Zadaniem tej metody jest wygenerowanie jednopoziomowego drzewa decyzyjnego
wyrazonego w formie zbioru regul testujacych jednen atrybut. OneR jest prosta i
tania metoda nadajaca sie do badnia charakterystyki struktury denych. Co
ciekawsze te proste reguly czesto daja dobre wyniki. (...)
|
NaiveBayes
|
Parametry NaiveBayes:
|
-K |
wlacza uzycie kernel density estimator |
|
|
DecisionTable
|
Parametry DecisionTable:
|
-X < > |
Liczba folds uzywana do cross-walidacji |
-S < > |
Treshold for stopping search |
-I |
Uzywa klasyfikatora "najblizszy sasiad" |
|
|
IBk - Instance-based learner (k-NN)
|
IBk jest implemetacja klasyfikatora Knn. Metoda ta uzywa funkcji odleglosci.
Domyslnym ustawieniem jest k=1, tzn. uzywa tylko 1 najblizszego sasiada. Liczba
najblizszych sasiadów moze byc takze ustawiona recznie poprzez podanie parametru
"-K", lub ustalona w sposób automatyczny przez uzycie waldacji skrosnej L1O.
Opcja -X nakazuje IBk, by uzyl waldacji skroscnej do znalezienia najlepszego k
od 1 do wartosci zadanej przy parametrze -K. Jesli wybrany zostenie wiecej niz
jeden sasiad, to przewidywania sasiadów moga bycwazone ze wzgledu na ich dystans
do przypadku testowego. Dane sa dwie rozne formuly do oblicznia wagi z
odleglosci (opcje -D i -F). Czas potrzebny na skalsyfikowanie przypadku
testowego z klasyfikatorem najblizszych sasiadów rosnie liniowo z iloscia
przypadków treningowych. W zwiazku z tym niekiedy potrzebujemy zmniejszyc ilosc
przypadków treningowych trzymanych przez klasyfikator, od tego celu sluzy opcja
wielkosci okna.
Parametry IBk:
|
-D |
Waga jako funkcja odwrotna do odleglosci |
-F |
Waga jako funkcja 1-distance |
-K < > |
Liczba sasiadów |
-W < > |
Wielkosc okna |
-X |
Uzywaj waldacji skorsnej |
|
|
j48.j48 (drzewo C4.5)
|
Parametry IBk:
|
U |
Nie przycina drzewa |
-C < > |
Specify confidence treshold for pruning |
-M < > |
Ustala mininmalna ilosc przypadków w lisciu |
-R |
Use reduced error pruning |
-N < > |
Number of folds for reduced error pruning. |
|
One fold is used as pruning set |
-B |
Uzywa tylko podzialów binarnych |
|
Don't preform subtree raising |
|
|
j48.part - part rule learner
|
Parametry j48.part:
|
U |
Nie przycina drzewa |
-C < > |
Specify confidence treshold for pruning |
-M < > |
Ustala mininmalna ilosc przypadków w lisciu |
-R |
Use reduced error pruning |
-N < > |
Number of folds for reduced error pruning. |
|
One fold is used as pruning set |
-B |
Uzywa tylko podzialów binarnych |
|
Don't preform subtree raising |
|
|
SMO (SVM)
|
Parametry SMO:
|
-C < > |
Upper bound for weights |
-E < > |
Stropien polynomials |
|
|
Linear regression
|
Parametry linear regression:
|
-S < > |
Metoda wyboru atrybutów |
|
|
M5' model tree learner (M5Prime) |
Parametry M5Prime:
|
-O < > |
Typ modelu |
-U |
Uzywa drzewa niewygladzonego |
-F < > |
Ustala wspólczynnik obcinania |
-V < > |
Ustala "gadatliwosc" wyjscia |
|
|
DecisionStump (One-level decision trees)
|
|
LWR (Locally weighted regression) |
Parametry LWR:
|
-K < > |
Ustala liczbe sasiadów |
-W < > |
Ustala ksztalt jadra (kernel shape) |
|
|