Weka
 

 

ComparisonWeka
Home 
Contents 
Downloads 
Photo Gallery 
Links 
About me 
Q&A 
Schedule 

 

Lista metod i ich parametrów:

ZeroR

  Najbardziej prymitywny klasyfikator w programie. Jego zadaniem jest przewidziec glówna klase w zbiorze treningowym (klasy kategoryczne) lub wartosc srednia klasy gdy klasa jest numeryczna. Nie ma wiec sensu uzywac tego modelu do przewidywan. Stosuje sie go raczej jako punkt odniesienia dla innych metod, jako tzw. baseline performance. Zdarza sie, ze niektóre, metody daja wyniki gorsze od ZeroR, ocznacz to, ze wystapilo zbytne dopasowanie do danych treningowych.  

Paramaety ZeroR:

 - brak

OneR

  Zadaniem tej metody jest wygenerowanie jednopoziomowego drzewa decyzyjnego wyrazonego w formie zbioru regul testujacych jednen atrybut. OneR jest prosta i tania metoda nadajaca sie do badnia charakterystyki struktury denych. Co ciekawsze te proste reguly czesto daja dobre wyniki. (...)

Parametry OneR:

-B < > wielkosc koszyka

NaiveBayes

 

Parametry NaiveBayes:

-K wlacza uzycie kernel density estimator

DecisionTable

Parametry DecisionTable:

-X < > Liczba folds uzywana do cross-walidacji
-S < > Treshold for stopping search
-I Uzywa klasyfikatora "najblizszy sasiad"

IBk - Instance-based learner (k-NN)

  IBk jest implemetacja klasyfikatora Knn. Metoda ta uzywa funkcji odleglosci. Domyslnym ustawieniem jest k=1, tzn. uzywa tylko 1 najblizszego sasiada. Liczba najblizszych sasiadów moze byc takze ustawiona recznie poprzez podanie parametru "-K", lub ustalona w sposób automatyczny przez uzycie waldacji skrosnej L1O. Opcja -X nakazuje IBk, by uzyl waldacji skroscnej do znalezienia najlepszego k od 1 do wartosci zadanej przy parametrze -K. Jesli wybrany zostenie wiecej niz jeden sasiad, to przewidywania sasiadów moga bycwazone ze wzgledu na ich dystans do przypadku testowego. Dane sa dwie rozne formuly do oblicznia wagi z odleglosci (opcje -D i -F). Czas potrzebny na skalsyfikowanie przypadku testowego z klasyfikatorem najblizszych sasiadów rosnie liniowo z iloscia przypadków treningowych. W zwiazku z tym niekiedy potrzebujemy zmniejszyc ilosc przypadków treningowych trzymanych przez klasyfikator, od tego celu sluzy opcja wielkosci okna.

Parametry IBk:

-D Waga jako funkcja odwrotna do odleglosci
-F Waga jako funkcja 1-distance
-K < > Liczba sasiadów
-W < > Wielkosc okna
-X Uzywaj waldacji skorsnej

j48.j48 (drzewo C4.5)

 

Parametry IBk:

U Nie przycina drzewa
-C < > Specify confidence treshold for pruning
-M < > Ustala mininmalna ilosc przypadków w lisciu
-R Use reduced error pruning
-N < > Number of folds for reduced error pruning.
One fold is used as pruning set
-B Uzywa tylko podzialów binarnych
Don't preform subtree raising

j48.part - part rule learner

 

Parametry j48.part:

U Nie przycina drzewa
-C < > Specify confidence treshold for pruning
-M < > Ustala mininmalna ilosc przypadków w lisciu
-R Use reduced error pruning
-N < > Number of folds for reduced error pruning.
One fold is used as pruning set
-B Uzywa tylko podzialów binarnych
Don't preform subtree raising

SMO (SVM)

 

Parametry SMO:

-C < > Upper bound for weights
-E < > Stropien polynomials

Linear regression

 

Parametry linear regression:

-S < > Metoda wyboru atrybutów
M5' model tree learner (M5Prime)

 

Parametry M5Prime:

-O < > Typ modelu
-U Uzywa drzewa niewygladzonego
-F < > Ustala wspólczynnik obcinania
-V < > Ustala "gadatliwosc" wyjscia

 DecisionStump (One-level decision trees)

 

Parametry DecisionStump:

- brak
LWR (Locally weighted regression)

 

Parametry LWR:

-K < > Ustala liczbe sasiadów
-W < > Ustala ksztalt jadra (kernel shape)

 

Copyright(c) 2003 Tomasz Winiarski. All rights reserved.
twin (at) phys.uni.torun.pl