Title: Initialization of MLP and FSM networks

  • Objective: Inicjalizacja wag w MLP i inicjalizacja parametrów w sieciach RBF: porównanie, nowe metody oparte na klasteryzacji, użycie całkowitych wag
  • Participants: Rafal Adamczak, Włodzisław Duch, Norbert Jankowski
  • Dates: From 1996 - present
  • Result(s):
    1. Duch W, Initialization and optimization of multilayered perceptrons, Third Conference on Neural Networks and Their Applications, Kule, October 1997
    2. Duch W, Adamczak R, Jankowski N, Initialization of adaptive parameters in density networks, Third Conference on Neural Networks and Their Applications, Kule, October 1997 (submitted)
    3. Duch W, Jankowski N (1997) New neural transfer functions. Applied Mathematics and Computer Science (in preparation, invited by the Editor)
    4. Duch W and Adamczak R (1996) Feature Space Mapping network for classification. Proceedings of the Second Conference on Neural Networks and their applications, Orle Gniazdo, 30.IV-4.V.1996, pp. 125-130
    5. Duch W, Jankowski N, Naud A, Adamczak R (1995) Feature Space Mapping: a neurofuzzy network for system identification, Proc. of. Engineering Applications of Neural Networks (EANN'95), Helsinki 21-23.08.1995, pp.221-224
    6. Praca w przygotowaniu na PNNS 3
  • Problems:
  • 1). Dobudować możliwość użycia obroconych klasterow. Kąty nachylenia klasterow podczas uczenia nie będą ulegały modyfikacji. Dobrać najwygodniejszy sposób - macierze 2x2 ? Pełna parametryzacja obrotów w trakcie uczenia - w projekcie FSM.

    2). Porównać metody oparte na dendrogramach i obcięciu liczby znaczących bitów z innymi metodami wstępnej inicjalizacji dla RBF.

    3). Wyprowadzić wzory na kombinacje sigmoid i zastosować je w MLP; powstanie niepotrzebnie skomplikowana struktura sieci - odrzucić niepotrzebne wagi i uprościć sieć.

  • Working log (local accsess only)