Prezentace se nahrává, počkejte prosím

Prezentace se nahrává, počkejte prosím

Antonín Wimberský. Motivace Evoluční algoritmy – použití v celé řadě praktických úloh Největší slabina – nutnost opakovaného volání fitness funkce Snížení.

Podobné prezentace


Prezentace na téma: "Antonín Wimberský. Motivace Evoluční algoritmy – použití v celé řadě praktických úloh Největší slabina – nutnost opakovaného volání fitness funkce Snížení."— Transkript prezentace:

1 Antonín Wimberský

2 Motivace Evoluční algoritmy – použití v celé řadě praktických úloh Největší slabina – nutnost opakovaného volání fitness funkce Snížení počtu volání fitness funkce -> urychlení evolučního algoritmu Některá volání fitness funkce lze nahradit voláním regresního modelu Používaný regresní model – neuronová síť Implementace na genetickém algoritmu

3 Teoretické základy

4 Evoluční algoritmus Obecné schéma: 1) Aktuální generace T := 0 2) Vytvoř náhodnou počáteční populaci P(T) 3) Ohodnoť všechny jedince v populaci P(T) pomocí fitness funkce 4) Dokud není splněna ukončovací podmínka, opakuj: A) T := T + 1 B) Vyber populaci P(T) z populace P(T-1) (Proveď selekci) C) Změň populaci P(T) (Proveď rekombinace) D) Ohodnoť všechny jedince v populaci P(T) pomocí fitness funkce

5 Typy evolučních algoritmů Evoluční strategie Evoluční programování Automaty Genetické programování Stromy Genetické algoritmy

6 Genetický algoritmus Kódování – binární, přirozené… Průběh Inicializace náhodná Selekce ruletová, stochastická uniformní, turnajová… Křížení n bodové, rovnoměrné… Mutace

7 Náhradní model Aproximace ohodnocovací funkce Požadavky Konvergence ke globálnímu optimu Minimalizace počtu volání ohodnocovací fitness funkce Omezený počet trénovacích vzorů Složitý prohledávací prostor

8 Příklad aproximace

9 Řízení modelu Evoluční kontrola založená na generacích Evoluční kontrola založená na jedincích

10 Kontrola založená na jedincích Výběr jedinců nejlepší, reprezentanti, náhodně… 2 možné přístupy Konstantní velikost populace Míšení skutečné fitness a odhadu Vhodné aktualizovat odhad Navýšená velikost populace Rodičovská populace – pouze jedinci ohodnocení skutečnou fitness funkcí Vhodné zahrnout do výběru nejlepší jedince

11 Příklady náhradních modelů Polynomiální Gaussovské procesy Opěrné vektory Neuronové sítě Vícevrstvé perceptrony RBF Důležitá je schopnost generalizace!

12 Vyhodnocení modelu MSE MAE MSEREG AIC BIC

13 Neuronové sítě Formální neuron Vrstevnaté sítě univerzální aproximační schopnost

14 Vícevrstvé perceptrony Učení algoritmem LM (Levenberg-Marquardt) Algoritmus 2. řádu, pracuje s 2. derivací chybové funkce Aktualizace vah: Algoritmus LM: 1) Předložit síti všechny trénovací vzory a spočítat pro ně odpovědi a chyby. Následně spočítat součet čtverců chyb přes všechny vzory 2) Vypočítat Jacobiho matici J(w) 3) Spočítat aktualizaci vah 4) Přepočítat součet čtverců chyb při použití adaptovaných vah. Pokud je nový součet čtverců menší než původní spočítaný v kroku 1, pak, a přejít ke kroku 1. V opačném případě a přejít ke kroku 3.

15 RBF sítě 1 skrytá vrstva, funkce radiální báze Gaussovská funkce: Odezva sítě: Učení RBF sítě Nalezení center Natrénování vah Lze provádět buď postupně k-means a gradientní metoda nebo nejednou Metoda nejmenších čtverců

16 Návrh řešení

17 Prostor řešení úlohy Kromě spojitých proměnných i diskrétní proměnné Omezení spojitých i diskrétních proměnných Prostor řešení úlohy – množina mnohostěnů Mnohostěn – určen hodnotami diskrétních proměnných, výskytem určité podmnožiny spojitých proměnných a soustavou lineárních omezení těchto spojitých proměnných. Kromě spojité optimalizace i diskrétní optimalizace Spojitá optimalizace – zvlášť v rámci každého mnohostěnu.

18 Přístup k diskrétním proměnným při konstrukci náhradního modelu Rozklad diskrétních proměnných na booleovské proměnné: V disct – původní diskrétní proměnná, H – možná hodnota booleovská proměnná: Zavedení dalších booleovských proměnných indikujících nenulovost příslušných spojitých proměnných V cont – spojitá proměnná, V bc – přidaná booleovská proměnná:

19 Hierarchické klastrování podle diskrétních proměnných Vzdálenosti mezi diskrétními kombinacemi: Hammingova metrika Jaccardova metrika Následuje konstrukce dendrogramu a vlastní hierarchické klastrování – od listů ke kořeni.

20 Výběr modelu Výběr modelu – v každém klastru zvlášť Vybírá se vhodná architektura sítě Výběr na základě x-násobné křížové validace Základním kritérium výběru modelu – střední čtvercová chyba (mse) při křížové validaci U vícevrstvých perceptronů i používáme i střední čtvercovou chybu s regularizací (msereg).

21 Základní schéma genetického algoritmu s náhradním modelem

22 Implementace V prostředí Matlab Diskrétní optimalizaci a načítání dat z databáze – zajišťuje framework genetického algoritmu V naší implementaci se zaměřujeme na konstrukci náhradního modelu a využití tohoto modelu v rámci spojité optimalizace Model vícevrstvých perceptronů využívá implementaci v Neural Network toolboxu, model RBF sítí používá implementaci od Lukáše Bajera

23 Dialog pro nastavení parametrů modelu

24 Dialog pro nastavení klastrování

25 Dialog pro výběr modelu

26 Dialog pro nastavení spojité optimalizace a řízení modelu

27 Experimenty

28 Experimenty – reálná úloha (HCN) Nelze získat nová data, experimenty se omezily na konstrukci a vyhodnocení náhradního modelu 696 jedinců v osmi generacích (nultá až sedmá) 2 diskrétní proměnné (15 a 7 různých hodnot), 11 spojitých proměnných (a tedy 11 přidaných boolovských proměnných) -> celkový počet proměnných v úloze je 44 Spojité proměnné jsou přitom omezeny:

29 Výsledky trénování na HCN Model s jediným klastrem, 44 vstupních proměnných, vícevrstvý perceptron: mse (3) Model s 13-ti klastry (klastrováno dle 1 diskrétní proměnné a 11-ti booleovských proměnných), 11 vstupních proměnných, vícevrstvý perceptron: mse Model s 15-ti klastry (klastrováno dle 1 diskrétní proměnné), 11 vstupních proměnných, vícevrstvý perceptron: mse (9) Model s 15-ti klastry (klastrováno dle 1 diskrétní proměnné), 11 vstupních proměnných, RBF síť: mse (11)

30 Tabulka 1 – Trénování na HCN

31 Trénování v průběhu genetického algoritmu Začali jsme s trénovací množinou složenou z prvních čtyř generací (nultá až třetí). Na této množině jsme natrénovali vybrané modely a následně je otestovali na následující (čtvrté) generaci. V dalším kroku jsme čtvrtou generaci přidali k trénovací množině a model ověřovali na páté generaci. Postup jsme opakovali až do dosažení poslední (sedmé) generace.

32 Predikce modelu 3 (MLP, 1 klastr) Odhad modelu Generace 4Generace 5 Generace 6Generace 7 Fitness

33 Predikce modelu 9 (MLP, 15 klastrů) Odhad modelu Generace 4 Generace 5 Generace 6 Generace 7 Fitness

34 Predikce modelu 11 (RBF, 15 klastrů) Odhad modelu Generace 4Generace 5 Generace 6 Generace 7 Fitness

35 Experimenty s testovací funkcí valero

36 Tabulka 2 – trénování na valeru

37 Evoluční kontrola založená na jedincích (výběr nejlepších, MLP, 6 neuronů ve skryté vrstvě)

38 Evoluční kontrola založená na generacích (po 4 generacích, MLP, 6 neuronů ve skryté vrstvě, porovnání odpovídajících si generací)

39 Evoluční kontrola založená na generacích (po 4 generacích, MLP, 6 neuronů ve skryté vrstvě, porovnání podle počtu vyhodnocení fitness funkce)

40 Porovnání kontroly založené na jedincích a na generacích

41 Výběr modelu po každé generaci (kontrola založená na jedincích – výběr nejlepších, MPL)

42 Porovnání výběru modelu po každé generaci a fixního modelu

43 RBF model (kontrola založená na jedincích – výběr nejlepších jedinců)

44 Vícevrstvé perceptrony a RBF (kontrola založená na jedincích – výběr nejlepších jedinců)

45 RBF – výběr nejlepších jedinců a kombinovaná strategie výběru

46 Tabulka 3 – průběh genetického algoritmu

47 Děkuji za pozornost Prostor pro dotazy


Stáhnout ppt "Antonín Wimberský. Motivace Evoluční algoritmy – použití v celé řadě praktických úloh Největší slabina – nutnost opakovaného volání fitness funkce Snížení."

Podobné prezentace


Reklamy Google