Prezentace se nahrává, počkejte prosím

Prezentace se nahrává, počkejte prosím

Estimation of Distribution Algorithms Část II Petr Pošík Prezentace pro předmět Kognitivní procesy 6. dubna 2006.

Podobné prezentace


Prezentace na téma: "Estimation of Distribution Algorithms Část II Petr Pošík Prezentace pro předmět Kognitivní procesy 6. dubna 2006."— Transkript prezentace:

1 Estimation of Distribution Algorithms Část II Petr Pošík Prezentace pro předmět Kognitivní procesy 6. dubna 2006

2 V minulém díle jste viděli...

3 Machine Learning & Softcomputing 3 / XX Co už známe… Black-box optimalizace GA vs. EDA  GA používají přístup select – crossover – mutate  EDA používají přístup select – model – sample EDA s binární reprezentací  Nejpřesnější model: úplná sdružená pst pst výskytu každé možné kombinace bitů 2 D -1 parametrů, exponenciální složitost  Použití méně přesných, ale jednodušších pravděpodobnostních modelů Z minula >

4 Machine Learning & Softcomputing 4 / XX Typy EDA s binární reprezentací Bez interakcí  1-rozměrné marginální psti P(X=x)  PBIL, UMDA Párové interakce  podmíněné psti P(X=x|Y=y)  řetězce (MIMIC), stromy (COMIT), lesy (BMDA) Vícenásobné interakce  podmíněné psti P(X=x|Y=y, Z=z,...)  bayesovské sítě (BOA, EBNA, LFDA) Z minula >

5 Machine Learning & Softcomputing 5 / XX Obsah přednášek 1. EDAs pro vektory diskrétních hodnot (např. binární)  Motivační příklad  Bez interakcí  Párové interakce  Vyšší interakce 2. EDAs pro vektory reálných čísel  Histogramy  Gaussovo rozdělení  Evoluční strategie  CMA-ES Úvod >

6 EDA pro vektory reálných čísel

7 Machine Learning & Softcomputing 7 / XX Fundamentální odlišnosti R D od {0,1} D Binární prostor 1. Každé kandidátské řešení se nachází v některém rohu hyperkrychle 2. Žádné mezilehlé hodnoty 3. Konečný počet prvků Reálný prostor 1. Interval v jednotlivých dimenzích nemusí být stanoven 2. I když stanoven je, existuje nekonečně mnoho mezilehlých hodnot (teoreticky, prakticky jsme omezeni numerickou přesností daného stroje) 3. Nekonečný počet prvků Reálná reprezentace >

8 Machine Learning & Softcomputing 8 / XX Fundamentální odlišnosti R D od {0,1} D Jak definovat lokální okolí? Kletba rozměrnosti! Jako množinu bodů, jejichž vzdálenost nepřesáhne jistou hranici?  Objem lokálního okolí vůči objemu st. prostoru exponenciálně klesá  Se vzrůstající dimenzí se okolí stává čím dál tím víc lokálním Jako množinu bodů, které jsou aktuálnímu bodu nejblíž a jejichž sjednocení zabírá jistou část objemu st. prostoru?  Rozměry lokálního okolí rostou s rostoucí dimenzí prostoru  Se vzrůstající dimenzí lokální okolí přestává být lokálním Reálná reprezentace >

9 Machine Learning & Softcomputing 9 / XX Přímé analogie s diskrétními EDA Bez interakcí  UMDA – stejný princip, mění se jen typ hustoty pravděpodobnosti  Jednorozměrné histogramy?  Jednorozměrné gaussovské rozdělení?  Jednorozměrná směs gaussovských rozdělení? Párové interakce, interakce vyšších řádů  Mnoho různých typů interakcí!  Model, který by uměl efektivně zachytit všechny typy interakcí, je těžké nalézt! Reálná reprezentace >

10 Machine Learning & Softcomputing 10 / XX UMDA Sdružená hustota pravděpodobnosti je faktorizována jako: kde p d (x d ) je jednorozměrná hustota pravděpodobnosti ve formě histogramu, gaussiánu, směsi gaussiánů,... Jednotlivé souřadnice nových vektorů se generují nezávisle na sobě Reálná reprezentace >

11 Machine Learning & Softcomputing 11 / XX Histogram se stejnou šířkou binů Nejpřímější analogie s diskrétními histogramy Nevýhoda: pokud nepadne do binu ani jeden vektor, není možné v tomto binu už žádný jiný vektor vygenerovat! Reálná reprezentace > UMDA

12 Machine Learning & Softcomputing 12 / XX Histogram se stejnou výškou binů Místo fixní šířky binu se zafixuje četnost bodů, které do binů padnou! Neexistují prázdné biny, vždy je možné vygenerovat vektor kdekoliv v hyperkrychli pokryté histogramem. Reálná reprezentace > UMDA

13 Machine Learning & Softcomputing 13 / XX Histogram s hranicemi v největších mezerách Najdou se největší mezery mezi vektory a do nich se umístí hranice binů Neexistují prázdné biny, vždy je možné vygenerovat vektor kdekoliv v hyperkrychli pokryté histogramem. Reálná reprezentace > UMDA

14 Machine Learning & Softcomputing 14 / XX Směs gaussiánů Hledá se pomocí EM algoritmu (pstní obdoba k-means shlukování) Vhodnější pro stavové prostory neomezené hyperkrychlí Reálná reprezentace > UMDA

15 Machine Learning & Softcomputing 15 / XX Testovací funkce: 2D Two Peaks Optimum v [1,1,...,1] 2 D lokálních optim Evoluce hranic binů (center složek pro MOG): Reálná reprezentace > UMDA

16 Machine Learning & Softcomputing 16 / XX Histogramové UMDA: shrnutí Vhodné, když:  je stavový prostor omezen hyperkrychlí  mezi jednotlivými dimenzemi nejsou velké závislosti Je možné předzpracovat populaci pomocí rotace souřadného systému  UMDA pak umí pracovat s lineárními interakcemi Reálná reprezentace > UMDA

17 Machine Learning & Softcomputing 17 / XX Optimalizace pomocí Gaussova rozdělení Případová studie: Optimalizace kvadratické funkce Truncation sel., z t nejlepších je tvořen model Model: Gaussovo rozdělení  Parametry odhadované metodou max. věrohodnosti Dvě situace:  Úvodní populace v okolí optima  Úvodní populace vzdálena od optima Reálná reprezentace >

18 Machine Learning & Softcomputing 18 / XX...pro monotónní fitness funkci Změna populačních statistik během 1 generace: Reálná reprezentace > Gaussovo rozdělení

19 Machine Learning & Softcomputing 19 / XX...pro monotónní fitness funkci Populační statistiky v generaci t pro monotónní funkci: Konvergence populačních statistik: Vzdálenost, kam může „docestovat“ populace u tohoto algoritmu, je omezená. Předčasná konvergence! Reálná reprezentace > Gaussovo rozdělení

20 Machine Learning & Softcomputing 20 / XX Řešení Nastavit hranici, pod kterou rozptyl nemůže klesnout K adaptaci rozptylu (mutačního kroku) použít jiné schéma než metodu max. věrohodnosti Závěry: Max. věrohodné odhady jsou vhodné v situaci, kdy model dobře odpovídá fitness funkci (alespoň v oblasti, kde se nachází populace)  Gauss je vhodný v okolí optima  Gauss je mnohem méně vhodný na „svahu“ Reálná reprezentace > Gaussovo rozdělení

21 Machine Learning & Softcomputing 21 / XX Evoluční strategie Klasické metody využívající Gaussovo rozdělení ( m, l )-ES nebo ( m + l )-ES  m rodičů, l potomků  ( m, l )... potomci kompletně nahrazují rodiče  ( m + l )... potomci jsou spojeni s rodiči Potomci vytvářeni pomocí mutace jako, kde x je rodič a x’ je potomek N(0, s 2 ) je izotropní normální rozdělení se směrodatnou odchylkou s Reálná reprezentace >

22 Machine Learning & Softcomputing 22 / XX Zvýšení flexibility: adaptace s s už není konstantní po celou dobu běhu ES Deterministické snižování s Zpětnovazební regulace s (pravidlo 1/5) Použít autoadaptaci s:  s se stává součástí chromozomu  chromozom obsahuje instrukce pro svou vlastní změnu Reálná reprezentace > Evoluční strategie

23 Machine Learning & Softcomputing 23 / XX Zvýšení flexibility: složitost modelu s není stejné ve všech dimenzích Použít diagonální kovarianční matici: Použít plnou kovarianční matici Ke změnám s d příp. S se obvykle používá autoadaptace Změny v kovarianční struktuře jsou stále velice náhodné! Reálná reprezentace > Evoluční strategie

24 Machine Learning & Softcomputing 24 / XX CMA-ES Derandomizovaná evoluční strategie (1, l )-ES s adaptací kovarianční matice: 1. Vygeneruj l potomků: 2. Na základě potomků aktualizuj parametry modelu: Reálná reprezentace > Evoluční strategie

25 Machine Learning & Softcomputing 25 / XX CMA-ES: Adaptace parametrů adaptace metodou max. věrohodnosti: adaptace takovým způsobem, aby bylo dosaženo konjugovanosti dvou po sobě jdoucích kroků, tj. konceptuálně Reálná reprezentace > Evoluční strategie

26 Machine Learning & Softcomputing 26 / XX CMA-ES: průběh optimalizace Reálná reprezentace > Evoluční strategie

27 Machine Learning & Softcomputing 27 / XX CMA-ES: shrnutí CMA-ES má kořeny v ES, ale vykazuje rysy typické pro EDA (adaptace a učení pstního modelu) Vykazuje vlastnosti lokálního optimalizátoru Přesto je považována za špičkovou metodu reálné black-box optimalizace, její výhody se projevují už při počtu 5-10 optimalizovaných proměnných Byla použita pro řešení mnoha optimalizačních úloh z reálného světa (ladění parametrů elektronických filtrů, prokládání nelineárních funkcí,...) Reálná reprezentace > Evoluční strategie

28 Machine Learning & Softcomputing 28 / XX EDA pro reálnou reprezentaci: shrnutí Mnohem méně rozvinuté než pro diskrétní řetězce Za obtížnost může hlavně:  kletba rozměrnosti  množství různých typů závislostí, které mohou mezi proměnnými existovat Přesto EDA (a obecně EA) pro reálnou reprezentaci dosahují lepších výsledků než konvenční optimalizační techniky (line search, Nelder-Mead simplex search,...) Reálná reprezentace > Evoluční strategie


Stáhnout ppt "Estimation of Distribution Algorithms Část II Petr Pošík Prezentace pro předmět Kognitivní procesy 6. dubna 2006."

Podobné prezentace


Reklamy Google