ASN - cvičení 2 : Ukázky práce s NN-Toolboxem

Slides:



Advertisements
Podobné prezentace
Lineární klasifikátor
Advertisements

Základy teorie řízení 2010.
Podpora výuky matematiky prostřednictvím programu Maple
Vyhodnocení úspěšnosti fiskálních predikcí
Projekt Informatika 2 ČVUT FSV obor Geodézie a Kartografie Bc. Jan Zajíček
Algoritmy a struktury meuropočítačů ASN – C2
Hledání začátků exonů v DNA Klára Pešková, Michal Bída.
Neuronové sítě Marcel Jiřina.
Automatická fonetická segmentace pomocí UNS Registr - 36 neuronových sítí MLNN (pro každou českou hlásku jedna UNS) Trénovací množina: databáze promluv.
Topologie neuronových sítí (struktura, geometrie, architektura)
Aplikační počítačové prostředky X15APP MATLAB - SIMULINK
SSC - cvičení 7 Aplikace programového systému Speech Laboratory - SL Postup: 1.Zkopírovat z adresy
LVQ – Learning Vector Quantization
SSC - cvičení 3 MATLAB - BPG algoritmus 1.Vytvořit tréninková data 2.Vytvořit objekt sítě 3.Natrénovat síť 4.Simulace Funkce pro učení: learngd … základní.
Jiří Gazárek, Martin Havlíček Analýza nezávislých komponent (ICA) v datech fMRI, a ICA necitlivá ke zpoždění.
Kalmanuv filtr pro zpracování signálů a navigaci
Rozložení EEG elektrod (10-20 system)
Algoritmy a struktury neuropočítačů ASN - P1 Prof.Ing. Jana Tučková,CSc. Katedra teorie.
DOK „Umělá inteligence“ v DOK (i jinde). NEURONOVÉ SÍTĚ.
Memory-based Learning Učení založené na paměti (výtah z přednášky Waltera Daelemanse, GSLT, Göteborg 2003) + TiMBL -ukázka použití programu Jiří Mírovský,
Využití umělých neuronových sítí k urychlení evolučních algoritmů
Rozpoznávání tištěných znaků pomocí LVQ sítí Neuronové sítě 2006/2007 Jan Hroník, Pavel Krč.
Komprese barev Jakub Gemrot Ondřej Burkert. Popis problému Běžné obrázky mají 16,7 mil. barev Běžné obrázky mají 16,7 mil. barev Problém: Jak je rozumně.
MATLAB® ( Funkce v Matlabu ).
Klasifikace a rozpoznávání
Počítačové modelování dynamických systémů Simulink 5. cvičení Miloslav LINDA katedra elektrotechniky a automatizace.
Neuronové sítě Jakub Krátký.
Vícevrstvé neuronové sítě.  Neuronové sítě jsou složeny z neuronů tak, že výstup jednoho neuronu je vstupem jednoho nebo více neuronů  Propojení neuronů.
Algoritmizace.
ALGO – Algoritmizace 2. cvičení
Umělé neuronové sítě a Support Vector Machines
2 MECHANIKA 2.1 Kinematika popisuje pohyb.
NEURONOVÉ SÍTĚ (c) Tralvex Yeap. All Rights Reserved.
METODY NEKONVENČNÍHO MODELOVÁNÍ S PŘÍSTUPY UMĚLÉ INTELIGENCE
Jméno autora: Mgr. Zdeněk Chalupský Datum vytvoření: Číslo DUM: VY_32_INOVACE_08_FY_B Ročník: I. Fyzika Vzdělávací oblast: Přírodovědné vzdělávání.
Druhy energie Druhy energie - polohová, - pohybová, - tepelná
Jiří Fejfar Perceptron Jiří Fejfar
Neuronové sítě Jiří Iša
Klasifikace klasifikace: matematická metoda, kdy vstupní objekty X(i) jsou rozřazovány do tříd podle podobnosti metody klasifikace bez učitele: podoba.
Jan Šaršon Milan Jaška 1Dobývání znalostí, MFF UK, 2008.
Dolce: Databáze lokálních konformací DNA
Vektorová kvantizace (VQ) (Vector Quantization)
Základy ALgoritmizace 6. cvičení. Program cvičení Kontrolní bod 1 zakončení grafického zápisu algoritmů - vývojových diagramů –identifikátory a proměnné.
© Institut biostatistiky a analýz ANALÝZA A KLASIFIKACE BIOMEDICÍNSKÝCH DAT prof. Ing. Jiří Holčík, CSc.
Neuronové sítě (Úvod a MLP sítě)
Metodika generování a ladění modelů neuronových sítí Ing. Martin MoštěkVŠB – Technická Univerzita Ostrava.
ŠKOLA:Gymnázium, Tanvald, Školní 305, příspěvková organizace ČÍSLO PROJEKTU:CZ.1.07/1.5.00/ NÁZEV PROJEKTU:Šablony – Gymnázium Tanvald ČÍSLO ŠABLONY:III/2.
W i ref (t+1) = W i ref (t) + h ci (t) [X(t) - W i ref (t)], i Nc h ci (t) 0, t  proces konverguje Algoritmy a struktury neuropočítačů ASN – P3 SOM algoritmus.
Lineární kódy.
© Institut biostatistiky a analýz ANALÝZA A KLASIFIKACE BIOMEDICÍNSKÝCH DAT prof. Ing. Jiří Holčík, CSc.
Algoritmy a struktury neuropočítačů ASN - P14 Hopfieldovy sítě Asociativní paměti rekonstrukce původních nezkreslených vzorů předkládají se neúplné nebo.
Dita Matesová, David Lehký, Zbyněk Keršner
Předzpracování nestrukturovaných dat pomocí jazyka Snowball , Brno Připravil: Bc. Pavel Řezníček.
Mgr. Michal LOUTHAN Katedra geoinformatiky, UP Olomouc
ALGO – Algoritmizace 7. cvičení – ročník, ZS Ing. Zdena DOBEŠOVÁ, Ph.D.
Klasifikace a rozpoznávání
Práce pro profesionály Cvičíme se v MATLABu © Leonard Walletzký, ESF MU, 2003.
Úvod do programování Vyučující: Mgr. Vítězslav Jersák
Neuronové sítě. Vývoj NS 1943 – W. McCulloch, W. Pittse – první jednoduchý matematický model neuronu 1951 – M. Minsky - první neuropočítač Snark 1957.
Programování v MATLABu © Leonard Walletzký, ESF MU, 2000.
Neuronové sítě.
Než začneme programovat Co lze v MALATBu dělat, aniž musíme napsat program. © Leonard Walletzký, ESF MU, 2000.
Využití technik dataminingu při rozpoznávání znaků Marek Kukačka Květen 2006.
Lineární kódy.
Algoritmizace a programování Aritmetické, Relační a Logické operátory, Knihovny.
Umělé neuronové sítě „Za umělou neuronovou síť se obecně považuje taková struktura pro distribuované paralelní zpracování dat, která se skládá z jistého,
Metody strojového učení
Neuronové sítě.
Neuronové sítě.
DNN - Deep neural networks (Hluboké neuronové sítě)
Transkript prezentace:

ASN - cvičení 2 : Ukázky práce s NN-Toolboxem Postup: 1) MATLAB 2) HELP 3) Full Product Family Help Neural Network Toolbox MATLAB Help Demos Finding Functions Demonstrations and Applications Toolboxes Neural Networks NNdemos

Alphabetical List Functions by Category perceptron pro perceptron Distance Functions Learning Functions – learnh (Hebb) Network Use Functions – adapt disp init sim train Performance Function (chybové funkce) mae (mean absolute error) mse ( mean squared error) sse ( sum squared error) Plotting Functions – plotpv (perceptron) Training Functions – trainb (batch-trenink) Transfer Functions rands Weight and Bias Initialization Functions dist Weight Functions (Euclidean) mandist (Manhattan)

nnd nndtoc Demonstrační úlohy nnd2n1 ukázka formálního neuronu a přenosových funkcí nnd2n2 ukázka neuronu s 1 vstupním vektorem Perceptron nnd3pc klasifikace perceptronem nnd4db ukázka rozhodovací přímky nnd4pr ukázka algoritmu učení perceptronu demop1 problém klasifikace se 2 vstupními neurony demop4 extrémní hodnoty elementů vstupního vektoru demop5 normování demop6 ukázka lineárně neseparabilních vektorů

nnd2n1 lze měnit váhy, prahy a přenosové funkce názorná ukázka významu prahu u přenosových funkcí satlin, satlins, logsig, tansig se změnou vah mění sklon těchto funkcí – to má vliv na úspěšnost a rychlost učení (hodnota vah blízká 0 vede na menší sklon průběhu funkce a naopak nnd2n2 je možné měnit více parametrů najednou (váhy, prahy a hodnoty elementů vstupního vektoru a sledovat hodnotu vástupu pro různé přenosové funkce Úloha: sestavte tabulku, ze které bude vidět vliv měnících se hodnot jednotlivých parametrů perceptronu (vah, prahů, vstupů a přenosových funkcí)

Perceptron nnd4dp pouze znázornění rozhodovací přímky nnd4pr ukazuje rozdíl mezi učením (learning) a trénováním (training) ukázka klasifikace do 2 tříd – limitující schopnost perceptronu je možné vyzkoušet vliv prahu (bias) a náhodné inicializace vah (random) demop1,4,5,6 - u těchto demonstrací je vhodnější volit prostřednictvím položky DEMOS (animace) - při spuštění z příkazové řádky se objeví pouze grafická ukázka a zdrojový kód je nutné vyvolat příkazem type demop1 (type demop4…)