1 Audio retrieval Referát Vyhledávání v multimediálních databázích MFF UK 2005/06 Jan Kodym.

Slides:



Advertisements
Podobné prezentace
Lineární klasifikátor
Advertisements

Třídění dat OA a VOŠ Příbram. Třídění  rozdělení jednotek souboru do takových skupin, aby co nejlépe vynikly charakteristické vlastnosti zkoumaných jevů.
SMS brána Eurotel Jednoduché OCR pomocí neuronových sítí Marek Kukačka
Aplikace teorie grafů Základní pojmy teorie grafů
Problematika a metody zpracování biomed. dat z pohledu jejich klasifikace Marcel Jiřina.
Automatická fonetická segmentace pomocí UNS Registr - 36 neuronových sítí MLNN (pro každou českou hlásku jedna UNS) Trénovací množina: databáze promluv.
Topologie neuronových sítí (struktura, geometrie, architektura)
Multi-dimensional Sparse Matrix Storage J. Dvorský, M. Krátký, Katedra informatiky, VŠB – Technická univerzita.
Třídění Seminář IVT. Definice uspořádání skupiny dat (záznamů) dle daného klíče vzestupně (od nejmenší do největší hodnoty klíče) sestupně (od největší.
Jiří Gazárek, Martin Havlíček Analýza nezávislých komponent (ICA) v datech fMRI, a ICA necitlivá ke zpoždění.
Algoritmy I Cvičení č. 4.
Medians and Order Statistics Nechť A je množina obsahující n různých prvků: Definice: Statistika i-tého řádu je i-tý nejmenší prvek, tj., minimum = statistika.
LOGISTICKÉ SYSTÉMY 8/14.
VÍCEKRITERIÁLNÍ ROZHODOVÁNÍ I.
5. Přednáška funkce BRVKA Johann P.G.L. Dirichlet (1805 – 1859)
Shlukovací algoritmy založené na vzorkování
Informatika pro ekonomy II přednáška 2
SWI072 Algoritmy komprese dat1 Algoritmy komprese dat Statistické metody komprese dat a Shannon-Fanův kód.
REDUKCE DAT Díváme-li se na soubory jako na text, pak je tento text redundantní. Redundance vyplývá z:  některé fráze nebo slova se opakují  existuje.
také Gaussovo rozdělení (normal or Gaussian distribution)
Shluková analýza.
TI 7.1 NEJKRATŠÍ CESTY Nejkratší cesty - kap. 6. TI 7.2 Nejkratší cesty z jednoho uzlu Seznámíme se s následujícími pojmy: w-vzdálenost (vzdálenost na.
Biometrické Bezpečnostní Systémy Filip Orság Technologie rozpoznání mluvčího.
Vyhledávání podobností v datech s využitím singulárního rozkladu
IGrid index Roman Krejčík. Obsah Motivace Prokletí dimenze Míry podobnosti IGrid, IGrid+ Experimentální porovnání.
Shluková analýza.
1 Kognitivní inspirace třídění na základě závislostí atributů Jan Burian Eurfomise centrum – Kardio, Ústav informatiky AV ČR Článek je dostupný na WWW:
Reprezentace klasifikátoru pomocí „diskriminant“ funkce
Realtime identifikace osob podle hlasu
Klasifikace klasifikace: matematická metoda, kdy vstupní objekty X(i) jsou rozřazovány do tříd podle podobnosti metody klasifikace bez učitele: podoba.
Rozhodovací stromy.
Vektorová kvantizace (VQ) (Vector Quantization)
© Institut biostatistiky a analýz INVESTICE DO ROZVOJE VZDĚLÁVÁNÍ ANALÝZA A KLASIFIKACE DAT prof. Ing. Jiří Holčík, CSc.
Rozpoznávání v řetězcích
Mlhavost Fuzzy logika, fuzzy množiny, fuzzy čísla
© Institut biostatistiky a analýz INVESTICE DO ROZVOJE VZDĚLÁVÁNÍ ANALÝZA A KLASIFIKACE DAT prof. Ing. Jiří Holčík, CSc.
Počítačová chemie (5. přednáška)
Vyhledávání v multimediálních databázích Tomáš Skopal KSI MFF UK 4. Mapování a redukce dimenze 1. část – úvod + mapování vektorových sad.
© Institut biostatistiky a analýz INVESTICE DO ROZVOJE VZDĚLÁVÁNÍ ANALÝZA A KLASIFIKACE DAT prof. Ing. Jiří Holčík, CSc.
W i ref (t+1) = W i ref (t) + h ci (t) [X(t) - W i ref (t)], i Nc h ci (t) 0, t  proces konverguje Algoritmy a struktury neuropočítačů ASN – P3 SOM algoritmus.
Vyhledávání v multimediálních databázích Tomáš Skopal KSI MFF UK
Prostorové datové struktury
Podobnost trajektorií Jiří Jakl Úvod - využití Rozpoznáváni ručně psaných textů GPS navigace Analýza pohybu pracovníku v budovách Predikce.
Vyhledávání vzorů (template matching)
Radim Farana Podklady pro výuku
Algoritmy a struktury neuropočítačů ASN - P14 Hopfieldovy sítě Asociativní paměti rekonstrukce původních nezkreslených vzorů předkládají se neúplné nebo.
© Institut biostatistiky a analýz ANALÝZA A KLASIFIKACE DAT prof. Ing. Jiří Holčík, CSc.
Klasifikace a rozpoznávání
Praktická využití UNS V medicínských aplikacích Jan Vrba 2006.
© Institut biostatistiky a analýz INVESTICE DO ROZVOJE VZDĚLÁVÁNÍ ANALÝZA A KLASIFIKACE DAT prof. Ing. Jiří Holčík, CSc.
Neuronové sítě.
Klasifikace a rozpoznávání Lineární klasifikátory.
© Institut biostatistiky a analýz ANALÝZA A KLASIFIKACE BIOMEDICÍNSKÝCH DAT prof. Ing. Jiří Holčík, CSc.
Matice Přednáška č.4. Definice: Soubor prvků nazýváme maticí typu i-tý řádek j-tý sloupec prvky matice.
© Institut biostatistiky a analýz INVESTICE DO ROZVOJE VZDĚLÁVÁNÍ ANALÝZA A KLASIFIKACE DAT prof. Ing. Jiří Holčík, CSc.
NEJKRATŠÍ CESTY Nejkratší cesty - kap. 6.
VÍCEKRITERIÁLNÍ ROZHODOVÁNÍ I.
KIV/ZD cvičení 5 Tomáš Potužák.
4. cvičení
- váhy jednotlivých studií
2. cvičení
ANALÝZA A KLASIFIKACE DAT
Klasifikace a rozpoznávání
Neuronové sítě.
ORDINÁLNÍ VELIČINY Měření variability ordinálních proměnných
Neparametrické testy pro porovnání polohy
Základní zpracování dat Příklad
Algoritmizace a datové struktury (14ASD)
ANALÝZA A KLASIFIKACE DAT
ANALÝZA A KLASIFIKACE DAT
Transkript prezentace:

1 Audio retrieval Referát Vyhledávání v multimediálních databázích MFF UK 2005/06 Jan Kodym

2 Obsah referátu Oblasti v audio retrieval Práce s řečí Extrakce vlastností Metody určování podobnosti vzorků Automatická klasifikace vzorků

3 Oblasti v Audio Retrieval Databáze „obecně jakýchkoliv“ vzorků Databáze „obecně jakýchkoliv“ vzorků Používání univerzálních metod Používání univerzálních metod (případně klasifikace vzorků a dotazů – bude dále) (případně klasifikace vzorků a dotazů – bude dále) Databáze určitých typů vzorků Databáze určitých typů vzorků Pouze řeč Pouze řeč Pouze hudba Pouze hudba … Možno použít metody vhodné pro danou třídu Možno použít metody vhodné pro danou třídu

4 Práce s řečí identifikace řečníka identifikace řečníka Databáze vzorků růrných řečníků, ve které hledám „člověka mluvícího v dotazu“ Databáze vzorků růrných řečníků, ve které hledám „člověka mluvícího v dotazu“ Nezajímá mě obsah řeči, pouze charakteristické vlastnosti hlasu Nezajímá mě obsah řeči, pouze charakteristické vlastnosti hlasu Např. extrakce a porovnávání základního hlasivkového tónu Např. extrakce a porovnávání základního hlasivkového tónu identifikace obsahu řeči identifikace obsahu řeči Přiřazení vstupu (dotazu) nějakému slovu ze slovníku známých slov Přiřazení vstupu (dotazu) nějakému slovu ze slovníku známých slov Bez ohledu na osobu řečníka Bez ohledu na osobu řečníka Rozpoznávání slabik Rozpoznávání slabik Jádro slabiky – znělá samohláska. Snadno se rozpozná (energetická špička) Problém určit hranici slabiky Velký počet slabik (v mluvené češtině kolem 10000) Záleží i na jazyce

5 Audio Retrieval - schéma systém SOUNDSPOTTER

6 Extrakce vlastností Spektrální analýza zvukového signálu Vzorkovaný signál je rozsekán na části určité délky (frames) a vlnová funkce v každé části je charakterizována číselným vektorem Vzorkovaný signál je rozsekán na části určité délky (frames) a vlnová funkce v každé části je charakterizována číselným vektorem Vzorek se tak převede na posloupnost vektorů, které charakterizují signál v průběhu času (časová řada) Vzorek se tak převede na posloupnost vektorů, které charakterizují signál v průběhu času (časová řada) MFCC – Mel Frequency Cepstral Coefficients MFCC – Mel Frequency Cepstral Coefficients Kepstrální analýza

7 MFCC Různé varianty, tato ze systému Soundspotter Délka rámců 20 ms V každém rámci se spočítá diskrétní Fourierova transformace Spektrum se převede do logaritmické stupnice (nebo se převede na mocniny X 0.23 – Stevensovo pravidlo) Lépe vystihuje hlasitost signálu Může se ještě spočítat diskrétní cosinova transformace Pro každý rámec se vezme jako vektor vlastností prvních 13 koeficientů Dostáváme se do 13-rozměrného prostoru Dostáváme se do 13-rozměrného prostoru Vlastnost vzorku (sestávajícího z více rámců) je tedy dána posloupností (TRAJEKTORIÍ) „13D vektorů“ Vlastnost vzorku (sestávajícího z více rámců) je tedy dána posloupností (TRAJEKTORIÍ) „13D vektorů“

8 MFCC [a 1,a 2, … a 13 ] rámec transformace

9 Trajectory matching Porovnávání „trajektorií“ - posloupností vektorů (dotaz a vzorky) stejné délky Buď přímo ve 13-dimenzionálním prostoru nebo po namapování do prostoru nižší dimenze (bude dále) Buď přímo ve 13-dimenzionálním prostoru nebo po namapování do prostoru nižší dimenze (bude dále) Metrika: Např. průměrná hodnota Euklidovských vzdáleností sobě odpovídajících vektorů Např. průměrná hodnota Euklidovských vzdáleností sobě odpovídajících vektorů

10 Dynamic Time Warping „Borcení časové osy“ Vyvinuto pro rozpoznávání řeči Stejný řečník i obsah, různé tempo Stejný řečník i obsah, různé tempo Porovnávání sekvencí různé délky Pomocí techniky dynamického programování lze v čase I*J I …. Délka posloupnosti dotazu I …. Délka posloupnosti dotazu J …. Délka posloupnosti vzorku J …. Délka posloupnosti vzorku

11 Dynamic Time Warping Dotaz = (r 1, r 2, …,r I ) Vzorek = (a 1, a 2, …,a J ) D(i,j) – Matice vzdáleností (kumulovaná) nejkratší vzdálenost mezi prvními i prvky Dotazu a podposloupností Vzorku končící na j-té pozici

12 Dynamic Time Warping d(i,j) = vzdálenost mezi r i a a j D(1,j) := d(1,j) D(i,j) := min ( D(i-2,i-1)+w 1 *d(i,j), ■ // přeskočím prvek v dotazu D(i-1,i-2)+w 2 *d(i,j), ■ // --||-- ve vzorku D(i-1,i-2)+w 2 *d(i,j), ■ // --||-- ve vzorku D(i-1,i-1)+w 3 *d(i,j) ) ■ // nepřeskočím nic D(i-1,i-1)+w 3 *d(i,j) ) ■ // nepřeskočím nic Na základě experimentů:  w1 = 2  w2 = 2  w3 =

13 Dynamic Time Warping Pro každé (i,j) si držím ukazatel, „odkud jsem přišel“ V posledním řádku matice (D(I,j)  j) mám nejkratší kumulovanou vzdálenost mezi Dotazem a podposloupností vzorku končící na pozici j Jdu zpět po ukazatelích Jdu zpět po ukazatelích

14 Mapování vektorů do SOM SOM = samoorganizující (Kohonenovy) mapy Neuronová síť, Kohonenova vrstva – typicky dvourozměrná mříž Neuronová síť, Kohonenova vrstva – typicky dvourozměrná mříž Každý neuron – váhový vektor Každý neuron – váhový vektor w = [w 1, w 2, …, w n ] n … dimenze vstupního signálu (u nás =13) w = [w 1, w 2, …, w n ] n … dimenze vstupního signálu (u nás =13) Množina trénovacích dat – všechny vektory vlastností ze všech vzorků Množina trénovacích dat – všechny vektory vlastností ze všech vzorků Rozměry SOM – počet neuronů přibližně druhá odmocnina z počtu trénovacích vektorů Rozměry SOM – počet neuronů přibližně druhá odmocnina z počtu trénovacích vektorů

15 Mapování vektorů do SOM – redukce dimenze Po natrénování se dosáhne toho, že vektory blízké v původním prostoru (13D) se namapují do neuronů blízkých v SOM (2D). Obraz původního vektoru je neuron v natrénované SOM s maximální odezvou Obraz původního vektoru je neuron v natrénované SOM s maximální odezvou V ideálním případě se vytvoří shluky (clustery) blízkých vektorů (z původního prostoru), které se namapují do jednoho neuronu v SOM (shlukování). V ideálním případě se vytvoří shluky (clustery) blízkých vektorů (z původního prostoru), které se namapují do jednoho neuronu v SOM (shlukování).

16 Namapování poslopností vektorů vlastností (dotazu i vzorků) Různé metody měření podobnosti mezi obrazy vektorů v SOM Trajectory matching Trajectory matching Clustering & String matching Clustering & String matching Clustering & Histogram matching Clustering & Histogram matching Mapování vektorů do SOM – měření podobnosti

17 SOM - Trajectory matching Porovnávání trajektorií (posloupností) namapovaných vektorů dají se použít stejné algoritmy jako v původním prostoru dají se použít stejné algoritmy jako v původním prostoru Akorát že nyní jsme ve 2D !!! Akorát že nyní jsme ve 2D !!!

18 SOM - Trajectory matching U1U2U3U4U5U6U7U8U9U1U2U3U4U5U6U7U8U9 V1V2V3V4V5V6V7V8V9V1V2V3V4V5V6V7V8V9

19 SOM - Clustering Shluk (cluster) – množina vektorů z původního prostoru, které se namapují do jednoho neuronu v SOM Jako kritérium podobnosti dvou vektorů se bere pouze to, jestli se namapují/nenamapují do stejného neuronu Na rozdíl od Trajectory matching se nebere v úvahu vzdálenost v SOM mezi neurony – obrazy, pokud se každý z těch dvou vektorů namapuje do jiného neuronu Na rozdíl od Trajectory matching se nebere v úvahu vzdálenost v SOM mezi neurony – obrazy, pokud se každý z těch dvou vektorů namapuje do jiného neuronu

20 SOM - Clustering Každému neuronu v SOM je přiřazen znak z (konečné) abecedy. Každé posloupnosti vektorů vlastností tak přiřadíme slovo nad touto abecedou, které získáme namapováním této posloupnosti do SOM. Přístupy:  Porovnáváme slova (tj. bereme v potaz pořadí znaků ve slovech)  String matching  Nehledíme na pořadí znaků, zajímají nás jen četnosti výskytů jednotlivých znaků ve slovech (=> vytvoříme si histogramy těchto četností)  Histogram matching

21 SOM – String matching Každému neuronu přiřadíme znak – např. jeho souřadnice v SOM Vzdálenost mezi dotazem a vzorkem je rovna minimální editační vzdálenosti jejich řetězců Minimální počet operací INSERT, DELETE a SUBSTITUCE v jednom řetězci (např. dotazu), abychom ho přeměnili na druhý (vzorek)

22 SOM – String matching Minimální editační vzdálenost – příklad Vzorek = (ABCD) Vzorek = (ABCD) Dotaz = (ABD) Dotaz = (ABD) Matice D(i,j) – kumulativní vzdálenost mezi prvními i znaky dotazu a podřetězce vzorku končícím na jeho j–tém znaku Spočtení hodnot v matici – dynamické programování (podobné jako DTW) – složitost n*m Spočtení hodnot v matici – dynamické programování (podobné jako DTW) – složitost n*m

23 SOM – String matching Inicializace D(0,j) = 0 D(i,0) = i D(i,j) vzorek vzorekABCD dotaz dotaz A B D

24 Inicializace D(0,j) = 0 D(i,0) = i D(i,j) = min { D(i-1,j-1)+d(i,j), D(i-1,j)+1, D(i,j-1)+1 } d(i,j) = 0 : u(i) = u(j) = 1 : u(i) ≠ u(j) SOM – String matching D(i,j) vzorek vzorekABCD dotaz dotaz A 1 B 2 D 3

25 SOM – String matching Inicializace D(0,j) = 0 D(i,0) = i D(i,j) = min { D(i-1,j-1)+d(i,j), D(i-1,j)+1, D(i,j-1)+1 } d(i,j) = 0 : u(i) = u(j) = 1 : u(i) ≠ u(j) D(i,j) vzorek vzorekABCD dotaz dotaz A 1 \ 0 B 2 D 3

26 SOM – String matching Nyní máme: Dotaz = (AB) Vzorek = (A) D(i,j) = min { D(i-1,j-1)+d(i,j), D(i-1,j)+1, D(i,j-1)+1 }  Šipka NAHORU  Smazání posledního znaku dotazu (DELETE) D(i,j) vzorek vzorekABCD dotaz dotaz A 1 \ 0 \ 1\ 1\ 1\ 1 \ 1\ 1\ 1\ 1 \ 1\ 1\ 1\ 1 B 2 ↑ 1↑ 1↑ 1↑ 1 D 3

27 SOM – String matching Nyní máme: Dotaz = (AB) Vzorek = (ABC) D(i,j) = min { D(i-1,j-1)+d(i,j), D(i-1,j)+1, D(i,j-1)+1 }  Šipka DOLEVA  Připojení posledního znaku z vzorku k dotazu (INSERT) D(i,j) vzorek vzorekABCD dotaz dotaz A 1 \ 0 \ 1\ 1\ 1\ 1 \ 1\ 1\ 1\ 1 \ 1\ 1\ 1\ 1 B 2 ↑ 1↑ 1↑ 1↑ 1 \ 0\ 0\ 0\ 0 ←1←1←1←1 D 3

28 SOM – String matching Nyní máme: Dotaz = (ABD) Vzorek = (ABC) D(i,j) = min { D(i-1,j-1)+d(i,j), D(i-1,j)+1, D(i,j-1)+1 } d(i,j) = 1 (C≠D)  Šipka ŠIKMO NAHORU  Záměna posledního znaku v dotazu za poslední znak ve vzorku (SUBSTITUCE) D(i,j) vzorek vzorekABCD dotaz dotaz A 1 \ 0 \ 1\ 1\ 1\ 1 \ 1\ 1\ 1\ 1 \ 1\ 1\ 1\ 1 B 2 ↑ 1↑ 1↑ 1↑ 1 \ 0\ 0\ 0\ 0 ←1←1←1←1 \ 2\ 2\ 2\ 2 D 3 ↑ 2↑ 2↑ 2↑ 2 ↑ 1↑ 1↑ 1↑ 1 \ 1

29 SOM – String matching Nyní máme: Dotaz = (ABD) Vzorek = (ABCD) D(i,j) = min { D(i-1,j-1)+d(i,j), D(i-1,j)+1, D(i,j-1)+1 } d(i,j) = 0  Šipka ŠIKMO NAHORU  Nic se neděje (ŽÁDNÁ OPERACE) D(i,j) vzorek vzorekABCD dotaz dotaz A 1 \ 0 \ 1\ 1\ 1\ 1 \ 1\ 1\ 1\ 1 \ 1\ 1\ 1\ 1 B 2 ↑ 1↑ 1↑ 1↑ 1 \ 0\ 0\ 0\ 0 ←1←1←1←1 \ 2\ 2\ 2\ 2 D 3 ↑ 2↑ 2↑ 2↑ 2 ↑ 1↑ 1↑ 1↑ 1 \ 1\ 1\ 1\ 1 \ 1

30 SOM – String matching  Minimální editační vzdálenost (ABCD) a (ABD) = 1 D(i,j) vzorek vzorekABCD dotaz dotaz A 1 \ 0 \ 1\ 1\ 1\ 1 \ 1\ 1\ 1\ 1 \ 1\ 1\ 1\ 1 B 2 ↑ 1↑ 1↑ 1↑ 1 ←1←1←1←1 \ 2\ 2\ 2\ 2 D 3 ↑ 2↑ 2↑ 2↑ 2 ↑ 1↑ 1↑ 1↑ 1 \ 1\ 1\ 1\ 1 \ 1

31 SOM – Hisogram matching Nezajímá nás pořadí znaků v řetězcích ale četnosti jejich výskytů  Porovnávají se histogramy těchto četností pro všechny vzorky stejné délky  Např. Euklidovská míra

32 Automatická klasifikace vzorků Databáze mohou obsahovat různé třídy vzorků řeč řečMužŽena hudba hudbaZpívanáInstrumentální … Vhodné předzpracování – klasifikace vzorků i dotazů do těchto tříd  Výrazné snížení počtu porovnání  Možnost poté použít porovnávací algoritmus vhodný pro danou třídu

33 Automatická klasifikace vzorků metoda MMI-klasifikátor metoda MMI-klasifikátor Maximise Mutual Information Maximise Mutual Information Stačí malá množina trénovacích vzorů (obsahující vzorky ze všech tříd) Stačí malá množina trénovacích vzorů (obsahující vzorky ze všech tříd) Ruční anotace trénovacích vzorů – zařazení do tříd Ruční anotace trénovacích vzorů – zařazení do tříd Vhodné rozdělení prostoru vlastností na (disjunktní) regiony Vhodné rozdělení prostoru vlastností na (disjunktní) regiony každý region obsahuje převážně prvky jedné třídy každý region obsahuje převážně prvky jedné třídy

34 MMI – rozdělení prostoru rozhodovací strom – konstruován pomocí „Greedy - algoritmu“ rozhodovací strom – konstruován pomocí „Greedy - algoritmu“ Rekurzívní dělení prostoru (oblastí) na podoblasti „dokud to má cenu“ Rekurzívní dělení prostoru (oblastí) na podoblasti „dokud to má cenu“ dělí se podle nadroviny, která je kolmá na nejvhodnější dimenzi d dělí se podle nadroviny, která je kolmá na nejvhodnější dimenzi d dělící nadrovina prochází nejvhodnějším bodem (prahem) x d (v dimenzi d) dělící nadrovina prochází nejvhodnějším bodem (prahem) x d (v dimenzi d)

35 MMI – rozdělení prostoru

36 MMI – výběr dimenze a prahu pro dělení oblasti zkouší se všechny možné dimenze a prahy, hledá se maximum vzájemné informace (MMI) – I(X;C) zkouší se všechny možné dimenze a prahy, hledá se maximum vzájemné informace (MMI) – I(X;C) X … data X … data C … asociované třídy C … asociované třídy H.... Entropie Pr(c i ).... Pravděpodobnost výskytu třídy i v této oblasti Pr(a i ).... Pravděpodobnost se kterou jsou (v této oblasti) prvky třídy i větší než dělící práh x i

37 MMI – kritéria ukončení dělení Na základě I(X,C) se nedá rozhodnout, kdy už nemá cenu oblast dál dělit na podoblasti I(X,C) není klesající I(X,C) není klesající V extrémním případě by dělení vedlo až k „rozdrobení“ prostoru na malé oblasti, kde každá by obsahovala jen malé množství (např. jen jeden) prvků pouze jedné třídy V extrémním případě by dělení vedlo až k „rozdrobení“ prostoru na malé oblasti, kde každá by obsahovala jen malé množství (např. jen jeden) prvků pouze jedné třídy  v každé oblasti j se nejprve spočítá N j … počet vektorů dat ve oblasti j N … počet vektorů dat v celém prostoru a pokud se dostane pod určitou (předem nastavenou) mez, dělení oblasti se už dále neprovádí

38 Princip MMI - klasifikátoru 1.Jednorázově (na začátku) anotace trénovacích dat (zařazení do tříd) a konstrukce MMI stromu anotace trénovacích dat (zařazení do tříd) a konstrukce MMI stromu pro každou třídu (na základě trénovacích dat) vytvořím šablonu – histogram relativních četností vektorů dané třídy v listech MMI stromu 2.Vytvoření histogramu relativních četností vektorů dotazu v listech MMI stromu 3.Nalezení šablony, která je nejvíce podobná histogramu dotazu Různé metriky pro určení podobnosti histogramů

39 Princip MMI - klasifikátoru

40 MMI – mertiky pro určení podobnosti histogramů p, q – histogramy délky N p, q – histogramy délky N p(i) … i-tá složka histogramu p p(i) … i-tá složka histogramu p p, q jsou normalizované p, q jsou normalizované D(p,q) …. Vzdálenost histogramů p a q D(p,q) …. Vzdálenost histogramů p a q

41 Euklidovská vzdálenost Euklidovská vzdálenost klasická L2 metrika v N-dimenzionálním prostoru klasická L2 metrika v N-dimenzionálním prostoru Symetrická relativní entropie Není vhodné pro „řídké histogramy“ z malého množství dat kde MMI – mertiky pro určení podobnosti histogramů - 1 Obecně: (p||q) ≠ (q||p)

42 MMI – mertiky pro určení podobnosti histogramů - 2 Korelační vzdálenost Korelační vzdálenost vhodná i pro „řídké histogramy“ z malého množství dat – nulové složky histogramů nemají na metriku vliv vhodná i pro „řídké histogramy“ z malého množství dat – nulové složky histogramů nemají na metriku vliv