Daniel Zeman http://ufal.mff.cuni.cz/course/npfl094 Constituent Parsing Daniel Zeman http://ufal.mff.cuni.cz/course/npfl094.

Slides:



Advertisements
Podobné prezentace
Proč se už nemůžeme vídat? Why can't we be seeing each other any more?
Advertisements

Číslo projektuCZ.1.07/1.5.00/ Číslo materiáluVY_32_INOVACE_180 Název školyGymnázium, Tachov, Pionýrská 1370 Autor Mgr. Eleonora Klasová Předmět.
Obchodní akademie a Střední odborná škola, gen. F. Fajtla, Louny, p.o. Osvoboditelů 380, Louny Číslo projektuCZ.1.07/1.5.00/ Číslo sady31Číslo DUM.
Název a adresa školy: Střední odborné učiliště stavební, Opava, příspěvková organizace, Boženy Němcové 22/2309, Opava Název operačního programu:OP.
Cumulative tests Tenses Phrases. Put the verbs into the correct form I need a rest. I _______ (run) all morning! John isn´t here. He _______ (go) to the.
PRESENT PERFECT & PAST SIMPLE Autor: Mgr. Ivana Dvořáková Datum vytvoření: listopad 2012 DUM = Digitální Učební Materiál Gymnázium Dr. Karla Polesného,
Registrační číslo projektu:CZ.1.07/1.5.00/ Šablona/číslo materiálu:III/2 VY_32_INOVACE_ANJ449 Jméno autora:Mgr. Soňa Nekvindová Třída/ročník1. ročník.
Číslo projektuCZ.1.07/1.5.00/ Číslo materiáluVY_32_INOVACE_178 Název školyGymnázium, Tachov, Pionýrská 1370 Autor Mgr. Eleonora Klasová Předmět.
Dependency Parsing Daniel Zeman
ŠKOLA: Gymnázium, Tanvald, Školní 305, příspěvková organizace ČÍSLO PROJEKTU: CZ.1.07/1.5.00/ NÁZEV PROJEKTU: Šablony – Gymnázium Tanvald ČÍSLO.
Digitální výukový materiál zpracovaný v rámci projektu „EU peníze školám“ Projekt:CZ.1.07/1.5.00/ „SŠHL Frýdlant.moderní školy“ Škola:Střední škola.
y.cz Název školyStřední odborná škola a Gymnázium Staré Město Číslo projektuCZ.1.07/1.5.00/ AutorMgr. Roman Chovanec Název šablonyIII/2.
Název a adresa školy: Střední odborné učiliště stavební, Opava, příspěvková organizace, Boženy Němcové 22/2309, Opava Název operačního programu:OP.
ŠKOLA: Gymnázium, Tanvald, Školní 305, příspěvková organizace ČÍSLO PROJEKTU: CZ.1.07/1.5.00/ NÁZEV PROJEKTU: Šablony – Gymnázium Tanvald ČÍSLO.
Obchodní akademie, Ostrava-Poruba, příspěvková organizace Vzdělávací materiál/DUM Businessland / Making Contracts 06B16 AutorLadislava Pechová Období vytvořeníLeden.
Pracovní list - pro tisk Vloženo z stress.pptx Začátek.
Výukový materiál zpracovaný v rámci projektu Označení:Sada: 3 Ověření ve výuce:Třída: Datum: Registrační číslo projektu:CZ.1.07/1.5.00/ VY_32_INOVACE_ANJ_VL_3_11.
y.cz Název školyStřední odborná škola a Gymnázium Staré Město Číslo projektuCZ.1.07/1.5.00/ AutorMgr. Roman Chovanec Název šablonyIII/2.
Název a adresa školy: Střední odborné učiliště stavební, Opava, příspěvková organizace, Boženy Němcové 22/2309, Opava Název operačního programu:OP.
Název a adresa školy: Střední odborné učiliště stavební, Opava, příspěvková organizace, Boženy Němcové 22/2309, Opava Název operačního programu:OP.
Číslo projektuCZ.1.07/1.5.00/ Číslo materiáluVY_32_INOVACE_019 Název školyGymnázium, Tachov, Pionýrská 1370 Autor Mgr. Stanislava Antropiusová Předmět.
1 Škola: Gymnázium, Brno, Slovanské náměstí 7 Šablona: III/2 – Inovace a zkvalitnění výuky prostřednictvím ICT Název projektu: Inovace výuky na GSN prostřednictvím.
Název a adresa školy: Střední odborné učiliště stavební, Opava, příspěvková organizace, Boženy Němcové 22/2309, Opava Název operačního programu:OP.
Obchodní akademie a Střední odborná škola, gen. F. Fajtla, Louny, p.o. Osvoboditelů 380, Louny Číslo projektu CZ.1.07/1.5.00/ Číslo sady 33 Číslo.
Název a adresa školy: Střední odborné učiliště stavební, Opava, příspěvková organizace, Boženy Němcové 22/2309, Opava Název operačního programu:
Autorem materiálu a všech jeho částí, není- li uvedeno jinak, je Ing. Petra Andrlová Tento materiál byl vytvořen v rámci projektu Operačního programu Vzdělávání.
Tutorial: Obchodní akademie Topic: Logical Functions Prepared by: Mgr. Zdeněk Hrdina Projekt Anglicky v odborných předmětech, CZ.1.07/1.3.09/ je.
Název a adresa školy: Střední odborné učiliště stavební, Opava, příspěvková organizace, Boženy Němcové 22/2309, Opava Název operačního programu:OP.
Název a adresa školy: Střední odborné učiliště stavební, Opava, příspěvková organizace, Boženy Němcové 22/2309, Opava Název operačního programu:OP.
Název a adresa školy: Střední odborné učiliště stavební, Opava, příspěvková organizace, Boženy Němcové 22/2309, Opava Název operačního programu:OP.
A Job Interview By Dagmar Machů Škola: SOU Val. Klobouky Ročník: třetí Obor: Kuchař/číšník Název projektu: Zkvalitnění výuky prostřednictvím ICT Předmět:
Název a adresa školy: Střední odborné učiliště stavební, Opava, příspěvková organizace, Boženy Němcové 22/2309, Opava Název operačního programu:OP.
Statistická analýza dat
Computer visualization of relational database in www environment Radek Horáček Supervisor: ing. J. Blažej,Phd. Bachelor Thesis, Department of Physical.
DESCRIBING A PHOTO, PICTURE, ART, PAST CONTINUOUS Vysoká škola technická a ekonomická v Českých Budějovicích Institute of Technology And Business In České.
INVESTICE DO ROZVOJE VZDĚLÁVÁNÍ Podpora rozvoje cizích jazyků pro Evropu 21. stol. Tento projekt je spolufinancován Evropským sociálním fondem a státním.
Immigration and multiculturalism Název školyGymnázium Zlín - Lesní čtvrť Číslo projektuCZ.1.07/1.5.00/ Název projektuRozvoj žákovských.
Název a adresa školy: Střední odborné učiliště stavební, Opava, příspěvková organizace, Boženy Němcové 22/2309, Opava Název operačního programu:OP.
Course Outline1. Instructor: Martin Hála, PhD. Mathematics DPT, B105,  Further information and downloads on my personal website:
y.cz Název školyStřední odborná škola a Gymnázium Staré Město Číslo projektuCZ.1.07/1.5.00/ AutorMgr. Roman Chovanec Název šablonyIII/2.
Autorem materiálu a všech jeho částí, není-li uvedeno jinak, je Mgr. Jan Rozsíval. Slezské gymnázium, Opava, příspěvková organizace. Vzdělávací materiál.
Autorem materiálu a všech jeho částí, není-li uvedeno jinak, je Mgr. Jan Rozsíval. Slezské gymnázium, Opava, příspěvková organizace. Vzdělávací materiál.
Střední průmyslová škola strojnická Olomouc, tř.17. listopadu 49 Výukový materiál zpracovaný v rámci projektu „Učíme moderně“ Registrační číslo projektu:
Podpora rozvoje cizích jazyků pro Evropu 21. stol. INVESTICE DO ROZVOJE VZDĚLÁVÁNÍ Tento projekt je spolufinancován Evropským sociálním fondem a státním.
EU peníze středním školám Název vzdělávacího materiálu: B2 – Verbs – Computers Číslo vzdělávacího materiálu: ICT12-19 Šablona: III/2 Inovace a zkvalitnění.
EU peníze středním školám Název vzdělávacího materiálu: Art Číslo vzdělávacího materiálu: AJ2-29 Šablona: II/2 Inovace a zkvalitnění výuky cizích jazyků.
Elektronické učební materiály - II. stupeň Anglický jazyk Autor: Petra Skotnicová NATURE - WEATHER - SEASONS WEATHERFORECAST WEATHERSEASONS It´s sunny.
Základní škola Třemošnice, okres Chrudim, Pardubický kraj Třemošnice, Internátní 217; IČ: , tel: , emaiI:
Listening VY_32_INOVACE_AJ_2_60 Multiple choice Číslo projektu: CZ.1.07./1.5.00/ Název projektu: Zlepšení podmínek pro vzdělávání na SUŠ, Ostrava.
Gymnázium, Brno, Elgartova 3 GE - Vyšší kvalita výuky CZ.1.07/1.5.00/ III/2 Inovace a zkvalitnění výuky prostřednictvím ICT Téma: English Grammar.
Gymnázium, Brno, Elgartova 3 GE - Vyšší kvalita výuky CZ.1.07/1.5.00/ III/2 Inovace a zkvalitnění výuky prostřednictvím ICT Téma: English Grammar.
Základní škola Třemošnice, okres Chrudim, Pardubický kraj Třemošnice, Internátní 217; IČ: , tel: , emaiI:
Word order Střední škola pedagogická, hotelnictví a služeb, Litoměřice, příspěvková organizace Litoměřice, Komenského 3 Autor: Pavel Vágai.
Going across the USA Tematická oblast Angličtina: The USA
GE - Vyšší kvalita výuky
VY_32_Inovace_ Conjunctions Project 3
Výukový materiál VY_22_INOVACE_36_ Numbers. Part 2
Digitální učební materiál
Obchodní akademie, Střední odborná škola a Jazyková škola s právem státní jazykové zkoušky, Hradec Králové Autor: Mgr. Radka Černá Název materiálu: VY_32_INOVACE_5_ANGLICKY_JAZYK_GRAMATIKA_03.
Název školy: ZŠ Varnsdorf, Edisonova 2821, okres Děčín, příspěvková organizace Jazyk a jazyková komunikace, Anglický jazyk, Minulý čas prostý pravidelných.
Obchodní akademie, Střední odborná škola a Jazyková škola s právem státní jazykové zkoušky, Hradec Králové Autor: Mgr. Radka Černá Název materiálu: VY_32_INOVACE_5_ANGLICKY_JAZYK_GRAMATIKA_15Spojky.
Název školy: ZŠ Bor, okres Tachov, příspěvková organizace
Živá fáze.
Výukový materiál VY_22_INOVACE_22_ Phrasal verbs. Part 2
Introduction to MS Dynamics NAV (Expected Costs)
Autor: Mgr. Kateřina Suková
Různé algoritmy mají různou složitost: O(n), Ω(n2), Θ(n·log2(n)), …
Střední odborná škola a Střední odborné učiliště, Vocelova 1338
Účetní schémata MS Dynamics NAV RTC-základy
DIGITÁLNÍ UČEBNÍ MATERIÁL
Transkript prezentace:

Daniel Zeman http://ufal.mff.cuni.cz/course/npfl094 Constituent Parsing Daniel Zeman http://ufal.mff.cuni.cz/course/npfl094

Observation: Phrases Are Related to Context-Free Grammars Phrase structure of a sentence corresponds to the derivation tree under the grammar that generates / recognizes the sentence. Example: S  NP VP (a sentence has a subject and a predicate) NP  N (a noun is a noun phrase) VP  V NP (a verb phrase consists of a verb and its object) Lexicon part of the grammar: N  dog | cat | man | car | John … V  see | sees | saw | bring | brings | brought | … 9.12.1999 http://ufal.mff.cuni.cz/course/npfl094

Lexicon In practice the lexical part can (and should) be implemented separately from the grammar. The nonterminals of the lowest level (immediately above the terminals) might be POS tags. Then morphological analysis and tagging (disambiguation of MA) solves the lowest level of the phrase tree. In fact, disambiguation is not necessary. There will be other ambiguities in the tree anyway. The parser can take care of them. The grammar works only with POS tags. This is why we sometimes talk about preterminals (the nonterminals immediately above the leaf nodes). 9.12.1999 http://ufal.mff.cuni.cz/course/npfl094

An Extended Grammar Example for Czech (7 Cases!) NP  N | AP N AP  A | AdvP A AdvP  Adv | AdvP Adv NPnom  Nnom NPnom  APnom Nnom NPnom  Nnom NPgen NPgen  Ngen NPgen  APgen Ngen NPgen  Ngen NPgen N  pán | hrad | muž | stroj … A  mladý | velký | zelený … Adv  velmi | včera | zeleně … Nnom  pán | hrad | muž … Ngen  pána | hradu | muže … Ndat  pánovi | hradu | muži … Nacc  pána | hrad | muže … Nvoc  pane | hrade | muži … Nloc  pánovi | hradu | muži … Nins  pánem | hradem … 9.12.1999 http://ufal.mff.cuni.cz/course/npfl094

An Extended Grammar Example for Czech (Verbs) VP  VPobligatory VP  VPobligatory OptMod VPobligatory  Vintr VPobligatory  Vtrans NPacc VPobligatory  Vditr NPdat NPacc VPobligatory  Vmod VINF OptMod  AdvPlocation | AdvPtime | AdvPmanner … Vintr  šedivět | brzdit … Vtrans  koupit | ukrást … Vditr  dát | půjčit | poslat … Vmod  moci | smět | muset … … (tens to hundreds of frames) 9.12.1999 http://ufal.mff.cuni.cz/course/npfl094

Unification Grammar An alternative to nonterminal splitting Instead of seven context-free rules: NPnom  APnom Nnom NPgen  APgen Ngen NPdat  APdat Ndat NPacc  APacc Nacc NPvoc  APvoc Nvoc NPloc  APloc Nloc NPins  APins Nins One unification rule: NP  AP N := [case = AP^case # N^case] 9.12.1999 http://ufal.mff.cuni.cz/course/npfl094

Parsing with a Context-Free Grammar Hierarchy of grammars: Noam Chomsky (1957): Syntactic Structures Couple of classical algorithms. CYK (Cocke-Younger-Kasami) … complexity O(n3) John Cocke (“inventor”) Tadao Kasami (1965), Bedford, MA, USA (another independent “inventor”) Daniel H. Younger (1967) (computational complexity analysis) Constraint of CYK: grammar is in CNF (Chomsky Normal Form), i.e. the right-hand side of every rule consists of either two nonterminals or one terminal. (CFGs can be easily transformed to CNF.) 9.12.1999 http://ufal.mff.cuni.cz/course/npfl094

Parsing with a Context-Free Grammar Chart parser: CYK requires a data structure to hold information about partially processed possibilities. Turn of 1960s and 1970s: the chart structure proposed for this purpose. Jay Earley (1968), PhD thesis, Pittsburgh, PA, USA A somewhat different version of chart parsing. For details on chart parser, see the earlier lecture about morphology and context-free grammars. 9.12.1999 http://ufal.mff.cuni.cz/course/npfl094

Syntactic Analysis (Parsing) Automatic methods of finding the syntactic structure for a sentence Symbolic methods: a phrase grammar or another description of the structure of language is required. Then: the chart parser. Statistical methods: a text corpus with syntactic structures is needed (a treebank). Hybrid methods: a simple grammar, ambiguities solved statistically with a corpus. Chunking / shallow parsing 9.12.1999 http://ufal.mff.cuni.cz/course/npfl094

Probabilistic Context-Free Grammars PCFG (probabilistic context-free grammars) If there are several possible parses we want to weigh them. Competing parses are caused by competing rules with the same left-hand side. The idea: probabilistic distribution for rules with the same left-hand side. Example: grammar has VP  V NP and VP  V NP PP. The input sentence allows both these readings, too. But we know (e.g.) that the second way of building a VP is more frequent: p(V NP | VP) = 0.3 p(V NP PP | VP) = 0.7 9.12.1999 http://ufal.mff.cuni.cz/course/npfl094

Ambiguous Parse S ® NP VP VP ® V NP PP VP ® V NP NP ® N NP ® N PP PP ® PREP N N ® man N ® woman N ® car V ® saw PREP ® in VP S NP VP PP NP NP PP V N PREP N N V N PREP N man saw woman in car 9.12.1999 http://ufal.mff.cuni.cz/course/npfl094

Probability of Parse Tree Both phrases / parses are “grammatical”. Different readings. Which one is better in this context? Probabilistic context-free grammar: Relations between parent and child nodes. Probability of derivation, use of a rule. Probability of the whole parse tree (ri are grammar rules used to generate the sentence S whose parse is T): 9.12.1999 http://ufal.mff.cuni.cz/course/npfl094

Assumptions Application of a rule is independent of application of other rules in the sentence (very strong and improbable assumption). Independence of context of other subtrees. Independence of context of ancestors (higher levels). Independence of location in the sentence (word order) or in the tree. 9.12.1999 http://ufal.mff.cuni.cz/course/npfl094

Rule Probability Rule ri: A . Let’s denote RA the set of all rules rj whose left-hand side is the nonterminal A. Let’s define a probability distribution on RA: In other words: 9.12.1999 http://ufal.mff.cuni.cz/course/npfl094

Estimation of Rule Probability A treebank based on a context-free grammar (i.e. not a dependency treebank). Frequency of rule application: how often is there this subtree in the treebank A a1 a2 … ak 9.12.1999 http://ufal.mff.cuni.cz/course/npfl094

Practical Phrase-Based Parsing Rule-based parsers, e.g. Fidditch (Donald Hindle, 1983) Collins parser (Michael Collins, 1996–1999) Probabilistic context-free grammars, lexical heads Labeled precision & recall on Penn Treebank / Wall Street Journal data / Section 23 = 85% Reimplemented in Java by Dan Bikel (“Bikel parser”), freely available Charniak parser (Eugene Charniak, NAACL 2000) Maximum entropy inspired parser P ~ R ~ 89.5% Mark Johnson: reranker => over 90% Stanford parser (Chris Manning et al., 2002–2010) Produces dependencies, too. Initial P ~ R ~ 86.4% 9.12.1999 http://ufal.mff.cuni.cz/course/npfl094

Daniel Zeman http://ufal.mff.cuni.cz/course/npfl094 Dependency Parsing Daniel Zeman http://ufal.mff.cuni.cz/course/npfl094

Dependency Parsing with a Statistical Model Manually annotated corpus (treebank) p(edge([ve], [dveřích])) = p1 p(edge([v], [dveřích])) = p2 p(edge([ve], [dveře])) = p3 p(edge([ve], [dveřím])) = p4 where perhaps: p1 > p2 > p3 and p4  0 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094

Base Idea: Looking for the Most Probable Tree Searching for tree M that represents the given sentence S with the highest possible probability. Formally: Bayes rule: p(S|M) is the probability that the sentence whose description is the tree M is S. p(M) is the probability of the occurrence (existence) of the tree M. p(S) is the probability of the occurrence of the sentence S. From the point of view of searching the most probable tree this is a mere constant that does not influence the result: 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094

Base Idea: Looking for the Most Probable Tree p(S) is the probability of the occurrence of the sentence S. From the point of view of searching the most probable tree this is a mere constant that does not influence the result: So the task is to estimate the probabilities p(S|M) and p(M). p(S|M) can be maximized so that the tree M is constructed directly of the words of the sentence S. 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094

Tree Probability Assumption: dependencies do not depend on each other (strong and wrong—a better model would be more careful) Product of probabilities of dependencies. How to find the most probable tree? Similarly to tagging: by Viterbi algorithm! (The middle course between the greedy algorithm and backtracking.) Jak velká by musela být tabulka, ve které četnosti evidujeme? Pro konkrétní větu o n slovech existuje (n+1)n–1 stromů; např. pro větu o 6 slovech je to 16807 stromů. Pro libovolnou větu navíc vynásobit počtem možných n-tic slov. Přestože by šlo o velmi řídkou tabulku, nelze na její budování ani pomyslet. Jaké zjednodušení přesně provádíme, když používáme n-gramový model? Předpokládáme, že p(hi|h1…hi–1) = p(hi), resp. p(hi|hi–1). 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094

Graph-Based Parsers: MST McDonald et al., HLT-EMNLP 2005 http://sourceforge.net/projects/mstparser/ MST = maximum spanning tree = cs: nejlépe ohodnocená kostra (orientovaného) grafu Start with a total graph. We assume that there can be a dependency between any two words of the sentence. Gradually remove poorly valued edges. A statistical algorithm will take care of the valuation. It is trained on edge features. Example features: lemma, POS, case… of governing / dependent node. 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094

MST Parser Feature engineering (tell the parser what features to track) by modifying the source code (Java). Not easy to incorporate 2nd order features I.e. edge weight depends e.g. on POS tag of its grandparent. Parser can be run in nonprojective mode. Training on the whole PDT reportedly takes about 30 hours. It is necessary to iterate over all feature combinations and look for the most useful ones. In comparison to that, the parsing proper is quite fast. 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094

Transition-Based Parsers: Malt Nivre et al., Natural Language Engineering, 2007 http://maltparser.org/ Based on transitions from one configuration to another. Configuration: Input buffer (words of the sentence, left-to-right) Stack Output tree (words, dependencies and dependency labels) Transitions: Shift: move word from buffer to stack Larc: left dependency between two topmost words on stack Rarc: right dependency between two topmost words on stack 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094

Malt Parser Parser driven by oracle that selects the transition operation based on the current configuration. Training: decompose the tree from training data to a sequence of configurations and transitions Sometimes there are more than one possibility Various learning strategies: e.g. create dependencies eagerly, as soon as possible. The oracle learns based on the features of the configuration. E.g. word, lemma, POS, case, number… nth word from the top of the stack kth word remaining in the buffer particular node in output tree part created so far 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094

Malt Parser Again, a machine learning algorithm is responsible for training, here the Support Vector Machines (SVM). Classifier. Input vectors: values of all features of the current configuration. In addition, during training there is the output value, i.e. action identifier (Shift / Larc / Rarc). The trained oracle (SVM) tells the output value during parsing. Training on the whole PDT may take weeks! Complexity O(n2) where n is number of training examples. Over 3 million training examples can be extracted from PDT. Parsing is relatively faster (~ 1 sentence / second) and can be parallelized. 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094

Example of Malt Parsing stack = # buffer = Pavel dal Petrovi dvě hrušky . English = Paul gave to-Peter two pears . 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094

Example of Malt Parsing stack = # buffer = Pavel dal Petrovi dvě hrušky . tree = SHIFT stack = # Pavel buffer = dal Petrovi dvě hrušky . 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094

Example of Malt Parsing stack = # Pavel buffer = dal Petrovi dvě hrušky . tree = SHIFT stack = # Pavel dal buffer = Petrovi dvě hrušky . 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094

Example of Malt Parsing stack = # Pavel dal buffer = Petrovi dvě hrušky . tree = LARC stack = # dal tree = dal(Pavel) 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094

Example of Malt Parsing stack = # dal buffer = Petrovi dvě hrušky . tree = dal(Pavel) SHIFT stack = # dal Petrovi buffer = dvě hrušky . 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094

Example of Malt Parsing stack = # dal Petrovi buffer = dvě hrušky . tree = dal(Pavel) RARC stack = # dal tree = dal(Pavel,Petrovi) 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094

Example of Malt Parsing stack = # dal buffer = dvě hrušky . tree = dal(Pavel,Petrovi) SHIFT stack = # dal dvě buffer = hrušky . 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094

Example of Malt Parsing stack = # dal dvě buffer = hrušky . tree = dal(Pavel,Petrovi) SHIFT stack = # dal dvě hrušky buffer = . 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094

Example of Malt Parsing stack = # dal dvě hrušky buffer = . tree = dal(Pavel,Petrovi) LARC stack = # dal hrušky tree = dal(Pavel,Petrovi),hrušky(dvě) 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094

Example of Malt Parsing stack = # dal hrušky buffer = . tree = dal(Pavel,Petrovi),hrušky(dvě) RARC stack = # dal tree = dal(Pavel,Petrovi,hrušky(dvě)) 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094

Example of Malt Parsing stack = # dal buffer = . tree = dal(Pavel,Petrovi,hrušky(dvě)) RARC stack = # tree = #(dal(Pavel,Petrovi,hrušky(dvě))) 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094

Example of Malt Parsing stack = # buffer = . tree = #(dal(Pavel,Petrovi,hrušky(dvě))) SHIFT stack = # . buffer = 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094

Example of Malt Parsing stack = # . buffer = tree = #(dal(Pavel,Petrovi,hrušky(dvě))) RARC stack = # tree = #(dal(Pavel,Petrovi,hrušky(dvě)),.) 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094

Nonprojective Mode of Malt It can be proved that the above transition system is correct resulting graph is always a tree (continuous, cycle-free) complete for the set of projective trees every projective tree can be expressed as a sequence of transitions How to add nonprojective dependencies? New transition operation SWAP: Take second topmost word from stack and return it to buffer. That will swap the order of the input words. This action is permitted only for words that have not been swapped before (their order on the stack corresponds to their original order in the sentence). 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094

Nonprojective Parsing Example stack = # buffer = Soubor se nepodařilo otevřít . English = File itself it-did-not-succeed to-open . 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094

Nonprojective Parsing Example stack = # buffer = Soubor se nepodařilo otevřít . tree = SHIFT stack = # Soubor buffer = se nepodařilo otevřít . 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094

Nonprojective Parsing Example stack = # Soubor buffer = se nepodařilo otevřít . tree = SHIFT stack = # Soubor se buffer = nepodařilo otevřít . 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094

Nonprojective Parsing Example stack = # Soubor se buffer = nepodařilo otevřít . tree = SHIFT stack = # Soubor se nepodařilo buffer = otevřít . 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094

Nonprojective Parsing Example stack = # Soubor se nepodařilo buffer = otevřít . tree = LARC stack = # Soubor nepodařilo tree = nepodařilo(se) 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094

Nonprojective Parsing Example stack = # Soubor nepodařilo buffer = otevřít . tree = nepodařilo(se) SHIFT stack = # Soubor nepodařilo otevřít buffer = . 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094

Nonprojective Parsing Example stack = # Soubor nepodařilo otevřít buffer = . tree = nepodařilo(se) SWAP stack = # Soubor otevřít buffer = nepodařilo . 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094

Nonprojective Parsing Example stack = # Soubor otevřít buffer = nepodařilo . tree = nepodařilo(se) LARC stack = # otevřít tree = nepodařilo(se),otevřít(Soubor) 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094

Nonprojective Parsing Example stack = # otevřít buffer = nepodařilo . tree = nepodařilo(se),otevřít(Soubor) SHIFT stack = # otevřít nepodařilo buffer = . 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094

Nonprojective Parsing Example stack = # otevřít nepodařilo buffer = . tree = nepodařilo(se),otevřít(Soubor) LARC stack = # nepodařilo tree = nepodařilo(se,otevřít(Soubor)) 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094

Nonprojective Parsing Example stack = # nepodařilo buffer = . tree = nepodařilo(se,otevřít(Soubor)) RARC stack = # tree = #(nepodařilo(se,otevřít(Soubor))) 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094

Nonprojective Parsing Example stack = # buffer = . tree = #(nepodařilo(se,otevřít(Soubor))) SHIFT stack = # . buffer = 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094

Nonprojective Parsing Example stack = # . buffer = tree = #(nepodařilo(se,otevřít(Soubor))) RARC stack = # tree = #(nepodařilo(se,otevřít(Soubor)),.) 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094

Malt and MST Accuracy Czech (PDT): MST Parser over 85% Malt Parser over 86% Sentence accuracy (“complete match”) 35%, that is high! The two parsers use different strategies and can be combined (either by voting (third parser needed) or one preparing features for the other) Other languages (CoNLL shared tasks) MST was slightly better on most languages. Accuracies not comparable cross-linguistically, figures are very dependent on particular corpora. 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094

Features Are the Key to Success Common feature of MST and Malt: Both can use large number of input text features. Nontrivial machine learning algorithm makes sure that the important features will be given higher weight. Machine learning algorithms are general classifiers. Typically there is a library ready to download. The concrete problem (here tree building) must be converted to a sequence of classification decisions, e.g. vectors (feature values + answer). 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094

Newer Parsers Parsito / UDPipe (Milan Straka) Stanford (Tim Dozat et al.) Syntaxnet (Google) Mate (Bernd Bohnet) Turboparser (André Martins) … 9.12.2009 http://ufal.mff.cuni.cz/course/npfl094