Presentasjon lastes. Vennligst vent

Presentasjon lastes. Vennligst vent

Kunstig intelligens (MNFIT-272) - høst 2000. Forelesning 9 Emner: Tolkning av naturlig språk - Kontekst-frie gramatikker - Chomsky hierarkiet - Kontekst-sensitive.

Liknende presentasjoner


Presentasjon om: "Kunstig intelligens (MNFIT-272) - høst 2000. Forelesning 9 Emner: Tolkning av naturlig språk - Kontekst-frie gramatikker - Chomsky hierarkiet - Kontekst-sensitive."— Utskrift av presentasjonen:

1 Kunstig intelligens (MNFIT-272) - høst 2000. Forelesning 9 Emner: Tolkning av naturlig språk - Kontekst-frie gramatikker - Chomsky hierarkiet - Kontekst-sensitive gramatikker Maskinlæring - induktiv symbol-prosessering - similaritetsbasert - forklaringsbasert

2 Tolkning av naturlig språk (NL) Fonologistudie av lydene (fonemene) som bygger ord Morfologistudie av komponentene (morfemene) som bygger opp ord Syntaksstudie av kombinasjon av ord i gramatikalsk lovlige setninger Semantikkstudie av ords og setningers mening Pragmatikkstudie av språks bruk og effekter i praksis

3 Trinn i (datamaskin-basert) språktolkning Setningstruktur analyse (parsing) - syntaktisk struktur, genererer et ”parse-tree” Semantisk tolkning - ords og kombinerte ords mening, representert i en eller annen KR-formalisme Kontekstuell tolkning - utvidet semantisk tolkning, resonnering ved bruk av en kunnskapsbase av verdens/domene-kunnskap

4 Basis-begreper Gramatikk-regler S = NP VP NP = N NP = A N N = man N = dog A = a A = the Ikke-terminaler er lingvistiske termer (setning, verb, …) - f. eks. 3 øverste linjer over Terminaler er ord i språket - f. eks. 4 nederste linjer over

5 Parsing i transisjons-nett (Transition Networks) Gramatikk representeres som et sett av sammenkoblede tilstandsmaskiner Noder er tilstander, lenker er overganger (transisjoner) mellom tilstander Hvert nett (hver tilstandsmaskin) representerer en ikke-terminal Å tolke en setning eller del av en setning svarer til å erstatte en ikke-terminal med høyre-siden av den tilhørende gramatikk- regel (høyre-siden er mer spesifikk en venstre-siden)

6 Chomsky-hierarkiet Rekursivt tellbare språk - frie produksjons-regler Kontekst-sensitive språk - flere ikke-terminaler på venstre side (men færre enn på høyre siden) av gram.regel Kontekst-frie språk - transisjonsnett, sammenkoblede tilstandsmaskiner, kun én ikke-terminal på venstresiden av gram.regel Regulære språk - en enkelt tilstandsmaskin, ikke flere sammenkoblet

7 Kontekst-sensitive språk Ønskelig, men komplekse parsere ”Augmented Transitions Networks” (ATNs) gir kontekst- sensitive egenskaper ved en utvidelse av kontekst-frie gramatikk-regler Kombinerer syntaktisk og semantisk parsing Tillater ”procedural attachments” på lenkene i trans.nettet Prosedyrene kan utføre tester, tilordne verdier, konstruere deler av parse-tre, etc.

8 Makinlæringsmetoder i MNFIT 272 Similaritetsbaserte:Versjonsrom ID3 Forklaringsbaserte:Meta-Dendral EBL Analogibaserte:CBR Sub-symbolske:Nevrale nett Genetiske algoritmer Både analogibaserte og sub-symbolske er kombinerte problemløsnings- og maskinlærings-metoder !

9 Hva er læring? Any process by which a system improves performance (H. Simon) Making useful changes in our minds (M. Minsky) The organisation of experience (M. Scott) Constructing or modifying representations of what is being experienced (R. Michalski)

10 Hva er maskinlæring? Metoder og teknikker som gjør datasystemer istand til selv å oppdatere sin kunnskap og problemløsnings-evne

11 Hvorfor maskinlæring? Modellere menneskers læring Studere læring og intelligens som fenomen Automatisere utvikling av kunnskapsbaserte systemer det siste er mest vektlagt i dette kurset

12 Maskinlæringmetoder kan klassifiseres utifra flere perspektiver Grad av selvlæring - pugging (rote learning) - instruksjon - læring ved analogi - læring ved eksempler - læring ved oppdagelse Type anvendelse - begrepslæring - problemløsning - situasjonsforståelse - produsere forklaringer Grad av bakgrunnskunnskap - kunnskapsfattige metoder - kunnskapsrike metoder Representasjonsspråk - attributt-verdi vektor - beslutningstrær - regler - predikatlogiske uttrykk - semantiske nett, rammer Grad av selv-læring - autonom læring - veiledet læring - ikke-veiledet læring - lærlingteknikker Grad av inkrementalitet - alle eksempler samtidig - inkrementell læring - læring gjennom problemløsning

13 Maskinlæring - kort historikk Nevrale modeller, Rosenblatt’s PERCEPTRON, Selvorganiserende systemer, Adaptive systemer, Læring som mønstergjenkjenning, Parameterjustering Samuel’s Checkers Player Kunnskapsbaserte metoder, Winston’s Analgy system, Symbolske teknikker for eksempelbasert læring, Michalski’s AQ system, Mitchell’s Version Space metode, Quinland’s ID3 system, Discovery systemer, Langley’s BACON, Lenat’s AM. Kunnskapsrike metoder, Buchanan’s Meta-Dendral, læring ved instruksjon, Davis’ Teresias, Ny giv for nevrale modeller, Forklaringsbasert læring, læring under problemløsning, case-basert læring, integrerte læremetoder Kunstig liv, Statistiske metoder, Data mining, Induktiv logikk-programmering, Genetiske algoritmer, Reinforcement læring, Bayesianske nett 1950 1960 1970 1980 1990

14 Eksempelbasert læring Induktiv læring: Instansbasert læring: (case-basert, memory-basert) - + + - + + - - - - - + + + -- -- - + + + + - - - + + + - +++++ - - - - - + - - - - - + + - - + + - + + eksempler hypoteser kandidater begrep - + + - + + - - - - - + + + -- -- - + + + + - - - + + + - +++++ - - - - - + - - - - - + + - - + + - + + eksempler - + - + - - + + - - + - + - + + - - + - - + - - + - + eksempler instansrommet:begrepsrommet:

15 Induktive systemer i MNFIT 272: Similaritetsbaserte: Læring i Versjonsrom (VS metoden) - Inkrementell læring - Lærer kun konjunktive begreper - Lærer klassifikasjonsregel Læring av beslutningstrær (ID3 metoden) - Alle eksempler på en gang - Lærer konjunktive og disjunktive begreper - Lærer beslutningstre Forklaringsbaserte: EBL Meta-Dendral

16 Version Space The version space is the set of all generalizations which are consistent with all of the examples It is described by the S and G sets: S is a generalization which is consistent with the examples and no other consistent generalization is more specific than it G is a generalization which is consistent with the examples and no other consistent generalization is more general than it

17 Version Space G S consistent generalizations more general more specific + examples move S up - examples move G down

18 Generality Lattice - Example (blue circle)(red circle) (? circle)(red ?)(blue ?)(? square) (red square)(blue square) (? ?)

19 Versjonsrom-algoritmen S summerer info fra de positive exempler G summerer info fra de negative exempler Når S=G er begrepet lært - dvs. flere eksempler tilfører ikke noe nytt Ikke nødvendig å ta vare på enkelteksemplene

20 Versjonsrom-algoritmen er en prinsipielt sterk læringsalgoritme - garanterer konsistens - er inkrementell men har store begrensninger i representasjonens uttrykkskraft - dvs. i hva som kan læres - kun konjunktive uttrykk - over-ivrig generalisering (mister muligheter)

21

22

23

24 Decision Trees Data structure for clasifying objects Restricted to featural descriptions Allows for disjunction +- size - shape color red blue green +- circlebigsmallsquare ”something red and small or green and square-shaped”

25 Learning EXAMPLE Feature-names: (size color shape) (+ (big red circle)) (+ (small red square)) (- (medium red circle)) size small medium big + -+ The concept of a big or small, but not medium-sized, object

26 ID3’s information theoretic measure Picking the right feature for the root is crucial to building simple trees Choose feature which gives the most information regarding the class of an instance: I(C):Information content of tree for set of instances C P:Feature selected as splitting node E(P):Expected information needed to complete tree given splitting on P gain(P):Information gain from feature P, gain(P) = I(C) - E(P)

27

28 + shape - color red blue green +- square triangle circle +

29

30 One way to treat missing data

31 Summary: Similarity-based Learning Empirical, data-intensive Requires many examples and counter-examples Knowledge poor Generates unjustified concept definitions

32 Summary: Explanation-based Learning Analytical Learns from 1 example Knowledge rich Generates justified concept definitions

33 Explanation-based Learning: Use exisiting domain knowledge to explain why an example is a member of a concept or why a plan works. Explanations determines relevant features Generalise the explanation made, to obtain a justified (explained) operational definition of the concept

34 Explanation-based Generalisation Problem Given Goal concept Training example Domain theory Operationality criterion Determine A generalisation of the training example which is an operational sufficient concept definition

35 EBL method: 1. Explain Use the domain theory to explain why the example is an example of the goal concept 2. Generalise Determine the most general condictions under whch the explanation holds, and generalise the explanation

36


Laste ned ppt "Kunstig intelligens (MNFIT-272) - høst 2000. Forelesning 9 Emner: Tolkning av naturlig språk - Kontekst-frie gramatikker - Chomsky hierarkiet - Kontekst-sensitive."

Liknende presentasjoner


Annonser fra Google