Presentasjon lastes. Vennligst vent

Presentasjon lastes. Vennligst vent

Kunstig intelligens (MNFIT-272) - høst 2002. Forelesning 10 Emner: Maskinlæring – symbolorientert - intro til maskinlæring generelt - induktiv symbol-prosessering.

Liknende presentasjoner


Presentasjon om: "Kunstig intelligens (MNFIT-272) - høst 2002. Forelesning 10 Emner: Maskinlæring – symbolorientert - intro til maskinlæring generelt - induktiv symbol-prosessering."— Utskrift av presentasjonen:

1 Kunstig intelligens (MNFIT-272) - høst Forelesning 10 Emner: Maskinlæring – symbolorientert - intro til maskinlæring generelt - induktiv symbol-prosessering - læring i versjonsrom - læring av beslutningstrær

2 Hva er læring? Any process by which a system improves performance (H. Simon) Making useful changes in our minds (M. Minsky) The organisation of experience (M. Scott) Constructing or modifying representations of what is being experienced (R. Michalski)

3 Hva er maskinlæring? Metoder og teknikker som gjør datasystemer i stand til selv å oppdatere sin kunnskap og problemløsnings-evne

4 Hvorfor maskinlæring? Modellere menneskers læring Studere læring og intelligens som fenomen Automatisere utvikling av kunnskapsbaserte systemer det siste er mest vektlagt i dette kurset

5 Maskinlæringmetoder kan klassifiseres utifra flere perspektiver Grad av selvlæring - pugging (rote learning) - instruksjon - læring ved eksempler - læring ved analogi - læring ved oppdagelse Læringsmål - begrepslæring - problemløsning - situasjonsforståelse - produsere forklaringer Grad av bakgrunnskunnskap - kunnskapsfattige metoder - kunnskapsrike metoder Representasjonsspråk - attributt-verdi vektor - beslutningstrær - regler - predikatlogiske uttrykk - semantiske nett, rammer Grad av lærerstyring - veiledet læring - ikke-veiledet læring - lærlingteknikker Grad av inkrementalitet - alle eksempler samtidig - inkrementell læring - læring gjennom problemløsing

6 Maskinlæring - kort historikk Nevrale modeller, Rosenblatt’s PERCEPTRON, Selvorganiserende systemer, Adaptive systemer, Læring som mønstergjenkjenning, Parameterjustering Samuel’s Checkers Player Kunnskapsbaserte metoder, Winston’s Analogy system, Symbolske teknikker for eksempelbasert læring, Michalski’s AQ system, Mitchell’s Version Space metode, Quinland’s ID3 system, Discovery systemer, Langley’s BACON, Lenat’s AM. Kunnskapsrike metoder, Buchanan’s Meta-Dendral, læring ved instruksjon, Davis’ Teresias, Ny giv for nevrale modeller, Forklaringsbasert læring (EBL), læring under problemløsning, case-basert læring, integrerte læremetoder Kunstig liv, Statistiske metoder, Data mining, Induktiv logikk-programmering, Genetiske algoritmer, Reinforcement læring, Bayesianske nett Integrerte læringsmetoder, læring under problemløsing

7 Eksempelbasert læring Generaliserings- basert læring: Instans- basert læring: eksempler hypoteser kandidater begrep eksempler eksempler instansrommet:begrepsrommet:

8 Lærings-systemer i MNFIT 272: Generaliserings-baserte Læring i Versjonsrom (VS metoden) - Inkrementell læring - Lærer kun konjunktive begreper - Lærer klassifikasjonsregel Læring av beslutningstrær (ID3 metoden) - Ikke-inkrementell læring - Lærer konjunktive og disjunktive begreper - Lærer beslutningstre Forklaringsbasert læring (EBL) - bruker bakgrunnskunnskap Instans-baserte: CBR Analogi-læring

9 Version Space The version space is the set of all generalizations which are consistent with all of the examples It is described by the S and G sets: S is a generalization which is consistent with the examples and no other consistent generalization is more specific than it G is a generalization which is consistent with the examples and no other consistent generalization is more general than it

10 Version Space G S consistent generalizations more general more specific + examples move S up - examples move G down

11 Generality Lattice - Example (blue circle)(red circle) (? circle)(red ?)(blue ?)(? square) (red square)(blue square) (? ?)

12 Versjonsrom-algoritmen S summerer info fra de positive exempler G summerer info fra de negative exempler Når S=G er begrepet lært - dvs. flere eksempler tilfører ikke noe nytt Ikke nødvendig å ta vare på enkelteksemplene

13 Versjonsrom-algoritmen er en prinsipielt sterk læringsalgoritme - garanterer konsistens - er inkrementell men har store begrensninger i representasjonens uttrykkskraft - dvs. i hva som kan læres - kun konjunktive uttrykk - over-ivrig generalisering (mister muligheter)

14

15

16

17 Decision Trees Data structure for clasifying objects Restricted to featural descriptions Allows for disjunction +- size - shape color red blue green +- circlebigsmallsquare ”something red and small or green and square-shaped”

18 Learning EXAMPLE Feature-names: (size color shape) (+ (big red circle)) (+ (small red square)) (- (medium red circle)) size small medium big + -+ The concept of a big or small, but not medium-sized, object

19 ID3’s information theoretic measure Picking the right feature for the root is crucial to building simple trees Choose feature which gives the most information regarding the class of an instance: I(C):Information content of tree for set of instances C P:Feature selected as splitting node E(P):Expected information needed to complete tree given splitting on P gain(P):Information gain from feature P, gain(P) = I(C) - E(P)

20

21 + shape - color red blue green +- square triangle circle +

22

23 One way to treat missing data

24 Summary: Similarity-based Learning Empirical, data-intensive Requires many examples and counter-examples Knowledge poor Generates unjustified concept definitions

25 Alternative paradigm: - Explanation-based Learning Analytical Learns from 1 example Knowledge rich Generates justified concept definitions

26 Explanation-based Learning: Use exisiting domain knowledge to explain why an example is a member of a concept or why a plan works. Explanations determines relevant features Generalise the explanation made, to obtain a justified (explained) operational definition of the concept

27 Explanation-based Generalization Problem Given Goal concept Training example Domain theory Operationality criterion Determine A generalisation of the training example which is an operational sufficient concept definition

28 EBL method: 1. Explain Use the domain theory to explain why the example is an example of the goal concept 2. Generalise Determine the most general condictions under whch the explanation holds, and generalise the explanation

29


Laste ned ppt "Kunstig intelligens (MNFIT-272) - høst 2002. Forelesning 10 Emner: Maskinlæring – symbolorientert - intro til maskinlæring generelt - induktiv symbol-prosessering."

Liknende presentasjoner


Annonser fra Google