Memoisering og dynamisk programmering

Slides:



Advertisements
Liknende presentasjoner
C++ for Java-programmerere
Advertisements

Høgskolen i Oslo Webprogrammering Grunnleggende PHP.
Kompilatorer - Hva foregår under panseret? BEKK fagdag
@ TDT4120 Algoritmer og datastrukturer Trær og søking i dem, samt litt diverse emner Åsmund Eldhuset asmunde idi.ntnu.no.
TDT4120 Algoritmer og datastrukturer Trær og søking i dem, samt litt diverse emner Kristian Veøy
Kap 5 The discounted cash flow approach
MATLAB En kort innføring/repetisjon SIF8001-SIF8005 Høsten 2001.
UNIVERSITETET I OSLO Det matematisk-naturvitenskapelige fakultet Eksamen i: INF 4130: Algoritmer: Design og effektivitet Eksamensdag:15. desember 2010.
Statistikk og sannsynlighetsregning
Introduksjon til MATLAB
Noen hoderegningstriks
Nødhjelp i Matlab-programmering
C# for javaprogrammerere
Forside Korteste sti BFS Modifikasjon Dijkstra Eksempel Korrekthet Analyse Øving Spørsmål Dijkstras algoritme Åsmund Eldhuset asmunde *at* stud.ntnu.no.
@ TDT4120 Algoritmer og datastrukturer Trær og søking i dem, samt litt diverse emner Åsmund Eldhuset asmunde idi.ntnu.no.
@ TDT4120 Algoritmer og datastrukturer Introduksjon til øvingsopplegg og programmering i Python Åsmund Eldhuset asmunde stud.ntnu.no.
Dijkstras algoritme Åsmund Eldhuset asmunde *at* stud.ntnu.no
Forside A: Diverse B: O -,  - og  -relasjoner C: Pseudo- polynomialitet D: Transitivitet E: Diverse Spørsmål Teoriøving 5, oppgave 1 Åsmund Eldhuset.
Forside Introduksjon Fibonacci-tall Memoisering DP Neste uke Spørsmål Introduksjon til memoisering og dynamisk programmering Åsmund Eldhuset asmunde *at*
1 Øvingsforelesning Andreas Knudsen Nils Grimsmo
Alg. Dat Øvingsforelesning 5 Kompleksitetsanalyse Torbjørn Moralnd
Kompleksitetsanalyse
Korrekt dybde først-søk
Øvingsforelesning 12 Redusering av problemer,
Åsmund Eldhuset asmunde stud.ntnu.no folk.ntnu.no/asmunde/algdat/
TDT4120 Algoritmer og datastrukturer Introduksjon til øvingsopplegg og programmering i Python Basert på foiler av Åsmund Eldhuset Flikket på og presentert.
Forside Motivasjon Analyse Forside Motivasjon Analyse  -notasjon O og  Relasjoner Klasser Fallgruver Spørsmål Kompleksitetsanalyse Åsmund Eldhuset asmunde.
Generelt I/O if/else Funksjoner Lists Løkker Dictionaries Annet Listebehandling Klasser Python med noen algdat-anvendelser Åsmund Eldhuset asmunde *at*
The Postmans Problem. LOG530 Distribusjonsplanlegging 2 2 Mista har fått i oppdrag å vedlikeholde veiene i landsdelen. Dette er et eksempel på den klassiske.
Repetisjon kap 6,7,8.
Klargjøring fra forrige gang
Kapittel 11 Rekursjon Å tenke rekursivt Rekursjon er ein programmeringsteknikk der ein metode kallar seg sjølv for å fullføre ei oppgåve For å kunne.
Algoritmer og Datastrukturer
Design patterns: State og Strategy
Dynamisk programmering
Trenger vi IT-faget i den videregående skolen i Norge
INF 295 Algoritmer og datastrukturer Forelesning 1 - kapittel 1 Introduksjon Hans F. Nordhaug (Ola Bø) (Ketil Danielsen, 2007)
INF 295 Algoritmer og datastrukturer Forelesning 4 Algoritmeanalyse Hans Fr. Nordhaug (Ola Bø)
INF 295 Forelesning 19 - Dynamisk programmering Korteste vei alle til alle (Floyd) Hans Fr. Nordhaug (Ola Bø)
Dynamiske nettsider PHP Del 2 – Kontrollstrukturer.
VI LAGER EN PLATEBUTIKK
Magnus Haug Algoritmer og Datastrukturer
AI - Kunstig Intelligens
Typer i programmering. Simple typer var a = 13;
MENA1000 Deleksamen 2012 Endelig statistikk. Deleksamen-resultatet i prosent av oppnåelig (x-aksen er ikke kandidatnummer, bare et løpenummer)
Alg. Dat Øvingsforelesning 11 Dynamisk programmering, grådighet
INF 295 Algoritmer og datastrukturer Forelesning 5 Algoritmeanalyse Hans Fr. Nordhaug (Ola Bø)
INF 295 Algoritmer og datastrukturer Forelesning 22 Teknikker for algoritmeutvikling Hans Fr. Nordhaug/ Ola Bø.
Presentasjon av prosjekt Oppgavestiller: NTNU (Magnar Hole) Oppgave: Opprette lokal brukerdatabase med (PHP & MySQL) Studenter: Christian Dillner Veileder:
Forside Intro Fibonacci-tall Memoisering DP Longest increasing subsequence Betingelser Matrise- multiplikasjon Longest common subsequence Grådig vs. DP.
Sorterings- Algoritmer Algoritmer og Datastrukturer.
Usikkerheter og sannsynligheter Petter Mostad
Nummer 8-10 H. Aschehoug & Co Sehesteds gate 3, 0102 Oslo
Algebraens og Geometriens Historie
Algebraens og Geometriens Historie Retorisk algebra Synkopert algebra Symbolsk algebra Arkimedes Gamle Hellas.
INF 295 Algoritmer og datastrukturer Forelesning 23 Kompleksitet Hans Fr. Nordhaug/ Ola Bø.
Memoisering og dynamisk programmering Magnus Botnan botnan at stud.ntnu.no 23/
Øvingsforelesning 11 P vs NP Håkon Jacobsen
Koding med Blue- bot, vigra barnehage,15. mars 2017
TDT4105 Informasjonsteknologi, grunnkurs
Kompleksitetsanalyse
Øvingsforelesning i Python (TDT4110)
Algebra er bra – hva er algebra?
Hva er nytt? De fire regneartene..
Multiplikasjon - Leksjon 1: Sammenheng mellom multiplikasjon og divisjon Lekse til mandag.
Multiplikasjon - Leksjon 3: fremgangsmåte/algoritme oppstilt multiplikasjon Lekse til torsdag.
Algebrabrikker Sigbjørn Hals.
Øvingsforelesning 10 Grådighet
Objektorientert programmering i Java
Begynnerkurs i Python Realfagskonferansen 2019 Henrik H. Løvold
Utskrift av presentasjonen:

Memoisering og dynamisk programmering :: Memoisering og dynamisk programmering Åsmund Eldhuset asmunde *at* stud.ntnu.no folk.ntnu.no/asmunde/algdat/dp.ppt

:: Memoisering og DP Dette er to ganske like teknikker for å lage algoritmer De kan brukes på svært mange tilsynelatende forskjellige problemer Kan gjøre eksponentiell kjøretid om til polynomisk kjøretid Vi vil nå "finne opp" memoisering og DP mens vi løser et problem

Fibonacci-tall Problem: Regn ut Fibonacci-tall nummer n :: Fibonacci-tall Problem: Regn ut Fibonacci-tall nummer n Matematisk definisjon: f(0) = 0 f(1) = 1 f(n) = f(n – 1) + f(n – 2) for n > 1 Hvert tall er altså summen av de to foregående: 1, 1, 2, 3, 5, 8, 13, 21, 34, 55...

:: Fibonacci-tall Dette ser lett ut å programmere. Vi fyrer løs med følgende Python-kode: def f(n): if n <= 0: return 0 elif n == 1: return 1 else: return f(n - 1) + f(n - 2)

Fibonacci-tall Dessverre blir kjøretiden helt forferdelig! :: Fibonacci-tall Dessverre blir kjøretiden helt forferdelig! For n < 20 går det bra Utregning av f(25) tar et halvt sekund f(30) tar fem sekunder f(35) tar et minutt f(42) vil vare ut forelesningen f(50) vil ta et år Når n øker med 1, dobles nesten kjøretiden Hva skyldes dette? La oss ta en kikk på hva funksjonen gjør

Bortkasting av arbeid f(6) f(5) f(4) f(3) f(2) f(1) f(2) f(1) f(0) :: Bortkasting av arbeid f(6) f(5) f(4) f(3) f(2) f(1) f(2) f(1) f(0) f(4) f(3) f(2) f(1) f(0) f(3) f(1) f(0) f(2) f(1) f(1) f(0)

:: Memoisering Løsning: Når funksjonen har regnet ut et Fibonacci-tall, registrerer vi resultatet Når funksjonen blir bedt om å regne ut et Fibonacci-tall, sjekker vi først om vi allerede har regnet det ut Har vi allerede regnet det ut, returnerer vi resultatet vi har Ellers starter vi utregningen på vanlig måte Kan bruke enten dictionary eller array Array er raskere, men du må vite størrelsen på forhånd

Memoisering med dictionary :: Memoisering med dictionary def f(n, dict): if n <= 0: return 0 elif n == 1: return 1 elif dict.has_key(n): return dict[n] else: result = f(n – 1, dict) + f(n – 2, dict) dict[n] = result return result def fib(n): dict = {} return f(n, dict)

:: Memoisering med array def f(n, array): if n <= 0: return 0 elif n == 1: return 1 elif array[n] != -1: return array[n] else: result = f(n – 1, array) _ + f(n – 2, array) array[n] = result return result def fib(n): array = [-1] * (n + 1) return f(n, array)

Dynamisk programmering :: Dynamisk programmering Vi ser at utregningen av hvert tall bare avhenger av tidligere tall Derfor kan vi faktisk fylle ut arrayet vårt direkte Går raskere enn memoisering pga. ingen rekursjon

Dynamisk programmering :: Dynamisk programmering def f(n): if n <= 0: return 0 array = [-1] * (n + 1) array[0] = 0 array[1] = 1 for i in range(2, n + 1): array[i] = array[i – 1] + array[i – 2] return array[n]

DP – plassoptimalisering :: DP – plassoptimalisering Vi ser at utregningen av hvert tall bare avhenger av de to forrige tallene Dermed klarer vi oss med bare å lagre tre tall av gangen – sparer minne Merk at dette bare er nyttig hvis man kun er interessert i det siste tallet, og ikke vil beholde tallene underveis

DP – plassoptimalisering :: DP – plassoptimalisering def f(n): if n <= 0: return 0 previous = 0 current = 1 for i in range(n – 1): next = previous + current previous = current current = next return current

Rekursiv problemformulering :: Rekursiv problemformulering Det gjelder å formulere løsningen av et problem som en kombinasjon av løsninger av mindre utgaver av samme problem Eksempel: Fibonacci-tall nummer n er summen av Fibonacci-tall nummer n - 1 og Fibonacci-tall nummer n - 2 De mindre utgavene kalles delproblemer

Longest increasing subsequence (LIS) :: :: :: Longest increasing subsequence (LIS) Problem: Gitt en rekke med n reelle tall a1, a2, a3, ..., an, finn den største delrekken slik at tallene står i stigende rekkefølge Eksempel: [1, 2, 9, 3, 8, 5, 7] Fungerer en grådig algoritme? Nei, fordi delproblemene ikke er uavhengige. Velger man å ta med et bestemt tall, har man lagt begrensninger på hvilke tall man kan få med seg senere

LIS – optimal substruktur :: :: :: LIS – optimal substruktur Vi observerer at en LIS for en bestemt liste består av en LIS for en mindre del av listen Eksempel: [1, 2, 9, 3, 8, 5, 7] LIS'en er [1, 2, 3, 5, 7] [1, 2, 3, 5] er en LIS for [1, 2, 9, 3, 8, 5] [1, 2, 3] er en LIS for [1, 2, 9, 3] [1, 2] er en LIS for [1, 2] [1] er en LIS for [1] Konklusjon: en optimal løsning av problemet består av optimale løsninger av delproblemer

LIS – rekursiv definisjon :: :: :: LIS – rekursiv definisjon La oss se på problemet med å finne en LIS som slutter med tall nummer i, og la oss kalle lengden av dette for L(i) Da vil hovedproblemet vårt være å finne det beste av L(1), L(2), L(3), ..., L(n) Hvordan regner vi ut L(i)?

LIS – rekursiv definisjon :: :: :: LIS – rekursiv definisjon Vi finner lengste delsekvensen som ikke inneholder tall større enn tall nummer i Altså: vi må finne den j som er slik at j < i, aj  ai, og L(j) er størst mulig L(i) er da lik den største L(j) pluss 1 L(i) = max(L(j) : 0  j < i  aj  ai) + 1 L(0) = 0

LIS – tabellutfylling [1, 2, 9, 3, 8, 5, 7] [0, -, -, -, -, -, -, -] :: :: :: LIS – tabellutfylling [1, 2, 9, 3, 8, 5, 7] [0, -, -, -, -, -, -, -] [0, 1, -, -, -, -, -, -] [0, 1, 2, -, -, -, -, -] [0, 1, 2, 3, -, -, -, -] [0, 1, 2, 3, 3, -, -, -] [0, 1, 2, 3, 3, 4, -, -] [0, 1, 2, 3, 3, 4, 4, -] [0, 1, 2, 3, 3, 4, 4, 5]

:: :: :: LIS – sporing Nå har vi funnet lengden på LIS'en, men det hadde jo vært kjekt å finne selve LIS'en også... I et array P registrerer vi hvilket delproblem hvert delproblem benyttet a: [1, 2, 9, 3, 8, 5, 7] L: [0, 1, 2, 3, 3, 4, 4, 5] P: [-, 0, 1, 2, 2, 4, 4, 6]

LIS – implementasjon def LIS(a): n = len(a) L = [0] * (n + 1) :: :: :: LIS – implementasjon def LIS(a): n = len(a) L = [0] * (n + 1) P = [-1] * (n + 1) for i in range(1, n + 1): bestIndex = 0 for j in range(1, i): if a[j - 1] <= a[i - 1] and \ L[j] > L[bestIndex]: bestIndex = j L[i] = L[bestIndex] + 1 P[i] = bestIndex return L[n], P

LIS – implementasjon def makeLIS(a, P, i): if i == 0: return [] else: :: :: :: LIS – implementasjon def makeLIS(a, P, i): if i == 0: return [] else: b = makeLIS(a, P, P[i]) b.append(a[i - 1]) return b def makeLIS(a, P): i = len(a) b = [] while i != 0: i = P[i] b.reverse()

Betingelse 1: Optimal substruktur :: Betingelse 1: Optimal substruktur Ofte har vi en situasjon hvor vi ønsker å finne den best mulige løsningen av et problem Skal vi kunne bruke DP, må det være slik at problemet har en optimal substruktur – en optimal løsning av hele problemet består av optimale løsninger av delproblemer Når vi løser et delproblem, må vi som regel se gjennom alle de mindre delproblemene og velge det beste

Betingelse 1.5: Uavhengige delproblemer :: Betingelse 1.5: Uavhengige delproblemer Løsningen av ett delproblem må ikke legge begrensninger på hvordan andre delproblemer kan løses – delproblemer må ikke ha felles ressurser som kan spises opp (Anti)eksempel: Longest simple path Man skulle tro at en LSP fra a til b må bestå av en LSP fra a til x og fra x til b – men det er ikke sikkert, for hvis disse LSP'ene overlapper, kan de ikke kombineres til en lovlig LSP fra a til b. Vi har altså ikke optimal substruktur, og det skyldes at vi ikke har uavhengige delproblemer – fordi en LSP fra a til x, risikerer vi å "bruke opp" noder som LSP fra x til b trenger.

Betingelse 2: Overlappende delproblemer :: Betingelse 2: Overlappende delproblemer Det burde muligens heller hete "gjentatte delproblemer" Løsningen av to forskjellige delproblemer kan involvere løsning av ett eller flere felles delproblemer Derfor blir rekursjon uten memoisering ekstremt ineffektivt fordi det samme arbeidet gjøres gang på gang Dersom delproblemene ikke overlapper, kan en splitt-og-hersk-algoritme brukes

(Betingelse 3: Antall delproblemer) :: (Betingelse 3: Antall delproblemer) Det er bare vits i DP hvis antallet delproblemer er "lite" nok til at vi kan lagre alle svarene i minnet og får løst alle delproblemene raskt nok

Ting å være oppmerksom på :: Ting å være oppmerksom på DP fungerer som regel bare på problemer der ting må komme i en bestemt rekkefølge, eller hvor du står fritt til å plukke en rekkefølge selv (slik som Floyd-Warshall gjør) Selv om DP tilsynelatende gir polynomisk kjøretid, kan det fremdeles være eksponentielt i inputstørrelsen! (f.eks. myntutdeling eller 0/1 knapsack)

Matrisemultiplikasjon :: :: Matrisemultiplikasjon Eksempel: Regne ut A1A2A3A4A5 Dimensjonene må passe (a × b, b × c, c × d, d × e, e × f) Matrisemultiplikasjon er ikke kommutativt (du kan ikke bytte om på rekkefølgen) Men det er assosiativt (du kan velge i hvilken rekkefølge du utfører multiplikasjonene) Vi kan kontrollere multiplikasjons-rekkefølgen ved å sette på parenteser: A1A2A3A4A5 = A1((A2A3)(A4A5)) = ((A1A2)A3)( A4A5) = A1(A2(A3 (A4A5))) = ...

Matrisemultiplikasjon :: :: Matrisemultiplikasjon Multiplikasjon av to matriser med dimensjoner a × b og b × c gir abc skalar-multiplikasjoner (multiplikasjoner av tall) Forskjellige parentessettinger fører som regel til forskjellig totalt antall skalarmultiplikasjoner Hvilken parentessetting er best?

Matrisemultiplikasjon :: :: Matrisemultiplikasjon Fullt parentessatt uttrykk: enten en enkelt matrise eller et produkt av to utrykk som er fullt parentessatt Alle måter å multiplisere sammen matriser på kan skrives fullt parentessatt Den beste måten må derfor være et fullt parentessatt uttrykk – altså et produkt av to andre FPU, som selv må være optimale

Matrisemultiplikasjon Den ytterste multiplikasjonen kan settes på en av følgende måter: A1(A2A3A4A5) (A1A2)(A3A4A5) (A1A2A3)(A4A5) (A1A2A3A4)A5 For hver av disse mulighetene må vi (rekursivt) undersøke matrisegruppene vi får og finne optimal parentessetting for dem Vi har(n2) forskjellige matrisegrupper, så antallet delproblemer er overkommelig

Longest common subsequence (LCS) :: :: :: Longest common subsequence (LCS) Finne lengste tegnsekvens som er felles for to strenger Eksempel: A = "abqaeehgpcydkpklz" B = "rwazxbaertctdz" Vi definerer LCS(i, j) til å være LCS'en til A[0:i] og B[0:j]

Longest common subsequence (LCS) :: :: :: Longest common subsequence (LCS) Dersom siste tegn i A[0:i] og B[0:j] er like, er disse en del av LCS(i, j); da trenger vi bare å finne LCS(i – 1, j – 1) og legge til 1 Hvis ikke, kan ikke begge de siste tegnene være med i LCS(i, j) Da er LCS(i, j) enten lik LCS(i – 1, j) eller LCS(i, j – 1) Vi får da en tabell over LCS(i, j) på m x n, hvor m er lengden til A og n er lengden til B

:: Fractional knapsack Kan ikke løses med DP, siden antallet forskjellige delproblemer blir uendelig! DP krever som regel løsning av alle delproblemer for å kunne velge det best egnede, mens en grådig algoritme gjør et grådig valg og produserer ett delproblem

Grådig vs. DP Begge utnytter optimal substruktur Grådig DP :: Grådig vs. DP Begge utnytter optimal substruktur Grådig Lokalt optimale valg er globalt optimale; optimal løsning avgjøres ut fra hva som virker best der og da Løses som regel ovenfra og ned; man tar et valg og ender opp med et mindre delproblem DP Optimal løsning avgjøres ved å se på optimale løsninger av delproblemer Løses nedenfra og opp; man løser større og større delproblemer ut i fra de mindre delløsningene

Sammendrag: krav for DP :: Sammendrag: krav for DP Rekursiv struktur Optimal substruktur Overlappende delproblemer (hvis ikke: splitt og hersk-algoritme) Du vet ikke hvilket delproblem du skal benytte før du har løst alle delproblemene (hvis ikke: grådig algoritme)

Faglig underholdning: Nim i to dimensjoner :: Faglig underholdning: Nim i to dimensjoner Nim er et fyrstikkspill der man har en haug fyrstikker og trekker 1-3 fyrstikker annenhver gang (antallet kan variere) og den som tar den siste fyrstikken vinner Vi vil nå spille Nim i to dimensjoner: vi har et ruteark, og man skal hver gang klippe bort en remse på 1-3 ruters bredde fra en av kantene. Den som får servert en 1x1-rute til slutt har tapt Er det mulig for den som begynner å følge en strategi slik at han garantert vinner?

Faglig underholdning: Nim i to dimensjoner :: Faglig underholdning: Nim i to dimensjoner En tilstand i spillet er beskrevet av størrelsen til det gjenværende rutearket En posisjon er vinnende hvis det er mulig å gjøre et trekk slik at motstanderen får servert en tapende posisjon En tapende posisjon er enten en posisjon hvor man taper i følge reglene, eller en posisjon hvor man ikke kan sette motstanderen i en annen tapende posisjon La oss sette opp dette i en tabell

Faglig underholdning: Nim i to dimensjoner ::

Faglig underholdning: Nim i to dimensjoner ::

Faglig underholdning: Nim i to dimensjoner ::

Faglig underholdning: Nim i to dimensjoner ::

Faglig underholdning: Nim i to dimensjoner ::

Faglig underholdning: Nim i to dimensjoner :: Faglig underholdning: Nim i to dimensjoner Dermed kan man gjøre optimale trekk slik: mod = (height - width) % (maxCut + 1) if mod == 0: if width < height: height -= 1 else: width -= 1 if mod < height: height -= mod width -= maxCut + 1 – mod return width, height

:: Spørsmål?