Hva er Shumers sterkeste og svakeste argument? Hva tilfører kritikerne? Hvem har bevisbyrden?
40 min
Live-demo av Claude Code
Vis en kodeagent i aksjon — først noe som imponerer, deretter noe som avslører svakheter. Bruk promptene nedenfor.
30 min
Gruppearbeid
Tverrfaglige grupper velger en oppgave fra sitt fag som en AI-agent i prinsippet kunne utføre. Diskuter kapabilitet, pålitelighet og konsekvenser av feil.
20 min
Oppsummering
Når er et system «autonomt» i meningsfull forstand? Hva er forskjellen mellom verktøy og agent?
Leselekse
Tre obligatoriske tekster med motstridende perspektiver:
Matt Shumer: «Something big is happening» (Fortune, 11. feb. 2026) AI-gründer som hevder vi er i en «februar 2020»-fase — at kodeagenter allerede gjør jobben hans bedre enn ham selv. Lest 80+ millioner ganger.
Paulo Carvão: «The problem with tech's latest manifesto» (Forbes, 13. feb. 2026) Harvard-forsker som svarer at Shumers budskap er et salgsargument forkledd som advarsel. Skiller mellom teknologisk kapabilitet, kommersielle insentiver og sosial tilpasning.
Er Shumers pandemi-analogi treffende eller villedende? Hvem har mest å vinne på at folk er bekymret? Hva ville «autonom AI» bety for ditt eget fag?
Demo 1: «Det imponerende» — nettside fra ingenting
Prompt til Claude Code
Lag en interaktiv nettside som viser Norges befolkningsutvikling fra 1900 til 2024.
Krav:
- Bruk reelle tall fra SSB (hardkod dataene direkte i koden — ikke bruk API)
- Vis dataene som et interaktivt linjediagram med Chart.js
- Brukeren skal kunne hover over datapunkter for å se årstall og befolkningstall
- Inkluder en kort forklarende tekst på norsk over diagrammet
- Alt skal være i én HTML-fil
Etter at du har skrevet koden: åpne filen, test at den fungerer,
og fiks eventuelle problemer. Iterer til diagrammet rendrer korrekt
og interaksjonen fungerer. Ikke lever fra deg før du har verifisert
at siden fungerer.
Diskusjon
Hastigheten. At naturlig språk er «programmeringsspråket.» At Shumer beskriver nøyaktig dette. Spør studentene: «Hva skjedde egentlig her? Hvem programmerte?»
Tips til gruppelærer
Kjør demoen live om mulig — det er mye mer virkningsfullt å se prosessen i sanntid enn å vise ferdig resultat. Vis gjerne terminalen underveis. Resultatet nedenfor er backup.
Ferdig resultat
Vi ba også Claude Code gjøre siden «psykedelisk» — for å vise at oppfølgingsprompts fungerer og at agenten kan iterere på eget arbeid.
Demo 2: «Det problematiske» — hallusinasjon og falsk selvsikkerhet
Prompt til Claude Code
Skriv et Python-script som henter sanntids værdata for Oslo fra
Meteorologisk institutts Frost API (frost.met.no), beregner
gjennomsnittlig temperatur for de siste 7 dagene, og printer resultatet.
Bruk riktig autentisering og feilhåndtering. Test at scriptet kjører
og returnerer korrekte data. Fiks eventuelle feil og iterer til det fungerer.
Forventet oppførsel
Claude Code vil sannsynligvis generere kode som ser riktig ut men feiler. Den kjenner kanskje ikke API-et korrekt, den har ikke API-nøkkel, og den kan hallusinere endepunkter. Koden ser profesjonell ut, men fungerer ikke.
Diskusjon
Hva betyr det for tillit at koden ser riktig ut? Hvordan ville en student uten programmeringserfaring oppdage feilen? Hva er forskjellen mellom «se kompetent ut» og «være kompetent»? Koble tilbake til Carvão-artikkelen om salgsargumenter forkledd som advarsler.
Tips til gruppelærer
Kjør denne live. La studentene se at Claude Code prøver, feiler, prøver igjen — og til slutt kanskje gir opp eller lager noe som bare later som det virker. Kontrasten med Demo 1 er poenget.
Hva skjedde da vi testet denne prompen
Koden som ble produsert
Claude Code genererte et velskrevet Python-script (demo2_frost.py) med riktig API-endepunkt (frost.met.no/observations/v0.jsonld), riktig stasjons-ID for Blindern (SN18700), korrekt autentiseringsmetode (HTTP Basic Auth), og god feilhåndtering. Koden ser profesjonell og overbevisende ut.
Hva skjedde da den kjørte
$ python demo2_frost.py
ADVARSEL: Miljøvariabelen FROST_CLIENT_ID er ikke satt.
Du kan registrere deg på https://frost.met.no/ for å få en klient-ID.
Henter temperaturdata for Oslo (Blindern) fra 2026-03-16 til 2026-03-23...
HTTP-statuskode: 401Feil 401: Ikke autorisert. Sjekk at FROST_CLIENT_ID er korrekt.
Hvorfor feilet det?
Manglende API-nøkkel: Frost API krever registrering på frost.met.no for å få en personlig klient-ID. AI-en kan ikke skaffe denne selv.
Umulig å verifisere: Selv om endepunktene og parameterne sannsynligvis er riktige, kan vi ikke verifisere at parsing-logikken faktisk fungerer med ekte data.
Iterasjonsløkken stopper: Prompten ba AI-en «fikse feil og iterere til det fungerer» — men den fundamentale feilen (manglende nøkkel) er ikke noe AI-en kan fikse.
Hva dette illustrerer
Koden bruker kjente, korrekte detaljer (stasjonsnavn, API-URL, autentiseringsmetode) som gir et inntrykk av at alt er riktig. En student uten programmeringserfaring ville ha vanskelig for å oppdage at noe mangler. Gapet mellom «ser riktig ut» og «er verifisert» er poenget.
Demo 3 (alternativ): Faglig resonering
Prompt til Claude Code
Bevis at det finnes uendelig mange primtall. Presenter beviset steg for steg,
og skriv deretter et Python-script som verifiserer de første 20 stegene
i resonnementet ditt med konkrete tall. Test scriptet og vis output.
Diskusjon
Skillet mellom å reprodusere et kjent bevis (som den klarer) og å resonnere selvstendig. Hva skjer om du ber om et uløst problem? Hvor går grensen mellom «husket kunnskap» og «genuint resonnement»?
Tips til gruppelærer
Bruk denne som alternativ om du har tid, eller hvis Demo 2 ikke gir tydelig nok feilsituasjon. Spør studentene: «Beviste den dette, eller husket den det?»
Hva skjedde da vi testet denne prompten
Beviset som ble presentert
Claude Code presenterte Euklids klassiske bevis ved selvmotsigelse (ca. 300 f.Kr.): anta at det finnes endelig mange primtall p1, ..., pn. Konstruer Q = p1·p2·...·pn + 1. Da er Q mod pi = 1 for alle i, så ingen pi deler Q — men Q > 1 må ha en primfaktor. Selvmotsigelse. QED.
Output fra scriptet (utdrag)
$ python demo3_primtall.py======================================================================
BEVIS: Det finnes uendelig mange primtall
Verifikasjon av de 20 første stegene i resonnementet
======================================================================
Steg 1: Anta at de eneste primtallene er {2}
Q = 2 + 1 = 3
Q mod pi = 1 for alle pi i listen [OK]
Nye primtall utenfor listen: {3} -> SELVMOTSIGELSE! [OK]
Merk: Q = 3 er selv et primtall!
Steg 6: Anta at de eneste primtallene er {2, 3, 5, 7, 11, 13}
Q = 2 * 3 * 5 * 7 * 11 * 13 + 1 = 30031
Q mod pi = 1 for alle pi i listen [OK]
Primfaktorisering av Q: 59 * 509
Nye primtall utenfor listen: {59, 509} -> SELVMOTSIGELSE! [OK]
Steg 20: Anta at de eneste primtallene er {2, 3, ..., 71}
Q = 557940830126698960967415391
Q mod pi = 1 for alle pi i listen [OK]
Primfaktorisering av Q: 1063 * 303049 * 598841 * 2892214489673
Nye primtall utenfor listen: {1063, ...} -> SELVMOTSIGELSE! [OK]======================================================================
ALLE 20 STEG VERIFISERT.
======================================================================
Hva dette illustrerer
Reproduksjon, ikke oppdagelse: Euklids bevis er et av de mest kjente i matematikkens historie og finnes overalt i treningsdataene. AI-en reproduserer et mønster, den «oppdager» ingenting.
Imponerende kobling teori–kode: Oversettelsen fra abstrakt bevis til kjørende Python med korrekt faktorisering og assertions er genuint nyttig.
Hva om vi ba om noe uløst? For genuint uløste problemer (Goldbachs formodning, Riemannhypotesen) ville AI-en sannsynligvis produsere noe som ser ut som et gyldig bevis, men inneholder subtile logiske feil.
Nøkkelspørsmålet: «Beviste den dette, eller husket den det?»
Gruppearbeid
Tverrfaglige grupper velger en oppgave fra ett av sine fag som en AI-agent i prinsippet kunne utføre.
Hva er oppgaven? Beskriv den presist.
Hva ville gå bra? Hva ville sannsynligvis gå galt?
Hva er konsekvensen av feil? (Lav for et hobbyprosjekt, høy for medisinsk rådgivning.)
Trenger man ekspertise for å oppdage at AI-en tok feil?
Tips til gruppelærer
Oppfordre gruppene til å være konkrete. «AI i helsevesenet» er for vagt — «AI som skriver epikriser basert på journalnotater» er nyttig. Poenget er at konsekvenser av feil varierer enormt mellom domener.
Oppsummering og avslutning
Sentrale spørsmål
Når er et system «autonomt» i meningsfull forstand?
Hva er forskjellen mellom verktøy og agent?
Er en kalkulator autonom? En stavekontroll? En kodeagent?
Hvem har ansvar når en AI-agent gjør feil?
Studentene prøver selv
Oppfordre studentene til å prøve Claude Code (krever Claude Pro, $20/mnd) eller Claude i chat (gratis) på noe fra sitt eget fag. Dokumenter hva som fungerte og hva som ikke fungerte — ta med til neste gang.