BRIAN Scassellati: Velkommen til CS50 AI video-serien. Mit navn er SCAS. Og i dag, vi kommer til at være taler om selvstændige køre biler. Nu er jeg en lille smule flov over at indrømme, at når Jeg var barn en stor del af min barndom kredsede om David Hasselhoff. Nu var dette før han var involveret i noget som Amerikas Got Talent, eller inddraget som en livredder i Baywatch, eller endnu før han havde slags historie som en popstjerne i Tyskland. I min barndom, David Hasselhoff var den bærende skuespiller på en velkendt tv serie kaldet Knight Rider. Og jeg siger, han var den bærende skuespiller, fordi virkelig stjernen i dette show var en bil, en Trans Am navngivet Kit, der kunne køre af sig selv. Kit var fantastisk. Det kunne tale med dig. Det kunne løse problemer. Det kunne drive over det hele. Det havde også lasere og raketter. Så det var en fantastisk køretøj til at begynde med. Men dette var videnskaben fiktion af tiden, autonome biler, kunne træffe beslutninger, at kunne køre langs vejen. Og på hvert punkt i en af ​​disse episoder, David Hasselhoff ville komme i problemer og bilen ville begynde at køre og gå og redde ham. Det var vores science fiction. Selv i bare de sidste 30 år, at science fiction er gået fra på tv og på skærmen til virkelighed, til kommercielle produkter. I dag vil vi tale om, hvordan det er, at autonome køretøjer er virkelig i stand til at gå og køre bil og til absolut fantastiske ting. Men lad os starte med historien. Fordi disse selvstændige køre biler kom ikke ud af ingenting. Og faktisk meget første selvstændige køre biler, det virkelig første indflydelsesrige forskningsprojekter, kom ud af et projekt kaldet Navlab. Navlab var et projekt, der strakte næsten to årtier på Carnegie Mellon Universitet. Og de byggede en række af forskellige køretøjer der startede ud leder som små minibusser, som var Humvees, der var til sidst bare sedans og minibusser, selv bybusser. Og disse forskellige enheder har sensorer i dem, havde beregningsmæssige systemer sættes i dem, så at de kunne styre, og bremse, og fremskynde autonomt alt på egen hånd. Nu var disse systemer meget primitive i starten. Og de påberåbte meget specifikke vognbaneafmærkninger. Så det mest imponerende system, de havde bygget var en del af Navlab fem. Og i 1995, dette køretøj, det var MPV, kørte fra Pittsburgh til San Diego, næsten 3.000 miles. Og 98% af tiden, den eneste ting styrer styringen var computeren. 98% af tiden, var det helt selvstændig som det kørte næsten fra kyst til kyst. Nu, det er utroligt imponerende. Og når vi tænker over det, der er en masse for os at overveje. Hvilke typer af sensorer blev det ved hjælp? Hvilken slags beslutning blev det virkelig gør? Hvad var det andre 2% af tiden? Vi vil forsøge at komme til nogle af disse spørgsmål i dag. Og som vi ser på dem, vi kommer til at prøve at afdække, hvad det er, strukturen nedenunder og hvor beregningen er direkte køre disse programmer. Nu Navlab var en enorm succes. Og det var grundlag af alle vores moderne tanker om autonom køretøjer. Men selvstændige køre biler ikke rigtig blevet kendt og populær indtil i 2005 DARPA, som en del af deres grand udfordring indsats, sammensætte et program til at prøve at opbygge et autonomt køretøj. Og de gjorde dette en udfordring. De sætter en $ 2000000 præmie derude med ideen at nogle rigtig smart forskning hold ville komme og være i stand til at hævde dette $ 2000000 præmie. Nu præmien var ikke vil være let at få. For at få den præmie, ville du have at bygge et køretøj, uden menneskelig indgriben var i stand til at køre 150 mile kursus gennem ujævnt terræn i ørkenen. Og det var en masse opgave. Og på det tidspunkt, folk troede, at de var virkelig skøre i at gøre dette. Så det første møde i den grand udfordring var i 2004. Og ud af det 150 mile naturligvis længst, det bedste hold, at de havde, gik omkring 11 miles før systemet mislykkedes fuldstændigt. Nu, for at give dig en idé hvor vanskeligt det er, at 11 miles blev set som en absolut fænomenale succes. Men DARPA ville have mere. Og så de tilbudt denne samme præmie det følgende år. Og blot et år senere, teknologien havde avanceret til det punkt, hvor ikke bare én systemet var i stand til at gennemføre kurset, men fem forskellige robot biler færdig, at kurset. Den hurtigste én færdig 132 miles i under syv timer. Det var en robot kaldet Stanley. Stanley blev bygget af Stanford racing team. Og som du kan se på toppen, det havde en række af forskellige sensorer op på den hætte, op på toppen af ​​køretøjet, og alle overalt. Ved hjælp af en kombination af kameraer, infrarød, og regelmæssig lys, ved hjælp af radar og sonar systemer om bord, ved hjælp af laser afstandsmålere til påvisning hindringer, dette køretøj var i stand til at navigere over meget ujævnt terræn autonomt styretøj, autonomt bryde autonomt anvendelse af gas. Det var en reel præstation. I dag ser vi, at dette sker selv som en større skala. Mange af jer har hørt om Google selv-kørsel bil. Og disse køretøjer har logget løbet 1.2 million miles i de sidste par år, ingen menneskelig indgriben overhovedet. Faktisk hver gang at Google bil har været involveret i nogen form for uheld, Det er enten været fordi det var parkeret, eller fordi en menneskelig var så interesseret i, hvad det gjorde, at de løb ind i bilen. Så med alle disse systemer, vi ser denne kompleksitet opstår. Og i denne meget kort periode, vi har gået fra realm af videnskab fiktion til kommerciel virkelighed. Så lad os begynde at tage disse systemer fra hinanden. Lad os prøve at forstå, hvordan det er, at de arbejder, hvad gør de rent faktisk gør. For at gøre dette, vil vi bruge de samme typer af færdigheder at vi har talt om i klassen. Når du ser et problem, hvad vi vil forsøge at gøre er at forsøge at nedbryde det. Start med den simpleste dannes, at vi kan. Og derefter bygge udad fra den simple form. Så det fører os til spørgsmålet, hvad er den simpleste form af autonome kørsel? Hvornår er en computer faktisk i kontrol over min bil? Nu kan svaret overraskelse dig der. Fordi næsten alle køretøjer solgt i dag i USA eller Europa eller hvor som helst faktisk er delvis et autonomt køretøj. Brug af systemer som blokeringsfri bremser, disse systemer er virkelig autonome. Det vil sige, når jeg træder på pause, hvad jeg gør, er jeg spørger bilen bedes bryde nu. Jeg er faktisk ikke direkte træde på noget, gælder bremseklodsen til rotoren. Og hele pointen med blokeringsfri bremser er, at på et tidspunkt undervejs Jeg vil være i stand til at trykke ned på pausen. Men bilen vil genkende at hjulet glider. Og det vil throttle, at break-signal, således at bremsen ikke låse op. Disse blokeringsfri bremsesystemer er, på en måde, der gør beslutninger for dig. Og virkelig, de er dem, der står for bremsesystemet. Du gør en anmodning. Men du er ikke faktisk i kontrol. Så vi kunne prøve at erkende dette og bryde det ned i de enkelte dele. Og vi kunne tænke over det som en lille smule af pseudokode kode. Det vil sige, mens jeg træde på bremsen, mens jeg anvende pres på bremsepedalen, blokeringsfri bremsesystem kontrollerer kontinuerligt at se, er hver af disse hjul glider. Og ved hjælp af nogle interne sensorer i bilen, de er at detektere, om eller ikke hjulet er faktisk standsning eller om det er glidende. Og hvis det er glidende, det blokeringsfri bremsesystemer frigøres bremserne, og så lader det gå. Og når hjulene stopper glidende, det genanvender dem. Det vil sige, jeg gør en anmodning. Jeg træde på bremsen. Men selve bruddet er ved at blive besluttet af dette lille stykke software. Så virkelig, alle vores biler er allerede autonome køretøjer. Nu, det er ikke, hvad vi mener om når vi tænker på autonome køretøjer. Vi tænker om biler, hvor jeg kan tage mine hænder væk fra hjulet, og vi kan bare lade det gå. Nu, det er ikke sker på en stor skala overalt endnu i dag. Men der er stykker af at denne er begyndt til at komme i den kommercielle sektor. Siden 2003, Toyota, og efter at mange andre producenter, alle fra Ford og Lincoln til Mercedes Benz, har kunnet tilbyde nogle type af intelligente parkering hjælpe. Det vil sige, der er sensorer i bilen, typisk ultralydssensorer for korte afsløring vifte af forhindringer, der er i stand til at genkende, hvor der er biler, køretøjer, personer, enhver form for hindring omkring køretøjet. Du trykker derefter på en knap på instrumentbrættet og bede bil, bedes parkere nu. Du udstede en anmodning. Den autonome system, så tager igen og ved hjælp af disse sensorer er i stand til at styre bilen ind en bestemt parkeringsposition. I nogle af disse modeller, der er en parallel parkering udgave og en bakke i en plet version. Og hver af disse forskellige anvendelser fremkalder en anden stykke software. Nu at software er ikke noget mærkeligt eller ikke er noget, du kan ikke forstå på dette punkt. Det er bare efter disse sensorsignaler. Hvis der er noget at tæt på venstre side og jeg har plads til højre, så vil jeg styre en lille smule, så jeg kan flytte over til højre. Mange af de tidlige parkeringssystemer ville styre styreudslag, men kræver, at brugeren, mennesket driver, faktisk træde på speederen eller træde på pausen. Mere moderne systemer faktisk kontrollerer der helt af sig selv. Så for eksempel i en Mercedes S Class køretøj ret nu, kan du trække sammen, hvor du gerne vil parkere, trykker på en knap, og det vil parallelt park for dig uden dine hænder på rattet eller fødderne på pedalerne. Nu er alle disse systemer stole på sensorerne at de er ved at opbygge ind i disse køretøjer i dag. Og om vi bruger disse sensorer til detektering potentielle hindringer og advare brugeren eller om vi bruger disse sensorer til at detektere en hindring, og derefter automatisk styre væk, det er bare et spørgsmål om software. I virkeligheden, blot et par uger siden, Tesla, hvem der er bygget fantastiske køretøjer med alle disse sensorer i dem i årevis nu udsendt en softwareopdatering. Og at softwareopdatering tilladt køretøjerne for første gang at indtaste en automatisk kørsel mere, en auto pilot, de kaldte det. Denne autopilot tillod køretøjet at detektere kollisioner og automatisk bryde, til at følge et andet køretøj der er foran den, matching hastighed, at holde sig inden banerne, at se med kameraer, både infrarød og synlig lys, og at være i stand at sige, om eller ej du glider ud af din vognbane eller ikke, justere styretøj passende, og endog skifte vognbane når brugeren signaler. Alle disse forskellige funktioner var bare et spørgsmål om en softwareopdatering. Det vil sige, alle disse brugere vågnede en morgen at finde denne nye software tilgængelige i deres køretøjer. Fordi sensorsystemer var der allerede. Nu, i alle disse tilfælde, vi ser disse software baserede systemer bliver mere og mere udbredt. De er derude i kommercielle produkter allerede. Og fremtiden er, at vi er kommer til at se mere af det. Faktisk, netop dette år, var Freightliner i stand til at løfte sløret for en selvstændig lastbil, en selvstændig traktor trailer at de tester lovligt på vejen i Nevada. Disse køretøjer, igen, følge en forudbestemt rute. De forbliver i deres vognbane. De accelerere og aftage som reaktion til forhindringer eller trafikforhold. Og de selv adlyder nogle af de andre spidsfindigheder af vejen. Alle disse systemer er bliver mere og mere komplekse. Men de er stadig ikke helt selvstændigt. De er stadig ikke ganske gør alt. Det vil sige, de er stadig kræver en human driver at være til stede for at gøre nogle beslutninger på højt niveau. Og en af ​​de ting, som vi er kommer til at se i de næste fem år er en række juridisk og etiske spørgsmål at dreje sig om software bygges for disse førerløse biler. Hvordan er det at en førerløse bil skal reagere, hvis det er omgivet af en gruppe af mennesker? Hvad sker der hvis førerløse bil udskridning på vejen og du kan styre mod en menneskemængde 10 personer eller en mængden af ​​7 personer? Hvad skal bilen gøre? I alle disse tilfælde, er der en rig række spørgsmål, der skal stilles. Og de er ikke bare software spørgsmål, juridiske spørgsmål, etiske spørgsmål, filosofiske spørgsmål. Og de er dem, vi som en samfund bliver nødt til at tage fat. Så jeg vil efterlade dig med en sidste tænkte, denne ene fra Randall Munroe, af XKCD, en af ​​mine foretrukne tegneserier. Det er ikke bare, at vi kommer til at se disse køretøjer bliver bygget og være designet med software. Men vi kommer til at se folk forsøge at udnytte dem så godt. Hvordan går det til at være, når nogen kan, via Wi-Fi, kan du downloade en patch eller uploade en virus til din bil? Hvilke typer af ting vil ske derefter? Denne ene er lidt mere legende af et eksempel. Men det er de spørgsmål vi kommer til at beskæftige sig med snart. Tak for sammenføjning mig. Jeg håber du har nydt det. Og vi vil se dig næste gang.