1 00:00:00,000 --> 00:00:02,928 >> [Muziek] 2 00:00:02,928 --> 00:00:11,230 3 00:00:11,230 --> 00:00:12,790 >> DAVID MALAN: Dit is CS50. 4 00:00:12,790 --> 00:00:14,072 Dit is het einde van week 10. 5 00:00:14,072 --> 00:00:16,030 En jongen, hebben we een goede klasse voor u vandaag. 6 00:00:16,030 --> 00:00:20,040 We zijn zo enthousiast te nodigen twee van onze vrienden van Yale tot ons vandaag 7 00:00:20,040 --> 00:00:23,920 en te kijken naar de kruising van kunstmatige intelligentie, robotica, 8 00:00:23,920 --> 00:00:25,710 natuurlijke taalverwerking, en nog veel meer. 9 00:00:25,710 --> 00:00:27,090 >> En inderdaad, over de afgelopen weken, we hebben 10 00:00:27,090 --> 00:00:29,714 zeker besteed veel tijd, vooral in de eerdere psets, 11 00:00:29,714 --> 00:00:31,560 gericht op vrij laag niveau details. 12 00:00:31,560 --> 00:00:34,520 En het is heel gemakkelijk om het oog te verliezen van het bos door de bomen 13 00:00:34,520 --> 00:00:38,170 en opstaan ​​opgehangen aan loops en voorwaarden en wijzers zeker en dergelijke. 14 00:00:38,170 --> 00:00:41,770 Maar de realiteit is dat jullie nu de ingrediënten, waarmee u echt 15 00:00:41,770 --> 00:00:45,300 een aantal interessante problemen op te lossen, onder hen die onze vrienden aan de Yale 16 00:00:45,300 --> 00:00:48,790 werken gewoon verlegen van Cambridge. 17 00:00:48,790 --> 00:00:52,410 >> Dus laat mij eerst aan ons hoofd te introduceren assistent van Yale, Andy. 18 00:00:52,410 --> 00:00:55,182 >> [APPLAUS] 19 00:00:55,182 --> 00:00:57,030 20 00:00:57,030 --> 00:01:00,710 >> ANDY: Allereerst, gewoon bedanken u voor het toestaan ​​van een paar Yalies 21 00:01:00,710 --> 00:01:02,700 tot pop naar beneden naar Cambridge vandaag. 22 00:01:02,700 --> 00:01:05,299 We hebben echt waarderen. 23 00:01:05,299 --> 00:01:07,090 Ten tweede, onze vrienden terug home-- Jason, 24 00:01:07,090 --> 00:01:09,670 bedankt voor het verblijf en loopt lezing. 25 00:01:09,670 --> 00:01:12,970 Hoop dat het allemaal goed in New Haven. 26 00:01:12,970 --> 00:01:15,720 >> Dus ja, ik ben super enthousiast om Scaz introduceren vandaag. 27 00:01:15,720 --> 00:01:17,020 Scaz loopt de robotica lab. 28 00:01:17,020 --> 00:01:19,690 Hij is een professor, zoals, vijf verschillende afdelingen aan de Yale. 29 00:01:19,690 --> 00:01:23,159 In zijn laboratorium, hij heeft vele, vele robots die hij graag spelen. 30 00:01:23,159 --> 00:01:24,950 Hij heeft, net als de coolste baan in de wereld. 31 00:01:24,950 --> 00:01:27,116 En hij krijgt van de soort rotzooi rond met alle dag 32 00:01:27,116 --> 00:01:29,090 lang en wat werk te doen, als goed. 33 00:01:29,090 --> 00:01:33,070 >> En dus hebben we eigenlijk brachten een Van hen neer met ons vandaag. 34 00:01:33,070 --> 00:01:36,900 Dus zonder verder oponthoud, Scaz is gaan om verder te gaan en de invoering van ons 35 00:01:36,900 --> 00:01:38,660 zijn robot vriend. 36 00:01:38,660 --> 00:01:41,546 >> [APPLAUS] 37 00:01:41,546 --> 00:01:42,935 38 00:01:42,935 --> 00:01:44,310 BRIAN Scassellati: Bedankt, David. 39 00:01:44,310 --> 00:01:45,380 Bedankt, Andy. 40 00:01:45,380 --> 00:01:50,050 Het is zo geweldig te zijn hier met iedereen vandaag. 41 00:01:50,050 --> 00:01:56,490 Ik wil eerst heel duidelijk zijn dat de CS50 personeel hier in Cambridge 42 00:01:56,490 --> 00:01:59,190 heeft ongelooflijk gastvrij voor ons geweest. 43 00:01:59,190 --> 00:02:02,130 We zijn zo dankbaar voor alles ze hebben gedaan om ons te steunen. 44 00:02:02,130 --> 00:02:05,690 En dus we zouden willen kunnen naar de vriendelijkheid terug. 45 00:02:05,690 --> 00:02:09,370 >> Dus vandaag, krijgen we aan te kondigen dat we gaan naar een nieuwe hebben, 46 00:02:09,370 --> 00:02:15,240 one-of-a-kind CS50 event gebeurt in New Haven volgende week. 47 00:02:15,240 --> 00:02:18,040 En dit is de CS50 Research Expo. 48 00:02:18,040 --> 00:02:21,300 Dus we gaan worden uitnodigen everyone-- CS50 studenten, 49 00:02:21,300 --> 00:02:26,510 personeel van zowel Harvard en Yale-- aan naar beneden komen en bezoek ons ​​op vrijdag. 50 00:02:26,510 --> 00:02:30,400 We zullen een breed scala van meer dan hebben 30 verschillende mensen presenteren 51 00:02:30,400 --> 00:02:34,830 en exhibiting-- upperclassmen tonen een aantal van hun onderzoek producten. 52 00:02:34,830 --> 00:02:38,480 We zullen een aantal startups hebben, zelfs, op zoek voor een klein beetje van de nieuwe tech talent, 53 00:02:38,480 --> 00:02:40,460 startups van zowel Harvard en Yale. 54 00:02:40,460 --> 00:02:44,550 En we zullen een aantal groepen studenten hebben op zoek naar een aantal nieuwe leden. 55 00:02:44,550 --> 00:02:46,357 >> Het gaat om een ​​zeer spannende tijd. 56 00:02:46,357 --> 00:02:49,190 Hopelijk degenen onder u die naar beneden voor de Harvard-Yale spel 57 00:02:49,190 --> 00:02:51,360 staat om te stoppen zal zijn door een beetje vroeg, 58 00:02:51,360 --> 00:02:54,060 midden in het centrum van de campus, Sterling Memorial Library. 59 00:02:54,060 --> 00:02:58,040 We gaan een reeks van hebben exposities die variëren van autonome 60 00:02:58,040 --> 00:03:04,460 zeilboten aan manieren om software naar middeleeuwse handschriften bewaren. 61 00:03:04,460 --> 00:03:07,860 >> We gaan ad hebben hoc netwerken en mensen 62 00:03:07,860 --> 00:03:11,230 educatieve software codering in Kaapstad. 63 00:03:11,230 --> 00:03:13,730 We zullen computer muziek demonstraties. 64 00:03:13,730 --> 00:03:16,020 En we hebben natuurlijk meer robots. 65 00:03:16,020 --> 00:03:18,900 Dus we hopen dat u zult bij ons voor dit evenement. 66 00:03:18,900 --> 00:03:21,350 Er zij veel te leuk, een beetje eten, 67 00:03:21,350 --> 00:03:24,430 en veel interessante dingen om over te praten. 68 00:03:24,430 --> 00:03:28,230 >> Dus vandaag, we gaan praten over natuurlijke taalverwerking. 69 00:03:28,230 --> 00:03:32,560 En dit is de poging voor ons om een ​​nieuwe manier van interfacing bouwen 70 00:03:32,560 --> 00:03:35,150 met onze apparaten, omdat voor de laatste paar weken, 71 00:03:35,150 --> 00:03:40,800 je bent gericht op hoe het komt dat U kunt code schrijven, schrijf software 72 00:03:40,800 --> 00:03:47,110 dat is een manier om te kunnen zeggen een machine, dit is wat ik wil dat je doet. 73 00:03:47,110 --> 00:03:50,210 >> Maar we moeten niet te verwachten dat alles 74 00:03:50,210 --> 00:03:53,760 dat is er uit die wordt gebruikt door iedereen in de wereld 75 00:03:53,760 --> 00:03:57,480 gaat bedreven te zijn in dit soort instructie. 76 00:03:57,480 --> 00:04:02,540 Dus we een onderscheid maken tussen de computer talen en natuurlijke languages-- 77 00:04:02,540 --> 00:04:06,720 dat is, de dingen die gebruik mens communiceren met andere mensen. 78 00:04:06,720 --> 00:04:12,270 En we proberen interfaces die gebruik maken deze natuurlijke communicatie mechanismen. 79 00:04:12,270 --> 00:04:16,029 >> Nu, net als elk ander onderwerp dat we zijn begonnen met in CS50, 80 00:04:16,029 --> 00:04:19,589 we gaan beginnen met de eenvoudigste beetje van de natuurlijke taalverwerking 81 00:04:19,589 --> 00:04:21,269 dat we ons kunnen voorstellen. 82 00:04:21,269 --> 00:04:24,940 We gaan beginnen met de historische deel van de natuurlijke taal. 83 00:04:24,940 --> 00:04:28,740 En dan gaan we bouwen aan meer en meer recente systemen 84 00:04:28,740 --> 00:04:31,450 en hebben een aantal leuke demo's langs de weg. 85 00:04:31,450 --> 00:04:35,900 >> Dus we gaan beginnen met wat was waarschijnlijk de eerste natuurlijke taal 86 00:04:35,900 --> 00:04:38,210 verwerkingssysteem. 87 00:04:38,210 --> 00:04:45,080 Dit was een softwaresysteem geschreven in 1966 door Joseph Weizenbaum genoemd ELIZA. 88 00:04:45,080 --> 00:04:49,640 En ELIZA werd ontworpen om repliceren de aard van de interactie 89 00:04:49,640 --> 00:04:53,850 je zou hebben met een Rogeriaanse psychotherapeut. 90 00:04:53,850 --> 00:04:57,210 Nu, de Rogerians, hadden ze een idee dat psychotherapie 91 00:04:57,210 --> 00:05:02,800 betrokken kunnen terug spiegel aan een patiënt en met ze praten, 92 00:05:02,800 --> 00:05:08,100 in feite, slechts bij hen een klein beetje van de therapeut. 93 00:05:08,100 --> 00:05:09,920 Dat wil zeggen, alles dat de therapeut zei 94 00:05:09,920 --> 00:05:16,500 moest gewoon een weerspiegeling zijn van wat de patiënt vertelde hen. 95 00:05:16,500 --> 00:05:18,990 >> Dus laten we proberen deze demo. 96 00:05:18,990 --> 00:05:22,820 Hebben we een vrijwilliger die zou zijn bereid zijn om hun diepste delen, 97 00:05:22,820 --> 00:05:26,650 donkerste en / of valse geheimen met ELIZA? 98 00:05:26,650 --> 00:05:29,680 Tuurlijk, waarom kom je niet op maximaal. 99 00:05:29,680 --> 00:05:30,847 Fantastisch. 100 00:05:30,847 --> 00:05:31,430 En jouw naam? 101 00:05:31,430 --> 00:05:32,000 >> MILES: Miles. 102 00:05:32,000 --> 00:05:33,041 >> BRIAN Scassellati: Miles. 103 00:05:33,041 --> 00:05:34,270 Leuk je te ontmoeten, Miles. 104 00:05:34,270 --> 00:05:36,270 Als u wilt vasthouden dat. 105 00:05:36,270 --> 00:05:40,840 En we gaan een versie van ELIZA 106 00:05:40,840 --> 00:05:44,640 die we hebben gerepliceerd binnen de CS50 IDE. 107 00:05:44,640 --> 00:05:47,140 En we kijken naar de bron code om dit in een tijdje. 108 00:05:47,140 --> 00:05:49,910 Maar voor nu, we zijn gewoon gaan om het te roepen door het intikken van Eliza. 109 00:05:49,910 --> 00:05:55,480 >> En ELIZA zal je antwoorden te geven die zullen worden in alle hoofdsteden. 110 00:05:55,480 --> 00:05:57,950 En ga je een paar vragen stellen. 111 00:05:57,950 --> 00:06:02,130 En we zullen reageren en typ in reacties op ELIZA. 112 00:06:02,130 --> 00:06:04,310 Dus ELIZA heeft gezegd: "Hallo, ik ben ELIZA. 113 00:06:04,310 --> 00:06:05,462 Wat is je probleem?" 114 00:06:05,462 --> 00:06:08,092 Wat zou u graag willen ELIZA vertellen over vandaag? 115 00:06:08,092 --> 00:06:10,750 >> MILES: Ik kan alleen maar in slaap vallen als ik konijntjespantoffels op. 116 00:06:10,750 --> 00:06:12,440 >> BRIAN Scassellati: Oké. 117 00:06:12,440 --> 00:06:13,360 Prima. 118 00:06:13,360 --> 00:06:15,300 >> [GELACH] 119 00:06:15,300 --> 00:06:22,410 >> "Ik kan alleen maar in slaap vallen met bunny slippers op. " 120 00:06:22,410 --> 00:06:29,000 En ELIZA zegt: "Zeg, heb je nog psychische problemen? 121 00:06:29,000 --> 00:06:30,450 Misschien is dit een goede indicator. " 122 00:06:30,450 --> 00:06:30,780 >> OK. 123 00:06:30,780 --> 00:06:32,245 Dus wat wil je reageren? 124 00:06:32,245 --> 00:06:36,110 125 00:06:36,110 --> 00:06:36,970 >> MILES: Ja. 126 00:06:36,970 --> 00:06:38,660 >> BRIAN Scassellati: Ja. 127 00:06:38,660 --> 00:06:39,570 Man van veel woorden. 128 00:06:39,570 --> 00:06:41,870 Ik geniet van dat. 129 00:06:41,870 --> 00:06:50,200 Eliza zegt: "Je lijkt heel positief." 130 00:06:50,200 --> 00:06:53,200 >> MILES: Nee, ik inderdaad een elektron. 131 00:06:53,200 --> 00:06:55,150 >> BRIAN Scassellati: "Nee. 132 00:06:55,150 --> 00:07:02,240 In feite ben ik een elektron. " "Heb je bij mij komen 133 00:07:02,240 --> 00:07:06,954 omdat je een elektron? " 134 00:07:06,954 --> 00:07:08,870 Nu kunnen we een aantal van zien de things-- Ik ga 135 00:07:08,870 --> 00:07:10,200 om u te onderbreken voor slechts een seconde, Miles. 136 00:07:10,200 --> 00:07:11,010 Ga niet overal. 137 00:07:11,010 --> 00:07:12,650 We zijn nog niet klaar met je. 138 00:07:12,650 --> 00:07:16,490 ELIZA is, in sommige opzichten, reageert op bepaalde dingen 139 00:07:16,490 --> 00:07:21,140 dat hij zegt, maar zonder een echt begrip. 140 00:07:21,140 --> 00:07:26,090 En het is ook terug wat napraten van de onderdelen van zijn straf. 141 00:07:26,090 --> 00:07:27,310 >> Dus we zeiden: "No. 142 00:07:27,310 --> 00:07:29,090 In feite ben ik een elektron. " 143 00:07:29,090 --> 00:07:34,190 Eliza antwoordde terug, "Kom je voor mij omdat je een elektron? " 144 00:07:34,190 --> 00:07:34,690 Prima. 145 00:07:34,690 --> 00:07:36,050 Laten we het nog een reactie hier. 146 00:07:36,050 --> 00:07:37,140 Geef het een goede, Miles. 147 00:07:37,140 --> 00:07:37,806 >> MILES: Good one? 148 00:07:37,806 --> 00:07:48,400 149 00:07:48,400 --> 00:07:49,570 >> Ja, kunt u mij helpen. 150 00:07:49,570 --> 00:07:50,570 BRIAN Scassellati: "Ja. 151 00:07:50,570 --> 00:07:58,010 Kunt u mij helpen. '' Weet je het zeker? " 152 00:07:58,010 --> 00:07:58,510 MILES: No. 153 00:07:58,510 --> 00:08:00,860 BRIAN Scassellati: No. 154 00:08:00,860 --> 00:08:03,562 "Wat betekent dat voorstellen voor u?" 155 00:08:03,562 --> 00:08:06,760 >> MILES: Ik kan niet een elektron zijn. 156 00:08:06,760 --> 00:08:11,170 >> BRIAN Scassellati: "Ik kan een elektron zijn. " 157 00:08:11,170 --> 00:08:13,790 "Bedoel je dat geen enkel negatief zijn?" 158 00:08:13,790 --> 00:08:14,390 >> Prima. 159 00:08:14,390 --> 00:08:16,030 Dus Miles, dankuwel. 160 00:08:16,030 --> 00:08:16,860 >> MILES: Dank je wel. 161 00:08:16,860 --> 00:08:18,360 >> BRIAN Scassellati: Heel erg bedankt. 162 00:08:18,360 --> 00:08:20,230 [APPLAUS] 163 00:08:20,230 --> 00:08:21,230 164 00:08:21,230 --> 00:08:26,700 >> Dus dit ELIZA programma, in vele opzichten, reageert alleen maar om de stukken 165 00:08:26,700 --> 00:08:32,730 dat we het verstrekken zonder diepe begrip van wat er hier gebeurt. 166 00:08:32,730 --> 00:08:36,640 Dit is een soort systeem genoemd patroonherkenning, waarbij 167 00:08:36,640 --> 00:08:40,490 we op zoek naar bepaalde stukjes tekst die we dan 168 00:08:40,490 --> 00:08:44,860 uit te gaan van de te nemen wat werd als input, 169 00:08:44,860 --> 00:08:52,580 converteren, potentieel in zekere zin, en geef het dan terug naar de gebruiker. 170 00:08:52,580 --> 00:08:55,150 >> Heeft iemand van jullie denken dat ELIZA eigenlijk 171 00:08:55,150 --> 00:08:58,230 presterende geldig psychoanalyse hier? 172 00:08:58,230 --> 00:08:59,250 Één persoon, misschien. 173 00:08:59,250 --> 00:09:00,166 >> PUBLIEK: [onverstaanbaar]. 174 00:09:00,166 --> 00:09:03,315 175 00:09:03,315 --> 00:09:05,440 BRIAN Scassellati: En hoe maakt dat je je voelt? 176 00:09:05,440 --> 00:09:06,530 Ja, in feite doet. 177 00:09:06,530 --> 00:09:10,890 En we gaan om te zien, in feite, de broncode voor in slechts een moment. 178 00:09:10,890 --> 00:09:13,580 En dus je gaat worden precies kunnen doen. 179 00:09:13,580 --> 00:09:17,420 >> Nu Eliza is een vorm van wat zouden we vandaag de dag een praatje bot noemen. 180 00:09:17,420 --> 00:09:19,950 Het gaat gewoon door tekst die u verleent, 181 00:09:19,950 --> 00:09:24,030 geeft het absolute minimum van begrip of verwerking, 182 00:09:24,030 --> 00:09:26,790 papegaaien en het terug naar u. 183 00:09:26,790 --> 00:09:31,830 Dus laten we eens een kijkje nemen, conceptueel, en praten over wat 184 00:09:31,830 --> 00:09:34,690 is dat ELIZA eigenlijk doet. 185 00:09:34,690 --> 00:09:42,000 >> ELIZA neemt een sentence-- laten we zeggen: "Ik wil mijn baas te imponeren." 186 00:09:42,000 --> 00:09:45,130 En ELIZA zoekt door die zin 187 00:09:45,130 --> 00:09:48,730 en proberen te vinden en overeenkomen met bepaalde patronen. 188 00:09:48,730 --> 00:09:52,850 Dus, bijvoorbeeld één van de patronen dat ELIZA is op zoek naar de woorden 189 00:09:52,850 --> 00:09:55,110 "Ik wil." 190 00:09:55,110 --> 00:09:59,330 En elke keer is het iets ziet dat heeft "Ik wil" in het, 191 00:09:59,330 --> 00:10:01,770 formuleert een antwoord. 192 00:10:01,770 --> 00:10:05,040 En dat antwoord is een vaste string. 193 00:10:05,040 --> 00:10:07,915 In dit geval is het "waarom wil je? ' 194 00:10:07,915 --> 00:10:11,330 En ik zet een kleine ster op het einde, want dat is gewoon 195 00:10:11,330 --> 00:10:13,310 het begin van onze reactie. 196 00:10:13,310 --> 00:10:16,310 De ster geeft aan dat we gaan naar de rest 197 00:10:16,310 --> 00:10:19,850 utterance-- van de gebruiker "mijn baas te imponeren" - 198 00:10:19,850 --> 00:10:24,500 en we gaan te voegen dat op het einde van de string. 199 00:10:24,500 --> 00:10:28,990 >> Dus nu, in plaats van te zeggen, "waarom wil je mijn baas te imponeren, " 200 00:10:28,990 --> 00:10:31,800 er is een klein beetje extra verwerking die wij zullen doen. 201 00:10:31,800 --> 00:10:34,440 Dat wil zeggen, we moeten zetten enkele van de voornaamwoorden 202 00:10:34,440 --> 00:10:38,670 hier van "mijn baas" naar "je baas." 203 00:10:38,670 --> 00:10:41,300 En er misschien een paar andere zijn veranderingen die we nodig hebben om te maken. 204 00:10:41,300 --> 00:10:44,990 Dus in plaats van alleen maar steken zij direct op het einde, wat we zullen doen 205 00:10:44,990 --> 00:10:49,160 is zullen we de rest van de te nemen utterance-- gebruiker in wit hier-- 206 00:10:49,160 --> 00:10:54,090 en we nemen het een stuk op een tijd en zet elke snaar 207 00:10:54,090 --> 00:10:58,180 token, elk woord, in de zin. 208 00:10:58,180 --> 00:10:59,580 >> Dus we zullen het woord nemen "naar." 209 00:10:59,580 --> 00:11:01,650 Er is geen conversie die we nodig hebben om dat te doen. 210 00:11:01,650 --> 00:11:02,340 "Indruk." 211 00:11:02,340 --> 00:11:04,140 Er is geen conversie we moeten om daar te doen. 212 00:11:04,140 --> 00:11:06,670 "Mijn" om te zetten in "uw". 213 00:11:06,670 --> 00:11:10,070 En 'baas' We zullen gewoon laten zoals "baas." 214 00:11:10,070 --> 00:11:12,740 En uiteindelijk, alles die eindigt met een punt, 215 00:11:12,740 --> 00:11:16,640 we zullen het omzetten in een vraag. 216 00:11:16,640 --> 00:11:22,600 >> Deze zeer eenvoudige patroonherkenning is eigenlijk heel succesvol. 217 00:11:22,600 --> 00:11:27,260 En toen dit werd geïntroduceerd in 1966-- Joseph Weizenbaum 218 00:11:27,260 --> 00:11:28,986 geprogrammeerde dit op een computer. 219 00:11:28,986 --> 00:11:31,110 Nu, computers destijds waren niet desktop modellen. 220 00:11:31,110 --> 00:11:33,950 Ze werden gedeelde bronnen. 221 00:11:33,950 --> 00:11:39,090 En zijn studenten zou gaan en chatten met ELIZA. 222 00:11:39,090 --> 00:11:41,570 Uiteindelijk moest hij de toegang te beperken 223 00:11:41,570 --> 00:11:43,890 omdat zijn studenten waren niet krijgen van een werk. 224 00:11:43,890 --> 00:11:46,190 Ze waren gewoon kletsen met ELIZA. 225 00:11:46,190 --> 00:11:48,850 En in feite moest hij brand zijn assistent, die 226 00:11:48,850 --> 00:11:55,840 bracht al haar tijd in gesprek met ELIZA over haar diepe en zorgwekkende problemen. 227 00:11:55,840 --> 00:12:00,350 >> Iedereen die deze systemen gebruikt begon ze te vermenselijken. 228 00:12:00,350 --> 00:12:04,490 Ze begonnen te denken van hen als het zijn levende en echte mensen. 229 00:12:04,490 --> 00:12:07,969 Ze begonnen om een ​​aantal van te erkennen de dingen die ze zeiden 230 00:12:07,969 --> 00:12:09,010 kwamen terug naar hen. 231 00:12:09,010 --> 00:12:12,120 En zij werden uitzoeken dingen over zichzelf. 232 00:12:12,120 --> 00:12:17,290 En in feite zelfs deskundigen, zelfs de psychotherapeuten, 233 00:12:17,290 --> 00:12:22,930 begon te vrezen dat, in feite, Misschien ELIZA zou zijn deze te vervangen. 234 00:12:22,930 --> 00:12:25,640 En zelfs de computer wetenschappers bang dat we waren 235 00:12:25,640 --> 00:12:30,040 zo dicht bij het oplossen van natuurlijke taal. 236 00:12:30,040 --> 00:12:33,520 >> Nu, dat was nergens in de buurt van waar. 237 00:12:33,520 --> 00:12:37,280 Maar dat is hoe indrukwekkend deze systemen kan lijken. 238 00:12:37,280 --> 00:12:40,080 Dus laten we beginnen te kijken eronder en probeer 239 00:12:40,080 --> 00:12:46,190 een beetje een vraag krijgen waar deze code daadwerkelijk gebeurt. 240 00:12:46,190 --> 00:12:48,170 Dus we zullen deze code maken daarna beschikbaar. 241 00:12:48,170 --> 00:12:50,880 Dit is een zeer eenvoudige en directe port 242 00:12:50,880 --> 00:12:53,240 van de oorspronkelijke ELIZA uitvoering. 243 00:12:53,240 --> 00:12:56,350 >> Dus sommige van deze stilistische dingen die je hier ziet 244 00:12:56,350 --> 00:12:59,360 zijn niet stilistisch wat we zouden willen dat je doet 245 00:12:59,360 --> 00:13:01,480 of wat we hebben leer je te doen. 246 00:13:01,480 --> 00:13:04,770 Maar we hebben geprobeerd om hen te houden hetzelfde over de vele havens 247 00:13:04,770 --> 00:13:08,087 dat dit dus dat heeft gehad heeft de smaak van het origineel. 248 00:13:08,087 --> 00:13:09,920 Dus we gaan op te nemen een heleboel dingen, 249 00:13:09,920 --> 00:13:12,920 en dan zullen we een hebben set van zoekwoorden, dingen 250 00:13:12,920 --> 00:13:16,460 dat ELIZA herkent en direct reageren. 251 00:13:16,460 --> 00:13:20,780 Dus als je woorden als "kunt u" of "ik niet" of "nee" 252 00:13:20,780 --> 00:13:24,680 of "ja" of "droom" of "hello", dan ELIZA 253 00:13:24,680 --> 00:13:27,920 zal selectief reageren op die. 254 00:13:27,920 --> 00:13:30,010 We zullen ook een aantal dingen 255 00:13:30,010 --> 00:13:34,940 dat wij zullen ruilen, zoals omzetten van "mijn" naar "je." 256 00:13:34,940 --> 00:13:39,920 >> En dan zullen we een reeks van reacties hebben dat voor elk van deze categorieën, 257 00:13:39,920 --> 00:13:42,580 zullen we door middel van roteren deze verschillende reacties. 258 00:13:42,580 --> 00:13:45,350 Dus als ik zeg "ja" drie keer op een rij, ik 259 00:13:45,350 --> 00:13:50,429 zou kunnen krijgen drie verschillende reacties van ELIZA. 260 00:13:50,429 --> 00:13:52,345 De code is dus eigenlijk opmerkelijk eenvoudig. 261 00:13:52,345 --> 00:13:59,490 Als ik naar beneden scrollen verleden al deze reacties die we hebben geprogrammeerd 262 00:13:59,490 --> 00:14:02,920 en we krijgen omlaag naar onze, we gaan initialiseren 263 00:14:02,920 --> 00:14:06,540 een paar verschillende variabelen en doe een beetje van het huishouden 264 00:14:06,540 --> 00:14:08,480 in het begin. 265 00:14:08,480 --> 00:14:11,760 Maar dan is er absoluut een set van de code die je kunt begrijpen. 266 00:14:11,760 --> 00:14:15,820 Een groot terwijl de lus die zegt dat ik ben gaat dit over en herhalen. 267 00:14:15,820 --> 00:14:20,420 Ik las in een lijn, en ik zal winkel die in een input string. 268 00:14:20,420 --> 00:14:23,880 Ik zal controleren en te zien of het de speciale trefwoord "bye", die 269 00:14:23,880 --> 00:14:26,199 betekent dat het programma te verlaten. 270 00:14:26,199 --> 00:14:29,240 En dan zal ik controleren en zien of iemand zich slechts herhalen 271 00:14:29,240 --> 00:14:29,800 opnieuw en opnieuw. 272 00:14:29,800 --> 00:14:31,174 En ik zal schreeuwen tegen hen als ze dat doen. 273 00:14:31,174 --> 00:14:34,820 Ik zeg "jezelf niet te herhalen." 274 00:14:34,820 --> 00:14:40,500 >> Zolang geen van die gebeuren, zullen we vervolgens scannen door en lus door, 275 00:14:40,500 --> 00:14:45,330 op lijnen 308 om 313 hier, en controleren en te zien 276 00:14:45,330 --> 00:14:49,090 zijn elk van die trefwoord zinnen die in de input 277 00:14:49,090 --> 00:14:50,620 dat ik net was gegeven? 278 00:14:50,620 --> 00:14:54,845 Als er een match voor hen, ook dan zal ik die locatie herinneren. 279 00:14:54,845 --> 00:14:57,050 Ik herinner me dat zoekwoord. 280 00:14:57,050 --> 00:14:58,620 En ik zal in staat zijn om een ​​reactie te bouwen. 281 00:14:58,620 --> 00:15:03,150 >> Als ik niet vinden, wel dan, het laatste wat in mijn trefwoord scala 282 00:15:03,150 --> 00:15:08,070 zal mijn standaard antwoord, wanneer niets anders past. 283 00:15:08,070 --> 00:15:14,160 Ik zal vragen als: 'Waarom heb je kom hier? "of" Hoe kan ik u helpen? " 284 00:15:14,160 --> 00:15:19,710 dat zijn slechts gedeeltelijk geschikt ongeacht wat de ingang is. 285 00:15:19,710 --> 00:15:22,580 >> We zullen dan opbouwen reactie Eliza's. 286 00:15:22,580 --> 00:15:26,040 We zullen in staat zijn om te nemen dat base reactie, 287 00:15:26,040 --> 00:15:28,370 net zoals we deden in dat "mijn baas" voorbeeld. 288 00:15:28,370 --> 00:15:30,970 289 00:15:30,970 --> 00:15:33,990 Als dat alles is dat er is-- als het slechts één 290 00:15:33,990 --> 00:15:36,860 string die ik moet respond-- Ik kan gewoon stuur het terug. 291 00:15:36,860 --> 00:15:40,610 Als het een sterretje bij het einde van het, dan zal ik 292 00:15:40,610 --> 00:15:45,710 verwerken elke individuele token in de rest van het antwoord van de gebruiker 293 00:15:45,710 --> 00:15:51,590 en voeg die in, het omwisselen van woord voor woord als ik moet. 294 00:15:51,590 --> 00:15:56,100 >> Dit alles is geheel iets dat je zou kunnen bouwen. 295 00:15:56,100 --> 00:15:59,230 En inderdaad, de manier waarop we hebben verwerkt command line argumenten, 296 00:15:59,230 --> 00:16:03,570 de manier waarop je hebt verwerkt via HTTP-verzoeken 297 00:16:03,570 --> 00:16:05,510 volgen dezelfde soort regels. 298 00:16:05,510 --> 00:16:08,220 Ze zijn patroonherkenning. 299 00:16:08,220 --> 00:16:15,170 >> Dus ELIZA had een relatief belangrijke impact op de natuurlijke taal 300 00:16:15,170 --> 00:16:21,620 want het leek het alsof het was een zeer haalbaar doel, zoals een of andere manier zouden we 301 00:16:21,620 --> 00:16:25,550 in staat om dit probleem direct oplossen. 302 00:16:25,550 --> 00:16:30,670 Nu, dat is niet te zeggen dat ELIZA doet alles wat we zouden willen doen. 303 00:16:30,670 --> 00:16:33,710 Zeker niet. 304 00:16:33,710 --> 00:16:35,660 Maar we moeten in staat zijn om iets meer te doen. 305 00:16:35,660 --> 00:16:38,280 306 00:16:38,280 --> 00:16:41,490 >> Onze eerste stap om te gaan dan ELIZA gaat 307 00:16:41,490 --> 00:16:44,840 in staat zijn om naar te kijken niet tekst wordt ingevoerd 308 00:16:44,840 --> 00:16:53,750 in het toetsenbord, maar toespraak, daadwerkelijke spraak opgenomen in een microfoon. 309 00:16:53,750 --> 00:16:56,880 Dus als we kijken naar deze verschillende stukken, we zijn 310 00:16:56,880 --> 00:17:00,304 gaat te hebben om een ​​set van modellen op te bouwen. 311 00:17:00,304 --> 00:17:02,970 We gaan moeten kunnen te gaan van de low-level akoestische 312 00:17:02,970 --> 00:17:07,180 information-- toonhoogte, amplitude, frequency-- 313 00:17:07,180 --> 00:17:09,530 en zetten die in sommige eenheden dat we 314 00:17:09,530 --> 00:17:14,619 in staat zijn om gemakkelijker te manipuleren en tenslotte manipuleren 315 00:17:14,619 --> 00:17:18,609 in woorden en zinnen. 316 00:17:18,609 --> 00:17:22,880 >> Dus de meeste spraakherkenning systemen die er vandaag de dag 317 00:17:22,880 --> 00:17:26,069 volgt een statistische model waarin wij bouwen 318 00:17:26,069 --> 00:17:35,090 drie afzonderlijke representaties van wat dat audiosignaal bevat eigenlijk. 319 00:17:35,090 --> 00:17:38,640 We beginnen met een fonetische model dat praat over net de basis 320 00:17:38,640 --> 00:17:41,250 geluiden die ik produceer. 321 00:17:41,250 --> 00:17:46,900 Ben ik het produceren van iets dat B als in jongen of een D als in de hond? 322 00:17:46,900 --> 00:17:53,220 Hoe herken ik die twee verschillende telefoons als afzonderlijke en onderscheiden? 323 00:17:53,220 --> 00:17:56,600 >> Op de top van dat, zullen we dan bouwen een woord Uitspraak model, 324 00:17:56,600 --> 00:18:01,350 iets wat elkaar verbindt die individuele telefoons 325 00:18:01,350 --> 00:18:04,724 en combineert ze in een woord. 326 00:18:04,724 --> 00:18:07,890 En daarna gaan we de woorden te nemen en we zullen ze monteren met een taal 327 00:18:07,890 --> 00:18:13,010 model in een volledige zin. 328 00:18:13,010 --> 00:18:17,230 >> Nu, we gaan om te praten over elk deze los en afzonderlijk. 329 00:18:17,230 --> 00:18:21,580 Maar deze drie modellen zijn allemaal gewoon de statistieken zijn. 330 00:18:21,580 --> 00:18:23,502 En dat betekent dat wanneer we werken met hen, zullen we 331 00:18:23,502 --> 00:18:25,376 in staat zijn om te werken met ze allemaal tegelijk. 332 00:18:25,376 --> 00:18:28,100 333 00:18:28,100 --> 00:18:28,600 Prima. 334 00:18:28,600 --> 00:18:30,890 Laten we beginnen met onze fonetische model. 335 00:18:30,890 --> 00:18:34,470 Dus fonetische modellen vertrouwen op een computationele techniek 336 00:18:34,470 --> 00:18:37,320 riep verborgen Markov modellen. 337 00:18:37,320 --> 00:18:43,050 Dit zijn grafische modellen waarin ik hebben en herkennen een toestand van de wereld 338 00:18:43,050 --> 00:18:46,500 zoals gekenmerkt door een reeks van functies. 339 00:18:46,500 --> 00:18:51,960 En dat staat beschreven ene deel van een actie die ik ben bezig met. 340 00:18:51,960 --> 00:19:00,190 >> Dus als ik denk aan het maken het geluid "ma" zo moeder, 341 00:19:00,190 --> 00:19:03,970 Er zijn verschillende componenten die geluid. 342 00:19:03,970 --> 00:19:07,230 Er is een gedeelte waar ik trek in de adem. 343 00:19:07,230 --> 00:19:09,560 En dan portemonnee ik mijn lippen. 344 00:19:09,560 --> 00:19:13,710 En ik rol mijn lippen een beetje terug beetje dat 'ma' geluid te maken. 345 00:19:13,710 --> 00:19:15,340 En dan is er nog een release. 346 00:19:15,340 --> 00:19:17,020 Mijn lippen komen uit elkaar. 347 00:19:17,020 --> 00:19:19,030 Lucht wordt uitgestoten. 348 00:19:19,030 --> 00:19:22,650 "Ma." 349 00:19:22,650 --> 00:19:29,250 >> Deze drie verschillende delen zou vertegenwoordigd door staten in deze graph-- 350 00:19:29,250 --> 00:19:33,420 het begin, het midden en het einde. 351 00:19:33,420 --> 00:19:38,060 En ik zou overgangen die stond me toe om te reizen van de ene staat 352 00:19:38,060 --> 00:19:42,260 het vervolgens met een bepaalde waarschijnlijkheid. 353 00:19:42,260 --> 00:19:47,250 Dus, bijvoorbeeld, dat M klinkt misschien een zeer hebben, 354 00:19:47,250 --> 00:19:51,850 zeer korte intake bij de beginning-- "mm" - en dan een langere, 355 00:19:51,850 --> 00:19:55,640 vibrerende fase waar ik met mijn lippen op elkaar en bijna humming-- 356 00:19:55,640 --> 00:20:05,090 "mmmm" - en vervolgens een zeer korte plosief waar ik verdrijven breath-- "ma." 357 00:20:05,090 --> 00:20:09,370 >> De verborgen Markov model is bedoeld om het feit te vangen 358 00:20:09,370 --> 00:20:13,340 dat de manier waarop die ik maak dat geluid "ma" gaat 359 00:20:13,340 --> 00:20:17,350 iets anders te zijn de timing, is de frequentie, 360 00:20:17,350 --> 00:20:21,030 en zijn functies dan de manier waarop je het te maken 361 00:20:21,030 --> 00:20:23,300 of de manier waarop ik zou maken wanneer ik praat 362 00:20:23,300 --> 00:20:26,030 over de verschillende toepassingen van de brief. 363 00:20:26,030 --> 00:20:33,240 "Moeder" en "kan ik" zal klinkt iets anders. 364 00:20:33,240 --> 00:20:36,800 >> Dus om een ​​herkennen bepaald geluid, zouden we 365 00:20:36,800 --> 00:20:42,020 bouwen Markov modellen, deze verborgen Markov modellen, van alle mogelijke telefoon die ik 366 00:20:42,020 --> 00:20:45,840 zou willen erkennen, alle mogelijke geluid, 367 00:20:45,840 --> 00:20:49,750 en dan kijken naar de akoestische gegevens die ik heb 368 00:20:49,750 --> 00:20:54,430 en bepalen statistisch welke de meest waarschijnlijke 369 00:20:54,430 --> 00:20:58,110 dit geluid te hebben geproduceerd. 370 00:20:58,110 --> 00:20:58,610 OK. 371 00:20:58,610 --> 00:21:01,540 372 00:21:01,540 --> 00:21:06,750 Met dat model, dan zijn we beginnen te bouwen op de top van het. 373 00:21:06,750 --> 00:21:09,330 We nemen een uitspraak model. 374 00:21:09,330 --> 00:21:11,790 Nu, soms uitspraak modellen zijn eenvoudig en gemakkelijk 375 00:21:11,790 --> 00:21:14,440 want er is maar één manier om iets uit te spreken. 376 00:21:14,440 --> 00:21:17,990 Andere tijden, ze zijn een beetje meer ingewikkeld. 377 00:21:17,990 --> 00:21:21,340 Hier is een uitspraak gids voor dat de rode ding dat is 378 00:21:21,340 --> 00:21:25,210 een vrucht die je maakt ketchup uit. 379 00:21:25,210 --> 00:21:27,360 Mensen denk niet dat het een vrucht. 380 00:21:27,360 --> 00:21:27,860 Rechts? 381 00:21:27,860 --> 00:21:30,880 382 00:21:30,880 --> 00:21:35,300 >> Nu zijn er vele manieren dat mensen dit woord zal uitspreken. 383 00:21:35,300 --> 00:21:37,780 Sommigen zullen zeggen "teen-mei-teen." 384 00:21:37,780 --> 00:21:40,880 Sommigen zullen zeggen "teen-mah-teen." 385 00:21:40,880 --> 00:21:44,800 En we kunnen vastleggen dat met één van deze grafische modellen 386 00:21:44,800 --> 00:21:48,305 waar nogmaals, overgangen vertegenwoordigen wij als een bepaalde waarschijnlijkheid 387 00:21:48,305 --> 00:21:51,360 en bijbehorende kans ermee. 388 00:21:51,360 --> 00:21:58,290 >> Dus in dit geval, als ik te volgen de top route door dit hele grafiek, 389 00:21:58,290 --> 00:22:03,330 Ik zou beginnen bij de letter op de uiterst links, de "ta" geluid. 390 00:22:03,330 --> 00:22:07,570 Ik zou de bovenste helft te nemen, de "oh," en dan een "ma" 391 00:22:07,570 --> 00:22:14,530 en dan een "a," en dan een "ta" en een "oh." "Toe-mei-teen." 392 00:22:14,530 --> 00:22:19,610 Als ik nam de bodem weg door dit krijg ik 'ta-mah-teen. " 393 00:22:19,610 --> 00:22:26,810 En als ik ging naar beneden en vervolgens up, ik zou krijgen "ta-mei-teen." 394 00:22:26,810 --> 00:22:29,950 >> Deze modellen vangen deze verschillen want als 395 00:22:29,950 --> 00:22:32,410 we zetten een van deze erkenning systemen, 396 00:22:32,410 --> 00:22:35,340 het zal moeten werken met veel verschillende soorten mensen, 397 00:22:35,340 --> 00:22:39,295 veel verschillende accenten, en zelfs verschillende toepassingen van dezelfde woorden. 398 00:22:39,295 --> 00:22:42,204 399 00:22:42,204 --> 00:22:44,120 Tot slot, op de top van dat, zullen we iets op te bouwen 400 00:22:44,120 --> 00:22:48,780 dat ziet er echt ingewikkeld, riep de taal-model, 401 00:22:48,780 --> 00:22:52,950 maar in feite is het eenvoudigste de drie omdat deze werken 402 00:22:52,950 --> 00:22:56,041 wat worden genoemd n-gram modellen. 403 00:22:56,041 --> 00:23:02,270 En in dit geval, ik ben toont u een twee-delige n-gram model, een bigram. 404 00:23:02,270 --> 00:23:08,910 We gaan naar de fysieke het idee te maken die soms, sommige woorden 405 00:23:08,910 --> 00:23:14,680 vaker een volgen bepaald woord dan anderen. 406 00:23:14,680 --> 00:23:25,210 Als ik zei gewoon "weer," het volgende woord zou "vandaag" waarschijnlijk 407 00:23:25,210 --> 00:23:31,510 of zou kunnen zijn "het weer voorspellen morgen. " 408 00:23:31,510 --> 00:23:38,870 Maar het is onwaarschijnlijk dat "de weersvoorspelling artisjok. " 409 00:23:38,870 --> 00:23:42,980 >> Wat een taal model doet is het vangt die statistisch 410 00:23:42,980 --> 00:23:47,450 door tellen van een aantal zeer grote corpus, alle instances 411 00:23:47,450 --> 00:23:50,890 waarin één woord andere volgt. 412 00:23:50,890 --> 00:23:54,300 Dus als ik een groot corpus-- zoals elke Wall Street Journal 413 00:23:54,300 --> 00:24:00,750 die is geproduceerd sinds 1930, dat een van de standaard corpuses-- 414 00:24:00,750 --> 00:24:03,910 en ik kijk door alle die tekst, en ik reken 415 00:24:03,910 --> 00:24:09,770 up hoeveel keer na "voorspellen" zie ik "vandaag" 416 00:24:09,770 --> 00:24:17,454 en hoe vaak moet ik zie "voorspellen", gevolgd door "artisjok," 417 00:24:17,454 --> 00:24:19,370 het eerste gaat veel waarschijnlijker zijn. 418 00:24:19,370 --> 00:24:21,540 Het gaat om te verschijnen veel vaker. 419 00:24:21,540 --> 00:24:24,610 En dus zal het een hogere hebben waarschijnlijkheid gekoppeld. 420 00:24:24,610 --> 00:24:27,340 >> Als ik wil achterhalen van de waarschijnlijkheid van een gehele uiting, 421 00:24:27,340 --> 00:24:29,940 dan, ik breek het gewoon. 422 00:24:29,940 --> 00:24:35,990 Dus de kans gehoor de zin "de rat aten kaas" 423 00:24:35,990 --> 00:24:39,110 is de waarschijnlijkheid van het woord "de" starten van een zin, 424 00:24:39,110 --> 00:24:42,540 en de kans dat de woord "rat" volgt het woord "de" 425 00:24:42,540 --> 00:24:44,910 en de kans dat de woord "at" volgt "rat" 426 00:24:44,910 --> 00:24:51,120 en de waarschijnlijkheid dat "cheese" volgt "aten." 427 00:24:51,120 --> 00:24:55,160 >> Dit klinkt als een heleboel statistieken, veel kansen. 428 00:24:55,160 --> 00:24:57,510 En dat is alles wat het is. 429 00:24:57,510 --> 00:25:02,920 Maar het verbazingwekkende is als je dit doet met een voldoende groot monster van data, 430 00:25:02,920 --> 00:25:03,670 het werkt. 431 00:25:03,670 --> 00:25:05,250 En het werkt enorm goed. 432 00:25:05,250 --> 00:25:07,810 433 00:25:07,810 --> 00:25:11,420 We weten allemaal dat deze technologieën. 434 00:25:11,420 --> 00:25:16,500 De meeste besturingssystemen komen met spraakherkenning op dit punt. 435 00:25:16,500 --> 00:25:20,940 We maken gebruik van Siri en Cortana en Echo. 436 00:25:20,940 --> 00:25:25,070 En deze dingen zijn gebaseerd op Dit type drielaags model-- 437 00:25:25,070 --> 00:25:30,620 fonetisch model bij de bodem, een Uitspraak model in het midden, 438 00:25:30,620 --> 00:25:33,690 en een taalmodel erbovenop. 439 00:25:33,690 --> 00:25:37,630 >> Nu hebben ze een beetje meer te doen dan dat om vragen te beantwoorden. 440 00:25:37,630 --> 00:25:43,000 Maar de erkenning van wat je bent gezegde hangt precies op dat. 441 00:25:43,000 --> 00:25:45,700 Dus laten we eens een voorbeeld hier. 442 00:25:45,700 --> 00:25:52,020 Dus ik heb mijn telefoon zitten hier onder de document camera. 443 00:25:52,020 --> 00:25:56,110 En we gaan vraagt Siri een paar vragen. 444 00:25:56,110 --> 00:25:57,150 Prima? 445 00:25:57,150 --> 00:25:59,940 >> Dus laten we wakker mijn telefoon hier. 446 00:25:59,940 --> 00:26:02,710 447 00:26:02,710 --> 00:26:05,000 Siri, wat is het weer zoals in New Haven vandaag? 448 00:26:05,000 --> 00:26:07,670 449 00:26:07,670 --> 00:26:10,780 >> SIRI: Hier is het weer voor New Haven, Connecticut vandaag. 450 00:26:10,780 --> 00:26:11,890 >> BRIAN Scassellati: OK. 451 00:26:11,890 --> 00:26:16,720 Dus eerst je zag dat Siri erkend elk van de afzonderlijke woorden 452 00:26:16,720 --> 00:26:19,050 en produceerde een reactie. 453 00:26:19,050 --> 00:26:22,277 We zullen praten over hoe die reactie komt in een klein beetje. 454 00:26:22,277 --> 00:26:24,110 Maar nu we weten dat dit enkel is gebaseerd 455 00:26:24,110 --> 00:26:28,880 de ruwe statistieken en dit patroonherkenning soort aanpak, 456 00:26:28,880 --> 00:26:31,120 kunnen we wat spelen met Siri. 457 00:26:31,120 --> 00:26:34,560 >> Dus ik kan het opnieuw proberen. 458 00:26:34,560 --> 00:26:38,864 Siri, wat is het weer nijlpaard New Haven, vandaag? 459 00:26:38,864 --> 00:26:39,810 >> SIRI: OK. 460 00:26:39,810 --> 00:26:44,245 Hier is het weer voor New Haven, Connecticut voor vandaag. 461 00:26:44,245 --> 00:26:46,120 BRIAN Scassellati: Siri's niet afgeschrikt door dat 462 00:26:46,120 --> 00:26:50,980 omdat het vond de pattern-- "weer", "vandaag", "New Haven." 463 00:26:50,980 --> 00:26:54,420 Dat is wat het reageert om, net als ELIZA. 464 00:26:54,420 --> 00:26:54,920 Prima. 465 00:26:54,920 --> 00:26:59,390 Laten we het nog eens belachelijker voorbeeld. 466 00:26:59,390 --> 00:27:03,075 Siri, weer artisjok gordeldier nijlpaard New Haven? 467 00:27:03,075 --> 00:27:06,806 468 00:27:06,806 --> 00:27:08,400 >> SIRI: Laat me controleren dat. 469 00:27:08,400 --> 00:27:11,280 Hier is wat ik gevonden op het web voor wat zijn artisjokken armadillo 470 00:27:11,280 --> 00:27:13,780 nijlpaard New Haven. 471 00:27:13,780 --> 00:27:14,760 >> BRIAN Scassellati: OK. 472 00:27:14,760 --> 00:27:20,400 Dus als ik ver genoeg weg van dit model, 473 00:27:20,400 --> 00:27:24,365 Ik ben in staat om het te verwarren, omdat het geen langer overeenkomt met het patroon dat het. 474 00:27:24,365 --> 00:27:27,370 475 00:27:27,370 --> 00:27:29,390 En dat statistische motor die zegt, 476 00:27:29,390 --> 00:27:32,850 wat is de kans dat je hebt de woorden nijlpaard en artisjok 477 00:27:32,850 --> 00:27:34,440 samen, en gordeldier? 478 00:27:34,440 --> 00:27:36,050 Dat moet iets nieuws zijn. 479 00:27:36,050 --> 00:27:38,840 480 00:27:38,840 --> 00:27:40,610 >> Dus deze technologieën die we dagelijks gebruiken. 481 00:27:40,610 --> 00:27:43,670 482 00:27:43,670 --> 00:27:47,800 Als we willen hen een stap verder, hoewel, als we eigenlijk 483 00:27:47,800 --> 00:27:53,930 willen in staat zijn om te praten over wat het is dat deze systemen reageren op, 484 00:27:53,930 --> 00:28:00,630 we spreken, wederom ongeveer meer fundamentele reeks vragen. 485 00:28:00,630 --> 00:28:05,370 En dat is een onderwerp in de communicatie dat noemen we vraag antwoordapparaat. 486 00:28:05,370 --> 00:28:07,028 Dat wil zeggen, we willen kunnen to-- ja? 487 00:28:07,028 --> 00:28:07,944 PUBLIEK: [onverstaanbaar]. 488 00:28:07,944 --> 00:28:10,789 489 00:28:10,789 --> 00:28:13,330 BRIAN Scassellati: Krijgen we in semantische verwerking? 490 00:28:13,330 --> 00:28:14,070 Ja dus. 491 00:28:14,070 --> 00:28:17,820 Er zijn een heleboel dingen die zijn gebeurt onder de oppervlakte met Siri 492 00:28:17,820 --> 00:28:20,210 en in sommige van de voorbeelden Ik ga u de volgende tonen 493 00:28:20,210 --> 00:28:22,610 waar er nogal wat wat betreft de structuur 494 00:28:22,610 --> 00:28:25,260 van wat je zegt, dat is belangrijk. 495 00:28:25,260 --> 00:28:31,890 En, in feite, dat is een geweldig voorloper voor de volgende dia voor mij. 496 00:28:31,890 --> 00:28:35,110 >> Dus net zoals onze spraakherkenning opgebouwd 497 00:28:35,110 --> 00:28:39,620 uit meerdere lagen, als we willen begrijpen wat het is dat eigenlijk 498 00:28:39,620 --> 00:28:44,620 gezegd zijnde, zijn we weer gaan rekenen op een meerlaags analyse 499 00:28:44,620 --> 00:28:47,020 van de tekst dat wordt herkend. 500 00:28:47,020 --> 00:28:52,560 Dus als Siri is eigenlijk in staat om zeg, kijk ik vond deze woorden. 501 00:28:52,560 --> 00:28:55,230 Wat moet ik nu doen met hen? 502 00:28:55,230 --> 00:28:59,110 De eerste component is vaak ga door en probeer te analyseren 503 00:28:59,110 --> 00:29:03,010 de structuur van de zin. 504 00:29:03,010 --> 00:29:05,410 En in wat we hebben gezien op de lagere school, vaak, 505 00:29:05,410 --> 00:29:08,920 als een soort van diagrammen zinnen, we gaan 506 00:29:08,920 --> 00:29:12,774 dat bepaalde herkennen woorden hebben bepaalde rollen. 507 00:29:12,774 --> 00:29:13,440 Dit zijn zelfstandige naamwoorden. 508 00:29:13,440 --> 00:29:14,231 Deze zijn voornaamwoorden. 509 00:29:14,231 --> 00:29:16,200 Dit zijn werkwoorden. 510 00:29:16,200 --> 00:29:19,460 En we gaan herkennen voor een bepaald grammatica, 511 00:29:19,460 --> 00:29:24,700 In dit geval Engels grammatica er geldige manieren waarop ik ze kan combineren 512 00:29:24,700 --> 00:29:26,280 en andere manieren die niet geldig zijn. 513 00:29:26,280 --> 00:29:29,920 514 00:29:29,920 --> 00:29:33,870 >> Dat de erkenning, dat de structuur, genoeg om te helpen gids ons zou kunnen zijn 515 00:29:33,870 --> 00:29:36,720 een klein beetje. 516 00:29:36,720 --> 00:29:39,820 Maar het is niet genoeg ons te kunnen verlenen 517 00:29:39,820 --> 00:29:43,290 elke betekenis aan wat hier gezegd wordt. 518 00:29:43,290 --> 00:29:46,615 Om dat te doen, zullen we moeten vertrouwen op bepaalde hoeveelheid semantische verwerking. 519 00:29:46,615 --> 00:29:49,590 520 00:29:49,590 --> 00:29:55,080 Dat wil zeggen, we zullen moeten kijken bij onder wat elk van deze woorden 521 00:29:55,080 --> 00:29:57,400 feitelijk werkzaam als betekenis. 522 00:29:57,400 --> 00:30:01,150 En in de eenvoudigste manier om dit te doen, we gaan associëren met elk woord 523 00:30:01,150 --> 00:30:06,930 dat we weten een bepaalde functie, een zekere transformatie dat 524 00:30:06,930 --> 00:30:09,300 laat gebeuren. 525 00:30:09,300 --> 00:30:14,470 >> In dit geval zouden we het etiket van de Het woord "Jan" als een eigennaam, 526 00:30:14,470 --> 00:30:18,160 dat het met zich identiteit. 527 00:30:18,160 --> 00:30:21,530 En we kunnen bestempelen "Maria", zoals op dezelfde manier. 528 00:30:21,530 --> 00:30:27,900 Overwegende dat een werkwoord als "liefdes," dat vormt een bijzondere relatie 529 00:30:27,900 --> 00:30:31,582 dat we in staat zijn om te vertegenwoordigen. 530 00:30:31,582 --> 00:30:33,290 Nu, dat betekent niet dat dat we begrijpen 531 00:30:33,290 --> 00:30:37,680 wat liefde is, maar alleen dat we begrijpen in de vorm van een symbolische systeem. 532 00:30:37,680 --> 00:30:40,480 Dat wil zeggen, we kunnen bestempelen het en manipuleren. 533 00:30:40,480 --> 00:30:44,230 534 00:30:44,230 --> 00:30:49,120 >> Bij elk van deze typen benaderingen elke vorm van semantische verwerking 535 00:30:49,120 --> 00:30:57,060 hier gaat om een ​​beetje vereisen beetje kennis en een hoop werk 536 00:30:57,060 --> 00:30:59,020 van onze kant. 537 00:30:59,020 --> 00:31:03,590 We zijn niet langer in het rijk waarbij gewoon statistieken 538 00:31:03,590 --> 00:31:07,320 gaan genoeg voor ons te zijn. 539 00:31:07,320 --> 00:31:11,330 Om nu te gaan vanaf dit punt aan het zijn 540 00:31:11,330 --> 00:31:15,520 in staat om te praten over de binnenkant van wat eigenlijk hier gebeurt, 541 00:31:15,520 --> 00:31:19,640 om dit te kunnen manipuleren structureren en begrijpen van een vraag 542 00:31:19,640 --> 00:31:23,160 en dan kunnen om uit te gaan en te zoeken, 543 00:31:23,160 --> 00:31:27,290 dat een vereist complexe cognitieve model. 544 00:31:27,290 --> 00:31:34,880 >> De wijze waarop deze systemen worden gebouwd is grotendeels zeer, zeer arbeidsintensief 545 00:31:34,880 --> 00:31:36,350 intensive. 546 00:31:36,350 --> 00:31:39,490 Het gaat om mensen besteden een groot deel 547 00:31:39,490 --> 00:31:44,100 tijd structureren van de manieren die dit soort zinnen 548 00:31:44,100 --> 00:31:47,270 kunnen worden vertegenwoordigd in bepaalde logica. 549 00:31:47,270 --> 00:31:51,639 550 00:31:51,639 --> 00:31:53,430 Het wordt nog een beetje meer complexe, dat wel. 551 00:31:53,430 --> 00:31:56,400 552 00:31:56,400 --> 00:31:59,660 >> Zelfs als we hebben behandeld met semantiek, zullen we 553 00:31:59,660 --> 00:32:03,860 nog steeds te kijken naar de pragmatiek van wat er wordt gezegd. 554 00:32:03,860 --> 00:32:08,620 Dat is, hoe kan ik vertellen de woorden dat ik moet iets fysiek uit 555 00:32:08,620 --> 00:32:12,054 er in de wereld of bij minste enige informatiebron 556 00:32:12,054 --> 00:32:12,970 dat ik kan manipuleren? 557 00:32:12,970 --> 00:32:15,780 558 00:32:15,780 --> 00:32:20,790 >> Soms zijn deze leiden tot prachtige stukjes van ambiguïteit. 559 00:32:20,790 --> 00:32:24,470 "Rood-hete ster te astronoom trouwen." 560 00:32:24,470 --> 00:32:25,630 OK. 561 00:32:25,630 --> 00:32:28,540 Nu, dat als we lezen grappig soort kop 562 00:32:28,540 --> 00:32:34,690 dat we zouden zien op de late night tv omdat we niet "ster" te interpreteren 563 00:32:34,690 --> 00:32:38,630 zijn hemellichaam betekenis. 564 00:32:38,630 --> 00:32:43,390 We weten dat het betekent hoe gemeengoed acteur of actrice 565 00:32:43,390 --> 00:32:45,240 met grote hoeveelheden zichtbaarheid. 566 00:32:45,240 --> 00:32:47,770 567 00:32:47,770 --> 00:32:51,950 >> "Squad helpt hond beet het slachtoffer." 568 00:32:51,950 --> 00:32:55,550 Is het dat de ploeg is eigenlijk daar het assisteren van een hond 569 00:32:55,550 --> 00:32:59,620 in rond te gaan en bijten slachtoffers? 570 00:32:59,620 --> 00:33:02,380 Of is het dat er een persoon die was 571 00:33:02,380 --> 00:33:04,625 gebeten door een hond die wat hulp nodig? 572 00:33:04,625 --> 00:33:07,650 573 00:33:07,650 --> 00:33:11,480 Door alleen naar de syntaxis en de semantiek van de zinnen, 574 00:33:11,480 --> 00:33:14,660 kunnen we niet bepalen dat. 575 00:33:14,660 --> 00:33:22,000 >> "Helicopter aangedreven door menselijke vliegen." 576 00:33:22,000 --> 00:33:27,330 Zijn er in feite feitelijke kleine dingen vliegen rond dat 577 00:33:27,330 --> 00:33:34,510 zijn mensen met vleugels voeden helikopters voor het welzijn van de mensheid? 578 00:33:34,510 --> 00:33:38,960 Of is er een mechanisch apparaat dat zijn kracht ontleent aan een persoon? 579 00:33:38,960 --> 00:33:41,600 580 00:33:41,600 --> 00:33:46,500 >> Wanneer we kijken naar vraag beantwoorden van systemen, 581 00:33:46,500 --> 00:33:51,110 Dit zijn de lagen die we moeten behandelen. 582 00:33:51,110 --> 00:33:54,890 Nu, de beste en de meest soort van heersende van deze systemen 583 00:33:54,890 --> 00:34:00,640 vandaag kunnen doen dingen op een niveau dat zijn 584 00:34:00,640 --> 00:34:05,050 veel verder dan wat we hadden 10 jaar geleden. 585 00:34:05,050 --> 00:34:08,210 Hier is een van de beste systemen dat is daar vandaag. 586 00:34:08,210 --> 00:34:10,519 Dit is een systeem IBM Watson genoemd. 587 00:34:10,519 --> 00:34:13,040 588 00:34:13,040 --> 00:34:15,500 Dit is van onze vrienden bij IBM. 589 00:34:15,500 --> 00:34:19,810 Dit is Katherine banken, Jia Chen, en Priscilla Moraes geeft ons 590 00:34:19,810 --> 00:34:26,323 een demonstratie van Watson gisteren in IBM Yorktown. 591 00:34:26,323 --> 00:34:26,989 [VIDEO AFSPELEN] 592 00:34:26,989 --> 00:34:27,690 -Hoe gaat het met je? 593 00:34:27,690 --> 00:34:30,600 594 00:34:30,600 --> 00:34:31,980 >> -Het gaat goed met me. 595 00:34:31,980 --> 00:34:35,429 Ik ben altijd blij als ik ben denken, vooral als ik 596 00:34:35,429 --> 00:34:38,920 kan koel in deze server kamers blijven. 597 00:34:38,920 --> 00:34:40,170 -Wie Is je favoriete actrice? 598 00:34:40,170 --> 00:34:43,870 599 00:34:43,870 --> 00:34:47,555 >> -Mijn Favoriete actrice Angelina Jolie als Lara Croft 600 00:34:47,555 --> 00:34:54,800 in Tomb Raider, omdat haar oorspronkelijke vorm was als een virtueel personage zoals ik. 601 00:34:54,800 --> 00:34:56,760 >> -hoe Kan Watson patiënten helpen? 602 00:34:56,760 --> 00:34:59,700 603 00:34:59,700 --> 00:35:03,755 >> -is Het plan voor patiënten hebben toegang tot Watson direct? 604 00:35:03,755 --> 00:35:08,050 Toegang tot Watson adviserende toepassingen zal verschillen per use case. 605 00:35:08,050 --> 00:35:12,630 Maar momenteel wordt alleen voorzien Watson mogelijke diagnose en behandeling 606 00:35:12,630 --> 00:35:14,725 opties medische professional. 607 00:35:14,725 --> 00:35:17,680 In voorkomend geval, patiënten kan informatie verstrekken 608 00:35:17,680 --> 00:35:21,210 Watson, wellicht via een portal webinterface, tablet, 609 00:35:21,210 --> 00:35:23,500 of zelfs een mobiele telefoon. 610 00:35:23,500 --> 00:35:27,180 Bijvoorbeeld kan een patiënt zijn gevraagd hun symptomen beschrijven 611 00:35:27,180 --> 00:35:30,460 in natuurlijke taal direct een Watson-oplossing, 612 00:35:30,460 --> 00:35:34,050 waardoor de arts te richten op diagnose en geen gegevensverzameling. 613 00:35:34,050 --> 00:35:38,379 614 00:35:38,379 --> 00:35:42,716 >> -die Vermoord Abraham Lincoln? 615 00:35:42,716 --> 00:35:46,153 >> -John Wilkes Booth. 616 00:35:46,153 --> 00:35:52,373 >> -in Welk jaar heeft de Arizona Diamondbacks winnen van de World Series? 617 00:35:52,373 --> 00:35:55,295 >> -2001. 618 00:35:55,295 --> 00:35:58,710 >> [END AFSPELEN] 619 00:35:58,710 --> 00:36:01,610 >> BRIAN Scassellati: So dit soort systemen 620 00:36:01,610 --> 00:36:07,430 moeten vertrouwen op allereerst erkenning van de spraak; tweede, 621 00:36:07,430 --> 00:36:12,200 omzetten in een betekenisvolle interne vertegenwoordiging; en, ten derde, 622 00:36:12,200 --> 00:36:17,090 in staat om uit te gaan en vinden de informatiebron die 623 00:36:17,090 --> 00:36:21,140 laat hen toe om die vraag te beantwoorden. 624 00:36:21,140 --> 00:36:27,320 Dit niveau van complexiteit impliceert dezelfde soort dingen programmatische 625 00:36:27,320 --> 00:36:31,790 dat u bent geweest doet in probleem sets. 626 00:36:31,790 --> 00:36:38,000 >> We zijn in staat om HTTP-verzoeken te ontleden in hetzelfde type low-level patroon 627 00:36:38,000 --> 00:36:40,810 matching dat ELIZA kan doen. 628 00:36:40,810 --> 00:36:45,070 We zijn in staat om die te zetten tot een interne representatie, 629 00:36:45,070 --> 00:36:50,360 en vervolgens te gebruiken om wat te vragen externe database, eventueel met SQL. 630 00:36:50,360 --> 00:36:53,530 631 00:36:53,530 --> 00:36:56,260 Alle systemen die worden gebouwd vandaag 632 00:36:56,260 --> 00:37:00,520 dit soort natuurlijke do taal communicatie 633 00:37:00,520 --> 00:37:04,100 worden gebouwd op dezelfde principes. 634 00:37:04,100 --> 00:37:09,530 >> Nu, zelfs een systeem als Watson is niet complex genoeg 635 00:37:09,530 --> 00:37:14,820 te kunnen beantwoorden willekeurige vragen over elk onderwerp. 636 00:37:14,820 --> 00:37:20,060 En inderdaad, ze moeten gestructureerd binnen een gegeven domein. 637 00:37:20,060 --> 00:37:24,440 Dus je kunt online gaan en je kunt vinden versies van Watson die goed werken 638 00:37:24,440 --> 00:37:27,700 binnen de medische informatica. 639 00:37:27,700 --> 00:37:31,490 Of er is een online dat alleen maar bezighoudt met hoe 640 00:37:31,490 --> 00:37:34,540 om goede aanbevelingen over te maken wat bier gaat die met voedsel. 641 00:37:34,540 --> 00:37:37,060 642 00:37:37,060 --> 00:37:41,870 En binnen deze domeinen, het kan vragen te beantwoorden, 643 00:37:41,870 --> 00:37:46,130 vinden de informatie die zij nodig heeft. 644 00:37:46,130 --> 00:37:48,270 >> Maar je kunt niet mixen en matchen. 645 00:37:48,270 --> 00:37:53,150 Het systeem dat is opgeleid met de database van eten en bier 646 00:37:53,150 --> 00:37:56,830 werkt niet goed wanneer je plotseling zet het in de medische informatica 647 00:37:56,830 --> 00:37:59,770 database. 648 00:37:59,770 --> 00:38:05,680 Dus zelfs onze beste systemen van vandaag vertrouwen op een niveau van verwerking 649 00:38:05,680 --> 00:38:11,570 waarin we de hand codering en bouwen in de infrastructuur in orde 650 00:38:11,570 --> 00:38:13,275 dit systeem run te maken. 651 00:38:13,275 --> 00:38:16,360 652 00:38:16,360 --> 00:38:20,710 >> Nu, het laatste onderwerp dat ik wil kunnen nu krijgen 653 00:38:20,710 --> 00:38:23,960 gaat over non-verbale communicatie. 654 00:38:23,960 --> 00:38:29,290 Een grote massa van de informatie die communiceren met elkaar 655 00:38:29,290 --> 00:38:35,490 komt niet tot stand door de individuele woorden die we toepassen. 656 00:38:35,490 --> 00:38:40,290 Het heeft te maken met zaken als nabijheid, blik, de toon van je stem, 657 00:38:40,290 --> 00:38:42,270 uw verbuiging. 658 00:38:42,270 --> 00:38:46,620 En dat de communicatie is ook iets dat veel verschillende interfaces 659 00:38:46,620 --> 00:38:49,960 zorg veel over. 660 00:38:49,960 --> 00:38:51,500 Het is niet wat Siri geeft. 661 00:38:51,500 --> 00:38:56,250 Ik kan Siri iets in een stem vragen of in een andere toon van de stem, 662 00:38:56,250 --> 00:38:59,840 en Siri gaat geef mij hetzelfde antwoord. 663 00:38:59,840 --> 00:39:05,260 Maar dat is niet wat we bouwen voor vele andere soorten interfaces. 664 00:39:05,260 --> 00:39:09,120 >> Ik wil je voorstellen nu één van de robots. 665 00:39:09,120 --> 00:39:12,720 Dit werd gebouwd door mijn oude vriend en collega Cynthia 666 00:39:12,720 --> 00:39:16,010 Breazeal en haar gezelschap Jibo. 667 00:39:16,010 --> 00:39:20,090 En dit robot-- we gaan om een ​​paar vrijwilligers 668 00:39:20,090 --> 00:39:22,520 komen om met deze. 669 00:39:22,520 --> 00:39:26,200 Dus heb ik twee mensen die bereid zijn om te spelen met de robot voor mij? 670 00:39:26,200 --> 00:39:29,936 Waarom kom je niet op maximaal, en waarom kom je niet op maximaal. 671 00:39:29,936 --> 00:39:31,310 Als je hier zou samen met mij, alsjeblieft. 672 00:39:31,310 --> 00:39:36,520 673 00:39:36,520 --> 00:39:39,670 >> En als ik kon u kom rechts over hier. 674 00:39:39,670 --> 00:39:40,170 Met dank. 675 00:39:40,170 --> 00:39:40,480 Hoi. 676 00:39:40,480 --> 00:39:41,400 >> ALFREDO: Leuk je te ontmoeten. 677 00:39:41,400 --> 00:39:42,010 Alfredo. 678 00:39:42,010 --> 00:39:42,520 >> BRIAN Scassellati: Alfredo. 679 00:39:42,520 --> 00:39:43,146 >> RACHEL: Rachel. 680 00:39:43,146 --> 00:39:44,228 BRIAN Scassellati: Rachel. 681 00:39:44,228 --> 00:39:45,154 Leuk om jullie beiden te ontmoeten. 682 00:39:45,154 --> 00:39:46,820 Alfredo, ik ga moet je eerst gaan. 683 00:39:46,820 --> 00:39:47,990 Kom hier recht. 684 00:39:47,990 --> 00:39:51,870 Ik ga in te voeren je-- als ik dit kan uitstappen 685 00:39:51,870 --> 00:39:58,450 zonder kloppen de microphone-- een kleine robot genaamd Jibo. 686 00:39:58,450 --> 00:40:00,140 OK? 687 00:40:00,140 --> 00:40:04,260 >> Nu, Jibo is ontworpen interactief te zijn. 688 00:40:04,260 --> 00:40:09,339 En hoewel het je spraak kan geven, veel van de interactie met de robot 689 00:40:09,339 --> 00:40:09,880 is non-verbale. 690 00:40:09,880 --> 00:40:12,450 691 00:40:12,450 --> 00:40:17,070 Alfredo, ik ga je vragen om zeg iets leuk en gratis 692 00:40:17,070 --> 00:40:19,554 naar de robot, alstublieft. 693 00:40:19,554 --> 00:40:20,845 Alfredo: Ik denk dat je schattig uitzien. 694 00:40:20,845 --> 00:40:24,114 695 00:40:24,114 --> 00:40:25,611 >> [Gonzende geluid] 696 00:40:25,611 --> 00:40:26,192 697 00:40:26,192 --> 00:40:27,108 BRIAN Scassellati: OK. 698 00:40:27,108 --> 00:40:30,110 699 00:40:30,110 --> 00:40:33,180 Het antwoord is niet verbaal. 700 00:40:33,180 --> 00:40:35,180 En toch je gaf beiden een duidelijke erkenning 701 00:40:35,180 --> 00:40:39,680 wat je dat gehoord had gezegd en ook een of andere manier begreep dat. 702 00:40:39,680 --> 00:40:40,530 OK? 703 00:40:40,530 --> 00:40:42,070 Stap terug hier voor een seconde. 704 00:40:42,070 --> 00:40:43,130 Dankjewel. 705 00:40:43,130 --> 00:40:44,090 >> Rachel, als je dat zou doen. 706 00:40:44,090 --> 00:40:46,070 Nu, ik ga geven je veel harder werk. 707 00:40:46,070 --> 00:40:48,361 Als je hier zou staan, back-up van alleen een beetje zo 708 00:40:48,361 --> 00:40:50,280 kunnen wij u op de camera en kijk op deze manier. 709 00:40:50,280 --> 00:40:56,840 Ik ga je vragen om iets te zeggen echt betekent en smerig aan de robot. 710 00:40:56,840 --> 00:41:02,900 >> RACHEL: Wat je net leek doen was volkomen absurd. 711 00:41:02,900 --> 00:41:03,840 >> [Zoemend geluid] 712 00:41:03,840 --> 00:41:07,610 713 00:41:07,610 --> 00:41:09,030 >> Dat was nog absurder. 714 00:41:09,030 --> 00:41:10,120 Wat is er met u aan de hand? 715 00:41:10,120 --> 00:41:13,487 716 00:41:13,487 --> 00:41:16,207 Aw, voel me niet slecht. 717 00:41:16,207 --> 00:41:17,040 Ik geef je een knuffel te geven. 718 00:41:17,040 --> 00:41:19,882 719 00:41:19,882 --> 00:41:21,090 BRIAN Scassellati: Oké. 720 00:41:21,090 --> 00:41:22,280 Bedankt, Rachel. 721 00:41:22,280 --> 00:41:24,565 Alfredo, Rachel, bedankt jongens heel veel. 722 00:41:24,565 --> 00:41:26,840 >> [APPLAUS] 723 00:41:26,840 --> 00:41:28,660 724 00:41:28,660 --> 00:41:34,470 >> Dus dit soort interactie heeft in vele manieren enkele zelfde regels 725 00:41:34,470 --> 00:41:36,950 en een aantal van dezelfde structuur als wat we 726 00:41:36,950 --> 00:41:39,950 zou kunnen hebben in linguïstische interactie. 727 00:41:39,950 --> 00:41:44,530 Het is zowel communicatief en dient een belangrijk doel. 728 00:41:44,530 --> 00:41:48,590 En dat interactie, in vele manieren ontworpen 729 00:41:48,590 --> 00:41:52,890 om een ​​bepaald effect op hebben persoon interactie met of het luisteren 730 00:41:52,890 --> 00:41:54,410 de robot. 731 00:41:54,410 --> 00:41:56,450 >> Nu, ik ben gelukkig genoeg om Jibo hier vandaag. 732 00:41:56,450 --> 00:42:00,550 Sam Spaulding is hier helpen ons met de robot. 733 00:42:00,550 --> 00:42:07,470 En ik ga Sam vragen te geven ons een leuke demo van Jibo dansen 734 00:42:07,470 --> 00:42:09,720 dat we hier aan het einde kan kijken. 735 00:42:09,720 --> 00:42:10,590 Dus ga je gang, Jibo. 736 00:42:10,590 --> 00:42:11,550 >> SAM: OK, Jibo. 737 00:42:11,550 --> 00:42:14,430 Toon ons uw dansbewegingen. 738 00:42:14,430 --> 00:42:17,310 >> [Muziek] 739 00:42:17,310 --> 00:42:43,114 740 00:42:43,114 --> 00:42:44,780 BRIAN Scassellati: Oké, iedereen. 741 00:42:44,780 --> 00:42:46,865 Met dank aan onze vrienden bij Jibo. 742 00:42:46,865 --> 00:42:49,426 >> [APPLAUS] 743 00:42:49,426 --> 00:42:50,140 744 00:42:50,140 --> 00:42:54,990 >> En dankzij onze vrienden bij IBM voor het helpen van vandaag. 745 00:42:54,990 --> 00:42:57,300 Communicatie is iets dat je gaat 746 00:42:57,300 --> 00:43:02,280 om te zien komen steeds meer als wij bouwen meer complexe interfaces. 747 00:43:02,280 --> 00:43:05,760 Volgende week gaan we praten over hoe om te communiceren 748 00:43:05,760 --> 00:43:08,890 met computer tegenstanders in games. 749 00:43:08,890 --> 00:43:12,950 Maar als je vragen hebt over dit hebben, Ik kom rond op het kantoor uur vanavond. 750 00:43:12,950 --> 00:43:17,610 Ik ben blij om u te praten over AI onderwerpen of te krijgen in meer detail. 751 00:43:17,610 --> 00:43:18,927 Hebben een geweldig weekend. 752 00:43:18,927 --> 00:43:21,409 >> [APPLAUS] 753 00:43:21,409 --> 00:43:21,909 754 00:43:21,909 --> 00:43:26,141 [Muziek] 755 00:43:26,141 --> 00:46:42,879