JAMES MANCHET: Hej, god eftermiddag, alle sammen. Mit navn er James Cuff. Jeg er den assisterende dekan for forskning Computing her på Harvard University. Og i dag vil jeg tale med dig om hvorfor skala-out computing er afgørende. Så jeg gætte, først op, der er denne fyr? Hvorfor er jeg her? Hvorfor taler jeg med dig? Jeg har en baggrund i videnskabelig computing og forskning computing, strækker sig tilbage til De Forenede Kingdom-- The Wellcome Trust Sanger Institut for den menneskelige genome-- og så for nylig i USA arbejder på de overordnede og andre agtet steder for læring, som Harvard. Jeg gætte, hvad der virkelig betyder at jeg er en inddrive molekylær bio fysiker. Så hvad ret har jeg nødt til at fortælle dig om skala-out computing? Der er en dog. 18 år, så jeg har lige set den mest dramatiske stigninger i skala kompleksitet og samlede effektivitet af computersystemer. Da jeg lavede min PhD på Oxford, jeg var temmelig ophidset med en 200 megahertz Silicon Graphics maskine med 18 gigabyte lagerplads og en enkelt CPU. Tiderne har ændret sig. Hvis du spoler frem nu, vi spinning over 60.000 CPU'er her på Harvard. Mange andre organisationer roterer mange flere. Det vigtige takeaway fra dette er at skalaen er nu ikke kun uundgåelig, det er sket, og det er vil fortsætte med at ske. Så lad os for et øjeblik, venlig af spole tilbage og tale meget hurtigt om videnskab, min favorit emne, den videnskabelige metode. Hvis du er til at være en videnskabsmand, du skal gøre et par vigtige ting. Hvis du ikke gør disse ting, du kan ikke anser dig selv en videnskabsmand og du vil kæmpe at kunne forstå dit område af disciplin. Så først og fremmest vil du formulere dit spørgsmål, du generere hypoteser, men endnu vigtigere, du forudsige din results-- du har et gæt på hvad resultaterne vil være. Og så endelig, du teste din hypotese og analysere dine resultater. Så denne videnskabelige metode er ekstremt vigtigt i computing. Computing både forudsigelsen og at kunne teste dine resultater er en vigtig del af det, vi har brug for at gøre i den videnskabelige metode. Disse forudsigelser og afprøvninger er de virkelige to hjørnestene af den videnskabelige metode, og hver kræver de største fremskridt i moderne beregning. De to søjler i videnskab er, at teori og eksperimenter. Og for nylig, computing nævnes ofte som den tredje søjle af videnskaben. Så hvis du studerende ser denne, du har absolut ingen pres. Tredje søjle i science-- nogen big deal-- computing, slags vigtige. Så glad dette er computing del datalogi kursus 50. Så nok af baggrunden. Jeg vil gerne fortælle dig plan for, hvad vi kommer til at tale om i dag. Jeg har tænkt mig at gå over nogle historie. Jeg har tænkt mig at forklare, hvorfor vi kom her. Jeg har tænkt mig at tale om nogle af historien om computing her på Harvard, nogle aktiviteter omkring sociale medier, grøn things-- meget lidenskabelig om alle ting green-- storage-- computer storage-- hvordan kaos påvirker skala-out ud systemer, og distribution systemer i særdeleshed. Og så jeg har tænkt mig at komme ind på nogle af skalaen-out hardware, der er der kræves for at være i stand til gøre computing på skalaen. Og så endelig, vi vil wrap op med nogle awesome videnskab. Så lad os tage et minut til se på vores faktiske historie. Computing har udviklet sig. Så da 60'erne, alle den væk igennem til i dag, vi har set stort set en ændring i rækkevidde fra centraliseret computing at decentralisere computing, til samarbejdsorienteret og derefter uafhængig computing og højre back igen. Og lad mig anmærke, at en lille smule. Da vi først startede med computere, havde vi mainframes. De var overordentligt dyrt udstyr. Alt skulle deles. Den computing var kompleks. Du kan se, det fyldt værelser og der var operatører og bånd og alle former for whirry, clicky, Spinny enheder. Omkring 70'erne tidlige 80'ere, du startede at se en effekt af de faxmaskiner. Så du begynder at se computing begynder at dukke tilbage i laboratorier og komme tættere på dig. Fremkomsten af ​​den personlige computer, bestemt i 80'erne, først på årti ændret virkelig computing. Og der er en anelse i titlen, fordi det blev kaldt den personlige computer, som betød det tilhørte dig. Så som udviklingen i computing fortsatte, folk indså, at deres personlige computer ikke var virkelig stor nok at være i stand til at gøre noget for nogen fortjeneste, eller betydelig fortjeneste, i videnskaben. Og så folk begyndte at udvikle netværksenhed drivere for at kunne forbinde pc'er sammen for at være i stand til at opbygge klynger. Og så dette avlede den æra af Beowulf klynge. Linux eksploderede som en reaktion på proprietære styresystem, både omkostninger og kompleksitet. Og så er vi her i dag, hvor endnu en gang, vi er konfronteret med værelser fuld af computer udstyr og evnen at knalde ens kreditkort og få adgang til disse computerfaciliteter, eksternt. Og så kan du så se, i form af historie dønninger hvordan vi gør computing i dag, er det absolut udviklet sig fra maskinen værelser fuld af computere gennem nogle pc hele vejen tilbage igen til maskinen værelser fuld af computere. Så dette er min første klynge. Så 2000 byggede vi et computersystem i Europa til effektivt at kommentere det humane genom. Der er en masse teknologi noteret på højre side der, desværre er ikke længere hos os. Det er gået ud til store teknologi i himlen. Selve maskinen er sandsynligvis svarende til et par anstændigt laptops i dag, og at lige slags viser dig. Men vi nøje anmærke det humane genom og begge beskyttet det med denne særlige papir Naturen fra vedrører data være offentlige eller private. Så dette er awesome, ikke? Så vi har fået en menneskelige genom. Vi har gjort computing. Jeg føler meget glad mig. Jeg rullede op til Harvard i 2006, føler en masse mindre tilfreds med mig selv. Dette er hvad jeg har arvet. Dette er en afdelings mail og filserver. Du kan se her er der en lille smule af bånd der bruges til at holde systemet sammen. Dette er vores licens og printserver. Jeg er temmelig sikker på, der måske passwords På nogle af disse post-it sedler. Ikke awesome. Temmelig langt fra awesome. Og så er jeg klar over denne lille diagram at jeg viste dig i starten at dele til ejerskab tilbage til deling, at vi havde brug for at ændre spillet. Og så vi ændret spillet ved at give incitamenter. Og så mennesker, som dette lille Wikipedia-artikel siger her, vores målbevidste skabninger. Og studiet af incitament strukturer er afgørende for undersøgelsen af den økonomiske aktivitet. Så vi begyndte at tilskynde vores fakultet og vores forskere. Og så vi tilskyndes dem med en rigtig stor computersystem. Så i 2008 byggede vi en 4.096 processor machine-- 10 stativer, par hundrede kilowatt strøm. Hvad jeg mener er interessant er det ikke Uanset hvor du er i cyklus. Den samme mængde strøm og computerkraft, strømmen er konstant. Det var 200 kW, når vi byggede i Europa. Det er to hundrede kilowatt i 2008, og at synes at være [? quanter?] af små universitetsbaseret computersystemer. Så Harvard today-- hurtigt frem, jeg er ikke længere trist panda, en ganske glad panda. Vi har 60-ulige tusinde belastning afbalanceret CPU'er, og deres klatring dramatisk. Vi har 15 petabyte af opbevaring, også klatring. Igen, dette 200 kilowatt tilvækst, synes vi at være tilføjer, at hver sjette eller så måneder. Partier og masser af virtuelle maskiner. Og endnu vigtigere, omkring 1,8 megawatt forskning computerudstyr. Og jeg har tænkt mig at komme tilbage til dette senere, på, hvorfor jeg ikke længere nødvendigvis tælle hvor meget CPU, vi har, men hvor stor er elregningen. 20 andre så dedikeret forskning computing personale. Og endnu vigtigere, vi er begyndt at vokse vores GPGPUs. Jeg blev forskudt over, hvor meget af dette bliver tilføjet på en dag-til-dag basis. Så historietime forbi, ikke? Så hvordan kommer vi derhen herfra? Lad os se på nogle moderne scale-out beregne eksempler. Jeg er en lille smule besat med størrelse og omfanget af sociale medier. Der er en række af ekstremt vellykket stor skala computing organisationer nu på planeten, yde støtte og service for os alle. Så det er ansvarsfraskrivelse. Og jeg ønsker at starte med en antal ounce i en Instagram. Det er faktisk ikke en bly-in til en joke, det er ikke engang at sjove, faktisk, kommer til at tænke på det. Men alligevel, vi vil se på ounce i Instagram. Og vi kommer til at starte med "min bi og en blomst." Jeg var på [uhørligt] Village og jeg tog lidt billede af en bi siddende på en blomst. Og så begyndte jeg at tænke på hvad betyder det egentlig betyder. Og jeg tog dette billede fra min telefon og tælles, hvor mange bytes er i det, og det er omkring 256 kilobyte. Hvilket da jeg startede, ville stort set fylde en 5 og 1/4 tommer floppy. Og begyndte at tænke, ja, det er cool. Og jeg begyndte at se og gøre nogle forskning på netværket. Og jeg fandt ud af, at Instagram har 200 millioner MAU'er. Jeg var faktisk ikke, at sikker på, hvad en MAU var. Og en MAU, hernede, er en månedlig aktiv bruger. Så 200 millioner MAUs-- pretty cool. 20 milliarder photographs-- så en hel del af fotografier. 60 millioner nye fotografier hver dag kommer ud på omkring 0,002 gig per foto. Det er omkring fem petabyte af disken bare lige der. Og det er virkelig ikke den centrale del af det, vi kommer til at tale om. Det er små kartofler. Eller som vi siger i England, små spuds. Så lad os se på den virkelige elefant i room-- unikke ansigter. Igen, lad os måle på denne nye kvanter kalder en MAU. Facebook selv har 1,3 mia MAU'er. WhatsApp, som jeg havde ikke engang hørt om indtil for nylig, er det en slags messaging service, er på 500 mio MAU'er. Instagram, som vi lige talte om, 200 millioner MAU'er. Og Messenger, som er en anden messaging service, er også 200 millioner MAU'er. Så alt det op, det handler om 2,2 milliarder samlede brugere. Der er tydeligvis en vis overlapning, men det er svarende til en tredjedel af planeten. Og de sender noget i region på 12 milliarder beskeder om dagen. Og igen, er der kun 7 milliard mennesker på planeten. Ikke alle har en smartphone. Så dette er vanvittige numre. Og jeg har tænkt mig at argumentere for, at det ikke er selv om opbevaring eller Compute. Og for at citere den sang, det handler om at grafen. Her er vores dejlige Meghan Trainor ned her synger om alle bassen. Bemærk, hun også har en ganske smule bas herself-- 207, godt 218 mio mennesker har set denne unge dame synger hendes sang. Så mit argument er det det handler om grafen. Så vi tog nogle open source-software og begyndte at se på en graf. Og det er LinkedIn, så dette er Facebook for gamle mennesker. Og så, det er min LinkedIn graf. Jeg har 1.200 eller deromkring knudepunkter, såkaldte "Friends". Og her er mig på toppen. Og her er alle de indbyrdes forbindelser. Nu tænker tilbage til Instagram historien. Hver af disse er ikke bare billedet er det har en hel overflod af forbindelser mellem dette særlige individuelle og mange andre. Dette er central brik er enten en bug i grafen tegning algoritme, eller dette måske David Malan, jeg er ikke sikker endnu. Så du kan gentegne grafer i alle mulige af ways-- gephi.gihub.io er hvor du kan trække den software fra. Det er virkelig cool for at være stand til at organisere fællesskaber. Du kan se her, det er Harvard og forskellige andre steder, jeg har arbejdet, fordi det er min arbejdsrelaterede data. Så bare tænke kompleksiteten af grafen og alle data at du trækker sammen med. Så i mellemtiden, tilbage på FriendFace, ikke? Vi kiggede på Instagram data, var i størrelsesordenen fem petabyte. Nogen big deal. Stadig en del data, men nogen big beskæftige i den større arrangement med ting. Fra denne artikel på det gamle internet, "Skalering af Facebook data warehouse til 300 petabyte. " Det er en helt anden game changer nu når du begynder at tænke på data og grafen og hvad du bringer sammen med. Og deres høje data vokser af størrelsesordenen 600 Terrabytes en dag. Nu ved du, ja, then-- Jeg mener, 600 Terrabytes om dagen, 300 petabytes-- de er også nu begynder at få meget bekymret hvordan man holder det her og for at sikre disse data forbliver rundt. Og denne herre her, Jay Parikh, ser på, hvordan man opbevarer en Exabyte af data. Bare for dem af jer der ser sammen hjemme, en exabyte-- 10 til 18. Det har fået sit eget Wikipedia side, det er så stort et antal. Det er størrelsen og omfanget af det, vi er ser på, at være i stand til at lagre data. Og disse fyre ikke mucking rundt, de er opbevaring at mængden af ​​data. Så en af ​​de spor, de søger på her er datacentre for såkaldt kold opbevaring. Hvilket bringer mig til at være grøn. Og her er Kermit. Han og jeg agree-- det ekstremt svært at være grøn, men vi giver det vores bedste chance. Kermit kan ikke gøre for det, han har være grøn hele tiden, kan ikke tage sin grønne-ness off på alle. Så bliver concepts-- en nogle slags kernebegreber af grønhed, når det vedrører computing. Den ene, der er den vigtigste er levetiden af ​​produktet. Hvis dit produkt har en kort levetid, du kan ikke per definition være grøn. Den energi, der til at fremstille en diskdrev, et bundkort, en computer systemet, en tablet, hvad det kan være, levetiden af ​​dine systemer er en vigtig del af, hvordan grøn du kan være. Den vigtige del, som alle jer er ved at opbygge software algorithms-- Algoritmen er en delvis ord for software, ikke? Så din algoritme design er helt afgørende i forhold af, hvordan du vil være i stand til at gøre hurtige og præcise beregninger til at bruge den mindste mængde energi muligt. Og jeg vil komme til dette i en lille smule. Datacenter design-- du har set at vi allerede har tusindvis og atter tusinder af maskiner, der sidder roligt i små, mørke hjørner af verden, computing. Resource allocation-- hvordan du får til compute, til opbevaring, via netværket. Operativsystemer er en vigtig del af dette, og en masse virtualisering at være i stand til at pakke mere og mere Compute ind i et lille rum. Jeg vil give dig et lille eksempel fra forskning computing. Vi havde brug for mere ping, mere magt, og mere rør. Vi havde brug for mere større, bedre, hurtigere computere, og havde brug for at bruge mindre juice. Og vi kunne ikke finde ud af, hvordan du gør dette. Jeg ved ikke, om det hashtag gowest som sandsynligvis blevet brugt af Kardashian, men alligevel, gowest. Og det gjorde vi. Vi plukket op vores operation og vi flyttede det ud til vestlige Massachusetts i en lille mølle by kaldet Holyoke, lige nord af Chikopee og Springfield. Vi gjorde det for et par grunde. Den vigtigste var, at vi havde en meget, meget stor dæmning. Og denne meget store dæmning er i stand til at sat ud 30 plus megawatt energi, og det blev underudnyttet på det tidspunkt. Vigtigere, havde vi også en meget kompliceret netværk der var allerede på plads. Hvis man ser på, hvor netværket går i USA, det følger alle toget spor. Denne særlige stykke net var ejet af vores kolleger og venner på Massachusetts Institute of Technology, og det var dybest set bygget hele vejen ud til rute 90. Så vi havde en stor flod kryds, Route 90 kryds, vi havde en kort sti på 100 miles, og en lang bane på omkring 1.000 miles. Vi havde at gøre en meget stor netværk splejsning, som du kan se her, at stort set lægge et link ind, til kunne oprette forbindelse til Holyoke, men vi havde alle de nødvendige infrastructure-- ping, magt, rør. Livet var godt. Og igen, stor dæmning. Så vi byggede dybest set den Massachusetts Grøn High Performance Computing Center. Dette var en arbejdskraft af kærlighed gennem fem universities-- MIT, Harvard, UMass, Northeastern, og BU. Fem megawatt dag tilsluttede belastning. Vi gjorde alle mulige dygtighed med airside economisere at holde tingene grøn. Og vi bygget 640-ulige stativer, dedikeret til forskning computing. Det var en gammel forladte sted, så vi havde nogle regenerering og nogle rydde op og nogle oprydning af webstedet. Og så begyndte vi at opbygge anlægget og, boom-- dejlige facilitet med evnen til at køre sandkasse computing, at have konferencer og seminarer, og også en massiv datacenter gulvet. Her er min gode selv. Jeg naturligvis iført den samme jakke. Jeg måske kun har én jakke, men der er mig og John Goodhue-- han er den administrerende direktør for Center-- stående i maskinrummet sal, der, som du kan se, er temmelig dramatisk, og det går tilbage en lang, lang vej. Jeg ofte spille spil kørsel fra Boston ud til Holyoke, foregiver, at jeg er en TCP / IP-pakke. Og jeg bekymre sig om min latenstid køre rundt i min bil. Så det er den grønne brik. Så lad os bare tage et minut og tænke over stakke. Så vi prøver meget nøje til bygge datacentre effektivt, computing effektivt, gøre god udvælgelse til computerudstyr og levere mere vigtigere, vores ansøgning, det være sig en beskedtjeneste eller en videnskabelig anvendelse. Så her er de stakke. Så fysiske lag, alt vej op gennem application-- håber, at dette vil være en god del af dit kursus. OSI syv lag modellen principielt, du vil leve, spise og trække vejret dette hele din computing karriere. Hele dette koncept for fysisk infrastructure-- ledninger, kabler, datacentre, links. Og dette er blot beskriver netværket. Heroppe er, godt, naturligvis, dette er en gammel dias, fordi dette skulle sige HTTP, fordi ingen bekymrer sig om simpel mail transportprotokoller, længere. Det hele sker i HTTP rummet. Så det er et niveau af stakken. Her er et andet sæt stakke, hvor man har en server, en vært, en hypervisor, en gæst, binær bibliotek, og så vil din ansøgning. Eller, i dette tilfælde indretningen driver, en Linux-kernen, indfødte c, Java virtuel maskine, Java API, så Java applikationer, og så videre og så videre. Dette er en beskrivelse af en virtuel maskine. Hellige stakke, Batman! Tænk over dette i Vilkår for hvor meget Compute du har brug for at komme fra hvad der sker her, hele vejen op til toppen af denne stak, derefter kunne gøre din faktiske levering af ansøgningen. Og hvis du slags spole tilbage og begynde at tænke om, hvad det kræver at give en floating point operation, din floating point operation er en sum af stikkene, antallet af kerner i soklen, et ur, der er Hvor hurtigt kan uret turnover-- fire gigahertz, to gigahertz-- og derefter det nummer af handlinger, du kan gøre i en given hertz. Så disse mikroprocessorer i dag gøre mellem fire og 6 flops pr taktcyklus. Og så en single-core 2,5 gig ur har en teoretisk ydeevne på omkring en mega flop, give eller tage. Men som med alt, vi har valg. Så og Intel Core 2, Nehalem Sandy Bridge, Haswell, AMD, tage din choices-- Intel Atom. Alle disse processorarkitekturer alle har en lidt anden måde for at kunne tilføje to tal sammen, som er dybest set deres formål i livet. Skal være hårde. Der er millioner af dem sidde i datacentre, nu selv. Sor, flops pr watt-- dette er den store ting. Så hvis jeg ønsker at få mere af dette at komme igennem denne stak, hurtigere, Jeg har fået at arbejde på, hvor mange operationer med flydende komma et sekund, Jeg kan gøre, og derefter give dem watt. Og heldigvis, folkens har tænkt over dette. Så der er en stor bestride hvert år for at se der kan bygge den hurtigste computer der kan diagonalize en matrix. Det hedder Top 500. De pluk toppen fra de bedste 500 computere på planeten, der kan diagonalize matricer. Og du får nogle fantastiske resultater. En masse af disse maskiner er mellem 10 og 20 megawatt. De kan diagonalize matricer overordentligt hurtigt. De behøver ikke nødvendigvis diagonalized dem så effektivt per watt, så der var denne store indsats for at se på hvad en grøn 500-listen ville se ud. Og her er en liste fra juni. Der bør være en ny meget snart. Og det kalder out-- Jeg tager toppen af ​​denne liste. Der er to specifikke machines-- én fra Tokyo Institute of Technology og et fra Cambridge University i Det Forenede Kongerige. Og disse har temmelig forbløffende mega flops per watt nøgletal. Denne ens 4389, og den næste ned er 3.631. Jeg vil forklare forskellen mellem disse to, i det næste dias. Men disse er disse er moderat størrelse test klynger. Disse er blot 34 kilowatt eller 52 kilowatt. Der er nogle større virksomheder her-- denne ene på den schweiziske Supercomputing Centre. Den take home besked for dette er, at vi er forsøger at finde computere der kan fungere effektivt. Og så, lad os se på denne top en, cutely kaldes, KFC. Og en lille smule reklame her. Denne særlige fødevarevirksomhed har intet at gøre med dette. Det er den kendsgerning, at dette system er gennemvædet i en meget smart olie-baseret forbindelse. Og så de fik deres kylling friture moniker når de først begyndte at bygge disse typer af systemer. Men dybest set, hvad de har taget her er et antal vinger, sætte dem i dette sofistikeret mineralolie, og arbejdede derefter ud af at få alle netværkssamarbejde ind og ud af den. Så ikke nok med det, de har lagt den ud så at den kan udnytte uden luftkøling. Det var temmelig imponerende. Så du er nødt til at gøre alt af denne narrestreger at være i stand til at få denne mængde af Compute leveres til små watt. Og du kan se dette er formen af, hvor tingene er på vej. Udfordringen er, at regelmæssig luft køling er stordriftsfordele og driver en masse af udvikling af både almindelige computing, og high performance computing. Så dette er temmelig forstyrrende. Jeg tror, ​​det er fascinerende. Det er lidt rodet, når du prøv at bytte de diskdrev, men det er en virkelig cool idé. Så ikke nok med det, der er en hel masse arbejde bygges omkring hvad vi er kalder Open Compute Project. Og ja, mere om det lidt senere. Men branchen er begyndt at indse, at flops per watt bliver vigtig. Og du, som folk her, som du designe dine algoritmer og du designe din kode, skal du være opmærksom at din kode kan har en afsmittende effekt. Da Mark sad her i hans kollegieværelse skriver Facebook 1.0, Jeg er temmelig sikker på, han havde en visning at det ville være enorme. Men hvordan enorme det ville være på miljø er et stort dealio. Og så alle ya kunne komme med algoritmer der kan blive den næste udfordrende ting for folk som mig, forsøger at køre systemer. Så lad os bare tænke effektgrænser virkelige verden. Dette papir ved Landauer-- er ikke en ny ting. 1961 dette blev offentliggjort i IBM Journal. Dette er den kanoniske "Uigenkaldelige og Heat Generation i Computing-processen. " Og så han hævdede, at maskiner uundgåeligt udføre logistiske funktioner, har ikke enkelt værdi omvendt. Således at hele del af dette er, at tilbage i 60'erne, folk vidste, at dette var vil være et problem. Og så loven om grænser sagde 25 grader C, en slags kanonisk værelse temperatur, grænsen repræsenterer 0,1 elektronvolt. Men teoretisk, er det teorien, computerhukommelse opererer ved denne grænse kunne være ændres på en milliard bit i sekundet. Jeg ved ikke, om dig, men ikke stødt på mange en milliard bit en anden datahastighed udvekslinger. Argumentet var, at kun 2,8 billioner af en watt burde nogensinde udvides. Okay, virkelige verden example-- dette er min elregning. Jeg 65% procent af denne dejlige datacenter Jeg viste dig, i dette særlige tidspunkt. Det er tilbage i juni sidste år. Jeg har taget en ældre version, så vi kan og sortering af anonymisere en lille smule. Jeg tilbragte 45000 $ a måned for energi der. Så grunden være der, er, at vi har over 50.000 processer i værelset. Så kan du forestille dig dit eget boligområder elregning er, at høj? Men det var for en 199 mio watt timer over en måned. Så det spørgsmål, jeg stiller, er, kan du forestille Mr. Zuckerberg elregning? Mine er temmelig stor, og jeg kæmper. Og jeg er ikke alene i denne er. Der er en masse mennesker med store datacentre. Og så, jeg gætte, fuld disclosure-- mine Facebook-venner en smule underligt. Så min Facebook er Den Prineville datacenter, som er en af ​​Facebooks største, nyeste, laveste energi datacenter. Og de sender til mig, ting som power udnyttelse effektivitet, som i hvor effektiv er den data center versus hvor meget energi, du er sætte ind i det, hvor meget vand er de bruger, hvad er luftfugtighed og temperatur. Og de har disse Dejlige, dejlige grunde. Jeg tror, ​​det er en fantastisk Facebook-side, men jeg gætte, jeg er en lille smule underligt. Så en mere magt ting, forskning computing, at jeg gør er signifikant forskellige hvad Facebook og Yahoo og Google og andre on-demand, fuldt, altid tilgængelige tjenester. Og så har jeg den fordel, at når ISO New England-- og ISO New England med til at sætte den energi satser for regionen. Og det siger, det er der strækker en anmodning til forbrugerne til frivilligt spare høj energi, på grund af den høje luftfugtighed og varme. Og det var tilbage den 18. juli. Og så jeg heldigvis Tweet tilbage, Hey, ISO New England, Green Harvard. Vi gør vores del i løbet af her i forskning computing. Og det er fordi vi gør videnskab. Og lige så meget som folk siger videnskaben aldrig sover, kan videnskaben vente. Så vi er i stand til at QUIESCE vores systemer, drage fordel af kvalitet satser på vores energiregning, og hjælpe hele New England region ved at udgyde mange megawatt belastning. Så det er den unikke ting, adskiller om videnskabelig computing data centre og dem, der er i fuld produktion 24/7. Så lad os bare tage et andet gear her. Så jeg ønsker at diskutere kaos en lille smule. Og jeg ønsker at sætte det i regi af opbevaring. Så for dem, der slags af kæmpede at få deres hoved omkring hvad petabyte lagerplads ser ud, dette et eksempel. Og det er den slags ting Jeg behandler hele tiden. Hver af disse små gutter er en fire terabyte harddisk, så du kan slags tælle dem op. Vi får nu mellem en til 1 og 1/2 petabytes i en standard industri rack. Og vi har lokaler og værelser, som du så i det tidligere billede med John og jeg, fuld af disse stativer udstyr. Så det bliver meget, meget let at opbygge massive storagesystemer Det er for det meste let inde i Unix til slags tælle op, hvordan det går. Så dette er at tælle, hvor mange MAU punkter har jeg fik der. Så det er 423 opsnappe point. Og så hvis jeg køre nogle sketchy awk, jeg kan tilføje op, i dette system, Der var 7,3 petabyte af tilgængelige opbevaring. Så det er en masse ting. Og opbevaring er virkelig hårdt. Og dog, en eller anden grund, dette er en industri tendens. Når jeg taler med vores forskere og vores fakultet og sige, hey, jeg kan køre opbevaring for dig. Desværre, jeg er nødt til få omkostningerne ved opbevaring. Jeg får denne forretning. Og folk referere Newegg eller de refererer Staples eller hvor meget de kan købe en enkelt terabyte disk drev til. Så dette, vil du bemærke her, at der er et fingerpeg. Der er én disk her. Og hvis vi går tilbage, jeg har mange. Ikke alene har jeg har mange, jeg har sofistikerede interconnects at være i stand til at sy disse ting sammen. Så risikoen forbundet med disse store storagesystemer er ikke ubetydelig. Faktisk tog vi til internet og vi skrev en lille historie om en velmenende, blide direktør for forskning computing-- tilfældigvis har en mærkeligt engelsk accent-- forsøger at forklare en forsker hvad ingen understregning backup mappe faktisk betød. Det var en ganske lang, lille historie, godt fire minutter af Discovery. Og bemærk, jeg har en frygtelig meget mindre plads end damen der synger om alle bassen. Vi er et par konti lavere. Men alligevel, det er en vigtig ting at tænke på, i form af, hvad der kunne gå galt. Så hvis jeg får et diskdrev, og Jeg smider det i en Unix maskine, og jeg begynder at skrive ting til det, der er en magnet, der er et drev hoved, der er angiveligt, et ettal eller et nul bliver skrevet ned på til denne enhed. Motors-- Spinny, Twirly tingene altid bryde. Tænk over ting, der bryder. Det har altid været Spinny, Twirly ting. Printere, diskdrev, motorkøretøjer mv Alt, hvad der bevæger sig, er tilbøjelige til at bryde. Så du har brug for motorer, du brug drev firmware, du har brug for SAS / SATA controllere, ledninger, firmware på SAS / SATA-controllere, blokerer lavt niveau. Vælg din storage controller-fil Systemet kode, alt efter hvilken en det kan være, hvordan du sy ting sammen. Og din virtuelle hukommelse leder sider, DRAM hente og butikker. Derefter får du en anden stack, hvilket er lidt dun listen på denne én, algoritmer brugere. Og hvis du ganger dette op, jeg ved ikke hvor mange, der er en masse steder hvor ting kan gå sidelæns. Jeg mener, det er et eksempel om matematik. Men det er lidt sjovt at tænke på hvor mange måder tingene kunne gå galt, bare for et diskdrev. Vi er allerede ved 300 petabyte, så forestille antallet af diskdrev du har brug for ved 300 petabyte der kan gå galt. Ikke kun at-- så det er opbevaring. Og der hentyder til person, jeg vil gerne se indtaste fase venstre, som er Chaos Monkey. Så på et bestemt tidspunkt, det bliver endnu større end diskdrevet problem. Og så disse fine damer og herre at køre en streaming video service indså, at deres computere var også enorme og også meget kompliceret og også yde service til en forfærdelig en masse mennesker. De har fået 37 millioner members-- og dette dias er måske et år eller så old-- tusinder af enheder. Der er milliarder af timers video. De logger milliarder af begivenheder om dagen. Og du kan se, de fleste mennesker ser fjernsynet senere på aftenen, og det langt opvejer alt. Og så, de ønskede at kunne sørge for at tjenesten var op og pålidelig og arbejder for dem. Så de kom op med denne ting kaldet Chaos Monkey. Det er stykke software der, når du tror om at tale om titlen af hele denne præsentation, skala-out betyder, at du skal teste det her. Det er ikke godt bare at have en million maskiner. Så det gode ved dette er, Chaos Monkey er en service, som identificerer grupper af systemer og tilfældigt opsiger en af systemerne i en gruppe. Awesome. Så jeg ved ikke, om dig, men hvis jeg nogensinde har bygget et system, der bygger på andre systemer tale med hinanden, du tager en af ​​dem ud, det sandsynligheden for hele ting bearbejdning, aftager hurtigt. Og så dette stykke software kører omkring Netflix infrastruktur. Heldigvis står det kører kun i åbningstid med den hensigt at ingeniører vil være alarm og i stand til at reagere. Så det er disse typer af ting, vi er nu at skulle gøre for at forstyrre vores computing miljøer, til at indføre kaos og at indføre kompleksitet. Så som i deres ret sind, ville gerne vælge at arbejde med en Chaos Monkey? Hæng på, han ser ud til at pege mig. Nå, jeg tror jeg should-- nuttet. Men problemet er, du ikke får valget. The Chaos Monkey, som du kan se, vælger dig. Og dette er problemet med computing på skalaen er, at du ikke kan undgå dette. Det er en uundgåelighed kompleksitet og af handlingens omfang og vores udvikling, på nogle måder, af computing ekspertise. Og husk, det er én ting at huske, Chaos Monkeys kærlighed snowflakes-- kærlighed snefnug. En snowflake-- vi har forklaret Chaos Monkey-- men et snefnug er en server, der er unik og særlige og delikat og individuelle og vil aldrig blive reproduceret. Vi oplever ofte snefnug service i vores miljø. Og vi altid forsøge at smelte snowflake service. Men hvis du finder en server i dit miljø der er afgørende for levetiden af din organisation, og det smelter, du kan ikke sætte det sammen igen. Så Chaos Monkey opgave var at gå og afslutte forekomster. Hvis Chaos Monkey smelter snefnug, du er over, du er færdig. Jeg ønsker at tale om nogle hardware at vi er se i form af en slags skala-aktiviteter også. Og nogle unikke ting, der er i og omkring videnskab aktivitet. Vi begynder nu at se, huske denne enhed udstedelsesdato, dette rack? Så dette er et rack af GPGPUs-- så generelle purpose grafik forarbejdning enheder. Vi har disse ligger i vores data center, 100 eller så miles væk. Denne særlige rack er omkring 96 teraflops af single-præcision matematik stand at levere til bagsiden af ​​det. Og vi har orden 130-ulige kort i et tilfælde at we-- multiple racks af denne instans. Så det er interessant i den forstand, at de almindelige grafik processer er i stand til at gøre matematik utroligt hurtigt for meget lave mængder af energi. Så der er en stor uptick i de videnskabelige computing områder, ser på grafik behandlingsenheder i en stor måde. Så jeg løb nogle Mcollective gennem vores marionet infrastruktur i går, meget begejstrede for dette. lige kort for en petaflop af single-præcision. Bare for at være klar her, dette lille multiplikator er 3,95. Dobbelt-præcision matematik ville være omkring 1,2, men min Twitter-feed set måde bedre, hvis jeg sagde, vi havde næsten en petaflop af single-præcision GPGPUs. Men det bliver der. Det bliver at være meget, meget imponerende. Og hvorfor gør vi det? Fordi kvantekemi, bl.a. men vi er begyndt at designe nogle nye solceller. Og så Alan Aspuru-Guzik, der er en professor i chemistry-- min partner i crime-- for de sidste par år. Vi har været at skubbe kuvert på computing. Og GPGPU er ideel teknologi at være i stand til at gøre en frygtelig masse komplicerede matematik, meget, meget hurtigt. Så med skala, kommer nye udfordringer. Så stort scale-- du være forsigtig med, hvordan du wire det her. Og vi har et vist niveau af obsessiv-kompulsiv lidelse. Disse billeder sandsynligvis køre en masse mennesker nødder. Og frysere, der ikke er wired særlig godt drive vores netværk og Faciliteter ingeniører nødder. Plus der er også luftstrømmen problemer, som du er nødt til at indeholde. Så det er ting, som jeg ville aldrig have tænkt på. Med skala, kommer mere kompleksitet. Dette er en ny type filsystem. Det er awesome. Det er en petabyte. Det kan gemme 1,1 milliarder filer. Den kan læse og skrive til 13 gigabyte og 20 gigabyte en second-- gigabyte et sekund. Så det kan losse terabyte på ingen tid overhovedet. Og det er meget tilgængelig. Og det har fået fantastisk opslag rates-- 220.000 Opslag et sekund. Og der er mange forskellige mennesker opbygge den slags systemer. Og du kan se det her grafisk. Dette er en af ​​vores filsystemer det er under belastning, helt lykkeligt læser på lige kort 22 gigabytes i sekundet. Så det er cool-- så kompleksitet. Så med kompleksiteten og omfanget, kommer mere kompleksitet, ikke? Dette er en af ​​vores mange, mange netværk diagrammer, hvor du har mange forskellige chassis alle understøtter op ind i en vigtigste core switch, tilsluttet opbevaring, tilslutning til lav latency interconnects. Og så alt dette side af hus, er bare alt af forvaltningen at du skal være i stand til at løse disse systemer fra en fjernplacering. Så skala har en masse kompleksitet med det. Skift gear igen, lad os gå tilbage og har en lille plet af videnskaben. Så husk, forskning computing og denne lille shim-- lille lyserød shim mellem fakulteter og alle deres algoritmer og alle cool videnskab og alle denne strøm og køling og datacenter gulv og netværk og store computere og service skriveborde og helpdeske og så forth-- og så er vi bare denne lille shim mellem dem. Hvad vi er begyndt at Se er, at verdens været i stand til at bygge disse store datacentre og være i stand til at bygge disse store computere. Vi har fået temmelig god til det. Hvad vi er ikke særlig god til, er dette lidt shim mellem forskning og pladen, og teknologien. Og det er svært. Og så har vi været i stand til at ansætte folk, der lever i denne verden. Og for nylig, vi talte til National Science Foundation og sagde: denne skala-out ting er stor, men vi kan ikke få vores forskere på disse store komplicerede maskiner. Og så, har der været en Antallet af forskellige programmer hvor vi virkelig var for det meste bekymret om at forsøge at se, om vi kunne transformere campus infrastruktur. Der er en masse programmer omkring nationale centre. Og så, os selv, vores venner på Clemson, University of Wisconsin, Madison, Southern California, Utah, og Hawaii slags fik sammen til se på dette problem. Og denne lille graf her er den lange hale af videnskaben. Så dette is-- det ikke Uanset hvad der er på denne akse, men denne akse er faktisk nummer arbejdspladser går gennem klyngen. Så der er 350.000 i løbet af uanset tidsperiode. Disse er vores sædvanlige mistænkte langs bunden her. Faktisk er der er Alan Aspuru-Guzik, som vi bare taler om-- tons og tonsvis af beregne, virkelig effektiv, ved, hvad han gør. Her er en anden lab, som jeg vil tale om i en moment-- John Kovac laboratorium. De har fået det. De er gode. De er glade. De er computing. Stor videnskab er at få gjort. Og så, som du slags af komme herned, der er andre grupper, kører ikke mange arbejdspladser. Og hvorfor er det? Er det, fordi computing er for hårdt? Er det fordi de ikke ved, hvordan man? Vi ved det ikke, fordi vi har gået og kigget. Og så det er hvad dette Projektet handler om, er lokalt, inden hver af disse regioner, at se til veje, hvor vi kan engagere med fakultetet og forskere faktisk i den nederste ende af halen, og forstå, hvad de laver. Så det er noget, som vi er faktisk brænder for. Og det er noget, videnskaben ikke vil fortsætte til at bevæge sig fremad, indtil vi løser nogle af disse kant tilfælde. Andre bits videnskab der kommer up-- alle set Large Hadron Collider. Awesome, ikke? Denne ting alle løb ud på Holyoke. Vi Bygget- den allerførste videnskab, der skete i Holyoke var samarbejdet mellem os selv og Boston University. Så det er virkelig, virkelig cool. Dette er en sjov stykke videnskab for skalaen. Dette er en digital adgang til en himmel århundrede på Harvard. Dybest set er det en plade arkiv. Hvis du går ned Oxford-- Garden Street, undskyld, finder du en af ​​observatoriet bygninger er dybest set fuld af omkring en halv million plader. Og disse er billeder af himlen om natten, over 100 år. Så der er en hel rig oprettet her at digitalisere disse plader, tage billeder af dem, registrere dem, læg dem på en computer. Og det er en petabyte og et halvt, lige højre there-- én lille projekt. Disse er andre projekter. Dette Pan-Starrs-projektet gør en fuld bred panoramisk undersøgelse søger tæt asteroider Earth og forbigående himmelske begivenheder. Som en molekylær biofysiker, jeg elsker ordet forbigående himmelsk begivenhed. Jeg er ikke helt sikker på, hvad det er, men alligevel, er vi på udkig efter dem. Og vi genererer 30 terabyte en nat ud af disse teleskoper. Og det er egentlig ikke en båndbredde problem, det er ligesom en FedEx problem. Så du sætte opbevaring på van og du sender det uanset hvad det er. BICEP er virkelig interesting-- så baggrund imaging af kosmisk ekstra galaktiske polarisering. Da jeg først begyndte at arbejde ved Harvard syv eller deromkring, otte år siden, husker jeg arbejdet på dette projekt og det gjorde ikke rigtig synke hjem, hvorfor polariseret lys fra den kosmiske mikrobølge baggrund ville være vigtigt, indtil dette skete. Og det var John Kovac, hvem jeg talte med før, hjælp millioner og atter millioner af CPU timer, i vores anlæg og andre, at stort set stirre ind i det indre af universets første øjeblikke efter Big Bang, og forsøger at forstå Einsteins almene relativitetsteori. Det er sindet blæser, at vores computere hjælper os udrede og stirre i selve oprindelsen af, hvorfor vi er her. Så når du taler om skala, dette er nogle alvorlige skala. Den anden ting af skalaen er, at bestemt projekt ramte disse fyre. Og det er svaret kurven for BICEP [Uhørligt] Dette var vores lille undersøgelse. Og du kan se her, livet var godt indtil omkring her, der var da Meddelelsen kom ud. Og du har fået bogstaveligt sekunder til at reagere til skalering begivenhed, som svarer til denne lille prik her, som endte skiftende fire eller så terabyte data gennem webserveren der day-- temmelig behåret. Og så, disse er de typer af ting, kan ske for dig i din infrastruktur hvis du ikke designe for skala. Vi havde lidt af en kryptere den dag, for at være i stand til at spænde sig nok web service at holde sitet oppe at køre. Og vi var en succes. Dette er en lille email der er slags søde. Dette er en mail til Mark Vogelsberger, og Lars Hernquist, der er et fakultet medlem her på Harvard. Mere om Mark senere. Men jeg tror, ​​det er en slags opsummerer slags hvor computing er i forskning computing. Hey, hold, siden sidste Tirsdag jer martret op over 28% af de nye klynge, der kombinerede er over 78 år CPU på bare tre dage. Og jeg sagde, er det stadig kun lige fredag ​​morgen. Dette er temmelig awesome! Glad fredag! Så jeg giver dem datapunkterne. Og så var slags interessant. Så huske om Mark, vil han komme tilbage i billedet i en lille smule. Så skala-out computing er overalt. Vi endda hjælpe folk ser på, hvordan NBA funktioner og hvor folk er kaste bolde fra. Jeg forstår ikke rigtig dette spil også godt, men tilsyneladende er det en big deal. Der er bøjler og skåle og penge. Og så, i vores database, vi bygget lidt 500 [uhørligt] parallel processor klynge, et par terabytes af RAM, at være i stand til at bygge denne for Kirk og hans team. Og de laver computing på en helt anden måde. Nu er det projekt vi er involveret med det er absolut fascinerende, omkring neurale plasticitet connectomics og genomisk imprinting-- tre meget tunge rammer forskningsområder at vi kæmper med på en dag-til-dag basis. Tanken om, at vores hjerner er under plast stress, når vi er unge. Og meget af vores voksne adfærd er modelleret af erfaring i barndom. Så dette er en stor dealio. Og så dette er arbejde, der er finansieret af National Institutes of Mental Health. Og vi forsøger at dybest set, gennem en masse store data og store dataanalyse, art af peer ind i vores menneskelige hjerne gennem en række forskellige teknikker. Så jeg ønskede at stoppe og art bare stoppe op et lille øjeblik. Udfordringen med fjernbetjening datacentre er det er langt væk. Det kan ikke gøre arbejdet. Jeg har brug for mine data nærheden. Jeg har brug for at gøre min forskning i mit laboratorium. Og så jeg slags tog et eksempel på en funktionel magnetisk resonans datasæt fra vores data center i det vestlige Mass. og sluttet den til min desktop i Cambridge. Og jeg vil spille denne lille video. Forhåbentlig vil det slags arbejde. Så dette er mig gå igennem kontrol min GPU'er arbejder. Og jeg kontrollere, at VNC er op. Og det er en klog VNC. Dette er en VNC med 3D stykker. Og så, som du kan se om kort tid, dette er mig spinning denne hjerne rundt. Jeg forsøger at slags få det rettet. Og så kan jeg flytte gennem mange forskellige skiver af MRI data. Og det eneste, der er anderledes om dette er, det kommer over tråden fra Western Mass. til mit skrivebord. Og dens rendering hurtigere end mit skrivebord, fordi jeg ikke har en $ 4000 grafikkort i mit skrivebord, som Vi har ud Western Mass. Selvfølgelig, jeg forsøger at være klog. Jeg kører GLX gear i baggrund, samtidig gør alt dette, at sikre, at jeg kan understrege grafikkort, og at det alle slags fungerer og alle resten af ​​det. Men det vigtige er, er det 100 miles væk. Og du kan se fra dette, at der er ingen indlysende ventetid. Ting holder sammen ganske godt. Og så, i sig selv, er et eksempel og en vis indsigt i, hvordan computing og skala-out computing kommer til at ske. Vi arbejder alle på tyndere og tyndere enheder. Vores anvendelse af tabletter er stigende. Så derfor, min carbon fodaftryk er dybest set flytter fra hvad bruges at gøre det ville har været en stor maskine under mit skrivebord, hvad er nu en facility-- kunne være overalt. Det kunne være hvor som helst overhovedet. Og alligevel er det stadig i stand til at bringe Tilbage højtydende grafik til mit skrivebord. Så at komme i nærheden af end-- husk Mark? Nå, smart dreng er Mark. Han besluttede, at han ville opbygge en realistisk virtuelle univers. Det er noget af en projekt, når du tror, ​​du bliver nødt til at pitche dette. Jeg har tænkt mig at bruge en computer, og jeg har tænkt mig at modellere de 12 millioner år efter Big Bang til at repræsentere en dag. Og så jeg har tænkt mig at gøre 13,8 milliard års kosmisk evolution. Ok. Dette faktisk anvender en computer det var større end vores computer, og det spildt over på den nationale ressourcer til vores venner nede i Texas. Og til de nationale anlæg, dette var en masse beregne. Men vi gjorde en masse simuleringen lokalt for at sikre, at softwaren arbejdede og systemerne virkede. Og det er dage som denne, når du indse, at du støtter videnskab på dette niveau af skalaen, at folk kan nu sige ting ligesom, jeg har tænkt mig at en model et univers. Og dette er hans første model. Og dette er hans holdets første model. Der er mange andre folk, der går til at komme bag Mark, der kommer til ønsker at modellere med høj opløsning, med mere specificitet, med større nøjagtighed. Og så, i de sidste par minutter, Jeg vil bare gerne vise dig denne video Mark og Lars er at for mig, igen, som et liv videnskabsmand, er slags søde. Så dette nederst her, at orientere dig, dette er at fortælle dig det gang siden Big Bang. Så vi er på omkring 0,7 milliarder år. Og det viser den aktuelle opdatering. Så du ser i øjeblikket, mørkt stof og udviklingen af den fine struktur og tidlig strukturer i vores kendte univers. Og punktet med dette er, at denne er alle gjort inde i computeren. Dette er et sæt af parametre og et sæt af fysik og et sæt af matematik og et sæt af modeller der er nøje udvalgt, og derefter omhyggeligt forbundet til hinanden at være i stand til at modellere interaktioner. Så du kan se nogle starter på nogle gasformige eksplosioner her. Og gas temperatur er under forandring. Og du kan begynde at se strukturen af det synlige univers forandring. Og den vigtige del i denne er, hver lille lille, lille, lille prik er et stykke fysik og har et sæt af matematik rundt, oplyser sine ven og nabo. Så fra en skalering perspektiv disse computere har til alt arbejde i koncert og tale med hinanden effektivt. Så de kan ikke være for chatty. De skal opbevare deres resultater. Og de skal fortsætte med at informere alle deres venner. Faktisk vil du se nu, denne model er bliver mere og mere kompliceret. Der er mere og mere ting foregår. Der er mere og mere materiale flyver rundt. Og dette er, hvad den tidlige kosmos ville have set ud. Det var en temmelig behåret sted. Der er eksplosioner overalt stedet, kraftige kollisioner. Og dannelse af tunge metaller og elementer. Og disse store skyer smadrer ind hinanden med stor kraft. Og så nu er vi 9,6 mia år fra denne første eksplosion. Du begynder at se tingene er slags dulmer lidt, bare en lille smule, fordi energi begynder at slappe af. Og så den matematiske modeller har fået det i stedet. Og du begynder at se sammensmeltning af forskellige elementer. Og begynder at se denne ting slags af mødes og langsomt cool. Og det er begyndt at se en lille smule mere som nattehimlen, en lille smule. Og det er [? QSing. ?] Vi er nu 30,2 milliarder år, og vi er slags færdig. Og så det, de gjorde, var at de tog denne model, og så på det synlige univers. Og dybest set så, var i stand til at tage det og overlay det med det, du kan se. Og troskab er overvældende, som til hvordan præcis de computermodeller er. Naturligvis de astrofysikere og forskergrupperne brug for endnu bedre fidelity og endnu højere opløsning. Men hvis du tænker over det, Jeg har talt til dig gennem denne lille rejse gennem både opbevaring og struktur og netværk og stakke, det vigtige er, er skala-out computing afgørende? Det var min oprindelige hypothesis-- tilbage til vores videnskabelige metode. Jeg håber, at der på de tidlige en del af dette vil jeg forudser, at jeg ville være i stand til at forklare til dig om skala-out computing. Og vi slags testet nogle af disse hypoteser. Vi gik gennem denne samtale. Og jeg vil bare sige skala-out computing essential-- åh, ja, meget ja. Så når du tænker om dine koder, når du laver de CS50 endelige projekter, når du tænker på din arv til menneskeheden og de ressourcer, som vi skal være i stand til at køre disse computer systemer, tænke meget grundigt om flops per watt, og tænke på Chaos Monkey. Tænk over dine snefnug, gør ikke gøre engangsforanstaltninger, genbrug biblioteker, opbygge genanvendelige codes-- alle de ting at vejlederne har undervist dig i denne klasse. Disse er grundlæggende aspekter. De er ikke bare tomme ord. Disse er reelle ting. Og hvis nogen af ​​jer ønsker at følge mig, Jeg er neurotiske med kvidre ting. Jeg har fået en eller anden måde giver det op. Men en masse af baggrundsinformation er på vores forskning computing hjemmeside på rc.fas.harvard.edu. Jeg forsøge at holde en blog op til date med moderne teknologi og hvordan vi gør distributiv computing og så videre. Og så vores personale er altid tilgængelige via odybot.org. Og odybot er vores lille hjælper. Han har ofte lidt konkurrencer på hans hjemmeside også, hvor du kan prøve og spotte ham rundt campus. Han er den venlige lille ansigt forskning computing. Og jeg vil slags wrap deroppe og tak for din tid. Og jeg håber, du kan huske, at skala-out computing er en ægte vare. Og der er en masse mennesker der har fået en masse kendte teknik som vil være i stand til at hjælpe dig. Og alle held og lykke med dine fremtidige bestræbelser i at gøre sikker på, at vores computing både skalaer, er højtydende, og hjælper menneskeheden mere end noget andet. Så tak for din tid.