JAMES CUFF: Hoi, goed middag, iedereen. Mijn naam is James manchet. Ik ben de assistent-decaan onderzoek Computing hier aan de Harvard University. En vandaag ga ik met je praten over waarom scale-out computing is van essentieel belang. Dus ik denk, eerste, wie is deze man? Waarom ben ik hier? Waarom ben ik met je praten? Ik heb een achtergrond in de wetenschappelijke computing en onderzoek computing, die teruggaat naar de Verenigde Kingdom-- De Wellcome Trust Sanger Instituut voor de mens genome-- en Vervolgens recentelijk in de Verenigde Staten werken bij de globale en andere gewaardeerde plaatsen van leren, zoals Harvard. Ik denk dat wat dat werkelijk betekent is dat ik een herstellende moleculaire bio natuurkundige. Dus welk recht heb ik te vertellen u over scale-out computergebruik? Er is een echter. 18 jaar of zo heb ik net gezien het meest dramatische schaalvergroting complexiteit en de algehele efficiëntie van IT-systemen. Toen ik bezig was mijn promotieonderzoek in Oxford, ik was vrij opgewekt met een 200 megahertz Silicon Graphics machine met 18 gigabytes aan opslagruimte en een enkele CPU. De tijden zijn veranderd. Als je snel vooruit nu, we spinning meer dan 60.000 CPU's hier op Harvard. Vele andere organisaties spinnen veel meer. De belangrijke afhaalmaaltijd van dit die schaal is nu niet alleen onvermijdelijk, het is gebeurd en het is zal blijven gebeuren. Dus laten we, voor een moment, een soort van terugspoelen en zeer snel praten over wetenschap, mijn favoriet onderwerp, de wetenschappelijke methode. Als u zich bij een wetenschapper te zijn, je moet een paar belangrijke dingen te doen. Als je deze dingen niet doen je kan zelf een wetenschapper niet overwegen en je zal moeite hebben de mogelijkheid om begrijpen uw gebied van discipline. Dus in de eerste plaats, zou je formuleren uw vraag, het genereren van je hypothesen, maar nog belangrijker, je uw results-- voorspellen je hebt een gok om welke resultaten. En dan tot slot, je test je hypothese en analyseren van uw resultaten. Deze wetenschappelijke methode is zo uiterst belangrijk in de informatica. Computing van zowel de voorspelling en de mogelijkheid om uw resultaten te testen zijn een belangrijk onderdeel van wat we nodig hebben te doen in de wetenschappelijke methode. Deze voorspellingen en keuringen zijn de echte twee hoekstenen van de wetenschappelijke methode, en elke vereisen de meest significante vooruitgang in de moderne berekening. De twee pijlers van de wetenschap zijn dat theorie en voor proeven. En meer recent, computing is vaak genoemd als de derde pijler van de wetenschap. Dus als je leerlingen kijken naar deze, je hebt absoluut geen druk. Derde pijler van science-- geen groot Deal-- computing, soort belangrijk. Zo blij dat dit is de computer-onderdeel van de informatica natuurlijk 50. Dus genoeg van de achtergrond. Ik wil je vertellen het plan van wat we gaan om te praten over vandaag. Ik ga om te gaan over een aantal geschiedenis. Ik ga uitleggen waarom we hier kwamen. Ik ga om te praten over een aantal de geschiedenis van de computer- hier bij Harvard, sommige activiteiten rond sociale media, groene things-- zeer over alle dingen gepassioneerd green-- storage-- computer storage-- hoe chaos beïnvloedt scale-out out-systemen, en verdelende systemen in het bijzonder. En dan ga ik aan te raken op een aantal van de scale-out hardware dat is nodig om te kunnen doen computergebruik op schaal. En dan tot slot, we gaan wrap up met een aantal geweldige wetenschap. Dus, laten we dan een minuut om kijk naar onze werkelijke geschiedenis. Computing is geëvolueerd. Dus sinds de jaren '60, alle de weg tot aan vandaag de dag, we hebben eigenlijk een verandering van gezien reikwijdte van gecentraliseerde computing- computing decentraliseren, om collaboratieve en dan onafhankelijk computing en rechts weer terug. En laat me annoteren dat een beetje. Toen we voor het eerst begonnen met computers, hadden we mainframes. Ze waren buitengewoon dure inrichtingen. Alles moest worden gedeeld. De computer was complex. U kunt zien, is gevuld kamers en er waren exploitanten en tapes en allerlei Whirry, clicky, spinny apparaten. Rond de jaren '70 begin jaren '80, je begon om een ​​impact van de faxapparaten zien. Dus je begint computing zien beginnen terug in laboratoria verschijnen en word dichter bij jou. De opkomst van de personal computer, zeker in de jaren '80, begin van de decennium, echt veranderd computing. En er is een aanwijzing in de titel, omdat werd de personal computer genoemd, wat betekende dat het toebehoorde aan u. Zodat de evolutie van informatica voortgezet, mensen beseften dat hun persoonlijke computer was niet echt groot genoeg in staat zijn om iets van enige verdienste te doen, of belangrijke verdienste, in de wetenschap. En zo mensen begonnen te netwerkapparaat ontwikkelen drivers om te kunnen pc's samen kunnen clusters bouwen. En dus dit gewon het tijdperk van de Beowulf cluster. Linux geëxplodeerd als reactie op eigen besturingssysteem, zowel de kosten en complexiteit. En dan, hier zijn we vandaag de dag, waar, nog maar eens, we zijn geconfronteerd met kamers vol met computer apparatuur en het vermogen om iemands credit card swipe en krijg toegang tot deze computerfaciliteiten, op afstand. En zo kun je dan zien, in termen van de geschiedenis beïnvloedende hoe we berekenen vandaag, het is zeker evolueerde van machine kamers vol computers door enkele personal computing helemaal naar rechts weer terug om de machine kamers vol computers. Dus dit is mijn eerste cluster. Dus 2000, bouwden we een computersysteem in Europa om effectief te annoteren het menselijk genoom. Er is veel van de technologie genoteerd aan de rechterzijde daar dat, helaas, is niet meer bij ons. Het is weggesluisd naar de geweldige technologie in de lucht. De machine zelf is waarschijnlijk equivalent van een paar fatsoenlijke laptops vandaag, en dat gewoon een soort van laat zien. Echter, we zorgvuldig annoteren het menselijk genoom en de beide beschermde het met dit papier in Aard van de zorgen van de gegevens het zijn publiek of privé. Dus dit is geweldig, toch? Dus we hebben een menselijk genoom. We hebben gedaan berekenen. Ik voel me heel blij mezelf. Ik rolde naar Harvard in 2006, het gevoel een stuk minder blij met mezelf. Dit is wat ik geërfd. Dit is een departementale mail en file server. U kunt hier zien dat er een beetje tape die wordt gebruikt om het systeem samen te houden. Dit is onze licentie en printserver. Ik ben er vrij zeker van dat er misschien wachtwoorden op sommige van deze Post-it Notes. Niet geweldig. Vrij ver van geweldig. En ja, ik besef dit kleine grafiek dat heb ik laten zien aan het begin van het delen van de eigendom terug naar het delen, dat we nodig hadden om het spel te veranderen. En dus hebben we veranderd het spel door het verstrekken van incentives. En zo de mens, zoals deze weinig Wikipedia artikel zegt hier, onze doelgerichte wezens. En de studie van incentive structuren is essentieel voor de studie van de economische activiteit. Dus begonnen we te stimuleren onze faculteit en onze onderzoekers. En dus hebben we gestimuleerd ze met een echt grote computersysteem. Dus in 2008, bouwden we een 4.096 processor machine-- 10 racks, paar honderd kilowatt van de macht. Wat ik denk is interessant is, is het niet Waar je ook bent in de cyclus. Deze hetzelfde vermogen en computerkracht, de stroom is de constante. Het was 200 kilowatt toen we werden systemen bouwen in Europa. Het is tweehonderd kilowatt in 2008, en dat lijkt het [zijn? quanter?] van kleine universitaire-based computing-systemen. Dus Harvard today-- snel vooruit, ik ben geen langer trieste panda, een heel gelukkige panda. We hebben 60-oneven duizend load balanced CPU's, en dramatisch hun klimmen. We hebben 15 petabytes aan opslag, ook klimmen. Nogmaals, dit 200 kilowatt increment, we lijken te voegen dat om de zes maanden of zo. Veel en veel virtuele machines. En nog belangrijker, ongeveer 1,8 megawatt van het onderzoek computerapparatuur. En ik ga komen terug naar deze later, waarom ik nu niet meer per se tellen hoeveel CPU we hebben, maar hoe groot is de elektriciteitsrekening. 20 andere zo toegewijd onderzoek computing-personeel. En wat nog belangrijker is, we zijn begint onze GPGPUs groeien. Ik was wankelde op hoeveel van deze wordt toegevoegd op een dag-tot-dag basis. Dus, geschiedenisles over, toch? Dus hoe komen we daar vanaf hier? Laten we eens kijken naar een aantal moderne scale-out compute voorbeelden. Ik ben een beetje geobsedeerd door de omvang en schaal van social media. Er zijn een aantal zeer succesvolle grootschalige gegevensverwerking organisaties nu op de planeet, het bieden van ondersteuning en diensten voor ons allemaal. Dus dat is de disclaimer. En ik wil beginnen met een aantal ounces in een Instagram. Het is niet echt een lood-in voor een grap, het is zelfs dat niet grappig, eigenlijk, kom ik er over nadenk. Maar goed, we gaan kijk naar ounces in Instagram. En we gaan beginnen met "Mijn bee en een bloem." Ik was bij [onverstaanbaar] Village en ik nam een ​​kleine afbeelding van een bij de vergadering op een bloem. En toen begon ik na te denken over wat betekent dit eigenlijk betekent. En ik nam deze foto van mijn telefoon en geteld hoeveel bytes in, en het is ongeveer 256 kilobyte. Die toen ik begon, zou in principe Vul een 5 en 1/4 inch floppy. En begon te denken, nou, dat is cool. En ik begon te kijken en doen wat onderzoek op het netwerk. En ik ontdekte dat Instagram heeft 200 miljoen MAUs. Ik was eigenlijk niet zo zeker wat een MAU was. En een MAU, hier beneden, is een maandelijks actieve gebruiker. Dus, 200 miljoen MAUs-- pretty cool. 20 miljard photographs-- zo heel veel foto's. 60 miljoen nieuwe foto's elke dag komt uit op ongeveer 0,002 gig per foto. Dat is ongeveer vijf petabytes van de schijf precies goed daar. En dat is niet echt het centrale deel van wat we gaan om te praten over. Dat is de kleine aardappelen. Of zoals wij zeggen in Engeland, kleine piepers. Dus laten we eens kijken naar de echte olifant in de kamer-- unieke gezichten. Nogmaals, laten we meten in deze nieuwe quanta noemen een MAU. Facebook zelf heeft 1,3 miljard MAUs. WhatsApp, die had ik nog niet eens gehoord van tot voor kort, het is een soort messaging-dienst, is 500 miljoen MAUs. Instagram, die we zojuist over gesproken, 200 miljoen MAUs. En Messenger, dat is een andere messaging-dienst, is ook 200 miljoen MAUs. Zo totaal dat op, het gaat over 2,2 miljard totale gebruikers. Het is duidelijk dat er enige overlap, maar dat is gelijk aan een derde van de planeet. En ze iets te sturen in de regio van 12 miljard berichten per dag. En nogmaals, er is slechts 7 miljard mensen op de planeet. Niet iedereen heeft een smartphone. Dus dit is krankzinnig nummers. En ik ga om te betogen dat het niet zelfs over de opslag of de compute. En om het lied te citeren, het is allemaal over die grafiek. Hier is onze mooie Meghan Trainor neer hier, zingend over alle bas. Let op, ze heeft ook een heel beetje bas herself-- 207, en 218 miljoen mensen hebben gezien Deze jonge dame zingt haar lied. Dus mijn argument is het het is allemaal over de grafiek. Dus namen we een aantal open source software en begon te kijken naar een grafiek. En dit is LinkedIn, dus dit is een Facebook voor oude mensen. En ja, dit is mijn LinkedIn grafiek. Ik heb 1200 of zo knooppunten, zogenaamde "vriendenlijst." En hier ben ik aan de top. En hier is alles van de onderlinge verbindingen. Nu, denk terug aan de Instagram verhaal. Elk van deze is niet alleen de foto, het heeft een hele diverse aansluitmogelijkheden tussen deze bepaalde persoon en vele anderen. Dit is een centraal onderdeel is ofwel een bug in de grafiek tekening algoritme, of dit misschien David Malan, ik ben nog niet zeker. Dus je kunt opnieuw tekenen van de grafieken in allerlei van ways-- gephi.gihub.io is waar kun je die software uit te trekken. Het is echt cool voor zijn staat om gemeenschappen te organiseren. U kunt hier zien, is dit Harvard en diverse andere plaatsen die ik heb gewerkt, want dit is mijn werk-gerelateerde data. Dus denk maar aan de complexiteit van de grafiek en alle gegevens dat trek je samen met. Dus ondertussen terug op Friendface, toch? We keken naar de Instagram gegevens die was van de orde van vijf petabytes. Geen probleem. Nog steeds heel veel gegevens, maar geen groot handelen in het grotere geheel van de dingen. Van dit artikel op de oude internet, "Scaling de Facebook-data warehouse 300 petabytes. " Dat is een heel ander game changer nu, wanneer je begint denk aan gegevens en de grafiek en wat je samen te brengen met. En hun hoge data groeit van de orde van 600 terrabytes per dag. Nu, je weet wel, goed, then-- Ik bedoel, 600 terrabytes per dag, 300 petabytes-- ze Ook nu beginnen om zeer bezorgd over te krijgen hoe dit spul te houden en om ervoor te zorgen dat deze gegevens mag rond. En deze meneer hier, Jay Parikh, is op zoek op hoe je een exabyte aan gegevens op te slaan. Alleen voor degenen onder u die kijken langs thuis, een exabyte-- 10 naar de 18. Het heeft zijn eigen Wikipedia pagina, het is zo groot van een nummer. Dat is de omvang en schaal van wat we kijken, kunnen voor gegevensopslag. En deze jongens zijn niet uitmesten rond, ze zijn het opslaan van die hoeveelheid data. Dus een van de aanwijzingen die ze zijn op zoek naar hier is datacenters voor zogenaamde koude opslag. Dat brengt mij op groen zijn. En hier is Kermit. Hij en ik agree-- het uiterst moeilijk om groen te zijn, maar we geven ons best proberen. Kermit kan het niet helpen, hij heeft groen te zijn de hele tijd, kan zijn groene-ness niet nemen helemaal af. Dus, als concepts-- een paar vriendelijke kernbegrippen van groenheid, toen het heeft betrekking op computing. Degene die de belangrijkste is de levensduur van het product. Als uw product heeft een korte levensduur, je kunt niet per definitie groen zijn. De energie naar een vervaardiging schijf, een moederbord, een computer systeem, een tablet, wat het ook mag zijn, de levensduur van uw systemen zijn een belangrijk onderdeel van hoe groen je kunt zijn. Het belangrijkste onderdeel, zoals jullie allemaal bouwen software algorithms-- algoritme een gedeeltelijke woord voor software, toch? Dus, je algoritme ontwerp is absoluut cruciaal in termen van hoe je gaat om te kunnen maken snelle en nauwkeurige berekeningen te gebruiken de minste hoeveelheid energie mogelijk. En ik zal om dit te krijgen in een beetje. Datacenter design-- je hebt gezien dat we al duizenden en duizenden machines, zittend rustig in kleine, donkere hoeken van de wereld, computing. Resource allocation-- hoe te krijgen het berekenen, de opslag, via het netwerk. Besturingssystemen zijn een belangrijk onderdeel van Dit, en een heleboel virtualisatie kunnen meer pakken en meer computerkracht in een kleine ruimte. Ik geef je een klein voorbeeld te geven uit onderzoek computing. We hadden behoefte aan meer ping, meer macht, en meer pijp. We hadden behoefte aan meer groter, betere, snellere computers, en moesten minder sap gebruiken. En we niet konden achterhalen hoe dit te doen. Ik weet niet of de hashtag gowest als waarschijnlijk door de Kardashian, maar toch, gowest. En we deden. We pakten onze werking en verhuisden we het uit naar West-Massachusetts in een kleine molen stad riep Holyoke, net ten noorden van Chikopee en Springfield. We deden dit voor een paar redenen. De belangrijkste daarvan was dat we had een zeer, zeer grote dam. En dit zeer grote dam is in staat om stak 30 plus megawatt aan energie, en het werd onderbenut destijds. Belangrijker, we hadden ook een zeer ingewikkeld netwerk dat was al op zijn plaats. Als je kijkt naar waar het netwerk gaat in de Verenigde Staten, volgt al de treinsporen. Dit bijzondere stukje netwerk was eigendom zijn van onze collega's en vrienden het Massachusetts Institute of Technology, en het was eigenlijk gebouwd helemaal uit naar Route 90. Dus we hadden een grote rivier teek, Route 90 tick, we hadden een kort pad van 100 mijl, en een lange weg van ongeveer 1.000 mijl. We hadden een zeer groot doen netwerk verbinding, zoals je hier kunt zien, om in principe een link in, om in staat zijn om verbinding te maken Holyoke, maar we hadden alle vereiste infrastructure-- ping, macht, pijp. Het leven was goed. En nogmaals, grote dam. Dus bouwden we in principe het Massachusetts Green High Performance Computing Center. Dit was een werk van liefde door vijf universities-- MIT, Harvard, UMass, Noordoostelijk, en BU. Vijf megawatt dag één aangesloten belasting. We deden allerlei slimheid met airside economizers om dingen groen te houden. En we opgebouwd uit 640-tal rekken, gewijd aan onderzoek computing. Het was een oude brownfield site, zodat we had enkele regeneratie en sommige netjes-up en sommige sanering van de site. En dan zijn we begonnen om de faciliteit te bouwen en, boom-- mooie faciliteit met de mogelijkheid om zandbak computergebruik draaien, conferenties en seminars hebben, en ook een enorme datacenter vloer. Hier is mijn goede zelf. Ik ben uiteraard het dragen van dezelfde jas. Ik misschien slechts één jas, maar er is me en John Goodhue-- hij is de executive director van de Center-- staande in de machinekamer vloer, die, zoals u kunt zien, is vrij dramatisch, en het gaat terug een lange, lange weg. Ik heb vaak spelletjes spelen rijden van Boston naar Holyoke, pretenderen dat ik een TCP / IP-pakket. En ik maak me wel zorgen over mijn latency rijden rond in mijn auto. Dus dat is het groene stuk. Dus laten we gewoon een minuut en denk na over stacks. Dus we zeer zorgvuldig te proberen bouwen datacenters efficiënt, efficiënt te berekenen, maken goede selectie voor de computerapparatuur en leveren, meer Belangrijker nog, onze applicatie, of het nu een messaging-dienst of een wetenschappelijke toepassing. Dus hier zijn de stacks. Dus fysieke laag, de weg omhoog door application-- in de hoop dat dit gaat om zijn een groot deel van je cursus. OSI zeven lagen model in wezen, je zult leven, eten en ademen dit in uw hele berekenen carrière. Dit hele concept van de fysieke infrastructure-- draden, kabels, datacenters, koppelingen. En dit is slechts een beschrijving van het netwerk. Tot hier is, nou ja, natuurlijk, Dit is een oude dia, want dit zou moeten zeggen HTTP, omdat niemand geeft om eenvoudige mail transport protocollen, meer. Het is allemaal gebeurt in de HTTP-ruimte. Dus dat is een niveau van stapel. Hier is nog een set van stapels, waar u heb een server, een gastheer, een hypervisor, een gast, binaire bibliotheek, en dan uw aanvraag. Of, in dit geval, de inrichting bestuurder, een Linux kernel, inheemse c, Java virtual machine, Java API, dan Java toepassingen, enzovoort, enzovoort. Dit is een beschrijving van een virtuele machine. Heilige stacks, Batman! Denk hier eens over in termen van hoeveel compute je nodig hebt om van Wat hier gebeurt, helemaal tot aan de top deze stapel, om dan in staat zijn om uw werkelijke doen oplevering van de applicatie. En als je soort terugspoelen en beginnen te denken over wat er nodig is om te voorzien een drijvende komma bewerking, je floating point operatie is een bedrag van de bussen, het aantal cores in de fitting, een klok, die Hoe snel kan de klok turnover-- vier gigahertz, twee gigahertz-- en dan het nummer van bewerkingen die u kunt in een bepaalde hertz. Dus die microprocessors vandaag doen tussen de vier en 6 flops per klokcyclus. En dus een single-core 2,5 gig klok heeft een theoretische prestatie van ongeveer een mega FLOP, geven of te nemen. Maar, zoals met alles, we hebben keuzes. Zo en Intel Core 2, Nehalem Sandy Bridge, Haswell, AMD, neem uw choices-- Intel Atom. Al deze processor architecturen allemaal een iets andere manier te kunnen toevoegen twee getallen elkaar, die in feite hun doel in het leven. Moet zijn taai. Er zijn miljoenen van hen zitten in datacenters, nu wel. Sor, ploffen per watt-- Dit is het grote ding. Dus als ik wil meer van dit te krijgen door deze stapel te krijgen, sneller, Ik heb om te werken aan hoeveel floating point operaties per seconde, Ik kan doen, en dan geven ze watt. En gelukkig, mensen hebben nagedacht over dit. Dus er is een grote betwisten elk jaar om te zien die de snelste computer kan bouwen dat kan een matrix diagonaliseren. Het heet de Top 500. Ze halen de top van de beste 500 computers op de planeet die kan diagonaliseren matrices. En je krijgt een aantal fantastische resultaten. Een heleboel van die machines zijn tussen 10 en 20 megawatt. Ze kunnen matrices diagonaliseren buitengewoon snel. Ze hoeven niet per se diagonalized ze zo efficiënt per watt, dus er was deze grote druk om naar te kijken wat een groene 500-lijst eruit zou zien. En hier is de lijst van juni. Er moet een nieuwe zeer binnenkort. En het roept out-- Ik neem de top van deze specifieke lijst. Er zijn twee specifieke machines-- één van de Tokyo Institute of Technology en een uit Cambridge University in het Verenigd Koninkrijk. En deze hebben vrij onthutsend mega flops per watt ratio's. Deze is 4389, en de volgende neer is 3.631. Ik zal het verschil tussen uit te leggen deze twee, in de volgende dia. Maar dit zijn dit zijn middelgroot-test clusters. Dit zijn slechts 34 kilowatts of 52 kilowatt. Er zijn enkele grotere hier-- deze bijzondere één bij de Zwitserse Nationale Supercomputing Centre. De take home message hiervoor is dat we proberen om computers te vinden die efficiënt kan werken. En ja, laten we eens kijken naar deze top één, cutely genoemd, de KFC. En een beetje reclame hier. Deze bijzondere voedingsbedrijf heeft niets te maken met dit. Het is het feit dat Dit specifieke systeem wordt gedrenkt in een zeer slimme-olie gebaseerde verbinding. En dus kregen ze hun kip friteuse moniker toen ze voor het eerst begonnen met het bouwen van dit soort systemen. Maar eigenlijk wat ze hebben genomen Hier is een aantal bladen, zet ze in deze geraffineerde minerale olie, en vervolgens uitgewerkt hoe krijgen allemaal het netwerk in en uit het. Dan, niet alleen dat, ze hebben het te zetten buiten, zodat dat het buiten luchtkoeling kunnen benutten. Het was behoorlijk indrukwekkend. Dus je moet alles doen van deze shenanigans in staat zijn om deze hoeveelheid te krijgen compute geleverd voor kleine wattage. En je kunt zien is dit de vorm van waar dingen zijn rubriek. De uitdaging is dat regelmatige lucht koeling is het schaalvoordeel en drijft veel van de ontwikkeling van zowel reguliere computing, en high performance computing. Dus, dit is vrij storend. Ik denk dat dit is fascinerend. Het is een beetje rommelig als je proberen om de schijven te verwisselen, maar het is echt een cool idee. Dus niet alleen dat, er is een hele hoop werk gebouwd rond wat we zijn het aanroepen van de Open Compute Project. En ja, over dat een beetje later. Maar de industrie begint te beseffen dat de flops per watt wordt steeds belangrijker. En jij, als mensen hier, als u het ontwerp van uw algoritmen en je ontwerp uw code, moet u zich bewust dat de code kan hebben een domino-effect. Toen Mark zat hier in zijn slaapzaal schrijven van Facebook 1.0, Ik ben er vrij zeker van dat hij het oog had dat het werd erg groot zullen zijn. Maar hoe groot het zou zijn op de milieu is een grote dealio. En zo al YA'LL kon komen met algoritmen dat de volgende uitdaging kan ding voor mensen zoals ik, proberen systemen draaien. Dus laten we gewoon na te denken over echte wereldmacht grenzen. Deze paper van Landauer-- is geen nieuw ding. 1961 deze werd gepubliceerd in het IBM Journal. Dit is de canonieke "Irreversibiliteit en Warmte Generatie in de Computing proces. " En die betoogde machines onvermijdelijk logistieke functies uit te voeren dat hebben niet één waarde inverse. Zodat het gehele deel van dit is dat terug in de jaren '60, mensen wisten dat dit zal een probleem. En zo is de wet van de grenzen zei 25 graden C, een soort van canonieke kamer temperatuur de grenswaarde vertegenwoordigt 0,1 elektronvolt. Maar theoretisch is dit de theorie computergeheugen, werken bij deze limiet kan gewijzigd bij één miljard bits per seconde. Ik weet niet over u, maar niet komen in heel veel een miljard beetjes een tweede datasnelheid uitwisselingen. Het argument was dat alleen 2.8 triljoenen van een watt van de macht zou er steeds worden uitgebreid. Oké, echte wereld example-- dit is mijn elektriciteitsrekening. Ik ben 65% procent van de dat mooie datacenter Ik heb laten zien, in dit specifieke moment. Dit is vorig jaar in juni. Ik heb een oudere versie genomen, zodat we kan en soort van anonimiseren een beetje. Ik besteedde $ 45.000 een maand voor energie daar. Dus de reden hiervoor is dat wij hebben meer dan 50.000 processen in de kamer. Dus kan je je eigen voorstellen residentiële elektriciteitsrekening is dat hoog? Maar het was voor een 199 miljoen watt uren meer dan een maand. Dus de vraag die ik stel is, kunt u stel elektriciteitsrekening Mr. Zuckerberg's? Mijne is vrij groot, en ik worstel. En ik ben niet de enige die dit is. Er is een heleboel mensen met grote datacenters. En dus, denk ik, vol disclosure-- mijn Facebook-vrienden een beetje vreemd. Dus mijn Facebook-vriend is het Prineville datacenter, dat is een van Facebook's grootste, nieuwste, laagste energie-datacenter. En ze post voor mij, dat soort dingen machtsgebruik effectiviteit, zoals in hoe effectief de data centrum versus hoeveel energie je bent het in het, hoeveel water gebruiken ze, wat is de vochtigheid en temperatuur. En ze hebben deze mooie, mooie kavels. Ik denk dat dit een ontzagwekkende Facebook-pagina, maar ik denk dat ik een beetje raar. Dus een meer macht ding, onderzoek computergebruik dat ik doe significant verschillend wat Facebook en Yahoo en Google en andere on-demand, volledig, altijd beschikbare diensten. En dus heb ik het voordeel dat wanneer ISO Nieuwe England-- en ISO New England helpt zet de energie tarieven voor de regio. En het zegt dat het zich uitstrekt een verzoek consumenten om vrijwillig te besparen hoge energie, vanwege de hoge temperaturen en vochtigheid. En dit was terug op de 18e juli. En dus ik gelukkig Tweet terug, Hey, ISO New England, Green Harvard. We doen ons deel boven hier in onderzoek computing. En dit is omdat we de wetenschap doet. En zo veel als mensen zeggen wetenschap nooit slaapt, kan de wetenschap wachten. Dus we zijn in staat om tot stilstand brengen onze systemen, profiteren van leerjaar tarieven op onze energiefactuur, en help in de gehele New England regio door het afstoten veel megawatt aan belasting. Dus dat is het unieke ding dat verschilt over wetenschappelijke berekeningen gegevens centra en die zijn in volle productie 24/7. Dus laten we gewoon een andere versnelling hier. Dus, ik wil bespreken chaos een beetje. En ik wil het in te zetten auspiciën van de opslag. Dus voor degenen dergelijke van worstelden krijgen van hun hoofd rond wat petabytes van opslag uitzien, dit een voorbeeld. En dit is het soort dingen Ik omgaan met de hele tijd. Elk van deze kleine jongens is een vier terabyte harde schijf, dus je kunt soort tellen ze op. We krijgen nu tussen men 1 en 1/2 petabytes in een industrie standaard rack. En we hebben kamers en kamers, zoals u zag in dat eerdere foto met John en ik, vol van deze rekken van de apparatuur. Dus het is steeds zeer, zeer gemakkelijk tot massale storage arrays te bouwen Het is meestal eenvoudig binnenkant van Unix naar soort tellen hoe de dingen gaan. Dus dit is het tellen hoeveel MAU punten heb ik daar aankwam. Dus dat is 423 onderscheppen punten. En dan als ik zonder enige schetsmatig awk, I kan oplopen, in dit systeem, er was 7,3 petabytes van de beschikbare opslagruimte. Dus dat is een heleboel dingen. En opslag is echt moeilijk. En toch, om wat voor reden, Dit is een industrie trend. Wanneer ik praat met onze onderzoekers en onze faculteit en zeggen: hey, ik kan opslag rennen voor je. Helaas, ik moet de kosten van de opslag herstellen. Ik krijg deze business. En mensen verwijzen Newegg of ze verwijzen naar Staples of hoeveel ze een kunnen kopen enkele terabyte schijf voor. Dus dit zul je merken hier, dat er een aanwijzing. Er is één schijf hier. En als we terug gaan, ik heb veel. Niet alleen heb ik veel, ik heb verfijnde interconnects kunnen stikken deze dingen samen. Dus het risico in verband met deze grote storage arrays is niet onbelangrijk. In feite hebben we de internet en we schreven een klein verhaal over een goedbedoelende, zachtaardige directeur van het onderzoek computerwerk toevallig een hebben vreemd Engels accent-- proberen uit te leggen aan een onderzoeker wat de geen underscore backup-map eigenlijk betekende. Het was een lange, klein verhaal, een goede vier minuten van de ontdekking. En nota, ik heb een vreselijke veel minder ruimte in dan de dame dat zingt over alle bas. We zijn een flink aantal rekeningen lager. Maar goed, dit is een belangrijk ding om te denken, in termen van wat er mis zou kunnen gaan. Dus als ik een schijf, en Ik gooi het in een Unix machine, en ik begin het schrijven van dingen die er te, er is een magneet, is er een drive hoofd, er ogenschijnlijk, één of nul opgeschreven op dat apparaat. Motors-- spinny, warrige dingen altijd te breken. Denk na over de dingen die breken. Het is altijd spinny geweest, twirly dingen. Printers, harde schijven, motorvoertuigen, enz. Alles wat beweegt is waarschijnlijk te breken. Dus je moet motoren, je moeten rijden firmware, je nodig hebt SAS / SATA-controllers, draden, firmware op de SAS / SATA controllers, lage niveau blokken. Kies uw storage controller bestand systeem code, welke men het ook mag zijn, hoe je samen dingen te stikken. En virtuele geheugen manager pagina's, DRAM halen en winkels. Dan, een ander krijg je stack, dat is een soort van onderaan de lijst op deze één algoritmen gebruikers. En als je dit vermenigvuldigen up, ik weet niet hoeveel, er is een heleboel plaatsen waar spullen opzij kan gaan. Ik bedoel, dat is een voorbeeld over wiskunde. Maar het is wel leuk om te denken van hoeveel manieren dingen kunnen fout gaan, alleen voor een schijf. We zitten al op 300 petabytes, dus stel het aantal schijven je nodig hebt van 300 petabytes dat mis kan gaan. Niet alleen dat-- dus dat is opslag. En dat zinspeelt op de persoon die ik graag zou willen zien Links op het podium, die is de Chaos Monkey. Dus op een gegeven moment, het wordt nog groter dan alleen de schijf probleem. En ja, deze fijne dames en heren die lopen een streaming video service besefte dat hun computers waren ook enorm en ook zeer ingewikkeld en het leveren van diensten om een ​​vreselijke veel mensen. Ze hebben 37 miljoen members-- en van deze dia misschien een jaar of zo old-- duizenden apparaten. Er zijn miljarden uur video. Ze inloggen miljarden gebeurtenissen per dag. En je kunt zien, de meeste mensen kijken de televisie later op de avond, en het veel zwaarder weegt dan alles. En ja, ze wilden in staat zijn om ervoor te zorgen dat de service was boven en betrouwbaar en werken voor hen. Dus kwamen ze met dit ding genaamd Chaos Monkey. Het is stukje software die, wanneer je denkt over praten over de titel deze gehele presentatie scale-out betekent dat je moet dit spul te testen. Het is niet goed gewoon een miljoen machines. Dus het leuke van dit is, Chaos Monkey is een dienst die nauwkeurig groepen systemen en één willekeurig eindigt van de systemen in een groep. Geweldig. Dus ik weet niet over u, maar als ik ooit heb bouwde een systeem dat berust op andere systemen met elkaar praten, u een van hen uit, de waarschijnlijkheid van het hele ding werken, snel af. En dus dit stukje software draait rond Netflix infrastructuur. Gelukkig, het zegt dat het draait alleen in kantooruren met de bedoeling dat de ingenieurs zullen zijn alert en in staat om te reageren. Dit zijn dus de types van de dingen die we zijn nu hoeft te doen om onze computers perturb omgevingen, om chaos te introduceren en compliceren. Dus wie, in hun recht achterhoofd, zou vrijwillig kiezen om te werken met een Chaos Monkey? Wacht even, lijkt hij te wijzen mij. Nou, ik denk dat ik should-- schattig. Maar het probleem is dat je hoeft de keuze niet te krijgen. De Chaos Monkey, zoals u kunt zien, kiest u. En dit is het probleem met computers op schaal is dat je dit niet kunt vermijden. Het is een onvermijdelijkheid van complexiteit en van de schaal en van onze evolutie, in sommige opzichten, van de informatica deskundigheid. En vergeet niet, dit is een ding om te onthouden, Chaos Monkeys liefde snowflakes-- liefde sneeuwvlokken. Een snowflake-- we hebben verklaard de Chaos Monkey-- maar een sneeuwvlok is een server die uniek is en bijzondere en delicate en individuele en zal nooit worden gereproduceerd. We sneeuwvlok vinden vaak dienst in onze omgeving. En we altijd proberen en smelten sneeuwvlok service. Maar als je een server te vinden in uw omgeving die kritisch is voor de levensduur van uw organisatie en het smelt, je kan het niet weer in elkaar. Dus job Chaos Monkey's was om gaan en gevallen te beëindigen. Als de Chaos Monkey smelt de sneeuwvlok, je bent meer dan, je bent klaar. Ik wil praten over sommige hardware die we zien in termen van soort scale-out activiteiten ook. En een aantal unieke dingen die in en rond de wetenschap activiteit. We beginnen nu te zien, onthouden Deze eenheid van onderwerp, dit rek? Dus dit is een rek van GPGPUs-- zo algemeen doel graphics processing units. Wij hebben deze in onze gegevens centrum, 100 of zo mijl afstand. Deze bijzondere rek is ongeveer 96 tera FLOPS van enkele precisie wiskunde staat te bevrijden uit de achterkant van het. En we hebben het oog 130-tal kaarten in een geval dat we-- meerdere rekken van deze instantie. Dus dit is interessant in de zin dat het algemene doel grafische processen zijn in staat om wiskunde ongelooflijk doen snel voor zeer lage hoeveelheden energie. Dus er is een grote stijging in de wetenschappelijke berekeningen gebieden, kijken grafiek processing units in een grote weg. Dus ik liep wat Mcollective via onze marionet infrastructuur gisteren, erg enthousiast over deze. slechts kort van een petaflop van enkele precisie. Gewoon om hier, dit duidelijk zijn kleine multiplier is 3.95. Dubbele precisie wiskunde ongeveer 1,2 zou zijn, maar mijn Twitter-feed keek veel beter als ik zei dat we moesten bijna een petaflop van enkele precisie GPGPUs. Maar het wordt steeds daar. Het krijgen van te zijn zeer, zeer indrukwekkend. En waarom doen we dit? Omdat quantum chemie, onder andere, maar we beginnen te ontwerpen een aantal nieuwe zonne-energie. En zo Alan Aspuru-Guzik, wie is een professor in chemistry-- mijn partner in crime-- voor de laatste paar jaar. We zijn het indrukken van de envelop op het computergebruik. En de GPGPU is ideaal technologie kunnen doen een heleboel ingewikkelde wiskunde, zeer, zeer snel. Dus met schaal, komt nieuwe uitdagingen. Zo groot scale-- je moet voorzichtig hoe je dit spul draad. En we hebben bepaalde niveaus van obsessief-compulsieve stoornis. Deze foto's waarschijnlijk rijden veel mensen noten. En kasten die niet zijn bijzonder goed bedraad drijven ons netwerk en faciliteiten ingenieurs noten. Plus er is ook de luchtstroom kwesties die je moet bevatten. Dus dit zijn dingen die ik zou nooit hebben gedacht. Met schaal, komt meer complexiteit. Dit is een nieuw type bestandssysteem. Het is geweldig. Het is een petabyte. Het kan 1,1 miljard bestanden op te slaan. Het kan lezen en schrijven naar 13 gigabyte en 20 gigabyte een second-- gigabyte een tweede. Dus het kan terabytes lossen in geen tijd bij allen. En het is een hoge beschikbaarheid. En het heeft geweldige lookup rates-- 220.000 lookups een tweede. En er zijn veel verschillende mensen het opbouwen van dit soort systemen. En je kunt het hier grafisch zien. Dit is een van onze bestandssystemen dat onder belasting vrij gelukkig lezen op slechts korte van 22 gigabytes per seconde. Dus dat is cool-- zo complexiteit. Dus met complexiteit en schaal, komt meer complexiteit, toch? Dit is één van onze vele, vele netwerk diagrammen, waar je veel hebt chassis alle ondersteunende up in een van de belangrijkste core-switch, verbonden opslag, verbinden met lage latency interconnects. En dan deze zijde van de huis, is gewoon al het beheer die je nodig hebt om te kunnen pakken deze systemen vanaf een externe locatie. Dus schaal heeft veel complexiteit mee. Veranderen versnelling weer, laten we terug gaan en hebben een plekje van de wetenschap. Dus vergeet niet, onderzoek computing en dit kleine shim-- kleine roze shim tussen de faculteit en al hun algoritmes en alle koele wetenschap en alle deze stroom en koeling en datacenter vloer en netwerken en grote computers en servicedesks en helpdesks en zo forth-- en ja, we zijn gewoon Deze kleine vulring tussen hen. Wat zijn we begonnen aan zien is dat de wereld in staat geweest om te bouwen deze grote datacenters en in staat zijn om te bouwen deze grote computers. We hebben gekregen behoorlijk goed in. Wat we niet erg goed in is dit weinig shim tussen het onderzoek en de kale metaal en de technologie. En het is moeilijk. En zo hebben we in staat om te huren geweest mensen die in deze wereld leeft. En meer recent, spraken we met de National Science Foundation en zei: deze schaal-out spul is geweldig, maar we kunnen niet onze wetenschappers krijgen Op deze grote ingewikkelde machines. Dus, zijn er een aantal verschillende programma's waar we echt meestal waren bezorgd over het proberen om te zien of we kunnen transformeren de campus infrastructuur. Er zijn veel programma rond nationale centra. En dus, onszelf, onze vrienden in Clemson, University of Wisconsin Madison, Zuid-Californië, Utah, en Hawaii soort bij elkaar om kijken naar dit probleem. En deze kleine grafiek hier is de lange staart van de wetenschap. Dus dit is-- het niet Ongeacht wat er op deze as, maar deze as is eigenlijk nummer banen gaan door de cluster. Dus er is 350.000 meer dan welke periode. Dit zijn onze gebruikelijke verdachten langs de bodem in. In feite is er Alan Aspuru-Guzik, wie we waren gewoon te praten about-- ton en ton van compute, echt effectief, weet wat hij doet. Hier is nog een lab dat ik zal praten over in een moment-- John Kovac's lab. Ze hebben het. Ze zijn goed. Ze zijn blij. Ze berekenen. Grote wetenschap wordt steeds gedaan. En dan, als je soort hier van beneden komen, er zijn andere groepen die lopen niet veel banen. En waarom is dat? Is het omdat de computing is te hard? Is het omdat ze niet weten hoe? We weten het niet, omdat we zijn gegaan en keek. En dus dat is wat deze project is alles over, is lokaal, binnen elk van deze regio's, om te zoeken naar wegen waar we kunnen gaan met de docenten en onderzoekers daadwerkelijk de onderkant van de staart, en te begrijpen wat ze doen. Dus dat is iets dat we eigenlijk gepassioneerd over. En dat is iets dat wetenschap zal niet doorgaan om vooruit te gaan totdat we lossen sommige extreme gevallen. Andere stukjes van de wetenschap dat gaat up-- iedereen gezien de Large Hadron Collider. Geweldig, toch? Dit spul liep allen in Holyoke. We Gebouwd- de allereerste wetenschap dat gebeurde in Holyoke was de samenwerking tussen onszelf en de Boston University. Dus het is echt, echt cool. Dit is een leuk stuk van de wetenschap voor de schaal. Dit is een digitale toegang tot een hemel eeuw op Harvard. Kortom, het is een bord archief. Als je naar beneden gaan Oxford-- Garden Street, sorry, u zult één van de sterrenwacht vinden gebouwen principe vol van ongeveer een half miljoen platen. En dit zijn foto's van de hemel 's nachts, meer dan 100 jaar. Dus er is een hele rig opgezet hier om die platen te digitaliseren, foto's van hen te nemen, registreren ze, leg ze op een computer. En dat is een petabyte en een half, gewoon recht er-- een kleinschalig project. Dit zijn andere projecten. Dit Pan-STARRS project aan het doen is een volledige breed panoramisch overzicht, op zoek naar de buurt van de aarde asteroïden en voorbijgaande hemelse gebeurtenissen. Als een moleculair biofysicus, ik hou het woord voorbijgaande astronomische gebeurtenis. Ik ben niet helemaal zeker wat het is, maar hoe dan ook, we zijn op zoek naar hen. En we zijn het genereren van 30 terabyte een avondje uit van die telescopen. En dat is niet echt een bandbreedte probleem, dat is als een FedEx probleem. Dus je zet de opslag op het busje en u deze sturen wat het ook is. BICEP is echt interesting-- dus achtergrond beeldvorming van kosmische extra galactische polarisatie. Toen ik voor het eerst begon te werken aan de Harvard zeven of zo, acht jaar geleden, ik herinner me werken aan dit project en het heeft niet echt zinken thuis waarom gepolariseerd licht van de kosmische microgolf achtergrond zou belangrijk zijn, totdat dit gebeurde. En dit was John Kovac, wie ik sprak eerder, met behulp van miljoenen CPU uur, in onze faciliteit en anderen, in principe staren binnen van de eerste momenten van het universum na de Big Bang, en proberen te begrijpen Algemene theorie van Einstein's relativiteitstheorie. Het is geest waait dat onze computers helpen ons te ontrafelen en staren in de zeer oorsprong van waarom we hier zijn. Dus als je praat over schaal, dit is een serieuze schaal. Het andere ding van de schaal is, dat bepaald project raakte deze jongens. En dit is de respons curve voor BICEP [Onverstaanbaar] Dit was onze kleine enquête. En je kunt hier zien, het leven was goed tot ongeveer hier, die wanneer de aankondiging kwam. En je hebt letterlijk gekregen seconden nodig te worden opgeschaald gebeurtenis die komt overeen met deze kleine stip hier, die eindigde verschuiven vier of zo terabytes aan gegevens via de webserver dat dag-- behoorlijk behaard. En, dit zijn de soorten dingen die je kan overkomen in uw infrastructuur als je het niet te ontwerpen voor schaal. We hadden een beetje een klauteren die dag te zijn kunnen overspannen out genoeg webservice om de site up and running te houden. En we waren succesvol. Dit is een klein e-mail dat is een soort van schattig. Dit is een mail te sturen naar Mark Vogelsberger, en Lars Hernquist, wie is een lid van de faculteit hier op Harvard. Meer over Mark later. Maar ik denk dat dit een soort van vat soort van waar de computer- is in onderzoek computing. Hey, team, sinds afgelopen Dinsdag, jullie pijnigde meer dan 28% van de nieuwe cluster, die in combinatie is meer dan 78 jaar CPU in slechts drie dagen. En ik zei, het is nog steeds pas vrijdagochtend. Dit is pretty awesome! Fijne Vrijdag! Dan geef ik ze de gegevens punten. En dus dat was min of meer interessant. Dus vergeet niet over Mark, komt hij terug in de foto in een klein beetje. Dus scale-out computing is overal. We zijn zelfs helpen mensen kijken naar hoe de NBA-functies, en waar mensen zijn het gooien van ballen uit. Ik begrijp niet echt dit spel ook goed, maar schijnbaar, het is een big deal. Er is hoepels en kommen en geld. En ja, onze database, wij bouwde een kleine 500 [onverstaanbaar] parallelle processor cluster, een paar terabytes aan RAM-geheugen, om dit te kunnen bouwen voor Kirk en zijn team. En ze informatica doen in een heel andere manier. Nu is dit project zijn we betrokken bij dat absoluut fascinerend, rond neurale plasticiteit connectomics en genomische imprinting-- drie zeer zware raken onderzoeksgebieden dat we vechten met op een dag-tot-dag basis. Het idee dat onze hersenen zijn onder plastische spanning als we jong zijn. En veel van onze volwassen gedrag is gebeeldhouwd door ervaring in de kinderschoenen. Dus dit is een grote dealio. En dus is dit werk dat wordt gefinancierd door de National Institutes of Mental Health. En we proberen om in principe, door middel van een heleboel grote data en big data-analyse, soort van peer in ons menselijk brein via verschillende verschillende technieken. Dus ik wilde stoppen en soort gewoon pauzeren voor een klein ogenblik. De uitdaging met afstandsbediening datacenters is het is ver weg. Het kan onmogelijk werken. Ik heb mijn gegevens in de buurt. Ik moet mijn onderzoek te doen in mijn lab. En dus nam ik een soort van voorbeeld van een functionele magnetische resonantie imaging dataset van onze data centrum in West-Mass. en aangesloten op mijn desktop in Cambridge. En ik zal deze kleine video af te spelen. Hopelijk zal het soort werk. Dus dit is me gaan door het controleren van mijn GPU's werken. En ik ben het controleren dat VNC omhoog. En dit is een slimme VNC. Dit is een VNC met 3D-stukken. En dus, zoals je binnenkort kunt zien, is dit is mij spinning deze hersenen rond. Ik ben op zoek naar soort krijgen het gericht. En dan kan ik door vele verhuizen verschillende segmenten van MRI gegevens. En het enige wat dat is verschillend over dit is, het komt over de draad uit West-Mass. op mijn bureaublad. En haar rendering sneller dan mijn desktop, want ik heb geen $ 4000 grafische kaart in mijn desktop, die We hebben uit West-Mass. Natuurlijk, ik probeer slim te zijn. Ik ben actief GLX versnellingen in de achtergrond, terwijl dit alles te doen, om ervoor te zorgen dat ik kan benadrukken de grafische kaart, en dat het allemaal soort werkt en al de rest. Maar het belangrijkste is, is dit is 100 mijl afstand. En je kunt zien in deze dat er is geen voor de hand liggende latency. Dingen samen te houden vrij goed. En dat, op zichzelf, is een voorbeeld en enig inzicht in hoe computing en scale-out computing gaat gebeuren. We zijn allemaal bezig dunner apparaten. Ons gebruik van tablets wordt steeds groter. Dus daarom, mijn carbon voetafdruk is eigenlijk het verplaatsen van wat vroeger om dat te doen zou hebben is een enorme machine onder mijn bureau, om wat is nu een facility-- kan overal zijn. Het kan overal op alle. En toch, het is nog steeds in staat om te brengen terug high performance grafische naar mijn bureaublad. Dus, het krijgen in de buurt van de end-- herinneren Mark? Nou, slimme jongen is Mark. Hij besloot dat hij zou gaan om bouwen van een realistische virtuele universum. Dat is nogal een project, wanneer u denk dat je hebt om dit te pitchen. Ik ga een gebruiken computer, en ik ga met model 12 miljoen jaar na de Big Bang om een ​​dag te vertegenwoordigen. En dan ga ik doen 13.8 miljard jaar kosmische evolutie. Prima. Dit gebruikt eigenlijk een computer het was groter dan onze computer, en het gemorste tot over de nationale middelen om onze vrienden in Texas. En om de landelijke voorzieningen, Dit was een veel te berekenen. Maar we hebben een heleboel de simulatie plaatselijk om ervoor te zorgen dat de software werkte en de systemen gewerkt. En het is dagen als deze wanneer je beseffen dat je ondersteunende wetenschap op dit schaalniveau, dat mensen kunnen nu dingen zeggen als, ik ga naar een model van een universum. En dit is zijn eerste model. En dit is het eerste model van zijn team. Er zijn vele andere mensen die gaan achter Mark, die gaan komen willen modelleren met een hoge resolutie, met meer specificiteit, nauwkeuriger. En ja, in de laatste paar minuten, Ik wil gewoon om te laten zien deze video van Mark en Lars's die voor mij, nogmaals, als een leven wetenschapper, is een soort van schattig. Dus dit onderlossend hier om u te oriënteren, Dit vertelt u de keer sinds de Big Bang. Dus we zijn op ongeveer 0,7 miljard jaar. En dat is met de huidige actualisering. Dus je ziet op het moment, donkere materie en de evolutie van de fijne structuur en vroege structuren in onze bekende universum. En het station is dat deze alles gebeurt in de computer. Dit is een set van parameters en een set van de natuurkunde en een set van de wiskunde en een set van modellen die zorgvuldig zijn geselecteerd, en dan zorgvuldig met elkaar verbonden te kunnen modelleren interacties. Dus je kunt een aantal starts van zien sommige gasvormige explosies hier. En gas temperatuur is aan het veranderen. En je kunt beginnen om de structuur te zien van het zichtbare heelal verandering. En het belangrijkste onderdeel van deze is, elk beetje klein, klein, klein dot is een stukje van de natuurkunde en heeft een set van wiskunde rond, het informeren van haar vriend en haar buurman. Dus vanuit een scaling perspectief, deze computers hebben om alle werkzaamheden in concert en met elkaar praten efficiënt. Zo kunnen ze niet al te spraakzaam zijn. Ze moeten hun resultaten slaan. En ze moeten blijven de hoogte van al hun vrienden. Inderdaad, zie je nu, dit model steeds meer en ingewikkelder. Er is meer en meer dingen gaande. Er is meer en meer materiaal rond vliegen. En dit is wat de vroege kosmos zou hebben uitgezien. Het was een vrij harige plaats. Er is explosies overal de plaats, krachtige botsingen. En de vorming van zware metalen en elementen. En deze grote wolken breken in elkaar met de extreme kracht. En dus nu zijn we 9,6 miljard jaar vanaf deze eerste explosie. Je begint te zien dingen zijn soort kalmeerde een beetje, net een beetje, omdat de energie begint nu om te ontspannen. En dus is de wiskundige modellen hebben gekregen dat in de plaats. En je begint te zien samenvoeging van verschillende elementen. En beginnen om dit ding soort te zien van elkaar en langzaam afkoelen komen. En het begint een beetje te kijken meer als de nachtelijke hemel, een klein beetje. En het is [? QSing. ?] We zijn nu 30,2 miljard jaar en we zijn soort gedaan. En dan wat ze deden was dat zij namen dit model, en dan keek naar het zichtbare heelal. En principe waren toen kunnen nemen dat en overlay het met wat je kunt zien. En de trouw is onthutsend, zoals bedoeld hoe nauwkeurig de computermodellen zijn. Natuurlijk, de astrofysici en de onderzoeksgroepen moet nog beter fidelity en nog hogere resolutie. Maar als je nadenkt over wat Ik heb vandaag met je te praten door middel van deze kleine reis door zowel opslag en structuur en netwerken en stapels, het belangrijkste is, wordt scale-out berekenen van essentieel belang? Dat was mijn oorspronkelijke hypothesis-- terug naar onze wetenschappelijke methode. Ik hoop dat bij het begin van de deel van dit zou ik voorspellen dat ik in staat om uit te leggen zou zijn om u over scale-out computing. En we soort getest sommige van deze hypotheses. We gingen door dit gesprek. En ik ga gewoon scale-out zeggen computing is essential-- oh, ja, heel veel ja. Dus als je denkt over uw codes, wanneer je doet de CS50 laatste projecten, wanneer u denkt over uw nalatenschap om de mensheid en de middelen die we moeten in staat zijn om deze computer uitvoeren systemen, denk heel voorzichtig over de FLOPS per watt, en na te denken over de Chaos Monkey. Denk na over je sneeuwvlokken, niet doen do one-offs, hergebruik bibliotheken, bouwen van herbruikbare codes-- alle dingen dat de docenten zijn leer je in deze klasse. Dit zijn fundamentele aspecten. Ze zijn niet alleen lippendienst. Dit zijn echte dingen. En als iemand van jullie me willen volgen, Ik ben obsessief met de Twitter-ding. Ik heb om een ​​of andere manier dat opgeven. Maar veel van de achtergrondinformatie is van ons onderzoek computergebruik website op rc.fas.harvard.edu. Ik probeer en houdt een blog tot date met moderne technologieën en hoe we distributieve doen computergebruik, enzovoort. En dan onze medewerkers zijn altijd beschikbaar via odybot.org. En odybot is onze kleine helper. Hij heeft vaak weinig wedstrijden op zijn website Ook, waar u kunt proberen en spotten hem rond de campus. Hij is de vriendelijke kleine gezicht van het onderzoek computing. En ik zal soort wrap up there en dank u allen voor uw tijd. En ik hoop dat je niet vergeten dat scale-out computing is een echte ding. En er zijn een heleboel mensen die veel van de stand van de techniek hebt die in staat zal zijn om u te helpen. En al het beste van geluk met uw toekomstige inspanningen in het maken van zorgen dat onze berekenen zowel schalen, hoog presterende, en helpt de mensheid meer dan iets anders. Dus, ik dank u voor uw tijd.