JAMES МАНШЕТ: Здравейте, добро следобед, всички. Моето име е Джеймс маншет. Аз съм помощник-декан по Research Изчислителна тук в Харвардския университет. И днес аз ще говоря с теб за защо мащабиране с компютър е от съществено значение. Така че предполагам, първо нагоре, кой е този човек? Защо съм тук? Защо да си поговорим? Имам опит в научната компютри и изследвания компютри, стречинг обратно в Съединените Kingdom-- The Wellcome Trust Сангър Институт за човешко genome-- и След това по-скоро в САЩ работа в широк и другият уважаваната места за обучение, като Харвард. Предполагам, че това, което всъщност означава, че е че аз съм възстановяваща молекулно био физик. Така че какво право имаме аз имам да кажа вас за мащабиране изчислителна? Има обаче. 18 години, така че аз съм просто се видят най- драстичното повишение на мащаба сложност и цялостната ефективност на компютърни системи. Когато правех моя доктор в Оксфорд, I беше доста развълнуван с 200 мегахерца Silicon Graphics машина с 18 гигабайта за съхранение и един процесор. Времената се промениха. Ако бързо напред сега, ние сме предене над 60 000 процесори тук в Харвард. Много други организации се върти много други. Най-важното за вкъщи от това е този мащаб в момента е не само неизбежна, това се е случило и това е ще продължи да се случи. Така че нека за момент, вид на превъртане назад и говори много бързо за науката, моята любима предмет, научния метод. Ако трябва да бъде учен, което трябва да направите няколко ключови неща. Ако не правите тези неща, които могат не си учен, помисли и ще се борят да може да разбирам вашата област на дисциплина. Така че на първо място, ще формулира на въпроса ви генерира хипотези, но по-важното е вие, предскаже results-- Имате ли предположение, че да какви са резултатите ще бъдат. И накрая, вие тествате хипотеза и анализират резултатите. Така че този научен метод е Изключително важно при компютрите. Компютърни както на предсказването и е в състояние да тествате своите резултати са ключова част от това, което ние се нуждаем да се направи в научния метод. Тези прогнози и изпитания са истинските два крайъгълни камъни на научния метод, и всеки изисква най-значимите постижения в съвременната изчисление. Двата стълба на науката са, че на теория и на експериментиране. И по-скоро, компютри често се споменава като третият стълб на науката. Така че, ако учениците гледат това, имате абсолютно никакъв натиск. Трети стълб на science-- не е голяма deal-- компютри, вид важно. Толкова се радвам, това е най-изчислителна част на компютърните науки, разбира се 50. Така че е достатъчно на фона. Искам да ви кажа, по плана на това, което ние ще говоря днес. Отивам да разясни малко история. Отивам да се обясни защо стигнахме дотук. Отивам да поговорим за някои от историята на изчислителните тук в Харвард, някои дейности по социални медии, зелена things-- много страстен за всички неща green-- storage-- компютър storage-- как хаос влияе мащабиране на системи, и разпределителни системи, в частност. И тогава аз ще се спра на някои на мащабиране хардуер, който е изисква да бъде в състояние да направя компютинг в мащаб. И накрая, ние ще приключи с някои страхотни науката. Така че, нека за момент се Посетете нашата действителна история. Computing еволюира. Така че, тъй като 60-те, всички гостите, чрез да Днес сме виждали в основата на промяната на обхват от централизирано компютри да децентрализира компютри, за да сътрудничество и след независима компютри и връщам отново. И нека да поясняват, че малко. Когато за първи път започнаха с компютри, които имахме компютърни системи. Те бяха необикновено скъпи устройства. Всичко трябваше да бъде споделена. Изчислителните е сложна. Можете да видите, че попълнено стаи и имаше оператори и ленти и всякакви whirry, Clicky, spinny устройства. Около 70-те началото на 80-те, сте започнали да видим на въздействието на факс машини. Така че сте се започне да се види компютри почне да се появява отново в лаборатории и да стане по-близо до вас. Възходът на личното компютър, определено през 80-те, началото на десетилетие, наистина се промени компютинг. И има представа в титлата, защото тя се нарича персонален компютър, което означаваше, тя принадлежи на вас. Така, тъй като развитието на изчислителна продължи, хората осъзнаха, че тяхната лична компютър не е достатъчно наистина голям да бъде в състояние да направи нищо на всяка заслуги, или значително заслуги, в областта на науката. И така, хората започнаха да развие мрежово устройство водачите да могат да се свързват компютри заедно, за да бъде в състояние да изгради клъстери. И така, това роди ерата на клъстера Beowulf. Linux избухна в отговор на собствена операционна система, както на разходите и сложност. И след това, ние сме тук днес, където, за пореден път, че сме изправени пред стаи, пълни с компютър оборудване и способността За да прекарате една кредитна карта и да получите достъп до тези компютърни съоръжения, дистанционно. И така, след това можете да видите, в от гледна точка на историята, което се отразява как правим изчислителна Днес, това е определено еволюира от машина стаи, пълни с компютри през някои персонални компютри по целия път обратно отново до машина стаи, пълни с компютри. Така че това е първият ми клъстер. Така че 2000 г. ние изградихме компютърна система в Европа ефективно поясняват човешкия геном. Има много на технологията листвана отдясно там, че, за съжаление, вече не е с нас. Той е преминал до най- голямо технология в небето. Самата машина е вероятно еквивалентно на няколко доста сносни лаптопи днес, и че просто вид ви показва. Въпреки това, ние се внимателно поясняват човешкия геном и двамата са я предпазвали конкретно с този на хартията в Nature от опасенията на данните е публична или частна. Така че това е страхотно, нали? Така че ние имаме човешкия геном. Ние сме направили изчисляване. Аз се чувствам много сам доволен. I нави да Харвард през 2006 г., Чувствам се много по-малко доволен от себе си. Това е, което съм наследил. Това е ведомствената поща и файлов сървър. Можете да видите тук има малко на лента който се използва за поддържане на системата заедно. Това е нашето свидетелство и сървър за печат. Аз съм сигурен, че може би ще има пароли на някои от тях Лепящи се листчета. Не е страхотно. Доста далеч от страхотно. И така, аз осъзнавам това малко чарт че ти показах в началото от споделяне на собствеността обратно към споделяне, че трябва да се промени в играта. И така, ние променихме играта чрез предоставяне на стимули. И така, на хора, тъй като това малка статия в Уикипедия Тук пише, нашите целенасочени същества. А изучаването на стимул структури е от съществено значение за изследването на икономическата активност. Така че ние започнахме да се стимулират ни преподаватели и нашите изследователи. И така, ние ги стимулирани с наистина голяма компютърна система. Така през 2008 г., ние изградихме 4096 процесорни machine-- 10 стелажи, няколкостотин киловата мощност. Това, което мисля е Интересно е не Независимо къде се намирате в цикъла. Същата сума на властта и Compute, силата е константа. Беше 200kw, когато ние строяхме системи в Европа. Това е двестакиловат през 2008 г., както и че изглежда е [? quanter?] от малък университетска основа изчислителни системи. Така Harvard today-- бързо напред, аз не съм вече тъжно панда, доста щастливи панда. Ние базирана 60-странно хил натоварване Процесори и тяхното катерене драстично. В момента има 15 петабайта съхранение, също катерене. Отново, това 200kw увеличение, ние като че ли да добавя, че на всеки шест или така месеца. Много и много виртуални машини. И по-важното, около 1,8 мегавата на изследвания изчислителна техника. И аз ще дойда към тази по-късно, за това, защо аз сега вече не е задължително брои колко CPU имаме, но колко голяма е сметката за електричество. 20 други, така посветен изчислителна персонал изследвания. И по-важното е, че сме започва да расте нашата GPGPUs. Бях се усъмни колко от тази се добавя в ден за ден. Така че, урок по история свърши, нали? Е, как да стигнем до там от тук? Нека да разгледаме някои съвременни мащабиране изчислителни примери. Аз съм малко обсебен от размера и мащаба на социалните медии. Има редица изключително успешна мащабна изчислителни организации сега на планетата, осигуряване на подкрепа и услуги за всички нас. Така че това е отказ от отговорност. И аз искам да се започне с брой унции в един Instagram. Това не е всъщност олово в с шега, това е дори и това не смешно, Всъщност, като се замисля за това. Но така или иначе, ние ще Посетете унции в Instagram. И ние ще започнем с "My пчела и цвете." Бях на [недоловим] Село и взех малко картината на пчелите, седнал на едно цвете. И тогава започнах да мисля за какво означава това всъщност означава. И взех тази снимка изключвате телефона ми и брои колко байта са в него, и това е около 256 килобайта. Което, когато започнах, би основно запълване на 5 и 4.1 инчов флопи. И започнах да мисля, добре, че е готино. И аз започнах да гледам и да направим някои изследвания на мрежата. И разбрах, че Instagram има 200 милиона Maus. Аз всъщност не е, че сигурен какво беше Мау. И по-Мау, тук долу, е месечен активен потребител. Така че, 200 милиона MAUs-- много готино. 20 милиарда photographs-- така доста фотографии. 60 милиона нови снимки всеки ден излиза на около 0,002 концерт за снимка. Това е около пет петабайта на диск точно там. И това наистина не е в централната част от това, което ние ще говорим. Ето малки картофи. Или както казваме в Англия, малки мотики. Така че нека да погледнем на недвижими слона в room-- уникални лица. Отново, нека да се измери в този нов кванти наричат ​​Мау. Самият Facebook има 1,3 млрд Maus. WhatsApp, които дори не бях чувал доскоро, че е някакъв вид съобщения, е 500 млн Maus. Instagram, които ние просто говори, 200 милиона Maus. И Messenger, която е друга Messaging Service, Също така е 200 милиона Maus. Така че общо това, тя е на път 2200000000 общо участниците. Очевидно има известно припокриване, но това е еквивалентен на една трета от планетата. И те изпратя нещо в област 12 милиарда съобщения на ден. И пак, има само 7 милиард души на планетата. Не всеки има смартфон. Така че това е лудост номера. И аз отивам да се твърди, че това не е дори и за съхранението или изчислителната. И да цитирам песента, всичко е въпрос, който графика. Ето нашето прекрасно Меган Trainor надолу тук, ще пее за всички баса. Забележка, тя също има доста малко на бас herself-- 207, и 218 милиона души са видели тази млада дама да пее песента си. Така че моят аргумент е всичко е въпрос на графиката. Така че ние взехме някои софтуер с отворен код и започнах да гледам на графика. И това е LinkedIn, така че това е Facebook за стари хора. И така, това е моят LinkedIn графика. Имам 1200 или така възли, така наречените "Приятели". И тук ми е най-отгоре. И тук всичко е на междусистемните връзки. Сега, да се върнем към историята Instagram. Всяка една от тях е не само на снимката, тя има цяло множество връзки между този конкретен индивид и много други. Това е централната част е или бъг в алгоритъма на графика рисунка, или това може би David Malan, аз все още не съм сигурен. Така че можете да се прекрои графики във всички видове на ways-- gephi.gihub.io е мястото, където можете да дръпнете, че софтуер от. Това е наистина страхотно за това, че в състояние да организира общности. Тук можете да видите, това е Harvard и различни други места, в които съм работил, защото това е моята информация, свързани с работата. Така че просто мисля за сложността на графиката и на всички данни че дръпнете заедно с. Така че междувременно назад към FriendFace, нали? Разгледахме данните Instagram, че е от порядъка на пет петабайта. Не е голяма работа. И все пак доста данни, но не е голяма Занимаваме се с по-голямата схема на нещата. От тази статия на стария интернет, "Мащабен данни склада на Facebook 300 петабайта. " Това е съвсем различно промени играта сега, когато сте се започне да мисля, че на данни и графиката и това, което ви донесе заедно с. И високата им данни расте на от порядъка на 600 terrabytes на ден. Сега, знаете ли, добре, then-- Искам да кажа, 600 terrabytes в денонощието, 300 petabytes-- те са Също така сега започва за да получите много загрижен за как да се пазят тези неща и да се уверите, тази информация остава наоколо. И този господин тук, Jay Parikh, търси как да съхранявате Exabyte на данни. Точно за тези от вас, които гледат заедно у дома, на exabyte-- 10 до 18. Тя има своя собствена Wikipedia страница, това е, че голям на брой. Това е размера и мащаба на това, което сме гледаш, за да може да съхранява данни. И тези момчета не са хвърляйки наоколо, те се съхраняват, че количество данни. Така че една от улики, че , което търсят в тук е центрове за данни за т.нар хладилно съхранение. Което ме довежда до е зелен. И тук е Кърмит. Той и аз agree-- това е изключително трудно да бъде зелен, но ние го даваме най-доброто опитам. Кърмит не мога да помогна, той има да бъде зелен през цялото време, не може да си вземе зелено-ност на разстояние най-малко. Така че, като concepts-- а някои видове основни понятия зеленина, когато става се отнася до компютри. Този, който е най-важното е дълголетието на продукта. Ако вашият продукт е с кратък живот, не можете, по дефиниция, е зелен. Енергията, необходима за производство на диск, дънна платка, компютър система, таблет, каквото и да да, дълголетие на вашите системи са ключова част от това как зелено можете да бъдете. Важната част, като всички вас изграждаме софтуер algorithms-- алгоритъм на частичен Думата за софтуер, нали? Така че, си алгоритъм дизайн е от огромно значение от гледна точка за това как вие ще бъдете в състояние да направи бързи и точни изчисления, за да използват най-малко количество енергия е възможно. И аз ще се заемем с това след малко. Данни център design-- сте виждали че вече имаме хиляди и хиляди машини, седнал тихо в малки, тъмни ъгли на света, компютри. Resource allocation-- как да се получи на компютърните със съхранението, чрез мрежата. Операционните системи са основна част от това, и много виртуализация да бъде в състояние да побере повече и повече изчислителна в малко пространство. Аз ще ви дам един малък пример от изследванията компютри. Имахме нужда от повече пинг, по- мощност и по-тръба. Имахме нужда от по-голяма, по-добри, по-бързи компютри, и е необходимо да се използват по-малко сок. И ние не може да разбере как да направите това. Аз не знам дали таг gowest като вероятно е била използвана от Кардашиан, но така или иначе, gowest. И сме направили. Ние качват нашата работа и ние го изнесъл да Western Massachusetts в малка мелница град наречено Holyoke, точно на север на Chikopee и Springfield. Направихме това за няколко причини. Основната от тях е, че ние имаше много, много голям язовир. И това много голям язовир, е в състояние да изнеса 30 плюс мегавата енергия, и тя се използва достатъчно добре в момента. По-важното е, също така имаше много сложна мрежа че е вече налице. Ако се вгледате в която мрежата отива в Съединените щати, от това следва, всички песни на влака. Това специално парче мрежа е притежавани от нашите колеги и приятели в Масачузетс Технологичен институт, и тя беше основно построена чак до Route 90. Така че имахме голяма река кърлеж, Route 90 отбележете, имахме кратък път от 100 мили, и дълъг път от около 1000 мили. Ние трябва да се направи много голяма мрежа за снаждане, както можете да видите тук, да посветя връзка в, да да бъде в състояние да се свърже с Holyoke, но имахме всичко на изискваните infrastructure-- пинг, мощност, тръби. Животът беше добра. И отново, голям язовир. Така че ние построен основно Massachusetts Green Computing High Performance Center. Това е труда на любовта чрез петте universities-- MIT, Harvard, UMass, Североизточна и BU. Пет мегават ден един свързан товар. Направихме всички видове интелигентност с излитане и кацане икономайзери да пазят нещата зелено. И ние построен 640-те стелажи, посветена на научните изследвания компютинг. Той беше стар изоставен сайт, така че ние имаше някои рекултивация и някои подредено-нагоре и някои почистване на обекта. И тогава ние започнахме за изграждане на съоръжението и, boom-- прекрасно съоръжение с способността да тече пясък компютри, да има конференции и семинари, а също и масивен етаж на центъра за данни. Тук ми е добре самостоятелно. Аз очевидно носеше същото яке. Аз може би само една яке, но там ми е и John Goodhue-- той е най- Изпълнителният директор на Center-- стоящи в машинното помещение етаж, който, както можете да видите, е доста драматично, и го датира от дълго време, дълъг път. Аз често се играят игри на шофиране от Бостън до Holyoke, преструва, че аз съм TCP / IP пакети. И аз се притеснявам за моя латентност около шофиране в колата ми. Така че това е зелено парче. Така че нека просто да отнеме минута и мисля за стакове. Така че ние се опитваме много внимателно да изграждане на центрове за данни ефективно, изчислителна ефективно, направи добро избор за изчислителна техника и изпълнява обещанията си, по- важното е, че нашата молба, било то на услуги за съобщения или научно приложение. Така че тук са стакове. Така физически слой, цялата път нагоре през application-- надявайки се, че това ще да е добра част от курса си. OSI седем слой модел е в основата, ще живее, яде и диша това през целия си в компютърната кариера. Цялата тази концепция за физическа infrastructure-- жици кабели, центрове за данни, връзки. И това е само описване на мрежата. До тук е, добре, очевидно, Това е стара пързалка, защото това трябва да се каже, HTTP, защото Никой не се интересува Simple Mail транспортни протоколи, вече. Всичко е случва в HTTP пространство. Така че това е едно ниво на стека. Ето още един набор от купчини, където имате сървър, хост, хипервайзор, гост, двоичен библиотека, и след това в молбата си. Или, в този случай, устройството машинист, Linux ядрото, роден в, Java виртуална машина, Java API, след това Java приложения, и така нататък и така нататък. Това е описание на виртуална машина. Светите стекове, Батман! Помислете за това в от гледна точка на това колко изчислителна което трябва да получи от какво се случва тук, по целия път до върха на този комин, за да след това да бъде в състояние да направи вашата действителна доставка на заявлението. И ако нещо назад и да започнем да мислим за какво е необходимо, за да се осигури операция с плаваща запетая, Вашата плаваща операция точка е сума от тези контакти, на броя на ядрата в гнездото, часовник, което е Колко бързо може часовника turnover-- четири гигахерца, две gigahertz-- и след това броя на операции можете направите в дадена херца. Така че тези микропроцесори днес направя между четири и шест сандали за такт. И така едноядрен 2.5 концерт часовник има теоретична производителност от около мега флопа, или да се даде. Но, както с всичко, имаме избор. Така че и Intel Core 2, Nehalem Sandy Bridge, Haswell, AMD, вземете choices-- Intel Atom. Всички тези процесорни архитектури всички те имат малко по-различен начин да бъде в състояние да добавите две числа заедно, който е основно целта им в живота. Трябва да е трудно. Има милиони от тях седят в центровете за данни, сега пак. Sor, сандали на watt-- това е голямо нещо. Така че, ако искате да получите повече от това да преминем през това стак, по-бързо, Трябва да работим за това колко операции с плаваща запетая за секунда, Мога да направя, и след това да ги даде вата. И за щастие, народе съм мислил за това. Така че има голяма оспори всяка година, за да видите които може да се изгради най-бързият компютър които могат да diagonalize матрица. Тя се нарича Top 500. Те вземете върха от най-добрите 500 компютри на планетата, който може да diagonalize матрици. И можете да получите някои невероятни резултати. Много от тези машини са между 10 и 20 мегавата. Те могат да diagonalize матрици необикновено бързо. Те не задължително диагонилизирана тях най-ефективно на ват, така че не е този голям тласък да погледнем какво зелена 500 списък ще изглежда така. И тук е списъка от юни. Не трябва да има нов най-скоро време. И обръща out-- Ще взема на върха на този списък. Има две специфични machines-- една от Технологичния институт в Токио и един от Cambridge University във Великобритания. И те имат доста потресаващ мега сандали на съотношения вата. Това е 4389, а Следващата една надолу е 3631. Аз ще обясня разликата между тези две, в следващия слайд. Но това са това са средни по размер тестови клъстери. Това са само 34 киловата или 52 kw. Има някои по-големи here-- този конкретен едно в швейцарски гражданин Суперкомпютърен център. Внесете в дома съобщението за това е, че ние сме опитвайки се да намери компютри който може да работи ефективно. И така, нека да погледнем на това отгоре един, cutely нарича, на KFC. И малко реклама тук. Това специално хранителна компания няма нищо общо с това. Това е факта, че тази система е напоена с много умен съединение на маслена основа. И така, те получиха своите пиле фритюрник прозвище когато за първи път започнах да изграждане на тези видове системи. Но в общи линии това, което сме направили тук е много остриета, сложете ги в тази изискан минерално масло, и след това работи как да получите всички изграждане на мрежа във и извън него. След това, че не само, те го постави извън така че да може да се възползва извън въздушно охлаждане. Беше доста впечатляващо. Така че трябва да направим всичко на тия щуротии да бъде в състояние да получи тази сума на Compute доставени за малка мощност. И вие можете да видите това е формата на мястото, където нещата са позиция. Предизвикателството е, че редовните въздушни охлаждане е икономията от мащаба и се кара много от развитие на двете редовни компютри, и висока изчислителна производителност. Така че, това е доста смущаващо. Мисля, че това е очарователно. Това е малко разхвърлян, когато опитайте да сменяте дискове, но това е наистина страхотна идея. Така че не само, че има цял куп работа се изгражда около това, което сме обадите проекта Open Compute. И така, повече за това малко по-късно. Но в индустрията започва да осъзнават, че провали на ват става важно. И вие, като хора тук, като проектирате вашите алгоритми и можете да проектирате свой код, трябва да сте наясно че кодът може имат страничен ефект. Когато Марк седеше тук, в неговата стая в общежитието написването Facebook 1.0, Почти съм сигурен, че има цел че тя щеше да бъде огромна. Но как огромна, че ще бъде на среда е голям dealio. И така всички Та вие може излезе с алгоритми които биха могли да бъдат следващите предизвикателното нещо за хора като мен, се опитват да управляват системи. Така че нека просто мисля за Гранични стойности за мощността реалния свят. Този документ от Landauer-- не е нещо ново. 1961, което беше публикувано в IBM вестник. Това е каноническа "Необратимост и Heat Generation в процеса Computing. " И така, той твърди, че машини неизбежно изпълняват логистични функции, които не разполагат с един ценен обратен. Така че цялата част от това е, че още през 60-те години, хора са знаели, че това е ще бъде проблем. И така на практика на граници, заяви 25 градуса С, а нещо като каноничен стая температура, а границата представлява 0.1 електронволта. Но теоретично, това е паметта на теория, компютър, работещи при това ограничение може да бъде променило в един милиард бита в секунда. Не знам за вас, но не се намира много един милиард бита втори обмен курсове данни. Аргументът беше, че само 2.8 трилиона вата на властта би трябвало да се някога да се разшири. Добре, реалния свят example-- това е моята сметка за ток. Аз съм 65% процента от това прекрасно център за данни Аз ти показах, в този конкретен момент. Това се завръща през юни миналата година. Поел съм по-стара версия, така че ние може и нещо анонимно малко. Прекарвах $ 45,000 за месец за енергия там. Така че причината да бъде там е, че ние имаме над 50,000 процеси в стаята. Така че може да си представите вашата собствена жилищна сметка за електроенергия е, че високо? Но това беше за 199 млн ватчаса повече от месец. Така че въпросът ми поза е, може ли да представете си сметка за ток, г-н Зукърбърг е? Моята е доста голяма, и аз се борим. И аз не съм сам в това. Има много хора, с големи центрове за данни. И така, аз предполагам, пълна disclosure-- моите приятели във Фейсбук малко странно. Така че моят Facebook приятел е Центърът на Prineville данни, който е един от Facebook е най-голямата, Най-новият, най-ниската център енергийни данни. И те пусне да ме, такива неща ефективността на използване на енергия, като в това как ефективно е данните център срещу колко енергия сте въвеждане в него, колко вода са те използване, което е влажността и температурата. И те имат тези прекрасни, красиви градове. Мисля, че това е страхотно Facebook страница, но предполагам, че съм малко по-странно. Така че още едно нещо власт, изследвания компютри, които правя е значително различен какво Facebook и Yahoo и Google и други по заявка, напълно, Винаги достъпни услуги. И така, аз имам предимството, че когато ISO New England-- и ISO New England помага за създаването на енергия цени за региона. И тя казва, че е за удължаване искане на потребителите доброволно да запазят висока енергия, поради високата топлина и влажност. И това беше отново на 18 юли. И така, аз щастливо Tweet обратно, Hey, ISO New England, Green Харвард. Правим част над тук в изследвания компютри. И това е така, защото ние правим наука. И колкото хората казват науката никога не спи, науката може да чака. Така че ние сме в състояние да успокояване ни системи, да се възползват от проценти клас на нашата сметка за ток, и помогне на целия Ню Ингланд област чрез проливането много мегавата товар. Така че това е уникално нещо, което различава за научни данни компютинг центрове и тези, които са в пълно производство 24/7. Така че нека просто да направите друга предавка тук. Така че, искам да обсъдя хаос малко. И аз искам да го сложа в егидата на съхранение. Така че за тези, които натура на се бореха подготовка за главата си около това, което петабайта на съхранение изглежда, този пример. И това е нещо като неща Аз се занимавам с цялото време. Всеки един от тези малки момчета е четири терабайт твърд диск, за да можете да вид ги брои. Ние получаваме сега между един към един и 1.2 петабайта в стандартен промишленост багажник. И ние имаме стаи и помещения, като ви Видях това, че по-рано снимка с John и аз, пълен с тези стелажи за оборудване. Така че това е все много, много лесно за изграждане на масивни масиви Това е най-вече лесно вътре на Unix за вид брои как се развиват нещата. Така че това е преброяване колко Мау точки имат отидох там. Така че това е 423 Точките. И тогава, ако пускам някаква бегла AWK, I да добавите, в тази конкретна система, имаше 7,3 петабайта на разположение съхранение. Така че това е много неща. И съхранение е наистина трудно. И все пак, по някаква причина, това е тенденция промишленост. Всеки път, когато говоря с нашите изследователи и нашият факултета и да кажа, Хей, мога да тичам съхранение за вас. За съжаление, аз трябва да покриване на разходите за съхранение. Получавам този бизнес. И хората се обръщат към Newegg или те референтни Staples или колко може да си купи единична терабайт диск за. Така че това, вие ще обърнете внимание тук, че има представа. Има един диск тук. И ако се върнем, имам много. Не само, че съм много, имам сложни взаимовръзки да бъде в състояние да се зашие тези неща заедно. Така че рисковете, свързани с тези големи маси масиви не е незначително. В действителност, ние взехме на интернет и ние написахме малко история за един добронамерен, кроткият директор на научните изследвания computing-- се случва да има странно English accent-- опитвате да обясни на изследовател какво не папка долна архивиране всъщност означаваше. Това беше доста дълго, малко история, добър четири минути и открития. И за сведение, имам ужасно много по-малко място, отколкото дамата че пее за всички баса. Ние сме доста по-ниски сметки. Но така или иначе, това е Важно е да мислим за това, от гледна точка на това, което би могло да се обърка. Така че, ако получа диск, и Аз го хвърлят в една Unix машина, и аз започнете да пишете неща за него, има магнит, има задвижване на главата, там е привидно, а една или нулеви се записват на за това устройство. Motors-- spinny, twirly нещата винаги се счупят. Помислете за нещата, които разграждат. Тя винаги е била spinny, twirly неща. Принтери, дискови устройства моторни превозни средства и т.н. Всичко, което се движи е вероятно да се счупят. Така че ще трябва мотори, можете нужда шофиране фърмуера, трябва SAS / SATA контролери, кабели, фърмуера на администраторите на SAS / SATA, ниски блокове ниво. Избери си файл контролер за съхранение Код на системата, което от двете може да се окаже, как се шие неща заедно. И вашия виртуален мениджър памет страници, DRAM донесе и магазини. След това, вие получавате друг стека, което е един вид на определяне на списъка на тази един, алгоритми, потребители. И ако се умножи тази нагоре, аз не знам колко, има много места, където нещата могат да отидат настрани. Искам да кажа, че това е пример за математика. Но това е нещо забавно да се мисли за колко много начини нещата могат да се объркат, само за диск. Ние вече сме на 300 петабайта, така си представим броя на дисковите устройства имате нужда от най-300 петабайта че може да се обърка. Не само that-- така че това съхранение. И това намеква за човек аз бих искал да видя въведете етап ляво, която е Chaos маймунката. Така че в един момент, тя става още по-голяма, отколкото просто дисковото устройство проблем. И така, тези фини дами и господа че тече видео услуга за стрийминг Осъзнах, че компютрите им са били също огромна и също е много сложно а също и осигуряване на услугата да страшно много хора. Те имат 37 милиона members-- и този слайд е може би една година или така old-- хиляди устройства. Има милиарди часа видео. Те влезте милиарди събития на ден. И вие можете да видите, че повечето хора гледат телевизията късно през нощта, и тя далеч надхвърля всичко. И така, те искаха да да бъде в състояние да се уверите, че услугата е и надеждна и работи за тях. Така те излязоха с тази нещо, наречено Chaos Monkey. Това е част от софтуера които, когато си мислиш, за да говорим за титлата от цялата тази презентация, мащабиране ли означава трябва да тествате тези неща. Няма смисъл само като един милион машини. Така че хубавото това е, Chaos Monkey е услуга, която идентифицира групи системи и на случаен принцип един прекратява на системите в една група. Awesome. Така че аз не знам за ти, но ако някога съм изградена система, която разчита на друга системи говорят един с друг, вземете един от тях, отправените вероятност от цялото нещо да работи, намалява бързо. И така, тази част от софтуера работи около инфраструктурата на Netflix. За щастие, тя казва, че работи само в работно време с намерението че инженерите ще бъдат предупреждение и може да отговори. Така че това са видовете неща, ние сме сега се налага да се направи, за да смущава нашата изчислителна среди, за да въведат хаос и въвеждане на сложност. Така че, който, в правото си ум, на драго сърце би избрал да работят с Chaos Monkey? Дръж се, той Изглежда ме посочи. Е, предполагам, че should-- сладко. Но проблемът ви е не се получи избора. The Chaos Маймуната, както ти може да видите, можете избира. И това е проблемът с компютри в мащаб е, че не може да се избегне това. Това е неизбежно на сложност и от мащаба и на нашата еволюция, в някои отношения, на изчислителна експертиза. И не забравяйте, това е Едно е да се помни, Chaos Monkeys любов snowflakes-- любовни снежинки. A snowflake-- сме обясни Chaos Monkey-- но снежинка е сървър, който е уникален и специален и деликатен и индивидуално и никога няма да се възпроизвежда. Ние често се намери снежинка услуги в нашата околна среда. И ние винаги се опитваме и стопи снежинка услуга. Но ако се намери сървър във вашата среда че е от решаващо значение за дълголетието на вашата организация и тя се топи, вие не можете да я поставите отново заедно. Така че работата Chaos Monkey беше да отида и да прекрати случаи. Ако Chaos Маймуната топи снежинка, което свърши, сте готови. Искам да говоря за част от хардуера, че ние сме виждаме по отношение на вид мащабиране дейности също. И някои уникални неща, които са в и около дейността на науката. Ние сега започваме да виждаме, не забравяйте, тази единица въпрос, тази поставка? Така че това е един багажник на GPGPUs-- така общо предназначение графични процесори. Ние сме тези, разположен в нашия данни център, 100 или така мили. Това специално багажник е около 96 Тера сандали на единична точност математика състояние да избави на гърба си. И ние имаме, за 130-странно карти в една инстанция че we-- множествена стелажи за този случай. Така че това е интересно, в смисъл, че процеси с общо предназначение, графични са в състояние да направят математиката невероятно бързо за много ниски количества енергия. Така че има голяма покачване в научните изчислителни области, погледнете в графика преработвателни предприятия в голям начин. Така че аз се завтече някои Mcollective чрез нашия куклен инфраструктура вчера, много развълнуван за това. малко под един петафлоп на единична точност. За да е ясно, тук, това Малко мултипликатор е 3.95. Double-прецизна математика ще бъде около 1.2, но ми Twitter емисия изглеждаше доста по-добре, ако аз каза, че имаме почти петафлоп на единична точност GPGPUs. Но това е все там. Става да бъде много, много впечатляващо. И защо се прави това? Тъй като квантова химия, наред с други неща, но ние започваме да се изработи някои нови фотоволтаици. И така Alan Aspuru-Guzik, който е професор в chemistry-- моя партньор в crime-- за последните няколко години. Ние сме били натискане на плик по компютинг. И GPGPU е идеален технология, за да бъде в състояние да направи ужасно много сложно математика, много, много бързо. Така че с мащаб, идва с нови предизвикателства. Така огромна scale-- трябва да бъде Внимавайте как ще изпратя тези неща. И ние имаме определени нива на обсесивно-компулсивно разстройство. Тези снимки вероятно карам много хора ядки. И шкафове, които не са жични особено добре шофиране нашата мрежа и Съоръжения инженери ядки. Плюс има и въздушен поток въпроси, които трябва да се съдържат в него. Така че това са неща, които съм Никога не бих си и помислила. С мащаб, идва по-голяма сложност. Това е нов тип на файловата система. Това е страхотно. Това е петабайта. Той може да съхранява 1100000000 файлове. Тя може да чете и пише на 13 гигабайта и 20 гигабайта на second-- гигабайта втори. Така че може да се разтоварят терабайта в нито един момент на всички. И това е много достъпна. И тя има невероятно търсене rates-- 220,000 заявки за секунда. И има много различни хора изграждане на този вид системи. И вие можете да го видите тук графично. Това е една от нашите файлови системи това е под натоварване, доста щастливо четене на малко по-малко от 22 гигабайта в секунда. Така че това е cool-- така сложност. Така че със сложността и мащаба, идва по-голяма сложност, нали? Това е един от многото ни, много мрежови диаграми, където има много различни шаси всички поддържащ в главния прекъсвач ядро, свързани със съхранението, свързване с ниски свързва латентност. И тогава всички от тази страна на къща, е просто всичко на управлението че трябва да бъде в състояние да се справи тези системи от далечно разстояние. Така мащаб има много сложност с него. Смяна на скоростите пак, нека се върнем и има малко място на науката. Така че, не забравяйте, изследвания компютри и това малко shim-- малко розово шайба между изходното преподаватели и всички техни алгоритми и всички на хладно наука и всички тази сила и енергия за охлаждане и център за данни етаж и изграждането на мрежи и големи компютри и бюра за услуги и информационни бюра и така forth-- и така, ние сме просто тази малка шайба между тях. Това, което започна да виждаме, е, че в света били в състояние да изгради тези големи центрове за данни и да може да се изгради тези големи компютри. Ние сме придобили доста добър в това. Това, което ние не сме много добри в това Малко шайба между научните изследвания и чист метал и технологията. И това е трудно. И така, ние сме били в състояние да наеме хора, които живеят в този свят. И по-скоро, Разговаряхме с National Science Foundation и каза, тази мащабиране неща е голяма, но не можем да постигнем нашите учени на тези големи сложни машини. И така, имало брой различни програми когато ние наистина бяхме най-вече загрижен за опитват да видим дали ще може да се трансформира инфраструктурата кампус. Има много програми, около националните центрове. И така, себе си, ни приятели в Clemson, Университета на Уисконсин Медисън, Южна Калифорния, Юта, и Хавай вид се събраха, за да Посетете този проблем. И тази малка графика тук е дълга опашката на науката. Така че това is-- това не е така Независимо какво има на тази ос, но тази ос е всъщност номер на работни места става чрез клъстера. Така че има 350 000 през каквото период от време. Това са нашите обичайни заподозрени по дъното тук. В действителност, има Alan Aspuru-Guzik, които ние тъкмо говорихме about-- тона и т изчислителна, наистина ефективно, знае какво прави. Ето друга лаборатория, която ще говоря за по moment-- лаборатория John Ковач. Те го. Те са добри. Те са щастливи. Те изчислителна. Great науката е все направено. И тогава, както ти вид от дойдеш тук, там други групи, не използвате много работни места. И защо е така? Дали защото работата с компютър е твърде трудно? Дали защото те не знаят как да? Ние не знаем, защото сме преминали и погледна. И така, това е, което тази Проектът е за всички, е локално, в рамките на всеки от тези региони, да погледнем към пътища, където можем да се ангажират с факултета и изследователи всъщност в долния край на опашката, и да разберат какво правят. Така че това е нещо, което ние сме всъщност вълнува. И това е нещо, което наука няма да продължи да се движи напред, докато не се реши някои от тези крайни случаи. Други бита на науката че ще up-- всички виждал Големия адронен ускорител. Страхотно, нали? Това нещо всички се наредиха в Holyoke. Ние built-- първи науката, което се случи в Holyoke беше сътрудничеството между себе си и Бостънския университет. Така че това е наистина, наистина страхотно. Това е забавно парче на науката за мащаб. Това е цифров достъп до скай век в Харвард. По принцип, това е архив плоча. Ако слезем Oxford-- Garden Street, съжалявам, вие ще намерите един от обсерваторията сгради е основно пълните на около половин милион плочи. А това са снимки на небе през нощта, повече от 100 години. Така че има цяла платформа, създадена тук, за да дигитализират тези плочи, правите снимки на тях, абонирайте ги, сложете ги на компютър. И това е една петабайта и половина, точно there-- един малък проект. Това са други проекти. Този проект Pan-STARRS се справя пълен широка панорамна проучване, търси близо до астероиди за Земята и преходни небесни събития. Като молекулно биофизик, Обичам думата преходно небесно събитие. Не съм съвсем сигурен какво е, но така или иначе, ние не търсим за тях. И ние сме генериране 30 терабайта една вечер на тези телескопи. И това не е наистина една честотна лента проблем, че е като проблем FedEx. Така че ще ви постави съхранението на микробуса и можете да го изпратите каквото и да е. Бицепса е наистина interesting-- така фон изображения на космическото допълнително галактически поляризация. Когато за първи път започнах да работя в Харвард седем или така, преди осем години, си спомням работи по този проект и той не го осъзнавах Начало, защо поляризирана светлина от космическия микровълнов фон ще бъде важно, докато това се случи. И това беше John Ковач, които аз говорих с преди, използване на милиони и милиони CPU часа, в нашия съоръжение и други, всъщност да се взира във вътрешността на първите мигове на Вселената след Големия взрив, и Опитвам се да разбера Обща теория на Айнщайн за относителността. Това е против разпенващ, че нашите компютри са ни помагате да разгадаят и се взират в самите корени на защо сме тук. Така че, когато говорим за мащаб, това е някакъв сериозен мащаб. Другото нещо, на скала е, че конкретен проект удари тези момчета. И това е кривата на реакция за бицепса [Недоловим] Това е нашето малко проучване. И можете да видите тук, живот беше добро, докато за тук, което е, когато обявяване излезе. А имате ли буквално секунди, за да отговорят за мащабиране събитието, което съответства на това малко точка тук, които в крайна сметка измества четири или така терабайта данни чрез уеб сървър че day-- доста космат. И така, това са видове неща, които може да ви се случи в инфраструктура ако не се изработи за мащаб. Имахме доста голяма катеря този ден, за да бъде в състояние да обхване навън достатъчно уеб услуга да се запази в сайта и да вървят. И ние бяхме успешни. Това е малко имейл че е нещо сладко. Това е съобщение на Mark Vogelsberger, и Lars Hernquist, кой е член на факултета тук в Харвард. Повече за Mark-късно. Но аз мисля, че това е една вид обобщава вид от където изчислителните е в научните изследвания компютинг. Хей, отбор, тъй като миналата Вторник, вие печелят над 28% от новите клъстер, който комбинира е над 78 години на CPU само за три дни. И аз казах, че все още е едва в петък сутринта. Това е доста страхотно! Честит петък! Тогава аз им даде точките с данни. И така, това е вид интересна. Така че не забравяйте за Марк, той ще дойде обратно в снимката по малко. Така мащабиране компютинг е навсякъде. Ние дори помага хора изглеждат начините, по които функциите на НБА, и когато хората са хвърлят топките. Аз наистина не разбирам тази игра твърде добре, но на пръв поглед, това е голяма работа. Има обръчи и купички и пари. И така, в нашата база данни, ние построена малко 500 [недоловим] паралелни процесори клъстер, Няколко терабайта RAM, за да може да се изгради тази за Кърк и неговия екип. И те правят компютри в съвсем друг начин. Сега това е проект, ние сме ангажирани с това е абсолютно очарователни, около невронни пластичност connectomics и геномна imprinting-- три много тежки удря области на научни изследвания че ние се борим с по един ден за ден. Идеята, че мозъците ни са в процес на пластмасови стрес, когато сме млади. И голяма част от нашето поведение възрастни е изваяни от опит в ранна детска възраст. Така че това е голяма dealio. И така, това е работа, която е финансирана от Националните институти по психично здраве. И ние се опитваме да същество, през много големи данни и голям анализ на данни, вид на надникне в нашия човешки мозък чрез различни различни техники. Така че ми се искаше да спре и вид просто пауза за един малък миг. Предизвикателството с дистанционно центрове за данни е, че е много далеч. Тя не може да работи. Имам нужда от моите данни наблизо. Трябва да направя моите изследвания в моята лаборатория. И така, аз вид взе пример за функционален магнитен резонанс набор от данни от нашия данни център в Западна Mass. и той е свързан с моя десктоп в Кеймбридж. И аз ще играя тази малка видео. Надяваме се, че нещо ще работи. Така че това е ми става чрез проверявам графични процесори работят. И аз съм проверка, която VNC е нагоре. И това е един умен VNC. Това е VNC с 3D парчета. И така, както можете да видите скоро, тази е ми се върти в тази мозъка наоколо. Опитвам се някак да го получите ориентирани. И тогава може да се движи през много различни парчета от данни ЯМР. И единственото нещо, което е различно за този е, че идва по жицата от Western Mass. на компютъра си. И отдаването по-бързо от компютъра си, защото аз не разполагат с $ 4,000 графична карта в компютъра си, които имаме от Western Mass. Разбира се, аз се опитвам да бъда умен. Бягам GLX съоръжения в фон, докато правиш всичко това, за да се уверите, че мога подчертая, графичната карта, и че всички видове работи и всички останали от него. Но важното е, е това е на 100 километра. И можете да видите от тази, която че няма очевидни латентност. Нещата, притежаващи заедно доста добре. И така, това, само по себе си, е пример и някои поглед как компютрите и мащабиране компютинг ще се случи. Всички ние работим по по-тънки и по-тънки устройства. Нашата използване на таблетки се увеличава. Така че по тази причина, ми въглероден отпечатък е основно движейки се от това, което се използва да направя, че ще съм е огромна машина под бюрото ми, на това, което Сега е facility-- може да е навсякъде. Той може да е навсякъде изобщо. И все пак, тя все още е в състояние да донесе обратно висока графична производителност на компютъра си. Така че, все близките на end-- спомням Марк? Е, умен момък е Марк. Той реши, че той щеше да изграждане на реалистична виртуална вселена. Това е доста проект, когато мисля, че ще трябва да се разпъват това. Отивам да се използва компютър, и аз отивам за моделиране на 12,000 милиона години след Големия взрив да представлява един ден. И тогава аз ще направя 13.8 милиард години на космическата еволюция. Добре. Това всъщност използва компютър на беше по-голям от нашия компютър, и да го пренесе на националния ресурси на нашите приятели предвидени в Тексас. И им до националните съоръжения, това беше много Compute. Но ние направихме много симулацията на местно ниво за да се уверите, че софтуерът работил и системите работеха. И това е ден като този, когато осъзнават, че сте в подкрепа на науката На това ниво на мащаба, че хората вече могат да казват неща харесват, аз отивам да се модел на вселената. И това е първият му модел. И това е първият модел на отбора си. Има и много други хора, които се случва да дойде зад Марк, които ще Искам да модел с висока резолюция, с повече специфичност, с по-голяма точност. И така, в последните няколко минути, Аз просто искам да ви покажа това видео на Марк и Ларс, че да ме, отново, като живота учен, е вид сладко. Така че това, на дъното тук, за да ви ориентирам, това е, че разказването време, тъй като Големия взрив. Така че ние сме на разстояние около 0.7 милиарда години. И това показва настоящата актуализация. Така че виждате в момента, тъмна материя и еволюцията на фината структура и началото структури в познатата ни вселена. И най-важното с това е, че този е всичко направено във вътрешността на компютъра. Това е набор от параметри и набор от физиката и набор от математиката и набор от модели които са внимателно подбрани, а след това внимателно свързани една с друга да бъде в състояние да моделира взаимодействията. Така че можете да видите някои старта от някои газови експлозии тук. И температурата на газа се променя. И вие можете да започнете да виждате структурата на видимата промяна на Вселената. И важната част с тази е, всеки малко по малка, малка, малка точка е част от физиката и има набор от математиката наоколо, информирането на нейната приятелка и нейната съседка. Така че от гледна точка на мащаба, те компютри имат за всички работят в съгласие и да разговарят помежду си ефективно. Така че те не могат да бъдат твърде словоохотлив. Те трябва да съхраняват своите резултати. И те трябва да продължат да уведомява всички свои приятели. Всъщност, вие ще видите сега, на този модел става все по-сложно. Има все повече и повече неща се случва. Има все повече и повече материал летенето. И това е, което началото космос би сте изглеждали. Това беше доста космат място. Има експлозии цял мястото, мощни сблъсъци. И образуване на тежки метали и елементи. И тези големи облаци съкрушителен в един с друг с изключителна сила. И така, сега сме 9,6 милиарда години от този първоначален експлозия. Вие започвате да виждате нещата са вид се успокои малко, просто малко, понеже енергия сега започва да се отпуснете. И така математическите модели са ли, че на мястото. И сте се започне да се види срастване на различни елементи. И започваме да виждаме това нещо натура от дойдат заедно и бавно да се охлади. И това започва да изглежда малко по- по-скоро като на нощното небе, малко. И това е [? QSing. ?] Сега сме 30.2 милиард години и ние сме вид направено. И след това, което направих, беше че те взеха този модел, и след това погледна към видимата вселена. И в общи линии тогава, са били могат да вземат това и обкова то с това, което може да се види. И верността е зашеметяващ, че да как точно са компютърните модели. Разбира се, астрофизиците и изследователските групи нужда от още по-добра прецизност и дори по-висока разделителна способност. Но ако мислите, че за това, което Говорих с вас днес през това малко пътуване през двете съхранение и структура и изграждане на мрежи и стекове, важното е, е от съществено значение изчислителна мащабиране? Това беше първоначалното ми hypothesis-- Върнете се в нашия научен метод. Надявам се, че в началото част от това, щях прогнозират, че ще мога да обясня с теб за мащабиране компютинг. И ние вид тествана някои от тези хипотези. Минахме през този разговор. И аз съм просто ще кажа, мащабиране компютинг е essential-- о, Да, много да. Така че, когато си мислиш за вашите кодове, когато Вършите CS50 окончателните проекти, когато си мислиш за вашето наследство на човечеството и ресурсите, които Трябва да бъде в състояние да изпълните тези компютър системи, мислят много внимателно за провали на ват, и мисля за Chaos маймунката. Помислете за вашите снежинки, не правим направи еднократни, повторно използване библиотеки, изгради многократна употреба codes-- всички неща че преподавателите са те учи в този клас. Това са основните аспекти. Те не са просто на думи. Това са реални неща. И ако някой от вас иска да ме последва, Аз съм вманиачен с нещо Twitter. Имам по някакъв начин да се получи, че до. Но много от допълнителна информация е на нашите изследвания компютри уебсайт на rc.fas.harvard.edu. Опитвам се и поддържа блог до крак с модерните технологии и как правим разпределителни изчислителни и така нататък. И тогава нашите служители са винаги достъпни чрез odybot.org. И odybot е нашата малка помощник. Той често има малко конкурси на сайта си твърде, където можете да опитате и го забележат из университета. Той е дружелюбен малък Лицето на изследвания компютинг. И някак ми ще приключи до там и благодаря на всички ви за отделеното време. И се надявам да се помни, че мащабиране с компютър е нещо реално. А има и много хора, които имам много преди изкуство който ще бъде в състояние да ви помогне. И всичко най-хубаво с бъдещите начинания в вземане сигурни, че нашата изчислителна двете скали, е високопроизводителен, и помага на човечеството повече от всичко друго. Така че, благодаря ви за отделеното време.