JAMES puño: Ola, bo tarde a todos. O meu nome é James Cuff. Eu son o Dean Asistente de Investigación Computando aquí na Universidade de Harvard. E hoxe eu vou falar con vostede sobre por que a computación scale-out é esencial. Entón eu creo que, por primeira vez, quen é este cara? Por que estou aquí? Por que estou falando con vostede? Eu teño un fondo na investigación científica computing e computación investigación, que se remonta ao United Kingdom-- The Wellcome Trust Sanger Instituto para o genome-- humana e entón, máis recentemente, nos Estados Unidos traballar no Broad e outros estimado lugares de aprendizaxe, tales como Harvard. Eu creo que o que realmente significa que eu son un bio molecular recuperando físico. Entón, o dereito que eu teño que dicir vostede sobre computación scale-out? Hai un pero é. 18 anos ou así que eu acabo de ver o máis aumentos dramáticos na complexidade escala e eficiencia global de sistemas de computación. Cando estaba facendo o meu doutoramento en Oxford, I estaba moi animado cun 200 megahertz Máquina Silicon Graphics con 18 gigabytes de almacenamento e unha única CPU. Os tempos cambiaron. Se avanzar agora, estamos virando máis de 60.000 CPUs aquí en Harvard. Moitas outras organizacións están xirando moito máis. O takeaway importante de todo isto é que escala é agora non só inevitable, iso xa pasou e é seguirá a ocorrer. Entón, imos, por un momento, tipo de rebobinar e falar moi rapidamente sobre a ciencia, o meu favorito asunto, o método científico. Se está a ser un científico, ten que facer algunhas cousas fundamentais. Se non fai esas cousas que podes non se considera un científico e vai ser capaz de loitar comprender a súa área de disciplina. Entón, primeiro de todo, ten formularia súa pregunta, vostede xerar hipóteses, pero o máis importante que, predicir o seu resultados-- ten un palpite canto ao que os resultados serán. E entón, finalmente, probar a súa hipótese e analizar os seus resultados. Polo tanto, este método científico é moi importante na computación. Computing tanto da predicción e ser capaz de probar os seus resultados son unha parte fundamental do que necesitamos facer o método científico. Estas predicións e ensaios son os verdadeiros dous piares do método científico, e cada esixir que os avances máis significativos na computación moderna. Os dous piares da ciencia son de que da teoría e que de experimentación. E máis recentemente, computing é frecuentemente mencionada como o terceiro piar da ciencia. Entón, se os alumnos están vendo isto, non ten absolutamente ningunha presión. Terceiro piar da science-- non é grande computing deal--, tipo de importante. Tan feliz que esta é a parte de computación informático curso de ciencias 50. Así suficiente do fondo. Quero dicir-lle o plan que imos falar hoxe. Vou pasar por riba de un pouco de historia. Vou explicar por que chegamos aquí. Eu vou falar sobre algúns da historia da computación aquí en Harvard, algúns actividades en torno de comunicación social, verde coisas- moi apaixonada por todas as cousas green-- storage-- ordenador storage-- como caos afecta scale-out out sistemas, e sistemas de distribución, en particular. E entón eu vou tocar nalgúns do hardware scale-out que se necesaria para poder facer computación en escala. E entón, finalmente, imos embrulhar-se con algunha ciencia incrible. Entón, imos ter un minuto para ollar para a nosa historia real. Computing evolucionou. Así, desde os anos 60, todo a distancia ata hoxe, vimos basicamente un cambio de ámbito de computación centralizada descentralizar computing, para colaborativa e, a continuación, independente computación e de volta outra vez. E déixeme anotar que un pouco. Cando comezamos fóra con ordenadores, tivemos mainframes. Eran excesivamente dispositivos caros. Todo tiña que ser compartida. A computación era complexo. Podes ver, salas cheas e había operadores e cintas e todo tipo de Whirry, Clicky, dispositivos spinny. Ao redor dos anos 80 principios dos anos 70 ', comezou para ver un impacto dos aparellos de fax. Entón, está empezando a ver a computación comezan a aparecer de novo en laboratorios e tornar-se máis preto de ti. O aumento do persoal ordenador, certamente nos anos 80, parte inicial do década, realmente cambiou a computación. E hai unha pista no do título, porque foi chamado o ordenador persoal, o que significaba que pertencía a vostede. Así que a evolución de computing continuou, a xente viron que o seu persoal ordenador non era realmente grande abondo para ser capaz de facer nada de calquera mérito, ou mérito significativo, na ciencia. E así, as persoas comezaron a desenvolver dispositivo de rede condutores de ser capaz de conectarse PCs en conxunto para poder crear aglomerados. E así, este xerou a era do cluster Beowulf. Linux explotada como unha resposta a sistema operativo propietario, tanto custo e complexidade. E entón, aquí estamos hoxe, onde, unha vez máis, estamos afrontar salas cheas de ordenador equipo e capacidade para roubar un da tarxeta de crédito e obter acceso a estas instalacións de computación, remotamente. E para que poida, entón, ver, en termos de historia impactante como nós de computación hoxe, é sempre evolucionou a partir da máquina salas cheas de ordenadores a través de algúns de computación persoal todo o camiño de volta outra vez a máquina de salas cheas de ordenadores. Polo tanto, este é o meu primeiro cluster. Entón, 2000, construímos unha sistema informático en Europa para anotar de forma eficaz o xenoma humano. Hai unha morea de tecnoloxía listada no lado dereito hai que, por desgraza, non está coa xente. É pasado para o gran tecnoloxía no ceo. A propia máquina é probablemente equivalente a uns portátiles decente hoxe, e que só unha especie de mostra. Con todo, podemos coidadosamente anotar do xenoma humano e tanto protexeu con este papel particular na Natureza das preocupacións a datos ser pública ou privada. Entón, iso é incrible, non? Entón, temos un xenoma humano. Fixemos computación. Estou me sentindo moi me agradou. Rolei ata Harvard en 2006, sentindo-se moito menos satisfeito comigo mesmo. Isto é o que eu herdei. Este é un departamento electrónico e servidor de arquivos. Podes ver aquí hai un pouco de cinta que se usa para manter o sistema en conxunto. Esta é a nosa licenza e servidor de impresión. Eu estou seguro que hai quizais contrasinais nalgúns destes Post-it. Non incrible. Bastante lonxe de impresionante. E así, eu entendo que esta pequena carta que eu mostre no inicio de compartir a propiedade volta para o reparto, o que é necesario para cambiar o xogo. E por iso, cambiou o xogo a través de incentivos. E seres tan humanos, como este pequeno artigo Wikipedia di aquí, as nosas obras de propósito. E o estudo de impulso estruturas é esencial para o estudo da actividade económica. Entón comezamos a fomentar nosos profesores e os nosos investigadores. E, así, animou-los con un sistema informático realmente grande. Entón, en 2008, foi construído un 4096 procesador machine-- 10 racks, algúns centenares de quilowatts de enerxía. O que eu creo que é interesante é que non importa onde estea no ciclo. Esa mesma cantidade de enerxía e computación, o poder é a constante. Foi 200 quilovatios cando foron a construción de sistemas en Europa. É douscentos kilowatts en 2008, e que parece ser o [? quanter?] de pequeno universidade baseada en sistemas de computación. Entón Harvard today-- avance rápido, eu non son ningún máis triste panda, un panda moi feliz. Temos 60 e tantos mil carga equilibrada CPUs, ea súa escalada dramática. Temos 15 petabytes de almacenamento, tamén subindo. Unha vez máis, esta 200 quilowatts incremento, parecemos para ser engadindo que cada seis ou máis meses. Montes e montes de máquinas virtuais. E o máis importante, preto de 1,8 megawatts de equipos de computación de investigación. E eu vou vir de volta a este, máis tarde, por que eu agora xa non é necesariamente contar como CPU que temos, pero o grande é a factura de electricidade. 20 outra tan dedicado equipo computing investigación. E o máis importante, estamos comezando a crecer a nosa GPGPUs. Quedei estupefacto coa cantidade deste está a ser engadido nunha base día a día. Entón, lección de historia sobre, non? Entón, como imos chegar alí dende aquí? Vexamos algúns moderno exemplos scale-out de computación. Eu son un pouco obcecado coa tamaño e escala dos medios de comunicación social. Hai un número de moi computing en grande escala exitosa organizacións presentes no planeta, prestar apoio e servizos para todos nós. Entón ese é o disclaimer. E quero comezar cun número de onzas nun Instagram. Non é realmente unha levarnos a unha broma, é nin iso divertido, en realidade, veña a pensar sobre iso. Pero de calquera xeito, imos ollar onzas en Instagram. E nós imos comezar con "My abella e unha flor." Eu estaba no [inaudível] Aldea e eu levei un pouco de imaxe dunha abella sentado nunha flor. E entón eu comece a pensar sobre o que iso realmente significa. E eu tirei esta foto do meu teléfono e contou cantos bytes están na mesma, e é preto de 256 kilobytes. Que cando comece, sería basicamente cubrir un disquete de 5 e 1/4 de polgada. E comecei a pensar, ben, iso é legal. E eu comecei a ollar e facer máis procuras na rede. E descubrín que Instagram ten 200 millóns de malos. Eu non era, en realidade, que estou seguro que un MAO era. E un MAO, aquí abaixo, é un usuario activo mensual. Así, 200 millóns de MAUs-- moi legal. 20 millóns de photographs-- así unha morea de fotografías. 60 millóns de novas fotos todo día que sae nuns 0,002 gig por imaxe. Iso é preto de cinco petabytes de disco só para a dereita alí. E iso non é realmente a parte central do que imos falar. Iso é fichinha. Ou, como dicimos en Inglaterra, pequenas patacas. Entón, imos ollar para o verdadeiro elefante nos rostros únicos quarto--. Unha vez máis, imos medir en este novo canta chamar un MAO. O propio Facebook 1,3 millóns malos. WhatsApp, que eu aínda non oído falar ata hai pouco, é algún tipo de servizo de mensaxes, é de 500 millóns malos. Instagram, que acabamos falado, 200 millóns de malos. E Messenger, que é outro servizo de mensaxes, é tamén de 200 millóns de malos. Tan total que up, trátase de 2,2 millóns de usuarios en total. Claramente hai algunha superposición, pero iso é equivalente a un terzo do planeta. E envían algo no rexión de 12 millóns de mensaxes por día. E, de novo, hai só 7 millóns de persoas no planeta. Non todo o mundo ten un teléfono. Polo tanto, este é números demente. E eu vou argumentar que non é mesmo sobre o almacenamento ou a computación. E por citar a canción, é todo sobre ese gráfico. Aquí está a nosa linda Meghan TRAINOR abaixo aquí, cantando sobre todo o baixo. Nótese, ela tamén ten un bo bit de baixo herself-- 207, así 218 millóns de persoas xa viron esta moza cantando a súa canción. Entón, meu argumento é que é todo sobre a gráfica. Por iso, tomou algún software de código aberto e comezou a ollar para un gráfico. E este é o LinkedIn, de xeito que este é un Facebook para persoas de idade. E así, este é o meu gráfico LinkedIn. Teño 1.200 ou máis nós, os chamados "Amigos". E aquí me está na parte superior. E aquí está todo interconexiones. Agora, creo que volta para a historia Instagram. Cada un destes é non só a foto, ela ten toda unha infinidade de enlaces este individuo en particular entre e moitos outros. Esta é a peza central é un ou erro no algoritmo de deseño gráfico, ou quizais esta David Malan, eu aínda non estou seguro. Así, pode redeseñar o gráficos en todo tipo de gephi.gihub.io ways-- é onde pode tirar o software desde. É moi legal por ser capaz de organizar as comunidades. Podes ver aquí, este é Harvard e outros lugares que eu traballei, porque este é meus datos relacionados co traballo. Entón, só tes que pensar sobre a complexidade da gráfica e todos os datos que puxar xunto con. Entón, á súa vez, volve Friendface, non? Nós miramos para os datos que Instagram foi da orde de cinco petabytes. Non é gran cousa. Aínda bastante unha morea de datos, pero non é grande tratar no gran esquema das cousas. A partir deste artigo sobre o antigo internet, "Ampliar o data warehouse Facebook 300 petabytes. " Isto é un totalmente diferente game changer agora, cando se está empezando a pensar de datos e gráfico eo que trae xunto con. E os teus datos de alta está crecendo de da orde dos 600 terrabytes un día. Agora, vostede sabe, ben, entăo-- Quero dicir, a 600 terrabytes por día, 300 petabytes-- son Tamén agora a comezar a estar moi preocupado como manter este material e para asegurarse de estes datos fica en torno. E este señor aquí, Jay Parikh, está á procura en como almacenar un Exabyte de datos. Só para aqueles de vostedes que están a asistir ao longo na casa, un exabyte-- 10 ao 18. El ten a súa propia Wikipedia páxina, é que de un gran número. Ese é o tamaño e escala do que estamos mirando, para ser capaz de almacenar datos. E estes faces non son perder tempo, están almacenando esta cantidade de datos. Polo tanto, unha das pistas que eles están mirando para aquí é centros de datos para o chamado almacenamento refrixerado. O que me leva a ser verde. E aquí é Kermit. El e eu agree-- é moi difícil de ser verde, pero nós dar o noso mellor intento. Kermit non podo axudar, el ten ser verde o tempo, non pode tomar o seu verde-Ness a todos. Así, sendo unha concepts-- algúns tipo de conceptos fundamentais de cor verde, cando relaciónase coa computación. O que é o máis importante é a lonxevidade do produto. Se o produto ten un tempo de vida curto, non pode, por definición, ser verde. A enerxía necesaria para fabricar unha unidade de disco, unha placa base, un ordenador sistema, un tablet, sexa ela cal sexa ser, a lonxevidade dos seus sistemas son unha parte fundamental de como o verde pode ser. A parte importante, como todos vostedes están construíndo software algorithms-- dun algoritmo parcial palabra para o software, non? Así, o seu proxecto algoritmo é absolutamente crítico en termos de como vai ser capaz de facer cálculos rápidos e precisos para usar a menor cantidade de enerxía posible. E eu vou chegar a iso nun pouco. Centro de design-- que xa viu que xa temos miles e miles de máquinas, sentado silenciosa en pequenos recunchos escuros, do mundo, a computación. Resource allocation-- como chegar para o cálculo, para o almacenamento, a través da rede. Os sistemas operativos son unha parte fundamental da iso e unha chea de virtualización para poder embalar e máis máis de computación nun pequeno espazo. Vou che dar un pequeno exemplo de computación investigación. Necesitabamos máis de ping, máis poder, e máis pipe. Necesitabamos máis grande, mellores, ordenadores máis rápidos, e precisaba usar menos zume. E non podería traballar para fóra como facelo. Eu non sei se a hashtag gowest como probablemente foi usado polo Kardashian, pero de calquera xeito, gowest. E nós fixemos. Nós escoller a nosa operación e nos cambiamos para fóra ao oeste de Massachusetts nunha pequena cidade do muíño chámase Holyoke, ao norte de Chikopee e Springfield. Fixemos isto por unha serie de razóns. A principal delas foi que tivo un moi, moi grande encoro. E esta moi grande encoro é capaz de pór para fóra máis 30 megawatts de enerxía, e foi subutilizada no momento. Máis importante, nós tamén tivemos unha rede moi complicado que xa estaba no lugar. Se ollar para onde a rede nos Estados Unidos, segue-se todos os carrís do tren. Esta peza de rede foi posuído polos nosos compañeiros e amigos no Massachusetts Institute of Technology, e foi basicamente construído todo o camiño ata a Route 90. Por iso, tivemos un gran tick río, Route 90 carrapato, tivemos un curto traxecto de 100 quilómetros, e un longo camiño de aproximadamente 1.000 millas. Tivemos que facer un gran tala de rede, como se pode ver aquí, basicamente poñer unha ligazón, a ser capaz de conectarse a Holyoke, pero tivemos todo o requisito pingue infrastructure--, poder, pipe. A vida era boa. E, de novo, gran encoro. Entón nós construímos basicamente o Massachusetts Verde Computación de Alto Rendemento Center. Este foi un traballo de amor a través de cinco universities-- MIT, Harvard, UMass, Nordeste, e BU. Cinco megawatt día unha carga conectada. Fixemos todo tipo de intelixencia con aforrar lado aire para manter as cousas verdes. E nós construímos as andeis 640 e tantos, dedicados á computación en investigación. Era un sitio Brownfield de idade, polo que, tivo algunha recuperación e algúns ordenado-up e algúns clean-up do sitio. E entón comezamos a para construír a instalación e, boom-- encantadora academia co capacidade de realizar computación sandbox, ter conferencias e seminarios, e tamén un enorme chan do centro de datos. Aquí está a miña boa auto. Estou, obviamente, usando o mesmo abrigo. Eu quizais só ten unha chaqueta, pero non son eu e John Goodhue-- el é o director executivo dos Center-- de pé na sala de máquinas andar, que, como se pode ver, é moi dramático, e remonta un longo, longo camiño. Adoito xogar xogos de condución desde Boston para Holyoke, finxindo que eu son un paquete TCP / IP. E eu me preocupo coa miña latencia dirixido por aí no meu coche. Entón esta é a parte verde. Entón imos tomar un minuto e pensar sobre pilas. Entón estamos tentando con moito coidado para construír centros de datos de forma eficiente, computación de forma eficiente, facer bo selección para o equipo de computación e entregar, máis importante, a nosa aplicación, sexa un servizo de mensaxes ou unha aplicación científica. Entón aquí están os Stacks. Así capa física, todo o camiño a través application-- coa esperanza de que iso vai ser unha boa parte do seu curso. OSI modelo de sete capas é, basicamente, vai vivir, comer e respirar este ao longo das súas carreiras de computación. Todo este concepto de física fíos infrastructure--, cables, centros de datos, enlaces. E este é só describindo a rede. Aquí enriba é, así, obviamente, este é un antigo foto, porque este debería dicir HTTP, porque ninguén se preocupa correo simple protocolos de transporte, anymore. Está todo a acontecer no espazo HTTP. Entón ese é un nivel de pila. Aquí está outro conxunto de pilas, onde teño un servidor, un anfitrión, un hypervisor, un convidado, biblioteca binario, e, a continuación, a súa aplicación. Ou, no caso en apreciado, o dispositivo condutor, un kernel Linux, c nativa, Java virtual machine, API Java, entón Java aplicacións, e así por diante e así por diante. Esta é unha descrición dunha máquina virtual. Stacks Santos, Batman! Pense sobre iso en termos de canto Compute que precisa para comezar a partir de o que está pasando aquí, todo o camiño ata o cumio desa pila, para entón ser capaz de facer o seu real a entrega da solicitude. E se tipo de rebobinar e comezar a pensar sobre o que fai falta para proporcionar unha operación de punto flotante, súa operación de punto flotante é unha suma das tomas, o número de núcleos no soquete, un reloxo, que é o; rápido pode o reloxo turnover-- catro gigahertz, dous gigahertz-- e, a continuación, o número de operacións que pode facer nunha determinada Hz. Entón eses microprocesadores hoxe facer entre catro e seis flops por ciclo de reloxo. E así, un single-core de 2,5 gig reloxo ten un rendemento teórico de aproximadamente un mega flop, máis ou menos. Pero, como en todo, temos opcións. Entón e Intel Core 2, Nehalem Sandy Bridge, Haswell, AMD, levar o seu opcións possíveis-- Intel Atom. Todas estas arquitecturas de procesadores todos teñen un xeito un pouco diferente de ser capaz de engadir dous números xuntos, que é basicamente seu propósito na vida. Debe ser difícil. Hai millóns deles sentado en centros de datos, agora aínda. Sor, fracasos por watt-- esta é a gran cousa. Entón, se eu queira obter máis deste para obter a través desta pila, máis rápido, Eu teño que traballar en cantas operacións de punto flotante por segundo, Podo facer, e, a continuación, darlles Watt. E, por sorte, a xente pensar sobre iso. Polo tanto, hai unha gran contestar cada ano para ver quen pode construír o ordenador máis rápido que pode diagonalizar unha matriz. É o chamado Top 500. Eles escollen o principio da os mellores 500 ordenadores no planeta que pode matrices diagonalizar. E pode algúns resultados sorprendentes. Moitas destas máquinas son entre 10 e 20 megawatts. Poden diagonalizar matrices excesivamente rápido. Eles non necesariamente diagonalizado Los do xeito máis eficiente por Watt, por iso houbo esa gran impulso de ollar para o que é unha lista verde 500 sería semellante. E aquí está a lista a partir de xuño. Debe haber un novo moi pronto. E el chama out-- Vou levar arriba desta lista particular. Hai dous un machines-- específico do Instituto de Tecnoloxía de Tokio e un de Cambridge University, no Reino Unido. E estes teñen bastante sorprendentes Mega-flops por razóns de vatios. Este 4389 dun, e o preto abaixo é 3631. Vou explicar a diferenza entre estes dous, no seguinte diapositiva. Pero estes son estes son de tamaño moderado clusters de probas. Estes son só 34 quilowatts ou 52 quilovatios. Hai uns maiores aqui-- un agasallo especial no Nacional Suízo Centro de Supercomputación. A mensaxe para levar a casa para iso é que estamos intentando atopar ordenadores que pode operar de forma eficiente. E así, imos ollar para este top un, de xeito fofa chamado, o KFC. E un pouco de publicidade aquí. Esta empresa determinado alimento non ten nada que ver con iso. É o feito este sistema específico é embebido nunha moi compostos a base de aceite intelixente. E así, eles teñen o seu fritadeira polo alcume cando comezaron a construír estes tipos de sistemas. Pero, basicamente, o que eles levaron aquí é un número de láminas, poñelos no presente aceite mineral sofisticado, e despois traballou como obter todo o traballo en rede dentro e fóra dela. Entón, non só iso, eles poñer-lo fóra de forma que pode explotar de refrixeración de aire exterior. Foi moi impresionante. Entón tes que facer todo desta travessuras para poder obter esa cantidade de Compute entregado para pequena potencia. E podes ver esta é a forma de onde as cousas están indo. O reto é que aéreo regular refrixeración é a economía de escala e está levando unha morea de desenvolvemento de ambos computación regular, e computación de alto rendemento. Entón, iso é moi desgustado. Eu creo que iso é fascinante. É un pouco confuso cando tentar cambiar as unidades de disco, pero é unha idea moi legal. Así, non só iso, non hai unha chea de traballo que está a ser construído en torno ao que estamos chamando o proxecto de Open Compute. E así, máis sobre iso un pouco máis tarde. Pero a industria está empezando a entender que os FLOPS por Watt está facendo importante. E ti, como a xente aquí, como proxectar os seus algoritmos e proxectar o seu código, ten que ser consciente que o código pode ter un efecto de arrastramento. Cando Mark estaba sentado aquí na súa dormitorio escribindo Facebook 1.0, Estou seguro de que tiña unha visión que ía ser enorme. Pero o grande sería o ambiente é un gran dealio. E así todos vostedes todos poderían veña con algoritmos que podería ser o seguinte reto cousa para persoas como eu, tentando executar sistemas. Entón imos pensar sobre límites de potencia do mundo real. Este papel por Landauer-- non é unha cousa nova. 1961 esta foi publicado no Diario de IBM. Este é o canónico "A irreversibilidade e calor Xeración no Proceso Computing. " E así, el argumentou que máquinas inevitablemente realizar funcións loxísticas que non ten inversa de valor único. Así que toda a parte de iso é que volta na década de 60, xente sabía que este era vai ser un problema. E así a lei de límites dixo 25 graos C, unha especie de sala canónica temperatura, o límite representa 0,1 electrón-voltios. Pero, en teoría, este é a memoria teoría, ordenador, operando a este límite pode ser alteradas a mil millóns de bits por segundo. Eu non sei canto a vostedes, pero non se atopou con moitos mil millóns de bits unha segunda bolsas de taxa de datos. O argumento que houbo só 2,8 billóns dun watt de enerxía debería ser sempre ampliada. Todo ben, mundo real example-- esta é a miña conta de enerxía eléctrica. Eu son un 65% por cento dos que lindo centro de datos Eu mostre-lle, neste momento particular. Isto está de volta en xuño do ano pasado. Teño tido unha versión máis antiga, para que poidamos pode e tipo de anonymize algo. Eu estaba gastan US $ 45.000 por mes para a enerxía alí. Así, a razón de estar alí é que nós ten máis de 50.000 procesos en cuarto. Entón podes imaxinar o seu propio conta de enerxía eléctrica residencial sendo que a alta? Pero foi por un de 199 millóns de Watt horas ao longo dun mes. Así, a pregunta que fago é, pode imaxina conta de enerxía eléctrica do Sr Zuckerberg? Minas é moi grande, e eu loito. E eu non estou só nesa é. Hai unha chea de xente con grandes centros de datos. E así, eu creo, disclosure-- completo meus amigos de Facebook un pouco raro. Entón, meu amigo Facebook é o centro de datos Prineville, que é un dos máis grandes do Facebook, máis novo, menor datos de enerxía centro. E postam para min, cousas como efectividade do uso de enerxía, como en quão eficaz é o de datos centro contra canta enerxía está poñendo nel, como auga que están a usar, o que é a humidade e temperatura. E eles teñen estes Fermoso, fermoso parcelas. Creo que esta é unha Páxina Facebook impresionante, pero eu creo que eu son un pouco raro. Entón, unha cousa de poder, computing investigación que fago é significativamente diferente Facebook e Yahoo e Google e outra en demanda, totalmente, servizos sempre dispoñibles. E entón eu teño a vantaxe de que cando ISO New England-- e ISO New England axuda a definir a enerxía taxas para a rexión. E el di que está estendendo unha proposta para consumidores para conservar voluntariamente alta enerxía, por mor do alto calor e humidade. E iso estaba de volta o día 18 de xullo. E así eu afortunadamente Tweet volta, Hey, ISO New England, Verde Harvard. Estamos facendo a nosa parte para aquí en computación investigación. E iso é porque estamos facendo ciencia. E por máis que a xente di que a ciencia nunca dorme, a ciencia pode esperar. Así, somos capaces de parar o noso sistemas, aproveitar as taxas de grao na nosa conta de enerxía, e axudar toda a Nova Inglaterra rexión, derramando moitos megawatts de carga. Así que esta é a única cousa que difire sobre datos de computación científica centros e os que son en plena produción 24/7. Entón imos tomar outra engrenaxe aquí. Entón, quero discutir caos un pouco. E quero poñelas os auspicios de almacenamento. Así, para os que tipo de loitaban facer pasar a súa cabeza en torno ao que petabytes de almacenamento semellante, este un exemplo. E este é o tipo de cousas Eu lido con o tempo. Cada un destes pequenos bacanos é un disco duro de catro terabyte, para que poida tipo de contalos superior. Estamos chegando agora entre un a un e media petabytes nun rack estándar da industria. E nós temos cuartos e salas, como viu-se nese cadro anterior con John e eu, cheo de estes racks de equipos. Por iso, se está facendo moi, moi fácil para construír matrices de almacenamento masivo É principalmente fácil dentro Unix para tipo de contar-se como as cousas están indo. Polo tanto, este é contar cantas MAO puntos que teño alí. Entón, iso é 423 puntos de interceptación. E entón se eu executar algúns AWK esbozado, I pode engadir-se, neste sistema particular, había 7,3 petabytes de almacenamento dispoñible. Entón, iso é unha chea de cousas. E almacenamento é realmente difícil. E, con todo, por algunha razón, esta é unha tendencia da industria. Sempre que eu falar cos nosos investigadores e noso corpo docente e dicir: hey, eu podo correr de almacenamento para ti. Desafortunadamente, eu teño que recuperar o custo da almacenaxe. Eu teño ese negocio. E a xente de referencia Newegg ou fan referencia Staples ou o que poden mercar un única unidade de disco terabyte para. Entón iso, vai notar aquí, que hai unha pista. Hai unha unidade de disco aquí. E se volver, eu teño moitos. Non só eu teño moitos, eu teño interconexiones sofisticados para poder puntos esas cousas xuntos. Así, o risco asociado a estes grandes arrays de almacenamento non é insignificante. En realidade, nós levou ao Internet e escribimos un pouco de historia sobre un ben intencionado, director educado de investigación computing-- pasa de ter un estraño Inglés accent-- tentando de explicar a un investigador que o nengún cartafol de copia de seguridade, en realidade, underscore significaba. Foi unha longa e pequena historia bastante, uns bos catro minutos de descubrimento. E nota, eu teño unha enorme moito menos espazo do que a señora que canta sobre todo o baixo. Somos moi poucos contas inferior. Pero de calquera xeito, esta é unha O importante para pensar, en termos do que podería dar mal. Entón, se eu conseguir unha unidade de disco, e Eu xoga-lo nunha máquina Unix, e eu comezo a escribir as cousas para el, hai un imán, hai unha cabeza de desprazamento, hai ostensivamente, a un ou un cero sendo escrito para abaixo sobre este dispositivo. Spinny Motors--, twirly cousas sempre quebran. Debería cousas que quebran. Sempre foi spinny, twirly cousas. Impresoras, unidades de disco vehículos a motor, etc. Todo o que se move é susceptible de romper. Entón tes que de motores, vostede Debe dirixir firmware, precisa SAS / SATA controladores, fíos, firmware nos controladores SAS / SATA, bloques de nivel baixo. Escolla o seu ficheiro de controlador de almacenamento código do sistema, sexa cal sexa, como coser as cousas xuntos. E o seu xestor de swap páxinas, DRAM buscar e tendas. Entón, ten outra pila, que é unha especie de baixo da lista nesta un, algoritmos usuarios. E se multiplicar ese -Se, eu non sei cantos, hai unha morea de sitios onde o material pode ir para os lados. Quere dicir, que é un exemplo sobre a matemática. Pero é divertido pensar en Cantas formas cousas poden dar mal, só para unha unidade de disco. Nós xa estamos a 300 petabytes, de xeito imaxinar o número de unidades de disco precisa en 300 petabytes que pode dar mal. Non só isso-- de xeito que é o almacenamento. E que fai alusión á persoa que me gustaría ver entrar na fase esquerda, que é o mono Chaos. Entón, nun certo punto, queda aínda maior que só a unidade de disco problema. E así, estas mulleres finas e cabaleiro que executar un servizo de streaming de vídeo entender que os seus ordenadores foron tamén enorme e tamén moi complicado e tamén prestación de servizo para unha enorme unha chea de xente. Eles ten 37 millóns de members-- e quizais un ano deste foto ou tan old-- miles de dispositivos. Hai millóns de horas de vídeo. Eles rexistrar miles de millóns de eventos por día. E podes ver, a maioría da xente ve a televisión, máis tarde, á noite, e supera todo. E así, eles querían poder asegurarse de que o servizo foi para arriba e fiable e traballar para eles. Entón eles viñeron para arriba con este cousa chamada Chaos mono. É peza de software que, cando pensa para falar do título de toda esta presentación, scale-out significa que debe probar este material. Non adianta só ter un millón de máquinas. Así, a cousa agradable sobre isto é, Chaos Mono é un servizo que identifica grupos de sistemas e remata unha aleatoriamente dos sistemas dun grupo. Impresionante. Entón, eu non sei sobre ti, pero se eu xa construíu un sistema que se basea en outro sistemas de falar uns cos outros, levar un deles para fóra, o probabilidade de que a cousa toda de traballo, diminúe rapidamente. E así, este anaco de software é executado en torno a infraestrutura de Netflix. Afortunadamente, el di que é executado só no horario comercial coa intención que os enxeñeiros serán alerta e capaz de responder. Entón, eses son os tipos das cousas que estamos agora ter que facer para perturbar nosa computing ambientes, para introducir caos e introducir complexidade. Entón, quen, no seu dereito mente, estaría disposto a escoller para traballar con un mono Chaos? Manteña-se, el parece estar me apuntar. Ben, eu creo que eu should-- bonito. Pero o problema é que Non entendo a elección. O mono Chaos, como pode ver, escolle. E este é o problema coa computación a escala é que non pode evitar isto. É unha inevitábel complexidade e de escala e de nosa evolución, nalgúns aspectos, de experiencia de computación. E lembre, este é unha cousa a lembrar, Caos Monkeys amor flocos de neve amor snowflakes--. A snowflake-- nós explicamos o Chaos Monkey-- pero un folerpa de neve é un servidor que é único e especial e delicado e individual e nunca será reproducida. Moitas veces atopamos folerpa de neve servizo no noso entorno. E sempre probar e derreter servizo folerpa de neve. Pero se atopa un servidor no seu contorno que é crítica para a lonxevidade da súa organización e derrete, non pode poñer-lo de volta de novo. Así, o traballo do Caos mono era ir e rematar instancias. Se o mono Chaos derrete o folerpa de neve, está acabado, está feito. Quero falar algún hardware que estamos vendo en termos de tipo de scale-out actividades tamén. E algunhas cousas únicas que están en e en torno da actividade científica. Agora estamos empezando a ver, lembre-se esta unidade de emisión, este rack? Polo tanto, este é un rack de GPGPUs-- xeral unidades de procesamento gráfico de propósito. Temos estes situados nos nosos datos centro, preto de 100 quilómetros de distancia. Este rack especial é preto de 96 tera flops de precisión simple de matemáticas capaz para entregar a parte de atrás del. E nós temos orde de 130 estraño tarxetas nunha instancia que nós-- múltiple baldas desta instancia. Polo tanto, este é interesante na medida en que os procesos de uso xeral ilustracións son capaces de facer matemáticas incrible rapidamente para cantidades moi baixas de enerxía. Polo tanto, hai un gran aumento na as áreas de computación, científicos mirando para gráficos unidades de procesamento en gran forma. Entón eu execute algúns Mcollective a través da nosa infraestrutura de monicreque onte, moi animado con iso. pouco menos dun petaflop de precisión simple. Só queda claro aquí, este pouco multiplicador é 3,95. Double-precisión matemática sería de arredor de 1,2, pero o meu Twitter feed parecía moito mellor se eu dixo que tiña case un petaflop de precisión simple GPGPUs. Pero está quedando alí. Está empezando a ser moi, moi impresionante. E por que estamos a facer iso? Porque química cuántica, entre outras cousas, pero estamos empezando a proxectar algunhas novas células fotovoltaicas. E así Alan Aspuru-Guzik, que é un profesor chemistry-- meu compañeiro en crime-- para os últimos anos. Fomos empurrando o Sobre en computación. E o GPGPU é ideal A tecnoloxía a ser capaz de facer unha enorme cantidade de complicado matemáticas, moi, moi rapidamente. Así, con escala, vén novos retos. Tan grande scale-- ten que ser coidado como conectar este material. E nós temos certos niveis de trastorno obsesivo compulsivo. Estas imaxes, probablemente, conducir unha gran cantidade de noces persoas. E armarios que non son fío particularmente ben conducir nosa rede e Instalacións enxeñeiros noces. Ademais, hai tamén o fluxo de aire cuestións que debe conter. Entón, estas son as cousas que eu nunca pensaría. Con escala, vén máis complexidade. Este é un novo tipo de sistema de ficheiros. É impresionante. É un petabyte. Pode almacenar 1,1 millóns de arquivos. Pode ler e escribir para 13 gigabytes e 20 gigabytes de gigabytes second-- un segundo. Por iso, pode descargar terabytes en ningún momento a todos. E é altamente dispoñible. E ten lookup incrible rates-- 220.000 investigacións dun segundo. E hai moitas persoas diferentes construír este tipo de sistemas. E pode velo aquí graficamente. Este é un dos nosos sistemas de ficheiros que está baixo carga, bastante afortunadamente lectura en só curta de 22 gigabytes por segundo. Entón, iso é tan cool-- complexidade. Así, con complexidade e dimensión, vén máis complexidade, non? Este é un dos nosos moitos, moitos diagramas de rede, onde ten moitos diferentes chasis todo soportando ata nun principal rede core, ligado ao almacenamento, conectando a interconexiones de baixa latencia. E despois de todo isto xunto ao casa, é só toda a xestión que precisa para ser capaz de resolver estes sistemas dende un lugar remoto. Entón escala ten unha morea de complexidade con el. Cambiar de marcha de novo, imos volver e ten unha pequena mancha de ciencia. Entón, lembre, a investigación computación e este pequeno shim-- pouco calzado rosa entre a profesores e todos os seus algoritmos e toda a ciencia legal e todo este centro de enerxía e refrixeración e datos piso e networking e grandes ordenadores e balcóns de atención e servizos de asistencia e así forth-- e así, nós estamos só este pequeno calzado entre eles. O que nós comezamos a vexo é que o mundo de foi capaz de construír eses grandes centros de datos e ser capaz de construír eses grandes ordenadores. Nós tivemos moi bo niso. O que nós non somos moi bos en é este pouco calzado entre a investigación e o nu metal e da tecnoloxía. E é difícil. E por iso temos sido capaces de contratar persoas que viven neste mundo. E, máis recentemente, falamos co National Science Foundation e dixo: este material scale-out é grande, pero non podemos obter os nosos científicos sobre a estes grandes máquinas complicadas. E así, houbo un número de programas onde nós realmente eran na súa maioría preocupado intentando a ver se poderiamos converter a infraestrutura do campus. Hai unha morea de programas en torno a centros nacionais. E así, nós mesmos, a nosa amigos en Clemson, Universidade de Wisconsin, Madison, Sur de California, Utah, e Hawaii tipo de reuníronse para mirar para este problema. E este gráfico pouco aquí é a cola longa da ciencia. Polo tanto, este é-- iso non acontecer importa o que está nese eixe, pero este eixe é realmente número de postos de traballo de pasar polo cluster. Polo tanto, hai máis de 350 mil calquera período de tempo. Estes son os nosos sospeitosos do costume ao longo do fondo aquí. De feito, non hai Alan Aspuru-Guzik, que estabamos falando about-- toneladas e toneladas de computación, realmente eficaz, sabe o que está facendo. Aquí está outro laboratorio que eu vou falar preto nun laboratorio de John Kovac moment--. Teñen lo. Son bos. Están felices. Están de computación. Gran ciencia está a ser feito. E entón, como tipo de vir ata aquí, non outros grupos que non está executando moitos empregos. E por que isto? Será que é porque a computación é moi difícil? Será que é porque eles non saben como? Non sabemos, porque nós fomos e mirou. E iso é o que este proxecto ten todo a ver, é localmente, dentro cada unha destas rexións, a ollar para avenidas onde podemos implican co corpo docente e investigadores en realidade, no extremo inferior da cola, e entender o que están facendo. Entón, iso é algo que somos realmente namorada. E iso é algo que ciencia non seguirá para avanzar ata que resolvamos algúns deses casos de punta. Outros anacos de ciencia que vai up-- todos visto o Large Hadron Collider. Incrible, non é? Esa cousa foi todo para fóra en Holyoke. Nós built-- a primeira ciencia que aconteceu en Holyoke foi a colaboración entre nós mesmos e da Universidade de Boston. Por iso, é moi, moi legal. Esta é unha parte do desfrute da ciencia para a escala. Este é un acceso dixital a un século ceo en Harvard. Basicamente, é un arquivo de tarxeta. Se baixar Oxford-- Garden Street, sorry, atoparás un dos observatorio edificios é basicamente completo de preto de medio millón de placas. E estas son imaxes da ceo, á noite, máis de 100 anos. Polo tanto, hai un equipo todo configurado aquí para dixitalizar esas placas, sacar fotos deles, cadastre- Los, poñelos nun ordenador. E iso é un petabyte e medio, só para a dereita há-- un pequeno proxecto. Estes son outros proxectos. Este proxecto Pan-STARRS está facendo unha ampla investigación panorámica completa, buscando asteroides preto da Terra e eventos celestes transitorios. Como un biofísico molecular, eu te amo a palabra evento celestial transitoria. Eu non estou moi seguro o que é, pero de calquera xeito, nós estamos mirando para eles. E nós estamos xerando 30 terabytes unha noite fóra deses telescopios. E iso non é realmente un ancho de banda problema, que é como un problema FedEx. Entón poñer o almacenamento na van e envialo sexa o que sexa. Bíceps é realmente interessante-- tan fondo imaging cósmica de polarización Galaxia extra. Cando comece a traballar en Harvard sete ou máis, hai oito anos, eu recordo traballar neste proxecto e realmente non afondar casa como a luz polarizada por a partir da radiación cósmica fondo sería importante, ata que iso aconteceu. E este foi John Kovac, que eu falei antes, usando millóns e millóns de CPU horas, nas nosas instalacións e outros, a ollar basicamente ao interior dos primeiros momentos do universo tras o Big Bang, e intentando entender Teoría xeral da relatividade de Einstein. É vento da mente que os nosos ordenadores están nos axudando a desvelar e mirar nas propias orixes por iso que estamos aquí. Entón, cando fala sobre escala, esta é unha escala grave. A outra cousa de escala é, que determinado proxecto bater estes faces. E esta é a curva de resposta para bíceps [Inaudível] Esta foi a nosa pequena investigación. E podes ver aquí, a vida foi boa ata por aquí, que era cando o anuncio saíu. E ten literalmente segundos para responder para o caso de dimensionamento que corresponde a ese pontinho aquí, que acabou desprazando catro ou máis terabytes de datos a través do servidor web que dia-- moi peludo. E así, estes son os tipo de cousas que pode ocorrer con vostede na súa infraestrutura se non proxectar a escala. Tivemos un pouco de embaralhar ese día, para ser capaz de abarcar a servizo web suficiente para manter o sitio en funcionamento. E fomos exitosos. Este é un pequeno e-mail que é bonitinho. Este é un correo-e para Mark Vogelsberger, e Lars Hernquist, quen é un membro da facultade aquí en Harvard. Máis sobre Mark despois. Pero eu creo que este é un tipo de resume tipo de onde a computación é na computación investigación. Hey, equipo, desde a última Martes, vostedes acumulou máis do 28% do novo cluster, que combinou é superior a 78 anos de CPU en só tres días. E eu dixen, aínda é só mañá venres. Iso é moi legal! Feliz venres! Entón eu doulles os puntos de datos. E así que foi unha especie de interesante. Entón lembre-se sobre Mark, el virá volta para a imaxe en algo. Entón computación scale-out está en todas partes. Estamos mesmo axudando xente ollar en como as funcións da NBA, e onde as persoas son xogando bólas de. Realmente non entendo este xogo moi ben, pero, ao parecer, é un gran negocio. Hai marcos e cuncas e diñeiro. E así, o noso banco de datos construíu unha pequena 500 [inaudível] cluster de procesador paralelo, un par de terabytes de memoria RAM, para ser capaz de construír este para Kirk e seu equipo. E están facendo computing en outra forma totalmente. Agora, este é o proxecto que estamos implicado con iso é absolutamente fascinante, en torno neural conectonomia plasticidade e xenómica imprinting-- tres moi pesado bater áreas de investigación que nós loitamos con en nunha base día a día. A idea de que os nosos cerebros están baixo estrés plástico cando somos novos. E moito do noso comportamento adulto é esculpido pola experiencia na infancia. Polo tanto, este é un gran dealio. E así, este é un traballo que é financiado pola Institutos Nacionais de Saúde Mental. E estamos tentando basicamente por unha serie de grandes volumes de datos e análise de datos grande, tipo de perscrutar o noso cerebro humano a través dunha variedade de diferentes técnicas. Entón, eu quería parar e tipo de só facer unha pausa por un momento. O reto con control remoto centros de datos é que é moi lonxe. Non pode funcionar. Necesito dos meus datos por preto. Eu teño que facer a miña investigación no meu laboratorio. E entón eu medio que deu un exemplo dunha resonancia magnética funcional conxunto de datos a partir dos nosos datos centro en Western Mass. e conecta-lo ao meu ambiente de traballo, en Cambridge. E eu vou xogar este pequeno vídeo. Tomara que tipo de traballo. Entón, iso está me pasando por checando meu GPUs están funcionando. E eu estou verificándose que VNC. E este é un VNC intelixente. Este é un VNC con pezas 3D. E así, como se pode ver en breve, este é me xirando en torno este cerebro. Estou tentando tipo de obtelo orientado. E entón eu podo pasar por moitos diferentes franxas de datos de resonancia magnética. E o único que é diferente sobre este é, está a benvida ao longo do fío da Western Mass. ao meu escritorio. E a súa prestación máis rápido que o meu escritorio, porque eu non teño a 4,000 dólares tarxeta gráfica na miña zona de traballo, que temos fóra Western Mass. Claro que eu estou tratando de ser intelixente. Estou correndo engrenaxes GLX no fondo, mentres a facer todo isto, estar seguro de que podo Resaltan a tarxeta de vídeo, e que todo tipo de funciona e todo o demais. Pero o importante é, É esta a 100 quilómetros de distancia. E podes ver dende esta que non hai ningunha latencia obvia. Cousas que posúan en conxunto bastante ben. E por iso que, por si só, é un exemplo e algúns consellos en como a computación e scale-out computing ocorrerá. Estamos todos a traballar en dispositivos máis finos e máis fino. Noso uso de tablets está aumentando. Así, polo tanto, a miña carbono pegada é basicamente movendo-se de que adoitaba para facelo tería foi unha máquina enorme baixo a miña mesa, ao que é agora un facility-- podería estar en calquera lugar. Podería ser en calquera lugar en todo. E, con todo, aínda é capaz de traer traseiras de alta eficacia gráfica a miña zona de traballo. Entón, estar preto do end-- lembrar Mark? Ben, rapaz intelixente é Mark. El decidiu que estaba indo a construír un universo virtual realista. Isto é un proxecto, cando creo que ten que publicar isto. Vou usar un ordenador, e eu vou para modelar os 12 millóns de anos despois o Big Bang para representar un día. E entón eu vou facer 13,8 millóns de anos de evolución cósmica. Todo certo. Este, en realidade, usa un ordenador a era maior que o noso ordenador, e rebordou para o nacional recursos para os nosos amigos en Texas. E para os organismos nacionais, este foi unha morea de computación. Pero nós fixemos unha morea de a simulación localmente para asegurarse de que o software traballou e os sistemas funcionaron. E é días como este cando entender que está apoiando a ciencia neste nivel de escala, que a xente pode agora dicir cousas como, eu estou indo a un modelo de un universo. E este é o seu primeiro modelo. E este é o primeiro modelo do seu equipo. Hai moitos outros persoas que están indo para vir detrás de Mark, que está indo a quere modelar con alta resolución, con máis especificidade, con máis precisión. E así, o último par de minutos, Eu só quero amosar-lle este vídeo de Mark e Lars do que para min, unha vez máis, como un científico vida, é unha especie de bonito. Polo tanto, este, na parte inferior aquí, para oriente-lo, este está dicindo a vostede o vez desde o Big Bang. Entón, nós estamos en preto de 0,7 millóns de anos. E iso está amosando a actualización actual. Entón está vendo no momento, materia escura e da evolución da estrutura fina e inicio estruturas no noso universo coñecido. E o punto con isto é que este todo está feito dentro do ordenador. Este é un conxunto de parámetros e un conxunto de física e un conxunto de matemáticas e un conxunto de modelos que son coidadosamente seleccionados, e logo coidadosamente ligados uns ós outros para poder modelar as interaccións. Así, podes ver algunhas partidas de algunhas explosións gasosas aquí. E a temperatura do gas está cambiando. E pode comezar a ver a estrutura do cambio universo visible. E a parte máis importante con este é, cada pequeno, minúsculo, minúsculo punto é unha peza de física e ten un conxunto de matemáticas ao redor, o teu amigo e seu veciño. Así, a partir dunha perspectiva de escala, estes ordenadores teñen a todo o traballo en concerto e falar uns cos outros de forma eficiente. Entón, eles non poden ser moi falador. Teñen que almacenar os seus resultados. E eles teñen que seguir informar a todos os seus amigos. En realidade, vai ver agora, este modelo de ficando cada vez máis complicada. Hai máis e máis cousas a suceder. Hai máis e máis material de voar arredor. E iso é o que o inicio cosmos tería parecía. Era un lugar moi peludo. Hai explosións en todo o o lugar, as colisións poderosos. E formación pesado metais e elementos. E esas nubes grandes esmagamento en outro coa forza extrema. E agora estamos 9,6 millóns anos dende esta explosión inicial. Está empezando a ver as cousas son tipo de calmou un pouco, só un pouco, porque o enerxía está agora a comezar a relaxarse. E así, a matemática modelos teñen que no lugar. E se está empezando a ver coalescência de diferentes elementos. E empezando a ver esa cousa tipo de unirse e arrefecer lentamente. E iso está empezando a parecer un pouco máis como o ceo nocturno, un pouco. E é [? QSing. ?] Estamos agora 30,2 mil millóns de anos e estamos tipo de feito. E entón o que fixeron foi que tomaron este modelo, e, a continuación, mirou para o universo visible. E, basicamente, a continuación, foron capaz de asumir que e sobrepasar Lo co que se pode ver. E a fidelidade é sorprendente, como a quão preciso os modelos de ordenador son. Por suposto, os astrofísicos e os grupos de investigación Debe aínda mellor fidelidade e aínda maior resolución. Pero se pensar sobre o que Estiven falando con vostede hoxe a través desta pequena viaxe a través ambos almacenamento e estrutura e networking e pilas, o importante é, é scale-out computación esencial? Esa foi a miña hypothesis-- orixinais de volta ao noso método científico. Espero que, a principios de parte deste Quere prever que eu sería capaz de explicar con vostede sobre computación scale-out. E nós tipo de probado algunhas destas hipóteses. Nós pasamos por esa conversa. E eu só vou dicir scale-out computing é essential-- oh, si, moi ben. Entón, cando está a pensar sobre os seus códigos, cando está facendo os proxectos finais CS50, cando está a pensar sobre o seu legado para a humanidade e os recursos que nos Debe ser capaz de realizar estes ordenador sistemas, pense con moito coidado sobre os flops por Watt, e pensar sobre o mono Chaos. Debería súas flocos de neve, non facer one-offs, bibliotecas de reutilización, construír codes-- reutilizable todas as cousas que os titores teñen ensinado vostede nesta clase. Estes son aspectos fundamentais. Eles non están só da boca para fóra. Estas son cousas reais. E se algún de vós quere seguirme, Eu son obsesiva coa cousa Twitter. Teño que dar algunha maneira iso. Pero unha gran parte do a información de apoio no noso computing investigación Sitio web en rc.fas.harvard.edu. I probar e manter un blog ata actualizado coas tecnoloxías modernas e como o facemos distributiva computación e así por diante. E, a continuación, os nosos empregados están sempre dispoñible a través odybot.org. E odybot é o noso pequeno axudante. El moitas veces ten pouco concursos na súa páxina web tamén, onde podes probar e avistá-lo en torno ao campus. El é o pouco agradable face da computación investigación. E eu vou tipo de pechar alí e gracias a todos polo seu tempo. E eu espero que lembre que computación scale-out é unha cousa real. E hai unha chea de xente que teño unha chea de arte previa que poderá axudar. E todos a mellor sorte con seus futuros proxectos en facer Asegúrese de que a nosa computación tanto escalas, é de alto rendemento, e axuda a humanidade máis do que calquera outra cousa. Entón, moitas grazas polo seu tempo.