La computadora que lo cambiará todo

Blog

HogarHogar / Blog / La computadora que lo cambiará todo

May 11, 2023

La computadora que lo cambiará todo

Ocho años en desarrollo, Aurora, una nueva y poderosa máquina en Argonne National

Ocho años en desarrollo, Aurora, una nueva y poderosa máquina en el Laboratorio Nacional de Argonne, podría ayudar a resolver algunas de las preguntas más apremiantes de nuestro tiempo. Bienvenido a la nueva era de la supercomputación.

Si usted es el tipo de persona que alguna vez contempla qué más podría haber hecho con su vida, tengo un consejo: no hable con Rick Stevens. Con solo 15 minutos de conversación con él, ya me siento como un idiota. Exteriormente, estoy haciendo contacto visual directo, tomando notas, llevándome los dedos a los labios para indicar que estoy pendiente de cada una de sus palabras; interiormente, estoy pensando en cuántas horas he pasado en YouTube volviendo a ver clips de Los Soprano.

Stevens es el director asociado del laboratorio de computación, medio ambiente y ciencias de la vida en el Laboratorio Nacional de Argonne en el suroeste de los suburbios de Lemont. El título oscurece prolijamente sus logros. Stevens, que comenzó a programar computadoras a los 14 años, ha estado en Argonne (el primer laboratorio nacional del país, establecido en 1946 y operado conjuntamente por el Departamento de Energía de EE. UU. y la Universidad de Chicago) desde 1982, cuando aún era estudiante universitario en Michigan. Estado. Después de unirse a Argonne, obtuvo un doctorado en informática en Northwestern. Durante los últimos 40 años, ha sido una figura clave en los avances significativos de Argonne en supercomputación.

En un día soleado de noviembre, estoy sentado en la oficina de Stevens para aprender más sobre la supercomputadora Aurora, el próximo gran salto de Argonne en velocidad y potencia computacional. El laboratorio ha estado trabajando con supercomputadoras durante casi toda su historia, en un estado constante de conceptualización, formulación, recaudación de fondos, diseño, construcción, prueba y operación. Pero en un lapso de décadas de innovación inexorable, Aurora es un hito único. Cuando la máquina esté completamente construida y operativa (los funcionarios de Argonne esperan que sea a principios de la primavera), será una de las primeras supercomputadoras del mundo en operar a exaescala, una etapa nueva y sin precedentes de la computación.

Y por eso vine a hablar con Stevens. Mide más de seis pies de altura, con un fantástico cabello largo y castaño que le llega hasta los hombros y una complexión ancha, como si hubiera jugado al fútbol. El día que lo conocí, usa anteojos, sandalias Birkenstock con calcetines, pantalones de yoga negros fluidos y una sudadera holgada.

La primera pregunta que le hago: ¿Cuál es el impacto que tendrá Aurora en nuestra vida cotidiana?

"¿Cuál es el impacto?" Stevens responde, retórica y exhaustamente. "Bueno, tal vez puedas darte una idea del impacto que la supercomputación ha tenido en el mundo en los últimos 20 años. Todo lo que sabemos sobre el clima a gran escala proviene de simulaciones climáticas en supercomputadoras. Lo que sabemos sobre el ser humano El genoma proviene del análisis masivo de datos en grandes computadoras. Todo lo que está sucediendo en la IA en este momento está sucediendo en computadoras a gran escala. Solo la idea de que podría construir un sistema que podría conducir un automóvil es el resultado de una gran cantidad de computación. Nuestra capacidad para diseñar reactores, nuestra capacidad para crear nuevas baterías, todo eso es el resultado de la informática".

Ya sabes, solo el clima, el genoma humano, la energía nuclear, los robots.

"La máquina a exaescala es la última versión de eso", continúa Stevens, "y una máquina a exaescala es un millón de veces más rápida que las máquinas que teníamos a principios de siglo".

Aún así, ¿cómo podríamos presenciar empíricamente un "millón de veces más rápido"? ¿Cómo seríamos capaces de ver eso materialmente en nuestra vida cotidiana? No quería repetir mi pregunta inicial, así que la hago en forma de seguimiento: la computación a exaescala va a realizar funciones que no podemos ejecutar ahora, ¿verdad?

"Sí, es un millón de veces más rápido", responde Stevens, otra forma de decir, ¡duh!

Luego hace algo que nadie a quien he entrevistado ha hecho antes: me explica cómo debo escribir mi historia.

"Los reportajes geniales sobre estas máquinas no son muy esclarecedores", dice Stevens. "A los periodistas les gusta hacerlo porque la gente se ha acostumbrado tanto a la idea de que 'tengo un teléfono y se comunica con una nube gigante y hay miles de procesadores allí', y eso es cierto. La industria lo ha construido en los últimos 15 años más o menos. Construimos estas máquinas científicas porque están enfocadas en problemas en la ciencia, mientras que las nubes, ya sabes, alimentan los servidores de Twitter y Facebook y Discord y todo tipo de cosas aleatorias, noticias falsas y todo eso".

Stevens pone los ojos en blanco repetidamente mientras pronuncia esta perorata, una pared de gruesos libros sobre astrofísica e informática avanzada detrás de él. Luego, como el hechicero de Fantasía que invoca poderes más allá del conocimiento de los simples mortales, se apasiona.

"No se diseña un avión sin supercomputadoras. No se diseña un motor de avión sin supercomputadoras. Ya no se diseña un automóvil sin una supercomputadora. Ni siquiera se diseñan las mezclas en gasolina sin una supercomputadora. Se puede probablemente intente nombrar algo, casi cualquier cosa de valor, y tendrá sus raíces en algún tipo de simulación informática de alto nivel o sistema de análisis de datos".

Estaba empezando a ver lo que Stevens quiso decir cuando descartó la mayoría de las historias sobre computadoras. Pero como probablemente parecía tener el intelecto de un niño pequeño, me dice directamente: "La verdadera historia es que tienes una comunidad de personas que han estado trabajando en el avance de la informática de alto rendimiento durante décadas. economía."

Empiezo a darme cuenta de que no está frustrado conmigo en sí, sino con lo que las computadoras han llegado a significar para el público en general. En lugar de centrarse en cómo las computadoras han beneficiado colectivamente a la humanidad, la conversación a su alrededor tiende a centrarse en cómo hacen que nuestras vidas sean más convenientes. En cuyo caso, Stevens tiene razón: esta no es una historia sobre cómo Aurora podría alterar nuestras vidas, sino sobre cómo podría cambiar el mundo.

Antes de que comenzara a aprender sobre Aurora, mi comprensión de la historia de la informática era ciertamente reductiva. Supuse que era más o menos la máquina de Turing, seguida de enormes y voluminosos mecanismos que hacían zap, boink y tint y eran demasiado difíciles de manejar para ser utilizados por cualquiera que no fueran agentes del gobierno, científicos rusos y empleados de IBM, seguidos por PC y Bill Gates. e Internet, luego por Steve Jobs y sus iPhones, y ahora puedo pedirle a mi HomePod que reproduzca la BBC mientras navego por la web en la puerta de mi refrigerador, y muy pronto los robots harán todo por nosotros antes de que nos demos cuenta de que estamos viviendo en una simulación gigante. Claro, obviamente es más complicado que eso. ¿Pero es realmente?

Por supuesto que realmente lo es. La historia de la computación es vasta, multifacética y complicada con varias clases de máquinas, de las cuales las supercomputadoras son solo una. Su historia se remonta a la década de 1950 y comienza en suelo estadounidense, cuando Seymour Cray se unió a un grupo de ingenieros de Control Data Corporation en Minneapolis para construir el CDC 1604, que debutó en 1960. Existe un debate sobre si realmente fue la primera supercomputadora. , pero lo que es indiscutible es que era la computadora más rápida del mundo, y que provocó una búsqueda global para construir computadoras cada vez más rápidas.

A fines de la década de 1970, los arquitectos de las supercomputadoras se encontraron con un problema: sus unidades centrales de procesamiento, o CPU, habían alcanzado una velocidad de un megahercio, lo que significa que podían pasar por un millón de funciones por segundo, y los informáticos no pensaron que podrían ir. más rápido. La solución fue el procesamiento paralelo, es decir, usar más y más CPU para hacer que una computadora sea más rápida y mejor.

"Es como pensar en un cerebro", dice Stevens. "Tu cerebro solo funciona a cierta velocidad. Y si quisiera obtener más capacidad intelectual, necesito más cerebros, no un cerebro más rápido".

Pensadas de esta manera, las supercomputadoras no son tan diferentes de las grotescas creaciones de ciencia ficción de John Carpenter o Frank Herbert. No son del todo monstruosos, pero su enorme complejidad puede ser aterradoramente difícil de comprender. Sobre todo las matemáticas.

En este punto, Stevens saca un marcador y camina por su oficina hacia una pizarra de borrado en seco. Ahora estoy recibiendo una de sus conferencias (también es profesor en la Universidad de Chicago).

"¿Qué tan rápido es un procesador individual? ¿Tiene alguna idea? ¿Qué tan rápido es el procesador en su iPhone?"

"Realmente no lo sé", respondo, cada vez más cansada.

"Solo inventa algo. Hay un reloj allí. ¿Qué tan rápido es el reloj?"

"Como, ¿cuántas rotaciones por segundo?" —pregunto, en un tono que le suplica que me lo diga.

"Bueno, no gira", dice, innecesariamente. "Pero sí, solo inventa un número".

"Un millón." Lo que me parece una suposición razonable.

"En realidad son mil millones".

Hay una pausa de unos segundos que parece una eternidad antes de que empiece a escribir números en la pizarra.

"El procesador básico de tu iPhone o PC o lo que sea funciona a un gigahercio: mil millones de ciclos por segundo. Algunos de ellos funcionan a cinco gigahercios, otros a dos. Tu iPhone en realidad puede funcionar entre uno y tres gigahercios, pero no No importa, es aproximadamente 10 a la novena [potencia]. Y queríamos llegar a 10 a la 18 operaciones por segundo. Esto es exaescala".

En la literatura de Argonne, esta velocidad operativa se denomina "billón de billones", que parece un número tan grande que tienen que repetir un número existente dos veces, pero técnicamente es un quintillón de operaciones por segundo, o un exaflop. Aquí hay una mejor manera de enmarcarlo: en mi vida, las computadoras se han vuelto un billón de veces más rápidas (cumpliré 40 años este verano).

Sin embargo, en 2007, nadie sabía si la exaescala era posible. Ese año, el Departamento de Energía celebró reuniones públicas en tres laboratorios nacionales (Argonne, Berkeley y Oak Ridge) para discutir cómo sus científicos podrían realizar una supercomputadora que funcione a esta velocidad.

Junto con Stevens, uno de los participantes en esas conversaciones fue su adjunto, Mike Papka. Papka conoció a Stevens hace 30 años, cuando estudiaba una maestría en informática en la Universidad de Illinois en Chicago. Ha estado en Argonne desde entonces (y también obtuvo su doctorado en la Universidad de Chicago). Si "Mike Papka" suena como el nombre de alguien con quien tomarías una cerveza en el grifo de la esquina, bueno, así es exactamente. Su cabello gris está recortado, usa anteojos gruesos con montura negra y tiene una espesa barba blanca tan larga como la de Rick Rubin. Su estilo de conversación es realista y afable, y habla con un acento de Chicago tan grueso como giardiniera. Cuando le pregunto sobre esos ayuntamientos del DOE hace 16 años, dice que son "borrosos", pero recuerda haber pensado que "la infraestructura que tendrías que tener para [exaescala] es imposible".

Cuando los científicos del DOE se reunieron, enfrentaron tres obstáculos particularmente abrumadores. El primero fue el poder. En ese momento, estimaron que una computadora a exaescala requeriría 1.000 megavatios de electricidad, el equivalente a una planta de energía nuclear. Decidieron que el caso más persuasivo que podían presentar al gobierno para asegurar la financiación sería que lo redujeran a 20 megavatios. Si dividir 980 megavatios parece extremo, Papka señala que establecer metas ambiciosas ayuda a lograr el máximo progreso. "Tienes que hacer una compensación", dice. "¿Vamos a esperar 15 años más para descubrir cómo llevar la tecnología allí? ¿O vamos a proceder?"

El siguiente problema fue la confiabilidad. Al igual que su computadora portátil, las supercomputadoras son susceptibles de fallar cuando se sobrecalientan (lo que sucedería a menudo con una máquina que requiere tanta energía eléctrica como una pequeña fábrica). El equipo del DOE se fijó el objetivo de limitar las fallas de una máquina a exaescala a una por día, lo que todavía parece mucho. Pero Stevens explica que la supercomputadora no pierde todo su trabajo. "Lo que sucede es que estás constantemente tomando instantáneas cuando la máquina falla para que puedas restaurarla y continuar", dice. "Es como en un juego de computadora: mueren personas y simplemente reinicias y el juego comienza desde donde lo dejaste".

Aurora es como la sinfonía más compleja del mundo, con cientos de miles de instrumentos diferentes tocando al unísono para mantener la música.

El mayor problema de todos fue la escala, aunque no de lo que probablemente adivinarías. Claro, las supercomputadoras son físicamente enormes, pero lo que está dentro de la máquina parece lo más difícil de entender.

"Por el lado del hardware, no es gran cosa, porque simplemente puede agregar más hardware", dice Stevens. "Pero en el lado del software, es un gran problema. Piénselo de esta manera: está preparando la cena de Acción de Gracias y está cocinando todos estos platos en paralelo. Y la cantidad de tiempo que tomará cocinar la comida está determinada por el paso más lento [el pavo], incluso si los pasteles solo toman una hora, o si las verduras se pueden cocinar en 30 minutos. Así que piense en el mismo problema en estos cálculos, excepto que en lugar de tener 20 cosas en Acción de Gracias, tenemos tengo un millón de cosas, y ahora tengo que tener un billón de cosas funcionando en paralelo. Y cuán rápido esto será determinado por el paso más largo, lo que significa que tengo que hacer ese paso más largo lo más rápido posible. "

Además de su complejidad, el software de las supercomputadoras es costoso. El mundo de la ciencia no funciona como las empresas tecnológicas de Silicon Valley; no existe la cultura de las empresas emergentes, en la que los capitalistas de riesgo podrían financiar la I+D en un proyecto increíble. Para los científicos, no es fácil conseguir financiación.

Entre 2007 y 2015, todo el trabajo en computación a exaescala fue investigación y desarrollo: resolución de problemas y escritura de algoritmos para construir la supercomputadora menos molesta y menos costosa posible. Si bien Aurora en sí misma terminó costando $ 500 millones, la cuenta de todo el Proyecto de Computación a Exaescala, el esfuerzo de colaboración entre los laboratorios nacionales, totalizaría mucho más. Y para asegurar esa financiación, los científicos tuvieron que demostrar que podían hacer que la exaescala funcionara.

"No es fácil pedir 5.000 millones de dólares", bromea Stevens. “Quiero decir, es fácil preguntar. Pero el gobierno no te va a escribir un cheque de $5 mil millones si dices, 'No sé'. El equipo tiene que decir: 'Está bien, tenemos una forma en la que pensamos que podemos hacer esto. Hemos hecho experimentos, tenemos las barras de error bajas', y así sucesivamente".

Solo el proceso de preguntar fue un desafío en sí mismo. Cuando los científicos discutieron por primera vez con el DOE sobre computación a exaescala, George W. Bush era presidente. Desde entonces, ha habido otras tres administraciones, con varios secretarios de energía y, por decirlo suavemente, agendas muy diferentes. “Estás presentando el mismo argumento una y otra vez, ya que el gobierno ha cambiado y está tratando de reeducar a todos”, dice Stevens. "Así que tenías que trabajar en todos estos problemas, seguir construyendo un plan, construyendo un nuevo plan, construyendo un mejor plan, vendiéndolo. Requirió una gran cantidad de esfuerzo".

Una vez que los científicos de Argonne estuvieron listos para comenzar a desarrollar Aurora en 2015, también tuvieron que administrar ese proceso, en coordinación con Intel y Hewlett Packard Enterprise, que fabricaron el software y el hardware. "Fue como ir a Marte", dice Stevens. "Lo que estás viendo ahora es solo el iceberg que sobresale del agua. Sí, tenemos una máquina. Pero no ves el 90 por ciento del esfuerzo que se hizo antes".

Es muy ruidoso aquí", dice David Martin justo afuera de la puerta del centro de datos de Argonne, que alberga todas las supercomputadoras del laboratorio. Cuando estamos adentro, suena como si estuviéramos parados en el aire acondicionado más grande del mundo; tenemos que Gritar para escucharse.Martin es el gerente de asociaciones y divulgación de la industria, lo que significa que coordina con terceros, generalmente compañías como General Electric, General Motors y Boeing, sobre cómo acceder y usar las supercomputadoras de Argonne para la investigación. Comenzando aquí en 2011, trabajó en IBM, Fermilab y AT&T Bell Laboratories.

Argonne construyó el centro de datos y la infraestructura que lo respalda, esencialmente un edificio completamente nuevo, para acomodar sus supercomputadoras. Las máquinas reales están en la "sala de máquinas". Aurora es aproximadamente tan grande como dos canchas de baloncesto (alrededor de 10,000 pies cuadrados) y alrededor de ocho pies de alto. Argonne agregó un ala completamente nueva a la sala de máquinas para ello. Sin embargo, lo que ocupa más espacio no es la supercomputadora en sí, sino las utilidades necesarias para mantenerla operativa.

Por encima de Aurora hay un piso completo, llamado cuarto eléctrico, dedicado a alimentar la supercomputadora. El espacio es tan grande como un hangar de aviones y contiene grupos de estaciones de metal que parecen enormes cajas de interruptores y pueden producir hasta 60 megavatios de electricidad, suficiente para abastecer a más de 10.000 hogares. Papka enfatiza que 60 megavatios es el límite absoluto: lo más probable es que Aurora funcione entre 50 y 54 megavatios, si es así. "Nuestro antiguo sistema, Mira, tenía un pico de nueve megavatios", dice Papka. "Pero si miro la factura de electricidad, era más de tres y medio. Entonces, si apuntas al pico, todo es perfecto, estás usando cada pieza de silicio en ese chip, vas a consumir todo eso poder. Pero nunca llegas allí.

Es importante tener en cuenta que esta sala también alimenta las supercomputadoras existentes en Argonne, incluida la petaescala Polaris, y proporciona toda la electricidad del edificio. Teniendo en cuenta que en 2007 los científicos de los ayuntamientos del DOE estaban preocupados de que una computadora a exaescala necesitara 1000 megavatios de potencia, eliminar 940 es un logro asombroso.

Pero la verdadera innovación está en el piso debajo de Aurora: el puente mecánico. Aquí, tuberías laberínticas de diferentes anchos se mueven alrededor de una habitación, entregando, enfriando y filtrando agua. Las supercomputadoras han usado refrigeración líquida durante mucho tiempo (Papka recuerda una máquina Cray de principios de los 90 que usaba aceite como refrigerante), pero para reducir los costos de plomería, Argonne ha confiado cada vez más en los ventiladores para evitar el sobrecalentamiento. Como ningún ventilador es lo suficientemente potente como para mantener frescas las supercomputadoras más nuevas, los científicos han tenido que crear sistemas de refrigeración por agua más eficientes. No es tan diferente de las formas en que los pisos radiantes evitan que sus pies se enfríen en baños elegantes, excepto que este es un baño mucho más sofisticado.

Polaris tiene control de temperatura con una combinación de agua debajo y ventiladores de chorro arriba, de ahí el fuerte ruido en el centro de datos. Cuando Polaris sea inevitablemente dado de baja, el ruido del ventilador cesará y será reemplazado por lo que Martin describe como "un zumbido". Es dudoso que haya otra supercomputadora predominantemente enfriada por ventiladores. "Desde el punto de vista de que un laboratorio es un ciudadano ambientalmente responsable, lo bueno del agua es que es agua", dice Papka. "Tiene uno de los mejores coeficientes para mover el calor de cualquier sustancia".

La sala de máquinas alberga tanto a Aurora como a Polaris y probablemente será donde permanecerán todas las supercomputadoras en el futuro previsible. Tiene aproximadamente el tamaño de un campo de fútbol, ​​con luces fluorescentes en el techo similares a las de un edificio de oficinas estándar. En el piso hay una cuadrícula de baldosas grises cuadradas, cada una del tamaño de una caja de pizza extra grande. Los mosaicos son removibles para que los trabajadores de la construcción puedan acceder a las tuberías en la sala de máquinas a través del piso, lo que les permite aislar y reparar tuberías específicas sin dañar nada más en el proceso.

El día que estoy en Argonne, un equipo de construcción de unas dos docenas está trabajando afanosamente en Aurora. La fecha estimada inicial de finalización de la supercomputadora era 2020, pero los problemas de la cadena de suministro causados ​​por la pandemia de COVID-19 extendieron el cronograma. No tengo permitido entrar al sitio de construcción, pero veo lo que parecen filas y filas de gabinetes negros. Al final, Aurora se parecerá a una versión aún más grande de los servidores informáticos masivos que ha visto en películas de espías de alta tecnología como Skyfall o, quizás con mayor precisión, Blackhat de Michael Mann.

Afuera de la sala de máquinas hay un largo pasillo y una ventana que brindan a los visitantes una vista panorámica de Aurora. Desde aquí, Martin me muestra los nodos que forman los componentes básicos de la supercomputadora. Estos nodos se asemejan a la apariencia de su computadora portátil debajo de la superficie del teclado: una serie de chips, puntos y barras de metal. Los diminutos tubos blancos que serpentean a un lado de ellos se usan para enfriar los procesadores. "Estas tuberías grandes de 24 pulgadas que comienzan en el camino en una planta de enfriamiento, el agua fría baja por ellas", dice Papka, "y luego esa tubería grande alimenta una tubería pequeña, que alimenta una tubería más pequeña, que alimenta una tubería más pequeña, que llega al procesador". Aurora es como la sinfonía más compleja del mundo, con cientos de miles de instrumentos diferentes tocando al unísono para mantener la música.

La supercomputadora es solo filas y filas de estos nodos apilados uno encima del otro, con tubos azules y rojos saliendo de cada panel para proporcionar electricidad y refrigeración. Esos trabajadores de la construcción están en las etapas finales de colocar cada nodo y cablearlos a medida que Intel los envía gradualmente. Los nodos de Aurora se basan principalmente en unidades de procesamiento de gráficos, o GPU, en lugar de las CPU con las que operaban las supercomputadoras en el pasado. Las GPU son los mismos procesadores que se utilizan para diseñar videojuegos y efectos especiales en películas.

"La gente se dio cuenta de que las GPU en realidad hacen los cálculos muy rápido", explica Martin. "Entonces, trabajamos con Intel para ayudar a diseñar las GPU: eliminaron el motor de renderizado de gráficos y todo el trazado de rayos y agregaron más capacidad para hacer cálculos. Por lo tanto, estas GPU son aceleradores de cálculo". Papka fecha esta innovación de la supercomputadora a finales de los 90: "El mundo entero debe agradecer a los niños de 14 años por su amor por los juegos, porque eso es en gran parte lo que los impulsó".

Las GPU de Aurora no son solo el futuro de las supercomputadoras, también son el futuro de las computadoras personales. Eventualmente, Intel equipará todas sus PC con estos nuevos procesadores. De esa manera, las supercomputadoras son un poco como máquinas del tiempo. "Estos recursos compartidos que construye el gobierno nos dan una idea del futuro", dice Stevens. "La comunidad científica puede experimentar con lo que estará fácilmente disponible para todos cinco o 10 años después".

Así que imagina lo rápido que será tu PC dentro de una década con una de estas GPU mejoradas. Aurora tiene seis GPU en cada nodo y 10 000 nodos, lo que significa que este año funcionará a 60 000 veces la velocidad de su computadora futura.

¿Cómo se traduce toda esa velocidad y potencia en la resolución de problemas del mundo real? O, como prefieren expresar los empleados de Argonne: ¿Qué problemas no podrá resolver Aurora? Los científicos que trabajan en la exaescala dicen que creen que Aurora y las supercomputadoras nos ayudarán a crear nuevos y mejores medicamentos, mejorar la ingeniería, aliviar el cambio climático e incluso aumentar nuestra comprensión de los misterios del universo. Pero, ¿cómo exactamente una máquina puede hacer todo eso? No puedes preguntarle a Aurora cómo curar el cáncer y te lo dice, ¿verdad?

La respuesta más corta posible es simulaciones. La mayoría de los descubrimientos que hacen los científicos hoy en día suceden a través de una supercomputadora que simula situaciones del mundo real. "No es tan diferente de cómo hacemos modelos climáticos", dice Stevens. "Tenemos satélites que pueden medir las nubes y la temperatura. Podemos hacer todo tipo de cosas para recopilar datos sobre el estado actual de la atmósfera, y tenemos esos datos desde hace muchos años. Pero para probar una teoría, como cuán sensible es el sistema climático a los cambios en el metano o el dióxido de carbono, tienes que hacer una simulación. No puedes salir y clonar la tierra y decir, cambiemos la composición atmosférica y tratemos de estudiarla".

Cuando pido un ejemplo de simulaciones de supercomputadoras que tengan efectos del mundo real, los empleados de Argonne señalan la seguridad del automóvil. ¿Recuerda esos viejos comerciales de televisión en los que veía un video en cámara lenta de un automóvil con maniquíes de prueba de choque adentro que se estrella contra un muro de piedra a alta velocidad? Bueno, esa sigue siendo la forma en que los fabricantes de automóviles prueban la seguridad. Pero chocar autos es costoso, y las compañías siempre están buscando formas de reducir costos mientras mejoran la protección. Al ejecutar primero simulaciones de supercomputadoras, los fabricantes de automóviles pueden trazar y modificar múltiples escenarios antes de tener que chocar físicamente un automóvil. En algunos casos, eso marca la diferencia entre construir y destruir un solo automóvil y docenas de ellos.

En una sala del laboratorio, Rao Kotamarthi, científico jefe de la división de ciencias ambientales de Argonne, me muestra varios modelos de computadora en pantallas de proyección. Una es del East River inundando lentamente Manhattan. "Esto se hace para una compañía eléctrica", dice Kotamarthi con total naturalidad. "Así que estamos tratando de ver una inundación de una vez cada 50 años en el futuro. Están tratando de ver si sus instalaciones son seguras en un escenario de cambio climático. Desarrollamos esto como un portal: puede elegir una ciudad o ubicación y obtener una especie de análisis de impacto en las temperaturas. Y las comunidades locales pueden planificar la resiliencia". Kotamarthi usa la fusión nuclear de Fukushima de 2011 como ejemplo. Las supercomputadoras no podrán prevenir desastres naturales como el terremoto y el tsunami que dañaron la planta de energía nuclear japonesa, pero las máquinas podrían ayudar a las instalaciones de energía a desarrollar una infraestructura de protección para que la humanidad pueda coexistir con los efectos del cambio climático.

No puedes hacer eso en una computadora estándar. Bueno, técnicamente, podrías, pero nunca querrías hacerlo. "Digamos que quiero calcular la explosión de una estrella o la evolución del universo", dice Papka. "¿Puedo hacer eso en mi computadora portátil? Sí, podría escribir algo de código. Pero mi simulación no es tan precisa". Luego viene el pateador. "Y se necesitan siete vidas para calcular".

Katherine Riley, directora de ciencia de Argonne Leadership Computing Facility, usa la astrofísica como un ejemplo de lo que puede lograr una supercomputadora como Aurora: "A todos nos enseñan en la escuela que tienes un átomo, y tiene sus protones y neutrones y electrones a su alrededor. Pero sabemos que es más complicado que eso. Sabemos que hay mucho más en la materia, por no hablar de ese átomo en particular: hay partículas subatómicas. Entonces, lo que eso significa es comprender cómo se formó la materia. aceleradores, y lo que sucede con esos aceleradores es que generas enormes cantidades de datos y sacas esa señal de todo el ruido. Creas un modelo del universo, creas un modelo de una supernova y lo dejas arder. E intentas correlacionar eso con lo que realmente está sucediendo en el universo real". Riley anticipa que Aurora, basándose únicamente en el volumen de datos que podrá procesar, podrá producir modelos mucho más sofisticados.

Los científicos ya han estado haciendo esto durante muchos años. El ejemplo más destacado es el Telescopio Espacial James Webb, que ha proporcionado imágenes del cosmos profundo con mucho más detalle que su predecesor, el Telescopio Espacial Hubble, brindándonos una mayor comprensión de la textura del universo. El telescopio Webb y sus imágenes correspondientes son el resultado de simulaciones en una supercomputadora.

Aunque la computación a exaescala augura una nueva frontera de velocidad computacional, una que es mil veces más rápida que las actuales supercomputadoras a petaescala, eso no significa que de repente seremos capaces de resolver todos nuestros problemas climáticos o de ingeniería o descubrir el origen y la historia de el universo. Riley se apresura a señalar que en la ciencia no hay respuestas, solo respuestas parciales. Y 20 preguntas más.

Lo que está cambiando es la rapidez con la que obtenemos respuestas parciales y nuevas preguntas. Cuando piensa en toda la innovación tecnológica en nuestras vidas, y cuánto se acelera con cada año que pasa, esa tasa corresponde aproximadamente a la velocidad y la habilidad en constante aumento con las que desarrollamos computadoras. Martin también señala que la computación a exaescala dependerá mucho más de la IA, lo que a su vez ayudará a entrenar a las computadoras para mejorar las funciones sin interferencia humana. No es del todo irrazonable que algún día lleguemos a un punto en el que las supercomputadoras sean las que construyan mejores versiones de sí mismas.

Al final de mi tiempo con Stevens, su pizarra de borrado en seco está repleta de números, gráficos y ecuaciones. Ambos lo miramos en silencio, un poco atónitos, pero para él es solo una pequeña fracción del esfuerzo matemático que se dedicó a desarrollar Aurora. Y Aurora no es la primera computadora a exaescala: el Laboratorio Nacional de Oak Ridge, en las afueras de Knoxville, Tennessee, lanzó Frontier, una máquina impulsada por la tecnología de AMD en lugar de la de Intel, en mayo pasado. (En cuanto a cuál es más rápido, no lo sabremos hasta el debut de Aurora).

Las primeras conversaciones serias sobre la exaescala tuvieron lugar hace 16 años, así que le pregunto a Stevens si los científicos del DOE han comenzado a trabajar en las próximas etapas de las supercomputadoras: escala zetta (10 a la 21) y yotta (10 a la 24). Él dice que las discusiones han comenzado, pero duda que cualquiera de las dos sea factible dentro de la arquitectura existente de las supercomputadoras. Los desafíos son colosales. La instalación para almacenar una supercomputadora a escala zetta necesitaría ser de 50 millones de pies cuadrados, y la factura eléctrica anual sería de quinientos millones de dólares. Señalo que Stevens y sus colegas inicialmente tenían preocupaciones similares sobre la exaescala, pero él explica que el problema no es solo que no podamos crecer tanto; también es que no podemos ser tan pequeños.

Los transistores que llenan cada chip en Aurora son de siete nanómetros, una cifra cómicamente microscópica equivalente a 70 átomos colocados uno al lado del otro. Construir transistores del ancho de un átomo, tan pequeños como sea posible, no es realista en este momento, por lo que la única opción es la litografía subnanométrica. Por esa razón, la Ley de Ciencias y CHIPS del presidente Joe Biden, promulgada en agosto pasado, es fundamental para el desarrollo futuro de las supercomputadoras, ya que financiar la I+D de microchips es fundamental para mantener el ritmo de innovación tecnológica del país. Pero aun así, piensa Stevens, estamos muy lejos de la escala zetta: "Tratarán de ser tan pequeños, pero en realidad no lo serán, al menos en los próximos 10 años. Creo que nosotros". estás en el límite". Cuando le pregunto a Papka qué piensa, dice: "Me retiraré en una playa en algún lugar, sin preocuparme por esto".

Las supercomputadoras como Aurora son un poco como máquinas del tiempo. "Estos recursos compartidos que construye el gobierno nos dan una idea del futuro", dice Stevens. "La comunidad científica puede experimentar con lo que estará fácilmente disponible para todos cinco o 10 años después".

También está la computación cuántica, que en teoría permitiría un procesamiento de datos exponencialmente más rápido, lo que plantea la cuestión de si las supercomputadoras se volverían innecesarias. Pero Papka lo considera poco probable. "Las supercomputadoras nos ayudan a responder preguntas", dice, "y si nuestras supercomputadoras se vuelven obsoletas, tendrías que decirme que no tenemos más preguntas, que hemos resuelto todos los problemas que existen en el mundo. Y aunque podamos sé egoísta, no creo que eso sea cierto nunca".

Lo más probable, predice, será el advenimiento de los aceleradores cuánticos que funcionen en armonía con las computadoras tradicionales, de manera similar a cómo se reutilizaron las GPU para hacer que las supercomputadoras sean más rápidas. Pero esto se está metiendo en un territorio embriagador. Papka levanta las manos cuando dice: "Hablando de la velocidad a la que suceden las cosas, ni siquiera puedo seguir el ritmo". Y a medida que se avanza en la computación cuántica, Argonne está haciendo su propia I + D, todavía habrá muchas personas trabajando en la creación de supercomputadoras más rápidas y eficientes.

Para Stevens, eso sucede con un grupo que muchos de nosotros menospreciamos: la Generación Z. "Era joven cuando comencé a trabajar en esto y ya no lo soy", dice. "Necesitamos que los jóvenes trabajen en esto para que tengamos décadas de progreso. La cantidad de capacitación y educación que las personas necesitan para hacer contribuciones a la supercomputación es enorme. Estos son estudiantes de doctorado, posdoctorados y años de capacitación. "

Este comentario me hace reflexionar sobre cómo las computadoras han dado forma a mi propia vida. Todavía recuerdo el día a principios de los 90 cuando mi padre trajo a casa nuestro primer Apple Macintosh, y la mirada en su rostro al día siguiente cuando, sin darme cuenta, arrastré el disco duro a la basura, presagiando mis perspectivas como programador de computadoras. La única otra vez que lo vi hacer esa cara fue cuando nuestro acuario se rompió y todos los peces murieron.

Las relaciones no humanas más significativas de mi vida han sido con las computadoras. He pasado la mayor parte de mi tiempo en esta tierra frente a una pantalla, ya sea leyendo, escribiendo, hablando con otras personas o, y esto es fundamental, distrayéndome. Me pregunto hasta qué punto mi vida podría haber cambiado de rumbo si hubiera visto las computadoras de manera diferente en mi infancia y adolescencia. Durante los últimos años, yo, como muchas otras personas, me he quejado de consumir las redes sociales como una enorme pérdida de tiempo, algo a lo que recurro en busca de un consuelo perverso pero que solo me hace sentir asqueroso, amargo y vacío.

En ese sentido, la computación científica no es solo el camino hacia las soluciones tecnológicas y una mejor comprensión de nuestro universo. También es una fuente de potencial, una forma de reorientar nuestra cosmovisión para ver a las computadoras como agentes de salud y convivencia pacífica. Tal vez eso sea demasiado sentimental, pero el sentimentalismo puro podría ser una mejor opción que las madrigueras de conejo ultracorporativas y sin derramamiento de sangre de la Web 2.0.

Sin embargo, antes de eso, Argonne todavía tiene que encender Aurora, y los científicos no saben con certeza qué sucederá cuando lo hagan. Es posible que partes de la supercomputadora de $ 500 millones ni siquiera funcionen. Eso no significa que lo desechen y comiencen de nuevo, solo necesitará algunos ajustes. "Somos una especie de número de serie 1 de esta supercomputadora", dice Martin. "Si algo sale mal, eso extiende [el lanzamiento] una semana, un mes, tal vez más".

La estrategia es empezar a ejecutar Aurora en partes. El día que estoy en Argonne, Martin dice que ya han tenido problemas después de encender dos bastidores para las pruebas de esfuerzo. Un mes después de eso, cuando le hago un seguimiento a Papka, él menciona que solucionaron algunos de esos problemas y que los científicos ya comenzaron a acceder a esos bastidores para familiarizarse con el sistema. Pero enfatiza que las capacidades completas de Aurora no se comprenderán por completo durante algún tiempo. "Juntas 60 000 GPU, bueno, nadie ha hecho eso antes", dice. "¿Cómo se comporta el software? Hasta que no lo tienes, ni siquiera puedes empezar a descifrarlo".

Todavía hay muchas incógnitas. Todo lo que sabemos ahora es que será el futuro.