La tecnología corre contra límites atómicos

39
Fuente: Microsoft

Lo que antes eran grandes cajones con un sinfín de conectores, cables, receptores y otros elementos que daban vida a una Unidad Central de Procesamiento (CPU por sus siglas en inglés), poco a poco se han ido modernizando y mostrando unidades con apariencias tan pequeñas que pasarían desapercibidas a simple vista.

Esta aceleración del mundo tecnológico,  es la que hace suponer al arquitecto Doug Burger que estaríamos más cerca del final de la Ley de Moore, corriendo contra los límites atómicos. Esta ley, formulada por Gordon E. Moore (cofundador de Intel) el 9 de abril de 1965, expresa que cada dos años se duplica el número de transistores en un microprocesador.

Originalmente se creó en base a una duplicación cada año, pero Moore posteriormente la redefinió y amplió ese periodo a dos años. Inicialmente afirmó que la tecnología tenía futuro y que esa tendencia se mantendría por 20 años pero, 10 años más tarde, corroboró que el ritmo bajaría por lo que esa capacidad de integración pasaría a duplicarse cada 24 meses.

Para entrar en contexto con la apreciación de Burger, en 2007 Moore anunció la muerte de su propia ley en un periodo de 10 a 15 años, dándole entrada a nuevas tecnologías que remplazarían las de ese entonces. Será en el año 2022 que se conozca si la predicción de Moore se cumple, pero Burger considera que el final está más cerca.

Y es que los CPU, teléfonos fijos o móviles de hace 10 años,  ya se califican como obsoletos y sus precios no son los mismos en la actualidad, además que se cree que el número de transistores en un chip se incrementará más de tres mil veces en 26 años.

Para Burger, ingeniero distinguido de Microsoft Research NExT, hace mucho tiempo se construían computadoras que realmente no funcionaban con relés mecánicos y se tenían tubos de vacío que al menos eran electrónicos. “Y luego, por supuesto, el transistor fue inventado, y el circuito integrado, y estos fueron realmente un gran problema porque ahora te permitía miniaturizar estas cosas en un chip”.

“En esencia, toda esta informática digital que estamos haciendo se basa en conmutadores y cables. Es un interruptor de luz, lo das vuelta, se enciende; lo das vuelta, se apaga. Eso es realmente lo que es un transistor. Lo que hacemos es comenzar con un cable y un transistor que, recuerden, es sólo un interruptor; es un nombre elegante para un interruptor y luego comenzamos a ponerlos juntos”.

Visión de Doug Burguer

Burger dijo en una entrevista que hay dos versiones de la Ley de Moore: la actual que se refiere a la velocidad en que los chips se vuelven más densos y la que él llama la versión del New York Times, algo vagamente asociado con una exponencial en informática.

Y es que asegura que la velocidad de ese aumento de densidad se ha ralentizado por primera vez en 50 años. “Ahora, tal vez los fabricantes de chips recuperarán la cadencia nuevamente, y luego emitiré un mea culpa, y diré que estaba equivocado. Pero creo que estamos en el final del juego. Creo que estamos en un momento en el que se desacelera”.

Doug Burger considera que se podría dar una nueva armonía más lenta o que se alargue el tiempo entre cada nueva generación de tecnología de semiconductores pero, en todo caso, “el problema realmente es que estamos corriendo contra los límites atómicos”.

Su visión se basa en que ahora se ha construido un sólo átomo o transistor de un sólo electrón y, por ende, ya no se trata de poder sino de construir un chip que tenga 10 mil millones de estos en él económicamente.

“Es realmente una cuestión de economía porque sabemos que podemos construir dispositivos más pequeños, pero ¿puedes hacer que funcionen y venderlos lo suficientemente baratos como para realmente valer la pena?”, se preguntó en medio de la entrevista.

A su juicio, otro aspecto que se debe tomar en cuenta es que la estructura muy regular de un transistor ya no es posible. Cuando los arquitectos comenzaron a encontrarse con los límites atómicos, al momento de reducir los transistores, el viejo estándar ya no servía.

Se trataba de algo muy simple con tres barras y un químico rociado en la parte superior, más algunos cables conectados a esas terminales. Ahora, son estructuras tridimensionales muy intrincadas que se vuelven cada vez más complejos a medida que se tratan de reducir.

“Estamos en una era incierta en la que, en una generación, las ganancias podrían ser menores de lo esperado o más pequeñas, es posible que no obtenga velocidad y las intercambie. Todavía hay muchos avances en las otras partes de la informática, como densidad de memoria, memoria flash, velocidades de red, óptica”.

El especialista ha explicado que se está trabajando en nuevos tipos de informática, donde el paradigma es completamente diferente a la que ni siquiera se sabía de su existencia hace 50 años y que ahora se está empezando a aprovechar.

Cree que los avances en la Inteligencia Artificial (IA) y el aprendizaje profundo de máquina demandan la aceleración en el hardware actual y la arquitectura de la computadora.

“Ahora hay una gran inversión en arquitecturas personalizadas para IA, aprendizaje automático y, específicamente, aprendizaje profundo. Y así, Brainwave es la arquitectura que construimos en mi equipo, trabajando con socios en Bing y socios en Azure, para implementarla y acelerar los servicios de Microsoft dadas las tendencias que estábamos discutiendo”.

Doug Burger no se preocupa por el futuro de la inteligencia artificial,  pues considera que aún se está a decenas o cientos de miles de veces lejos de la eficiencia de un sistema biológico. Lo que sí está claro es que se debe vigilar con ética.

Se preocupa más por el calentamiento global y el cambio climático, cosa que lo mantiene despierto por la noche. En la medida en que su trabajo hace que la informática sea más eficiente y que pueda ayudar a resolver problemas científicos grandes e importantes, insiste en que sería siendo algo genial.

“Estamos al final de la Ley de Moore. Estamos en el final del juego del silicio y en la informática de von Neumann. En este momento tenemos la computación de von Neumann, luego un montón de aceleradores atornillados y luego un desastre con la gente que explora cosas. Creo que hay una verdad más profunda allí para la próxima fase que, en mi cabeza, estoy llamando cálculo estructural”.