© 2017 Economist Newspaper Ltd, Londres. Todos los derechos reservados. Reimpreso con permiso.

SANTA CLARA, California.

"Casi quedamos fuera del negocio varias veces". Habitualmente, los fundadores no hablan sobre las experiencias cercanas a la muerte de su empresa. Pero Jen-Hsun Huang, el jefe de Nvidia, no tiene razón para ser tímido. Su compañía, que desarrolla microprocesadores y software relacionado, está en una racha ganadora. En el último trimestre, sus ingresos aumentaron en 55 por ciento, alcanzando los 2.2000 millones de dólares, y en los últimos 12 meses su precio accionario casi se ha cuadruplicado.

Una gran parte del éxito de Nvidia es porque la demanda está creciendo rápidamente para sus chips, llamados unidades de procesamiento de gráficos, o GPU, que convierten a las computadoras personales en dispositivos de juego veloces. Pero las GPU también tienen nuevos destinos: notablemente los centros de datos donde los programas de inteligencia artificial (IA) absorben las enormes cantidades de poder computacional que generan.

Las ventas crecientes de estos chips son el signo más claro hasta el momento de un giro trascendental en la tecnología de la información (TI). La arquitectura de la computación se está fragmentando debido a la desaceleración de la Ley de Moore, que hasta recientemente garantizaba que el poder de la computación se duplicaría aproximadamente cada dos años, y debido al rápido ascenso de la computación de nube y la IA. Las implicaciones para la industria de los semiconductores y para Intel, su compañía dominante, son profundas.

Las cosas eran claras cuando la Ley de Moore, llamada así por Gordon Moore, fundador de Intel, seguía aplicando cabalmente. Ya fuera en las PC o en los servidores (computadoras muy poderosas en los centros de datos), un tipo de microprocesador, conocido como "unidad de procesamiento central" (o CPU, por su sigla en inglés), podía manejar la mayor parte de las "cargas de trabajo", como se llama a las clases de tareas computacionales. Como Intel producía las CPU más poderosas, llegó a dominar no solo el mercado de los procesadores para PC (tiene una participación de mercado de alrededor de 80 por ciento), sino el de los servidores, donde tiene un monopolio casi total. En el 2016 tuvo ingresos de casi 60.000 millones de dólares.

Este mundo unipolar está empezando a desmoronarse. Los procesadores ya no están mejorando con la suficiente rapidez para poder manejar, por ejemplo, el aprendizaje de máquinas y otras aplicaciones de la IA, que requieren enormes cantidades de datos y por tanto consumen más poder de análisis de cifras que todos los centros de datos apenas hace unos años. Los clientes de Intel, como Google y Microsoft junto con otros operadores de grandes centros de datos, están optando por procesadores cada vez más especializados de otras empresas y están diseñando los suyos además.

Las GPU de Nvidia son un ejemplo. Fueron creadas para llevar a cabo los cálculos enormes y complejos requeridos por los videojuegos interactivos. Las GPU tienen cientos de "núcleos" especializados (los "cerebros" de un procesador), todos los cuales funcionan paralelamente, mientras que las CPU tienen solo unos cuantos poderosos que abordan las tareas computacionales de manera secuencial. Los procesadores más recientes de Nvidia se jactan de contar con 3.584 núcleos; las CPU de servidor de Intel tienen un máximo de 28.

Y las GPU son solo un tipo de "acelerador", como se conoce a esos procesadores especializados. La gama está ampliándose conforme las empresas de computación de nube mezclan y enlazan chips para hacer sus operaciones más eficientes y permanecer por delante de la competencia. "Encontrar la herramienta correcta para el trabajo correcto", es como Urs Hölzle, a cargo de la infraestructura técnica en Google, describe a equilibrar los factores de flexibilidad, velocidad y costo.

En un extremo de la gama están los ASIC, sigla en inglés de "circuitos integrados para aplicación específica". Como sugiere el término, están programados para un propósito y son los más rápidos en el menú así como los más eficientes en el uso de la energía. Docenas de empresas emergentes están desarrollando esos chips con algoritmos de IA ya incorporados. Google ha creado un ASIC llamado "Unidad de Procesamiento Tensor" para el reconocimiento de voz.

El otro extremo son las matrices de puerta programables por campo (o FPGA, por su sigla en inglés). Estas pueden ser programadas, lo que significa mayor flexibilidad, y esa es la razón por la cual, aun cuando son difíciles de manejar, Microsoft las añadió a muchos de sus servidores, por ejemplo los que están detrás de Bing, su servicio de búsquedas en línea. "Ahora tenemos más FPGA que cualquier otra organización en el mundo", dice Mark Russinovich, director de tecnología en Azure, la nube de computación de la empresa.

HORA DE SER PARANOICOS

En vez de producir ASIC o FPGA, Intel se enfocó en los últimos años en hacer a sus procesadores CPU aún más poderosos. Nadie espera que los procesadores convencionales pierdan su trabajo pronto: todos los servidores los necesitan y se han programado incontables aplicaciones para correr en ellos. Las ventas de Intel de chips siguen aumentando. Sin embargo, el veloz ascenso de los aceleradores parece ser una mala noticia para la compañía, dice Alan Priestley de Gartner, una consultora de TI. Entre más computación se hace a través de ellos, menos se trabaja en las CPU.

Una respuesta es ponerse al corriente haciendo adquisiciones. En el 2015, Intel compró Altera, un fabricante de FPGA, por la asombrosa cantidad de 16.700 millones de dólares. En agosto, pagó más de 400 millones de dólares por Nervana, una empresa emergente de tres años de antigüedad que está desarrollando sistemas de IA especializados que van de software a chips. La empresa dice que ve a los procesadores especializados como una oportunidad, no una amenaza. Nuevas cargas de trabajo de computación a menudo han empezado siendo manejadas en procesadores especializados, explica Diane Bryant, quien dirige la operación de centros de datos de Intel, solo para ser "incorporados al CPU" posteriormente.

Si ocurre esa integración, Intel ya ha invertido para tomar ventaja. En el verano, empezará a vender un nuevo procesador, llamado en código Knights Mill, para competir con Nvidia. Intel también está trabajando en otro chip, Knights Crest, que vendrá con tecnología de Nervana. En cierto momento, se espera que Intel combine sus CPU con los FPGA de Altera.

De manera predecible, los competidores ven el futuro de manera diferente. Nvidia estima que ya ha establecido su propia plataforma de computación. Muchas empresas han programado aplicaciones de IA que corren en sus chips, y ha creado la infraestructura de software para otros tipos de programas, los cuales, por ejemplo, permiten visualizaciones y la realidad virtual. Un gigante de la computación de décadas de antigüedad, IBM, también está tratando de dificultarle la vida a Intel. Tomando una página del software de fuente abierta, la empresa "abrió" en el 2013 su arquitectura de procesadores, a la cual llamó Power, convirtiéndola en una especie de semiconductor de uso compartido. Los fabricantes de chips especializados pueden combinar más fácilmente sus equipos con las CPU Power, y tienen una voz en la forma en que se desarrolla la plataforma.

Mucho dependerá de cómo se desarrolle la IA, dice Matthew Eastwood de IDC, un investigador de mercado. Si resulta no ser la revolución que muchas personas esperan, y guía el cambio por solo unos cuantos años, las posibilidades de Intel son buenas, dice. Pero si la IA continúa sacudiendo a la industria por una década o más, otros tipos de procesadores tendrán más probabilidad de establecerse. Dado lo ampliamente que pueden aplicarse las técnicas de la IA, lo segundo parece más probable. Ciertamente, ha terminado la era de las grandes y enormes CPU que manejan todas las cargas de trabajo, no importa cuán grandes o complejas. Sufrió, un poco como Humpty Dumpty, una gran caída. Y todos los caballos de Intel y todos los hombres de Intel no pueden recomponerla.

Dejanos tu comentario