El hardware de IA fotónica de Lightmatter está listo para brillar con una nueva financiación de 154 millones de dólares

Lanzamiento de cálculos fotónicos materia ligera está teniendo un gran impacto en el mercado de computación de IA de rápido crecimiento con una combinación de hardware y software que, según dice, ayudará a la industria a pasar al siguiente nivel y ahorrar mucha electricidad.

Los chips de materia ligera básicamente usan flujo óptico para resolver procesos computacionales como el producto vectorial de matriz. Esta matemática está en el centro de gran parte del trabajo de IA y actualmente la realizan GPU y TPU especializadas en IA, pero usan puertas y transistores de silicio tradicionales.

El problema con ellos es que nos estamos acercando a los límites de densidad y por lo tanto de velocidad para una potencia o tamaño determinado. Todavía se están logrando avances, pero a un gran costo y superando los límites de la física clásica. Las supercomputadoras que hacen posibles los modelos de entrenamiento como GPT-4 son enormes, consumen enormes cantidades de energía y producen una gran cantidad de calor residual.

“Las empresas más grandes del mundo enfrentan la barrera energética y enfrentan enormes desafíos relacionados con la escalabilidad de la inteligencia artificial. Los chips tradicionales están superando los límites de las capacidades de enfriamiento y los centros de datos generan un consumo de energía cada vez mayor. El desarrollo de la inteligencia artificial se ralentizará significativamente si no implementamos una nueva solución en los centros de datos”, dijo el CEO y fundador de Lightmatter, Nick Harris.

Algunos predijeron que entrenar un modelo de lenguaje grande podría consumir más energía que la que usan 100 hogares estadounidenses en un año. Además, se estima que para finales de la década, entre el 10 y el 20 % de la potencia total del mundo se dedicará al razonamiento de la IA, a menos que se creen nuevos paradigmas informáticos”.

La materia ligera, por supuesto, va a ser uno de estos nuevos paradigmas. Su enfoque es, al menos potencialmente, más rápido y más eficiente, utilizando conjuntos de guías de ondas ópticas microscópicas para hacer que la luz realice operaciones lógicas simplemente al pasar a través de ella: una especie de híbrido analógico/digital. Dado que las guías de ondas son pasivas, el principal consumo de energía es crear la luz en sí, luego leer y manejar la salida.

Uno de los aspectos realmente interesantes de esta forma de computación óptica es que puedes aumentar la potencia del chip usando más de un color a la vez. El azul hace una cosa mientras que el rojo hace otra, aunque en la práctica parece que 800 nanómetros hacen una y 820 nanómetros hacen la otra. Por supuesto, no es trivial, pero estos “chips virtuales” pueden aumentar significativamente la cantidad de cómputo realizado en la matriz. Doble color, doble potencia.

Harris fundó la empresa basándose en cálculos ópticos que él y su equipo hicieron en el MIT (que les otorga las licencias de las patentes correspondientes) y negoció con éxito una ronda inicial de 11 millones de dólares en 2018. Un inversionista dijo en ese momento que “no es un proyecto científico”, pero Harris admitió en 2021 que, si bien sabían “en principio” que la tecnología debería funcionar, había mucho que hacer para que funcionara. Afortunadamente, me dijo esto en el contexto de los inversores que depositaron otros $ 80 millones en la empresa.

Ahora, Lightmatter ha recaudado una ronda C de $ 154 millones y se está preparando para su debut real. Tiene varios pilotos de pila completa de Envise (hardware), Passage (conectividad a Internet, fundamental para grandes operaciones informáticas) e Idiom, una plataforma de software que, según Harris, debería permitir que los desarrolladores de aprendizaje automático la adopten rápidamente.

Lightmatter Envise unidad en cautiverio. Créditos de la imagen: materia ligera

“Construimos una pila de software que se integra a la perfección con PyTorch y TensorFlow. El flujo de trabajo para los desarrolladores de aprendizaje automático es el mismo: tomamos redes neuronales integradas en estas aplicaciones estándar de la industria e importamos nuestras bibliotecas para que todo el código funcione en Envise”, explicó.

La compañía se negó a hacer afirmaciones específicas sobre la aceleración o las mejoras en el rendimiento, y dado que es una arquitectura y un método de cálculo diferentes, es difícil hacer comparaciones entre manzanas. Pero definitivamente estamos hablando de un orden de magnitud, no de un mísero 10% o 15%. La interconexión se mejora de manera similar, ya que no tiene sentido aislar este nivel de procesamiento en una sola placa.

Por supuesto, este no es un chip de propósito general que pueda usar en una computadora portátil; es muy específico para esta tarea. Pero es la falta de especificidad de las tareas a esta escala lo que parece estar frenando el desarrollo de la IA, aunque “contención” es un término incorrecto porque se mueve a gran velocidad. Pero este desarrollo es extremadamente costoso y engorroso.

Los pilotos están en versión beta con la producción en masa prevista para 2024, momento en el que probablemente deberían tener suficiente retroalimentación y madurez para implementarse en los centros de datos.

La financiación de esta ronda provino de SIP Global, Fidelity Management & Research Company, Viking Global Investors, GV, HPE Pathfinder e inversores existentes.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *