español>>Ciencia-Tecnología

Universidad de Tsinghua logra un gran avance en la computación fotónica

Por DIARIO DEL PUEBLO digital | el 09 de agosto de 2024 | 14:03

(Ilustración: VCG)

Científicos de la Universidad de Tsinghua han presentado un método pionero para la computación fotónica que podría mejorar significativamente los procesos de entrenamiento de las redes neuronales ópticas. Este avance, junto con el lanzamiento del chip basado en luz Taichi-II, está preparado para ofrecer una alternativa más eficiente energéticamente y más rápida para entrenar modelos de lenguaje grandes.

Los investigadores chinos Lu Fang y Dai Qionghai, junto con su equipo, publicaron en la revista Nature un artículo titulado "Entrenamiento de modo completamente adelante (FFM) para redes neuronales ópticas", que destaca el potencial para avanzar en los campos aplicados y teóricos, incluidas las redes neuronales profundas, la percepción ultrasensible y la fotónica topológica.

El estándar actual para entrenar modelos de IA, en gran medida se basa en la emulación digital de computadoras, que está limitada por sus altas demandas de energía y su dependencia del hardware de la GPU. De acuerdo al equipo de investigación, el método de aprendizaje FFM, desarrollado por Tsinghua, permite que estos procesos de entrenamiento intensivos en computadora se lleven a cabo directamente en el sistema físico, lo que reduce significativamente las limitaciones del modelado numérico.

Si bien la computación fotónica ha ofrecido una alta potencia computacional con un menor consumo de energía en comparación con los métodos convencionales, se ha restringido a cálculos preliminares. Los cálculos precisos y complejos necesarios para el entrenamiento avanzado de la IA han seguido dependiendo en gran medida de las GPU, explicó Liu Gang, economista jefe del Instituto Chino de Estrategias de Desarrollo de IA de Nueva Generación.

La nueva tecnología desarrollada por el equipo de Tsinghua promete superar estas limitaciones, eliminando potencialmente la necesidad de un uso extensivo de la GPU y conduciendo a un entrenamiento más eficiente y preciso de los modelos de IA, agregó Liu.

El chip Taichi de primera generación, también desarrollado por la Universidad de Tsinghua y lanzado en abril, apareció en la revista Nature. Este chip utiliza circuitos integrados fotónicos, que procesan datos utilizando luz en lugar de señales eléctricas, lo que permite una transmisión de datos ultrarrápida y reduce significativamente el consumo de energía.

En comparación con su predecesor, el chip Taichi-II ha sido diseñado específicamente para realizar entrenamiento in situ de redes neuronales a gran escala utilizando luz, llenando un vacío crítico en la computación fotónica. Se espera que esta innovación acelere el entrenamiento de modelos de IA y sobresalga en áreas como la obtención de imágenes inteligentes de alto rendimiento y el análisis eficiente de sistemas fotónicos topológicos.

El consumo de energía en la industria de la IA sigue siendo un desafío importante. Según Rystad Energy, una institución de investigación con sede en Noruega, se prevé que la expansión combinada de los centros de datos tradicionales y de IA, junto con las fundiciones de chips en EE. UU., aumente la demanda de energía en 177 teravatios-hora (TWh) de 2023 a 2030, alcanzando un total de 307 TWh. En comparación, la Administración de Información Energética de EE.UU. informó de que en 2023 se generaron 4.178 TWh de electricidad en instalaciones a gran escala en todo ese país.

(Web editor: 周雨, Rosa Liu)