La fotónica está demostrando ser un hueso duro de roer

[ad_1]

La fotónica está demostrando ser un hueso duro de roer

El creciente poder de cómputo El rendimiento requerido para entrenar modelos de IA sofisticados como ChatGPT de OpenAI podría eventualmente chocar con una pared con las tecnologías de chips convencionales.

En un análisis de 2019, OpenAI descubrió que desde 1959 hasta 2012, la cantidad de energía utilizada para entrenar modelos de IA se duplicó cada dos años y que el consumo de energía comenzó a aumentar siete veces más rápido después de 2012.

Eso es una carga. Según los informes, Microsoft se enfrenta a una escasez interna de hardware de servidor necesario para ejecutar su IA, y la escasez está elevando los precios. CNBC, hablando con analistas y tecnólogos, estima que el costo actual de entrenar un modelo similar a ChatGPT desde cero es de más de $4 millones.

Una solución al dilema de entrenamiento de IA que se ha propuesto son los chips fotónicos que usan luz para enviar señales, en lugar de la electricidad que usan los procesadores tradicionales. En teoría, los chips fotónicos podrían conducir a un mejor rendimiento en el ejercicio, ya que la luz genera menos calor que la electricidad, puede viajar más rápido y es mucho menos susceptible a las fluctuaciones de temperatura y los campos electromagnéticos.

Lightmatter, LightOn, Luminous Computing, Intel y NTT se encuentran entre las empresas que desarrollan tecnologías fotónicas. Pero si bien la tecnología generó mucho revuelo y atrajo muchas inversiones, hace unos años, el sector se ha enfriado notablemente desde entonces.

Hay varias razones para esto, pero el mensaje general de los inversores y analistas que cubren la fotónica es que, si bien los chips fotónicos son prometedores para la IA, no son la panacea que alguna vez se pensó que eran.


[ad_2]

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir