ChatGPT ha marcado un antes y un después en la historia de la IA al ofrecer un sistema de aprendizaje automático que no deja de asombrarnos. Incluso es capaz de crear juegos para que pases un rato divertido.
Pero claro ejecutar modelos de aprendizaje automático a gran escala no es algo precisamente barato. Principalmente por los recursos computacionales que son necesarios para poder entrenar y mantener una IA de la talla de ChatGPT.
En función de la complejidad de su código y los datos almacenados, el coste es mayor, aunque está claro que ChatGPT es un modelo de IA que está arrasando, aunque mantenerlo es muy caro.
Esto es lo que cuesta ChatGPT
Según los cálculos realizados, y que han recogido desde Gizmochina, la IA de Open AI tiene un coste diario de 700.000 dólares. Sí, una cifra impresionante pero que podría ser incluso mayor en el caso de GPT-4, su modelo de lenguaje más avanzado. Unas cifras mareantes y que dejan claro que es un proyecto con recorrido, pero al que hay que invertir ingentes cantidades de recursos.
Todo este coste viene derivado de la gran potencia informática requerida, los servidores necesarios para que puedan acceder a toda la información y que permitan que ChatGPT haga todo tipo de cosas, desde redactar una carta, pasando por juegos, planes de estudio…
Hay qu tener en cuenta que el costo del aprendizaje de esta IA fue muy inferior al precio que tiene su mantenimiento actual. Aunque hay que tener en cuenta que los dueños de ChatGPT han creado un producto muy rentable.
Para empezar, las empresas llevan años pagando por los servicios de lenguaje de OpenAI, y así es cómo financiaron la compra de servidores de Amazon AWS, que rondaron los 200.000 dólares.
Pero sigue siendo un coste muy alto los 700.000 dólares de ChatGPT. Aunque parece que muy pronto tendremos la solución gracias a microsoft. Principalmente porque el gigante con sede en Redmond está trabajando en un chip de inteligencia artificial con el nombre en código Athena, y que trabaja de una forma diferente ya que está siendo desarrollado de forma específica para inteligencias artificiales.
Si lo consigue, el coste de mantenimiento se reducirá notablemente, aunque Microsoft y OpenAI lanzarán el chip solo para uso interno a partir del próximo año, por lo que queda mucho camino por delante.
La IA ha llegado para quedarse, y cada vez veremos más modelos parecidos a ChatGPT o Bard. Así que ahora, el nuevo reto de las empresas es reducir al máximo su coste de mantenimiento.