Los intercambios con la inteligencia artificial generan gastos locos para OpenAI, aunque el dueño, Sam Altman dice que son costos “bien gastados”.
ESTADOS UNIDOS.- Ser amable con la inteligencia artificial puede salir caro. Así lo reveló Sam Altman, CEO de OpenAI, al responder en la red social X (antes Twitter) a un usuario que se preguntó cuánto cuesta que la gente escriba “por favor” y “gracias” cuando interactúa con ChatGPT. La respuesta sorprendió: esas muestras de cortesía representan decenas de millones de dólares en gastos operativos.
“Decenas de millones de dólares bien gastados”, escribió Altman e informó Dexerto. “Nunca se sabe”, agregó, dando a entender que, para él, vale la pena asumir ese costo adicional si los usuarios siguen siendo amables.
El comentario generó una ola de reacciones en redes. Algunos usuarios propusieron soluciones como que el propio navegador responda “de nada” automáticamente desde el lado del cliente. Otros ironizaron: “Si realmente quisieran ahorrar electricidad, dejarían de terminar cada respuesta con una pregunta”.
Los datos sobre el consumo energético de ChatGPT contextualizan la afirmación de Altman. Un informe de Goldman Sachs señala que cada consulta a ChatGPT-4 consume unos 2,9 watt-hora de electricidad, unas diez veces más que una búsqueda promedio en Google. Con más de mil millones de consultas al día, OpenAI consume unos 2,9 millones de kilowatt-hora diarios.
El uso del modelo también se disparó recientemente, sobre todo con la viralización de imágenes generadas al estilo del Studio Ghibli. Según estimaciones recientes, la plataforma superó los 150 millones de usuarios activos semanales, el mayor pico en lo que va del año.
En paralelo, OpenAI lanzó esta semana dos nuevos modelos de razonamiento para competir con empresas como Google, Meta, Anthropic o xAI. Uno de ellos, o3, logró un rendimiento del 69,1 % en el test SWE-bench verified, que evalúa habilidades de programación. El modelo más ligero, o4-mini, obtuvo un 68,1 %, lo que también representa un rendimiento de vanguardia.
Aunque parezca anecdótico, decir “gracias” a ChatGPT no es gratuito, al menos no para la compañía que lo desarrolla. Pero, al parecer, para Altman el costo vale la pena si contribuye a que la relación entre humanos e inteligencia artificial siga siendo, además de útil, educada.