Cliente: Dell
Formato: Whitepaper
Tamaño: 362 KB
Idioma: Español
Fecha: 18.11.2024

Maximización del ROI de la IA: la inferencia en las instalaciones con Dell Technologies puede ser un 75 % más rentable que la nube pública

Enterprise Strategy Group de TechTarget modeló y comparó los costos esperados de la inferencia de LLM (modelos de lenguaje de gran tamaño) en la infraestructura de Dell Technologies en las instalaciones en comparación con el uso de una IaaS (infraestructura como servicio) de nube pública nativa o el servicio de modelo LLM GPT-4 Turbo de OpenAI a través de una API. 

Descubrimos que Dell Technologies podía brindar inferencia de LLM en las instalaciones hasta un 75 % más rentable que la nube pública nativa y hasta un 88 % más rentable que los servicios de API. 


Descarga gratuita
Introduce tus datos de contacto y haz clic en el botón de descarga. Recibirás un correo electrónico con tu enlace de descarga.
By clicking the button below, you consent to B2B Media Group GmbH with its affiliated companies and Dell processing and storing your data for marketing purposes, in particular for marketing-related contact by e-mail and telephone.

You can revoke your consent at any time by sending an e-mail to unsubscribe@b2bmg.com (subject: Dell). Further information can be found in the Privacy Notice.

Privacy / download conditions:

Date: 1.8.2018

Client

  • B2B Media Group GmbH, Bahnhofstraße 5, 91245 Simmelsdorf (B2B MG)

Partner

  • Dell
Los campos marcados con * son obligatorios