客戶: Dell
格式: 白皮書
尺寸: 361 KB
語言: Português
日期: 18.11.2024

Maximizando o ROI da IA: a inferência no local com a Dell Technologies pode ser 75% mais econômica DO QUE na nuvem pública

o Enterprise Strategy Group da TechTarget modelou e comparou os custos esperados para inferir modelos de linguagem de grande escala (LLMs) na infraestrutura local da Dell Technologies, em vez de usar a infraestrutura em nuvem pública nativa como serviço (IaaS) ou o serviço de modelos LLM do OpenAI GPT-4 Turbo por meio de uma API. Nós constatamos que a Dell Technologies pode oferecer inferência de LLMs no local com até 75% mais economia que a nuvem pública nativa e até 88% mais economia que com serviços de API. 


免費下載
請輸入您的聯絡資料並點擊下載按鈕。您將收到一封包含下載連結的電子郵件。
By clicking the button below, you consent to B2B Media Group GmbH with its affiliated companies and Dell processing and storing your data for marketing purposes, in particular for marketing-related contact by e-mail and telephone.

You can revoke your consent at any time by sending an e-mail to unsubscribe@b2bmg.com (subject: Dell). Further information can be found in the Privacy Notice.

Privacy / download conditions:

Date: 1.8.2018

Client

  • B2B Media Group GmbH, Bahnhofstraße 5, 91245 Simmelsdorf (B2B MG)

Partner

  • Dell
標有 * 的項為必填項