Client: Dell
Format: Whitepaper
Size: 361 KB
Language: Português
Date: 18.11.2024

Maximizando o ROI da IA: a inferência no local com a Dell Technologies pode ser 75% mais econômica DO QUE na nuvem pública

o Enterprise Strategy Group da TechTarget modelou e comparou os custos esperados para inferir modelos de linguagem de grande escala (LLMs) na infraestrutura local da Dell Technologies, em vez de usar a infraestrutura em nuvem pública nativa como serviço (IaaS) ou o serviço de modelos LLM do OpenAI GPT-4 Turbo por meio de uma API. Nós constatamos que a Dell Technologies pode oferecer inferência de LLMs no local com até 75% mais economia que a nuvem pública nativa e até 88% mais economia que com serviços de API. 


Free Download
Please enter your contact information and click the download button. You will receive an email with your download link.
By clicking the button below, you consent to B2B Media Group GmbH with its affiliated companies and Dell processing and storing your data for marketing purposes, in particular for marketing-related contact by e-mail and telephone.

You can revoke your consent at any time by sending an e-mail to unsubscribe@b2bmg.com (subject: Dell). Further information can be found in the Privacy Notice.

Privacy / download conditions:

Date: 1.8.2018

Client

  • B2B Media Group GmbH, Bahnhofstraße 5, 91245 Simmelsdorf (B2B MG)

Partner

  • Dell
Fields marked with * are mandatory