Amazon EC2 Inf1 实例和 Amazon Neuron 现在支持 YOLOv5 和 ResNext 深度学习模型以及最新的开源 Hugging Face 转换器。我们还将 Neuron 编译器进行了优化,以提升性能,对于预先训练的BERT 基础模型,您现在可以获得比基于 GPU 的实例高 12 倍的开箱即用吞吐量。这些增强功能使您能够有效地满足高性能推理需求,并以低成本部署一流的深度学习模型。
EC2 Inf1 实例由 Amazon Inferentia 提供支持,后者是一个由亚马逊云科技构建的自定义芯片,用于加快机器学习推理。与当前一代基于 GPU 的 Amazon EC2 实例相比,这些实例将吞吐量提高了高达 2.3 倍并且将每次推理的成本降低了高达 70%。您可以在常用机器学习框架(如 TensorFlow、PyTorch 和 MXNet)上轻松训练您的机器学习模型,并使用 Neuron SDK 将它们部署到 EC2 Inf1实例上。Neuron 已与常用机器学习框架集成,因此,您只需最小的代码更改即可将现有模型部署到 Inf1 实例。这使您可以自由地保持硬件的可移植性,并充分利用最新技术,而无需局限于供应商特定的解决方案。
Inf1 实例已在包括由光环新网(300383)运营的亚马逊云科技中国(北京)区域的全球23 个亚马逊云科技区域推出。
为了帮助您在生产中进一步扩展在Amazon EC2 Inf1 实例上的深度学习应用,我们宣布将按需 (OD) 价格降低 38%,从 2021 年 6 月 1 日起开始生效。
对于想要充分利用预留实例 (RI) 以进一步降低成本的客户,我们将会将 1 年期 RI价格和 3 年期 RI 价格分别降低 38% 和 31%。降价对于通过容器编排服务(如 Amazon ECS 或 EKS)使用 EC2 Inf1 实例的客户来说同样有效。
Amazon EC2 Inf1 实例有 4 种大小可供选择,最高配备 16 个 Inferentia 芯片、96 个 vCPU、192GB 内存、100Gbps 联网带宽和 19Gbps 的 Elastic Block Store (EBS) 带宽。这些实例均可作为按需实例、预留实例或 Spot 实例购买。
关于光环新网
光环新网成立于1999年,是中国领先的数据中心和云计算运营商。光环新网致力于以先进技术、优质资源和高品质服务推动互联网创新发展。公司在京津冀、长三角和华中地区等主要区域自建高品质数据中心,为用户提供高定制化、高可用性、高安全性的数据中心服务。同时,公司也充分利用自身资源,为客户提供包括亚马逊云科技服务在内的云服务一体化解决方案,打造安全、高效、便捷、可信赖的企业级IDC和云服务。光环新网积极联合产业合作伙伴,推动国内互联网基础设施和云计算平台快速发展。