2024 年 4 月 19 日,亚马逊云科技宣布,Meta 刚刚发布的两款 Llama 3 基础模型 Llama 3 8B 和 Llama 3 70B 现已在 Amazon SageMaker JumpStart 中提供。这两款模型是一系列经过预训练和微调的生成文本模型,上下文长度为 8k,能够支持广泛的用例,并在推理、代码生成和指令跟随等方面有所改进。客户可以在 Amazon SageMaker JumpStart 中轻松发现、部署 Llama 3 基础模型,并运行推理。
Llama 3 提供两种参数大小的模型—— 8B 和 70B,上下文长度为 8k,能够支持广泛的用例。Llama3 使用了仅含解码器的 Transformer 架构,以及高达 128k 规模的新型分词器,极大提升了模型的性能。此外,Meta 改进的训练后处理程序大幅降低了误拒率,提高了模型响应的一致性和多样性。
Amazon SageMaker JumpStart 提供预训练的模型、内置算法和预构建的解决方案,帮助客户快速开始机器学习项目。Amazon SageMaker JumpStart 能够帮助客户从广泛的公开可用基础模型中进行选择,并将基础模型部署到专用的 SageMaker 实例中,这些实例置于网络隔离的环境,并可以使用 SageMaker 进行模型训练和部署。
客户现在可以在 Amazon SageMaker Studio 中通过几次点击或通过 SageMakerPython SDK 编程方式发现并部署 Llama 3 模型,还可以利用 SageMaker Pipelines、SageMakerDebugger 或容器日志等功能,提升模型性能并实施 MLOps 控制。此外,该方式部署的模型始终处在亚马逊云科技的安全环境下,由客户的 VPC 控制,以确保数据安全。
Meta Llama 3 基础模型现已在 AmazonSageMaker Studio 的美东(北弗吉尼亚州)、美东(俄亥俄州)、美西(俄勒冈州)、欧洲(爱尔兰)和亚太(东京)区域提供部署和推理服务。
登录后才可以发布评论哦
打开小程序可以发布评论哦