【小哈划重点:亚马逊人工智能模型的内部代号为“Olympus”,该模型拥有2万亿个参数,这一规模可能会让它成为当前世界上正在接受训练的最大模型之一。】
北京时间11月8日晚间消息,知情人士透露,亚马逊将投资数百万美元训练大型语言模型(LLM),希望它能与OpenAI和Alphabet的顶级人工模型相媲美。
消息人士称,亚马逊人工智能模型的内部代号为“Olympus”,该模型拥有2万亿个参数,这一规模可能会让它成为当前世界上正在接受训练的最大模型之一。OpenAI的GPT-4是目前全球最好的模型之一,据传该模型有1万亿个参数。
亚马逊拒绝对此消息发表评论。
该团队由Alexa前负责人Rohit Prasad领导,他现在直接向首席执行官安迪·贾西(Andy Jassy)汇报工作。作为亚马逊人工通用智能(AGI)的首席科学家,Prasad引入了一直从事Alexa AI研究的研究人员和亚马逊科学团队来研究训练模型,用专门的资源将整个公司的AI工作整合在一起。
截至目前,亚马逊已经训练出了泰坦(Titan)等规模较小的模型。该公司还与Anthropic和AI21 Labs等人工智能模型初创公司达成了合作,向亚马逊网络服务(AWS)用户提供这些模型。
熟悉内情的人士说,亚马逊认为,拥有自主开发的人工智能模型可以使其在AWS上的产品更具吸引力,因为企业客户希望在AWS上获得性能最佳的模型。这些消息人士还补充说,目前亚马逊还没有制定发布新模型的具体时间表。
LLM是人工智能工具的基础技术,这些工具可从海量数据集中学习,生成类似人类的反应。
考虑到所需的计算能力,训练更大的人工智能模型成本更高。在4月份的财报电话会议上,亚马逊高管表示,公司将增加对LLM和生成式人工智能的投资,同时削减零售业务的交付和运输规模。