哈希力量归集文库路径访问: 首页 > 通用人工智能 > 人工智能产业要闻库

亚马逊据称成立AI模型训练团队 斥资数百万美元

佚名 ☉ 文 来源:新浪科技 2023-11-23 @ 哈希力量

【小哈划重点:亚马逊人工智能模型的内部代号为“Olympus”,该模型拥有2万亿个参数,这一规模可能会让它成为当前世界上正在接受训练的最大模型之一。】

北京时间11月8日晚间消息,知情人士透露,亚马逊将投资数百万美元训练大型语言模型(LLM),希望它能与OpenAI和Alphabet的顶级人工模型相媲美。X0z哈希力量 | 消除一切智能鸿沟

消息人士称,亚马逊人工智能模型的内部代号为“Olympus”,该模型拥有2万亿个参数,这一规模可能会让它成为当前世界上正在接受训练的最大模型之一。OpenAI的GPT-4是目前全球最好的模型之一,据传该模型有1万亿个参数。X0z哈希力量 | 消除一切智能鸿沟

亚马逊拒绝对此消息发表评论。X0z哈希力量 | 消除一切智能鸿沟

该团队由Alexa前负责人Rohit Prasad领导,他现在直接向首席执行官安迪·贾西(Andy Jassy)汇报工作。作为亚马逊人工通用智能(AGI)的首席科学家,Prasad引入了一直从事Alexa AI研究的研究人员和亚马逊科学团队来研究训练模型,用专门的资源将整个公司的AI工作整合在一起。X0z哈希力量 | 消除一切智能鸿沟

截至目前,亚马逊已经训练出了泰坦(Titan)等规模较小的模型。该公司还与Anthropic和AI21 Labs等人工智能模型初创公司达成了合作,向亚马逊网络服务(AWS)用户提供这些模型。X0z哈希力量 | 消除一切智能鸿沟

熟悉内情的人士说,亚马逊认为,拥有自主开发的人工智能模型可以使其在AWS上的产品更具吸引力,因为企业客户希望在AWS上获得性能最佳的模型。这些消息人士还补充说,目前亚马逊还没有制定发布新模型的具体时间表。X0z哈希力量 | 消除一切智能鸿沟

LLM是人工智能工具的基础技术,这些工具可从海量数据集中学习,生成类似人类的反应。X0z哈希力量 | 消除一切智能鸿沟

考虑到所需的计算能力,训练更大的人工智能模型成本更高。在4月份的财报电话会议上,亚马逊高管表示,公司将增加对LLM和生成式人工智能的投资,同时削减零售业务的交付和运输规模。X0z哈希力量 | 消除一切智能鸿沟



收录源追溯链接或暂略


本文收录后固定可引用URL链接
    http://www.haxililiang.com/toutiao/kuaixun/36142.html


☉ 文库同一主题内容智能推荐 ☉
哈希力量 ☉ 人机智能科普文库