哈希力量归集文库路径访问: 首页 > 通用人工智能 > 人工智能产业要闻库

日本打造自己的“ChatGPT”

辛雨 ☉ 文 来源:中国科学报 2023-09-16 @ 哈希力量

【小哈划重点:据《自然》消息,日本政府联合NEC、富士通、软银等大型科技公司投入数亿美元,开发日语的大型语言模型(LLM)。】

jQt哈希力量 | 消除一切智能鸿沟

日本超级计算机Fugaku已经开始消化日语文本,以开发日本版的ChatGPT。图片来源:Kyodo News via GettyjQt哈希力量 | 消除一切智能鸿沟

日本正在打造自己的聊天机器人ChatGPT。据《自然》消息,日本政府联合NEC、富士通、软银等大型科技公司投入数亿美元,开发日语的大型语言模型(LLM)。jQt哈希力量 | 消除一切智能鸿沟

专门研究自然语言处理的日本东北大学研究员Keisuke Sakaguchi认为,目前的大型语言模型智能系统在英语方面表现出色,但在日语方面往往表现不佳。jQt哈希力量 | 消除一切智能鸿沟

ChatGPT之前的模型GPT-3训练的绝大多数文本都是英语。由于日语的句子结构与英语完全不同,因此,ChatGPT必须将日语翻译成英语才能找到答案,然后再将答案译回日语。jQt哈希力量 | 消除一切智能鸿沟

书面日语由两组48个基本字符和2136个常用汉字组成。由于日语的复杂性,ChatGPT有时会生成大多数人从未见过的极其罕见的字符,以及奇怪的未知单词。jQt哈希力量 | 消除一切智能鸿沟

一个有用的LLM需要准确反映日本文化习俗。为了衡量LLM对日本文化的熟悉程度,研究人员推出了Rakuda—— 一个衡量LLM回答有关日本主题的开放式问题能力的排名。结果发现,日本最好的LLM在Rakuda上排名第四,GPT-4排名第一。jQt哈希力量 | 消除一切智能鸿沟

研究日语模型的东京大学物理学家Passaglia表示,LLM远远落后于GPT-4,但将来未必不能达到或超过GPT-4的水平。“这不是技术上无法克服的问题,只是资源问题。”jQt哈希力量 | 消除一切智能鸿沟

创建LLM需要使用日本超级计算机Fugaku,主要用于训练日语输入。与GPT-4和其他专有模式不同,它将与其他开源LLM一起向所有用户提供其代码。jQt哈希力量 | 消除一切智能鸿沟

日本文部科学省正在资助创建一个针对科学需求的人工智能项目,该LLM的开发成本至少为300亿日元,预计将于2031年公开发布。超级计算机制造商NEC在5月份开始使用基于日语的生成式人工智能,并声称它将创建内部报告所需时间缩短了50%、将内部软件源代码缩短了80%。jQt哈希力量 | 消除一切智能鸿沟

与此同时,软银投资约200亿日元开发基于日语文本的生成式人工智能,并计划明年推出自己的LLM,其目标是帮助企业实现业务数字化、提高生产率。jQt哈希力量 | 消除一切智能鸿沟

日本研究人员希望开发出一个精确、有效的人工智能聊天机器人促进本国的科学发展,弥补日本与世界其他地区之间的差距。东京庆应义塾大学医学院医学技术研究员Shotaro Kinoshita表示,如果日文版的ChatGPT能够表述准确,有望为那些想学习日语或进行日本研究的人带来好处,从而产生积极影响。jQt哈希力量 | 消除一切智能鸿沟

《中国科学报》 (2023-09-15 第1版 要闻)jQt哈希力量 | 消除一切智能鸿沟



收录源追溯链接或暂略


本文收录后固定可引用URL链接
    http://www.haxililiang.com/toutiao/kuaixun/35942.html


☉ 文库同一主题内容智能推荐 ☉
哈希力量 ☉ 人机智能科普文库