2015年,在加利福尼亚的一家意大利餐厅,霍夫曼会见了马斯克和奥特曼,讨论创立OpenAI。霍夫曼为OpenAI找到微软这个金主,才是霍夫曼为ChatGPT敲边鼓的最大功绩。霍夫曼避免潜在的利益冲突,从OpenAI非营利性董事会辞职,下场亲自做AGI。
动物之间的语言和沟通方式因种类而异,它们可能使用声音、姿势、气味和其他形式的信号来传达信息。与人类语言不同的是,动物语言通常具有更为固定和有限的符号系统,并且其语义和语法结构可能更难以理解和解释。
泛化能力当然是一个问题,但更核心的问题是各行各业都有自己的Know-How。这些最有价值的Know-How很可能不在互联网上,而是在企业的私有数据库里,甚至在一部分专家的脑子里。ChatGPT连信息都没有,自然也不会形成这方面的知识。这也是Bloomberg推出BloombergGPT的意义。
在投资人的观察中,问题之一在于数据孤岛、清洗数据太贵,没有成为降低成本的有效平台。而ChatGPT出来后最大的贡献,就是解决了孤岛问题:用全世界的数据训练一个巨大模型,这个模型还可以迁移学习转换到每一个应用里去。
未来的工厂将由一个男人和一条狗来管理;男人的职责是喂狗,而狗的职责将是防止男人去碰机器。不过,其中一个最需要理解的是,这是因为工厂的老板比较有社会责任。为什么?因为,他知道机器决定公司的绩效,但是他又不能把人开除了。那该怎么办?他让这个人养这条狗。
AI大模型本身不存储数据,它存储的是参数。而参数代表着在算法、模型框架之下,数据之间的关系......在讨论该如何向ChatGPT收学费的同时,出版商或许更加担忧ChatGPT的生成能力可能会威胁到新闻出版集团的主业。这也使得AI在出版集团面前的形象成了——“吃我饭,还砸我碗”。
这一语言模型的技术是1972年就已经有了的。到现在,经过了五十年,现在行业内,其实大家并不觉得它是一个什么了不得的东西。在此以前,这个语言模型其实已经做了很多的事情。
提到语言模型,这个词,最初是由我的导师贾里尼克提出来的。他大概在1993年的时候到了约翰霍普金斯大学。
过去做什么应用都需要海量数据,现在很多基础数据通过预训练模型给你了,那么每家就可以结合自己的专有数据做fine-tuning(精调),做prompting(提示),做这种适应就行了。之前做个公司,最怕数据不够,因为数据散着或者在别的公司那里。
生成式AI终结了文牍主义。办公文书、八股文等固定格式的文本,是机器人最容易掌握,也最容易仿真和替代的。介乎宣传文稿和新闻作品之间的新闻内容,均具有固定格式,类似八股文。某种意义上说,生成式AI将会对新闻报道中文牍主义、形式主义形成冲击,同时也对僵化的官僚主义、科层制管理模式形成冲击。
可以从数学角度来看这个问题。ChatGPT它的目标是什么?是面对提问,每次给出最大概率出现、最自然的解,所以它的运作思路,和人想出新办法的能力是完全相反的。人在这方面的能力,ChatGPT没法替代。培养人的思维能力,让人想出那些创新的,奇奇怪怪的新方法,其实也是非常难的。
2016年人工智能第一次撞开现实之门,所有人都在讨论赢了李世石的AlphaGo,讨论AlphaGo背后的DeepMind......彼时深度学习的技术演进变成CV(计算机视觉)和NLP(自然语言处理)等领域新的场景......此时的追一从单纯的产品技术角度,已经没有太多优势。一个象征性的事情是,滴滴在决定自研智能客服后,在2019年结束了与追
这一次,是聊的模式,即上下文+启发的对话模式。其中上下文是你和机器人一轮一轮的口语化自然语言,是语境语义,它为了学到你理解你懂你,就会按你的说话套路(你的口头语音说话习惯,即是你打的自然语言的字)来跟你聊它的看法,而不算回答,因为问答、回答是考试模式填鸭模式,少了可能性。