解读ChatGPT:在事实性方面偏弱;更偏工程问题,不太存在技术难点
出品 | 搜狐智库
编辑 | 钟昕格
(相关资料图)
近日,对话式大型语言模型ChatGPT在各大中外媒体平台上迅速火爆。短短4天时间,其用户量到达百万级,注册用户之多导致服务器一度爆满。
ChatGPT是美国人工智能研究实验室OpenAI新推出的一种人工智能技术驱动的自然语言处理工具,拥有语言理解和文本生成能力,使得ChatGPT具备上知天文下知地理,还能根据聊天的上下文进行互动的能力,做到与真正人类几乎无异的聊天场景进行交流。
ChatGPT为何会如此火爆?它的神奇之处在哪里?ChatGPT未来发展可能的局限性是什么?搜狐创新产品中心总监王旭与其部门同事从技术角度对ChatGPT进行了分析。
搜狐智库:为什么ChatGPT会如此火爆?从技术角度,ChatGPT的神奇之处是在哪?
王旭:ChatGPT是一个语言生成模型,这次爆火的原因在于其语言生成能力达到了一定高度,整个语言生成能力非常流畅。
原来不管是软件、硬件、互联网,其本身就是工具,如果不预置内容的话,是无法与它进行交流的。例如搜索引擎,不管是谷歌还是百度,人们需要告诉机器想查找的信息,搜索引擎在已处理的所有网上信息进行快速查找。
ChatGPT相当于人第一次和电脑进行沟通交流,它可以产生除了预置之外的相关内容。它的生成方式和人学说话的方式非常类似,ChatGPT看似复杂且高级,但其原理只有一条,就是如何把若干个词变成一句话,例如说天的时候,后面应该跟什么字,它就解决了这一件事。
搜狐智库:ChatGPT在技术层面有没有局限性?
王旭:有,而且是用现在技术难以解决的,ChatGPT虽然沟通很流畅,但是它实际上并不理解你的逻辑。
ChatGPT的本质是对整个语言做建模,但是问题在于,它实际上并不理解人为什么要这样说,我们可能会理解其中的语法、词的含义以及上下文的语境,但ChatGPT不是,它的观测方式就是做统计。
ChatGPT没有任何思维,它甚至都不是一个聊天工具。因为如果作为聊天工具,在问它信息的时候,这些信息至少是准确的,但对ChatGPT来说不是,它的整个模型就是输入进去之后,按照概率判断接下来应该回答什么,ChatGPT只是在建模合理的范围内回答一个答案,但这个答案并不一定是准确的。
你会发现它说话特别通顺,但是这恰巧是它的原理性的东西,它必然会通顺,它就是为了解决通顺这件事。
ChatGPT知道什么话后面应该接什么,但它反而在事实性方面会偏弱一些。
ChatGPT的主要缺陷就是事实性方面偏弱,它基于其原理能够根据你说的话去接话,但实际上它对于话里的事实性内容,是无法保证的。例如问它今天几号,它可能会随便说一个日期,因为它没有从外部去查询信息,没有求证信息的能力。
所以未来不可避免地可能还需要接入一些与规则相关的判断,但只要接入与规则相关的判断,就又会变回模式化的产品,被规则所框定。
但我们在看到新鲜事物时,需要用发展的眼光去看,就像语言对于人类来说,ChatGPT的发展是有突破性意义的。
搜狐智库:这类AI产品,国内的研发进度如何?国内是否已经具备复刻ChatGPT的条件?
王旭:从原理上讲,复刻ChatGPT并不难,但是所产生的效果并不可控,因为基于深度模型技术,无法保证最终结果,只能不断尝试。
在深度学习领域做训练、做拟合的时候,不是一次出一个模型,而是一次出几百个模型,每个模型最开始的数值变量都不一样,在里面挑好的,所以在训练的时候,并不知道这个模型是否能够训练出来。
但是OpenAI这次证明了在算力变大、基础数据变大的时候,这一技术是有线性增长的,其效果随着投入资源变多,效果肯定会越来越好。
搜狐智库:我国有追赶OpenAI的可能性吗?
王旭:从产品效果来说,要做到ChatGPT那种程度,肯定是可以的,但是要看ChatGPT的最大意义是什么,如果觉得它在大语言模型上具有突破性意义,那后面再去追赶,意义并不大,因为你并不是第一个研发出来的。
ChatGPT更偏向学术上的证明,不太存在技术难点,更多是偏工程的问题,如果愿意花资金、花时间,追赶OpenAI并没什么问题。
搜狐智库:未来ChatGPT等AI产品会代替人类思考吗?
王旭:ChatGPT无法替代人类完成思维性的工作,无法决定人类要干什么,所以并不会代替人类思考,只能说会带来一些灵感上的启发,例如写篇文章、提供一些词藻,但它依然是一个效率上的工具。对于ChatGPT,既不要高估它,也不要低估它,要在社会上尽快形成正确的共识。返回搜狐,查看更多