最强大聊天机器人ChatGPT上线AI又来抢饭碗了吗

author
0 minutes, 46 seconds Read

近日,OpenAI发布了新的聊天机器人模型ChatGPT,它可以模拟人类语言行为,与用户自然交互。

在推特上网友晒出的截图中,ChatGPT不仅可以与人顺利交谈,还可以写写代码……创建不受约束的内容不是问题,它几乎可以做所有事情。 由于目前测试是免费的,所以一推出就被游客“围观”。 上线仅5天,用户数突破100万。

12月2日,就连特斯拉首席执行官埃隆·马斯克也在其推特账户上表示,“很多人都陷入了疯狂的ChatGPT循环中?”

聊天机器人_聊天机器人在线聊天_聊天机器人有哪些/

视觉中国地图

正如IBM超级计算机“深蓝”战胜国际象棋世界冠军、谷歌AlphaGo战胜人类冠军棋手、稳定扩散模型刷新AI建图进入“一秒出图”时代……

“人工智能取代人类劳动”、“人工智能打败人类”等话题层出不穷。 ChatGPT的出现让人们更加担心,“AI又来抢饭碗了?”

引爆世界的ChatGPT到底有何玄机? ChatGPT的商业空间有多大?

ChatGPT为何引爆世界?

ChatGPT是人工智能研究实验室OpenAI于11月30日发布的新聊天机器人模型。

OpenAI于2015年由营利性组织OpenAI LP和非营利性组织OpenAI Inc共同创立。OpenAI最初的创始人是马斯克等硅谷大亨。 2018年,马斯克宣布退出OpenAI董事会。 后者解释称,随着特斯拉越来越重视AI,马斯克的退出是为了避免冲突。

在OpenAI的官网上,ChatGPT被描述为一种优化对话的语言模型,是GPT-3.5架构的主要模型。

GPT-3.5架构基于OpenAI于2020年推出的GPT-3架构,第三代生成语言模型。 早在2020年6月,在训练了约2000亿个单词、燃烧了数千万美元之后,史上最强大的AI模型GPT-3一炮而红。 当时,业内人士对其赞不绝口:“它比我尝试过的任何AI语言系统都更加连贯。”

据悉,微软已与OpenAI签署战略合作计划。 GPT 3.5 的所有模型(包括 ChatGPT)都在 Azure AI 超级计算集群上进行训练。

作为聊天机器人,ChatGPT 具有类似产品的一些功能,例如对话功能以及在同一对话中回答上下文后续问题的能力。 然而,之所以能在短时间内轰动全球,是因为在网友晒出的截图中,ChatGPT不仅可以流畅地与用户对话,甚至可以写诗、写文章、写代码……看来能够胜任一切。

马斯克还在社交媒体上发布了回复,询问 ChatGPT Twitter 是如何设计的。

一位名叫 Zac Denham 的博主甚至要求 ChatGPT 写一份毁灭人类的计划。 起初,博主的请求被ChatGPT拒绝。 但当它提出一个故事并询问故事中的虚拟人如何接管虚拟世界时,ChatGPT 最终给出了详细的步骤,甚至还生成了详细的 Python 代码。

科技公司 Replit 的创始人 Amjad Masad 也向 ChatGPT 发送了一段 JavaScript 代码,让它发现其中的 bug,并表示:“ChatGPT 可能是一个很好的调试伙伴。已得到解释。”

凭借如此强大、惊人的语言能力,ChatGPT一时间在网络上掀起了一场“AI风暴”。

“ChatGPT之所以受到广泛关注,主要是因为它确实取得了非常好的效果。例如,你可以用它来进行翻译、纠正错别字、调试(计算机程序纠错)等,它可以与早期的模型如 Bert,无论是训练数据量还是训练任务的复杂度都得到了很大的提高。 瑞莱智能高级产品经理张旭东在接受《每日经济新闻》记者采访时表示。

他进一步指出:“相比之前很多模型给出的‘人工弱智’答案,ChatGPT能够给出令人惊叹的结果。此外,ChatGPT体验过程更加便捷,只需注册一个OpenAI账户就可以体验,而且早期的模式需要应用去体验,所以ChatGPT影响的人范围更广,会有更多的人讨论。”

ChatGPT 取代 Google 搜索?

为什么ChatGPT如此强大? 你可以在OpenAI的官方网站上了解一下。

根据OpenAI的官方文档,与之前的GPT模型相比,OpenAI采用了一种新的训练方法,一种名为“人类反馈强化学习(RLHF)”的训练方法来进行ChatGPT训练。

在训练原始模型时,OpenAI 让人类训练者充当对话双方,提供对话作为学习材料。 当人类充当聊天机器人时,OpenAI 还可以让模型生成建议,帮助培训师做出自己的回应。 也就是说,基于优秀的机器学习算法和强大的计算能力,AI可以通过海量数据训练学会“思考”。

此外,ChatGPT还采用注重道德层面的训练方式,按照预先设计的道德原则对恶意提问和请求“说不”。 一旦发现用户给出的文字提示含有恶意意图,包括但不限于暴力、歧视、犯罪等,将拒绝提供有效答案。

为什么 ChatGPT 可以做其他人工智能聊天机器人做不到的事情?

哈尔滨工业大学计算机系部长级教授、博士生导师车万祥在接受《每日经济新闻》记者采访时表示:“也许(训练)数据是一方面,另一方面,重要的是(ChatGPT)打破了一种思维范式——也就是说,之前的AI是针对某个任务训练一个模型,而ChatGPT这样的模型是针对多个任务的,它试图将多个任务转化为一个问答形式。如果多任务能够转化为这种形式,实际上就消除了任务之间的障碍。”

他认为,打破思维范式后,就有可能给这样的任务贴上标签,或者让大量的数据被人为生成。 “ChatGPT未来可能会充分利用用户的反馈来进一步提高系统的能力。”

他进一步解释道:“原来的AI模型需要大量的训练,或者需要专家才能标注;现在,普通大众也可以标注(ChatGPT),所以数据获取的方式发生了变化,数据量也发生了变化。”增加了,模型的能力就会变得更强,另外,模型参数(ChatGPT)也足够大,可以容纳这些任务,目前的技术已经积累到这里了,只剩下一点(ChatGPT)来爆了”。

从网友们发布的各种问答中我们可以看到,ChatGPT与Google等搜索引擎类似,甚至功能更强大,可以更完美地与用户互动。 有分析指出,搜索引擎是基于搜索问题本身,但有很大的局限性。 当用户无法清楚地描述他们的问题时,搜索引擎就无法与他们交互。

因此,社交媒体上也充斥着这样的说法:ChatGPT可能会颠覆谷歌,掀起搜索引擎的革命。

不过车万祥教授认为,搜索引擎和ChatGPT不存在谁将取代的问题,更有可能是一种互补的关系。 “它们都是获取信息的手段,搜索引擎可能更能帮助用户获取已有的信息,但如果是比较有创意的信息,可能这个大模型会更好地解决,因为它有隐含的,可以呈现很多信息全面。”

“基本上现在做这种大模型的都是大公司,而且也有搜索引擎背景。比如OpenAI背后有微软,谷歌也在做这种大模型。未来,它不排除会采用这两类信息的组合访问方式。”他补充道。

此外,ChatGPT目前并未在线收集信息,其所知的信息截至2021年。基于此,清华大学智能技术与系统实验室副主任、计算机系终身副教授黄敏烈清华大学技术学院教授在接受《每日经济新闻》记者采访时认为,ChatGPT无法取代搜索引擎。 “因为它(ChatGPT)目前只是学习和应用过去的知识,比如它并没有涵盖2022年的信息,而我们经常使用搜索引擎来获取一些即时信息。”

ChatGPT有商业空间吗?

“ChatGPT 有时会写出看似合理但实际上不正确或荒谬的答案。” 这就是 Open AI 认为的 ChatGPT 目前面临的“限制”,解决这个问题被认为具有挑战性。

这背后有三个主要原因。 第一,强化学习的信息源尚未建立; 其次,模型通过学习变得更加谨慎,这将导致它回避本来可以正确回答的问题; 另外,监督学习会误导模型,因为理想的答案应该来自模型的认知,而不是人类演示者的认知。

张旭东告诉《每日经济新闻》记者:“前两天我们问ChatGPT诗人北岛是哪个国家,他信誓旦旦的回答是日本,但通过后台反馈,已经改回来了。”这两天去了中国。”

张旭东认为,目前ChatGPT确实存在一些错误,这也是ChatGPT未来需要改进的地方。 现在,用户还可以通过提交答案反馈来帮助 ChatGPT 变得更加准确。

这一限制在 ChatGPT 模型发布后不久就得到了体现。 全球最大的编程技术问答网站 Stack Overflow 紧急宣布,网站暂时屏蔽 ChatGPT。 Stack Overflow 在官方公告中表示,做出这一规定的主要原因是 ChatGPT 自动生成的答案质量太低,错误太多,而且看起来,即使是完全不懂的人也能看懂。轻松生成答案。

ChatGPT的获取能力是基于一个庞大的语料库,浓缩了多领域问题的大量数据进行相互验证,然后选择一些基础内容进行回答。 能力还差得很远。 它没有思考的能力,所以错误是不可避免的。 这种错误类似于谷歌翻译和维基百科搜索中所犯的错误,但通过人为干预和反馈,这些问题是可以得到改善的。

车万祥认为,这是一个“固有问题”,是整个大规模语言模型在技术上面临的固有问题。 他认为,一个可能的解决方案是ChatGPT标明其给出的答案的来源,尤其是基于事实和知识的答案。

为了解决答案可能存在的偏差,Open AI在其官网表示:“渴望收集用户反馈,以帮助我们正在进行的改进系统的工作。” 可以理解为用户在聊天反馈过程中向ChatGPT给出的答案并进行修正。 不过,车万祥也提醒,在纠正这种形式的偏差时,也要警惕用户的“恶意反馈”。

另外,ChatGPT的局限性可能来自于落地应用的成本,普通企业能否承受,是否愿意承担。 同时,一些搜索引擎本身也存在局限性,比如调用速度慢、可能存在算法霸权等。

延伸到整个语言模型生成领域,黄敏烈认为,生成一些与事实不符的预测,前期的数据过滤和清洗,仍然可能产生算法偏差或者不符合人类价值观、社会伦理的东西和规范。 行业将面临的限制或多或少会影响其实际应用。

除了背诗、编代码、充当搜索引擎插件之外,ChatGPT 的商业化还有想象的空间吗?

黄敏烈看好ChatGPT的应用。 他认为ChatGPT应该被视为一个通用的智能助手,作为一个工具来完成诸如辅助编写创作、检查代码等事情。

“它不仅可以像过去的Siri一样接听电话或发送微信,而且只能完成非常有限的简单任务。现在它可以完成一些更复杂、更高级、更认知的任务,比如“写一封电子邮件。写情书,写一首歌,写一篇文章,甚至能够回答非常复杂的问题,比如我应该买什么样的股票来炒股。” 黄敏烈认为,这是对过去某些能力的极大延伸和替代。

车万祥教授指出,这是一个需要“想象力”的问题。 作为搜索引擎的补充,只是其可能的应用前景之一。 而如果ChatGPT被视为通用人工智能,它可以应用于各行各业,比如智能教育,它可以成为一个很好的AI助教; 智能财务,可智能分析年报; 甚至智能医疗,也可以用来代替医生做一些琐碎的工作。 “只要AI能够在行业中发挥作用,它(ChatGPT)至少可以进一步提高当前的系统能力,这确实是一个很大的应用前景。”

在前景成为现实之前,通用人工智能如何确保结果可信可靠成为关键问题。

大型AI模型会面临激烈的竞争吗?

ChatGPT的惊艳出现也给AIGC(Artificial Intelligence generated Content,人工智能生成内容)的应用带来了更多希望。 在香港和A股市场,不少相关上市公司纷纷响应上涨。

12月7日,美图股价当日涨幅高达45.83%,创近一年来新高。 截至收盘,公司涨幅为24.17%。 A股市场上,天语数码股价涨停,中文在线收涨3.89%,视觉中国收涨2.8%,汉王科技12月5日、7日上涨。 每天两个限额。

浙商证券分析认为,ChatGPT模型的出现对于AIGC在文本模式下的应用具有重要意义。 从下游相关有益应用来看,包括但不限于编码机器人、小说衍生品、对话搜索引擎、语言伙伴、语音工作助手、对话虚拟人等; 从上游需求增加来看,包括算力、数据标注、自然语言处理(NLP)等。具体投资标的包括中文在线、腾讯控股、百度集团、阅文集团、蓝色光标、海天瑞声、Torsi等。

黄敏烈向《每日经济新闻》记者指出,ChatGPT是近年来最受欢迎的基于大模型的产品。 那么,这样的“万能智能助手”是否可以复制呢? 黄敏烈的回答是:有可能。

他进一步表示,复制的核心需要比较强大的基础模型+大量优质数据+专业的数据团队。 目前国内企业也在做类似的研发。 中国互动人工智能平台“灵心智能”本月推出图灵世界首款产品“AI乌托邦”。 该系统允许用户快速定制AI角色。 通过简单的角色描述,你就可以召唤出对应性格的AI并与其进行深入的对话和聊天。

AIGC相关产品持续火爆的背后,是AI大模型的技术应用日趋成熟。 目前,大型模型正在成为人工智能的发展趋势,是各大巨头必须争夺的高地。 自2020年OpenAI推出GPT-3以来,大型AI模型爆发,全球各大公司都开始了大型模型的竞争。 目前,包括OpenAI、谷歌、微软、英伟达、百度、华为、阿里巴巴、浪潮等公司都参与其中。

据介绍,2020年至2021年,中国大型车型数量将从2款增加到21款,基本与美国持平,并遥遥领先于世界其他国家。 这一时期,中国也出现了以升腾为基础的鹏程、盘古、紫东、太初、五道等千亿甚至万亿的大型模型。

据智谷趋势分析,目前全球约有30个千亿参数的大型模型,其中美国15个,中国10个。 由于大模型对芯片、算力、电力、数据的要求极高,注定是一场只有极少数国家才能参与的游戏。

大AI模型已经进入爆发期,而此次ChatGPT之所以受到业界关注,黄敏烈认为,原因在于大模型本身具有很大的能力,但过去业界正在解决一些单一技能问题,而ChatGPT的诞生表明,基础模型可以衍生出各种可能的应用场景。

一个可以解决各行各业问题的人工智能。 此前,为何行业缺乏这样的尝试? 黄敏烈指出,是因为机会还没有到来。 “大规模模型技术和基础模型的发展只是一两年的事情,同时并不是所有公司都能做到这一点。首先,它需要有底层模型和算法能力的人,其次,需要有大规模的数据,最终需要资金,必须找到好的技术路径。”

“我们中国的研究人员和企业必须思考这些问题:我们能做出我们自己的基座模型吗?我们能做出我们自己的GPT吗?” 黄敏烈并不认为我们的技术有很大差距,差距更多在于大家对这件事的态度。

他补充道,像OpenAI一样,他们很长时间以来都非常认真地做这件事,从提取数据到新模型,最后提供API给大家,然后清洗数据并迭代模型。 他们的道路非常坚实。 我们有些公司可能做了一个模型,然后开源,然后什么也没有发生。 也有一些公司想做业务闭环,但确实烧钱,需要资本支持。

记者手记:通用人工智能到来之前,信任问题需要解决

通用人工智能被视为人工智能研究的长期目标。 此次ChatGPT的出现,被一些人视为迈向通用人工智能的重要一步。 从背诗到写代码、查代码,ChatGPT展示了人工智能从过去只能解决单一领域问题的AI工具向多领域问题的转变。

正如车万祥教授认为,它在一定程度上打破了“思想的束缚”。 沿着这个方向,通用人工智能工具或许确实离我们更近了一步。

但在此之前,信任度低是“ChatGPT”急需解决的问题。 瑞莱智慧高级产品经理张旭东在接受采访时指出,以ChatGPT为例,其负面风险更多在于该技术被恶意利用,比如被用来生成假新闻、故意伪造新闻和舆论,对内容生态治理造成严重破坏。 影响。 此外,在一些创意领域,这项技术还成为了“作弊工具”,造成了一定程度的不公平。 这些风险更多源于使用技术本身的目标,技术使用的边界不受控制。

负面风险的存在也可能会加剧人们在使用它作为工具时的不信任,从而影响其未来的商业应用。 这也将是所有使用的AIGC(人工智能生成内容)产品面临的共同问题。 随着通用人工智能的出现变得越来越可能,如何摆脱不可信、不可靠的问题也迫切需要业界回答。

每日经济新闻

Similar Posts