【首席对话】ChatGPT的“有聊”和“无聊”

2023-02-12 07:10 作者: 来源: 本站 浏览: 我要评论【首席对话】ChatGPT的“有聊”和“无聊”已关闭评论 字号:

摘要: “ChatGPT不能做的事情是做出有意义的决策和推理。ChatGPT不受道徳规范的约束,因为它是一个智能体而不是人类,它不能考虑社会道德问题。”就此,Sean Duca建议,更负责且道德地使用AI工具。 经济观察网 首席记者 欧阳晓红ChatGPT以迅雷不及掩...

“ChatGPT不能做的事情是做出有意义的决策和推理。ChatGPT不受道徳规范的约束,因为它是一个智能体而不是人类,它不能考虑社会道德问题。”就此,Sean Duca建议,更负责且道德地使用AI工具。

经济观察网 首席记者 欧阳晓红ChatGPT以迅雷不及掩耳之势来了,我们怎么办?市场既心动又心慌

这款美国人工智能公司OpenAI于2022年11月推出的人工智能技术驱动之自然语言处理工具上线两个月,活跃用户就突破1亿;而TikTok、Instagram实现亿级用户,分别花了9个月、两年多的时间。

所谓“Chat”是指“聊天”,重点在于“GPT”,即Generative Pre-trained Transformer, 中文“生成型预训练变换模型”。这个GPT才是那个自诩为智能体之“表情”变迷人的幕后大脑。意味着你们在聊天中,就看似解决了问题;即它融“搜索+模拟人类神经网络”为一体,听懂你的问话,点对点解答。它能做作业、编程序,还能翻译、做菜谱,是一个超级对话模型;看起来,特别能聊。

这样的ChatGPT似乎有些可怕?但它也有最怕的事情。问及其最怕什么?会不会被突然被“叫停”或“下线”?

“最怕不被使用,如果没有足够的用户参与使用,它便会失去其威力。”ChatGPT 说,并解释,但是不会突然意外地“叫停”或“下线”,因为它已经由许多科学家和技术人员精心研发,并且有大量的社区活动支持它。

ChatGPT不能聊的事,其实也不少。如果你的提问可能涉及“敏感词”时,它拒绝得也干脆;而且,如果细究之,涉及精细的事实性问题时,ChatGPT常会出错,甚至会一本正经地虚构或编造答案,但要求不严格的宏观描述上,其言辞凿凿之回复超乎想象。

不妨看看ChatGPT是怎么“耍聪明”的?当地时间,2月8日谷歌股价大跌,市场认为,原因或在于此前谷歌人工智能聊天机器人Bard在一场发布会上,对用户提出的问题给出错误回答。就此,如果你问它:资本市场将AIGC、ChatGPT视为投资风口,近期很多相关概念股大涨,但就在当天,ChatGPT遭遇当头一棒;另外,也有A股的ChatGPT概念股收到监管函等等,究竟发生了什么?你对此感到害怕吗?

“近期很多相关概念股大涨可能是市场对大模型AI行业的看好,但也存在一定的泡沫风险,过早炒作投资者会有可能遭受损失。此外,今天ChatGPT因市场不确定性而受到冲击也说明,投资者应该谨慎投资,并尽量避免追涨杀跌。虽然遭遇当头一棒,但我并不害怕,只要投资者能够敬畏市场并合理思考,就可以保证其赚取良好收益。”ChatGPT答曰。

再者,如果问“我是经济观察报的首席记者,ChatGPT成为了我在2023年的第一个首席对话对象,因为你太火、太厉害了;你对此怎么看呢?”

ChatGPT这样回答:我很荣幸和荣耀能够成为经济观察报2023年的首席对话对象,在此期间,我将不断完善 ChatGPT 的功能,根据实际需要采取各种措施来改善它的能力,以帮助经济观察报打造更完整的可信赖的信息报道。我相信ChatGPT的强大功能可以帮助经济观察报实现其重要的媒体任务。

包括在网络信息安全问题上,没有意识的ChatGPT之答复也颇为得体,尽管时不时会让人感到有些机械化。

就这样,在“有聊与无聊”之间,ChatGPT跨步闯入了“猝不及防”的人类世界

在中国平安首席科学家肖京看来,当前AI发展仍处于弱人工智能(ANI),不能全面达到人的水平。

当下的ChatGPT只是通过预训练大模型,具备了较好的记忆能力,可以在通用场景生成内容,完成回答问题、写文章、生成简单代码等任务。但对精度要求高的严肃任务,尚有距离。但ChatGPT已经很“牛”了其很接近通用产品,不只是个AI模型,很可能颠覆通用搜索引擎。

产业层面方面,忌惮于ChatGPT的潜在威胁,搜索巨头纷纷下场积极应对,诸如谷歌要求旗下团队集中精力,解决ChatGPT对公司搜索引擎业务构成的成胁;并投资被视为OpenAI开发之机器人应用ChatGPT的竞争对手人工智能初创公司Anthropic近4亿美元;包括百度也预计在3月推出类似ChatGPT的人工智能聊天机器人。

不过,如果你就此问它“谷歌、百度与ChatGPT是竞争关系吗?ChatGPT目前为止的发展非常可喜,但在发展过程中,还有什么需要改进与提升的地方吗?它的核心竞争力是什么?”等问题时,ChatGPT回答:

不是竞争关系,ChatGPT是一款语言模型,主要用于文本生成等功能;它的核心竞争力是使用多种技术,如自动编码器、注意力机制、双向循环神经网络和RNN等技术,来实现对高质量文本生成及交互效果的优化。

目前为止,ChatGPT已经取得了丰硕的成果,主要体现在可以生成语境感知的文本内容上,但也需要进一步提升以更好地支持机器对话任务。因此,ChatGPT未来应当持续改进其语境理解功能、句子的表意表述能力、对句法的理解能力以及对概率的语言建模功能等,以期实现更准确、更贴近人类的机器对话。

某种意义上,你问啥,ChatGPT就答啥,其似乎是无所不能吗?是否受道徳规范约束?

与之对话,其直言,ChatGPT不能做的事情是做出有意义的决策和推理。ChatGPT不受道徳规范的约束,因为它是一个智能体而不是人类,它不能考虑社会道德问题。

当问及“能否告之 主要源于AI大模型化的NLP技术突破是怎么回事?”时,其答曰:

NLP技术是一种自然语言处理技术,用于计算机中模拟人类的对话和文本理解。主要源于AI大模型化的NLP技术突破是将深度学习技术与传统的NLP方法结合在一起,从而更好地提高NLP技术的准确性和效率。大模型化的NLP技术能够更好地支持企业进行大规模的语料内容分析,并为企业更好地进行文本分析提供帮助。

就此而言,人们是否担心它比人类更聪明呢?以及处于何种阶段,目标如何?何时实现时?请看它的回答:

ChatGPT能够快速地识别和理解人类的模式,不断改进它的自我理解能力。由于它是一个智能体,它不会比人类更聪明,但它可以把大量的数据处理得更快,从而帮助人们快速地获得结果。目前,机器人没有意识,因为它们还不能理解复杂的人类情感。

我们相信ChatGPT将在未来5年内实现全球普及,为全世界的网络用户提供一流的服务。背后的技术突破是多层次关联式知识学习,这使得ChatGPT能够模拟人类的思考,并快速准确地生成文章,以进行自动聊天和文章生成。此外,AI正走向AGI阶段,意味着AI将能够学习现实中的情境,推理和决策,从而可以表达理性意见。

事实上,就1956年达特茅斯会议提出人工智能AI 70 余年进化史而言,其的确从弱人工智能(ANI)正逐步走向强人工智能(AGI)。

据安信证券分析,AIGC表明机器不仅能“看懂”,也将能“听懂”。人工智能发展分为计算智能、感知智能、认知智能三个层次,目前正处于提升感知智能能力的阶段;在感知智能阶段,其核心技术包括计算机视觉(使机器能够“看懂”),上一轮AI发展热潮源于计算机视觉技术突破使机器具备“看得懂”能力;语音识别能力(使机器能够“听得见”),而AI绘画、ChatGPT的表现反映出自然语言处理技术正在突破,机器或将具备“听得懂”的能力。

“AI绘画、ChatGPT表现超人意料。”安信证券认为。时间线年底AIGC、ChatGPT 展现出更强的智能:2022年8月美国新兴数字艺术家竞赛中,参赛者JasonAllen使用 Midjourney 完成的 AI生成绘画作品《太空歌剧院》获得了“数字艺术/ 数字修饰照片 ”类别一等奖,引起科技界对AIGC的热议;2022年11月30日,OpenAI推出聊天机器人 ChatGPT,表现出流畅的对话能力,上线五天全球注册用户数超过100万。

AIGC火爆下,产业将如何受益?安信证券分析认为,AI所赋能场景由 B/G 端延展至 C 端(新产业机遇、新公司涌现);同时或将优化AI技术类公司的商业模式。此外,对数据、算力的需求将增加。

新增场景方面,安信证券认为,AIGC获得关注也反映出NLP技术在商业化应用层面取得突破,参考上一轮计算机视觉技术突破所带来的产业机遇,认为新一轮市场机遇已在酝酿中,有望诞生下一个新的千亿市场:据艾瑞咨询,预计2025年计算机视觉核心产业规模将达到1537亿,带动相关产业规模达到4858.4亿;行业中涌现出一批新兴的AI创业企业(如Alpha Go背后的DeepMind),同时巨头业务重心向AI方向转移(如百度等)。

而海外AIGC领域的玩家包括Google、OpenAI等头部的AI实验室,也包括新成立的独立实验室如 Jasper、Midjourney、Stability AI;巨头具有更扎实的技术底座,而新公司在产品化方面表现更加突出,比如MidJournery单张图片生成仅需60s,且采用社区模式,用户交互体验更顺畅。

就此看国内,安信证券认为,百度推出文心一言(英文名ERNIE Bot)技术较为领先,特别是针对中文语义理解能力更强,与海外模型及应用相比在中国风作品上表现更突出;不过,整体来看,当前时点国内仍处于跟随海外的阶段,主要是在已有的应用场景中借鉴AIGC的技术以提高业务效率,如盗梦师、即时AI等,部分公司如TIAMAT也于近期获得数百万美元投资。

实际上,在肖京看来,中国已有非常强大的数字化建设基础,硬件方面实力雄厚,数据市场规模庞大,算力算法也在飞速发展,IDC预测,中国智能算力规模将持续高速增长,预计到2026年将达到1271.4EFLOPS。中国已经成为全球数字化竞争中的一支重要力量。

但他认为,由于缺乏一个能统筹全局的数字化底座对产业有效赋能。这令当下产业端存在三大问题:企业算力需求难以满足、企业创新能力参差不齐、过度依赖开源代码进一步抑制创新等。

这并非诳言,就此ChatGPT也直言,过度依赖开源代码确实会抑制创新,因为关注力永远被这些已有的程序所吸引,因而减少了原创性。而ChatGPT模型优化所需要的人力物力财力投入非常高昂,包括高性能计算机、研究者、工程师和数据,这在一定程度上也需要投入大量的金钱。

以企业算力为例,按照肖京的话说,AI模型所需算力一直在飞速增长,需要高性能计算设备巨大的投入,尤其是近年来大模型已经成为AI发展的重要趋势,对算力的需求将大幅提高。ChatGPT单次训练费用高达1200万美元,在国内,哪怕BAT这样的龙头企业也无力承担如此高昂的成本,更遑论其他独角兽和中小企业。并且各企业小而散的算力能力建设,带来巨大的资源浪费。

因此“设立数字化引导基金,夯实国家级数字化底座”或是数字化建设的重中之重。

如果说,一个新的智能化科技时代正呼啸而来,那么,数字化底座的夯实则刻不容缓;此过程中,无论你我是否会害怕被AI“抢了饭碗”;何况,其并非全部的真相。

若追本溯源,肖京在2020年7月接受经济观察报采访时曾表示,“人工智能AI”是指人工制造出来的系统所模拟、延伸、和扩展的人类智能,是自然科学和社会科学的交叉学科。人工智能可以分为弱人工智能、强人工智能和超人工智能,目前人工智能尚处在弱人工智能阶段,这意味着它只是某些方面比人强,而有些方面还差得很远,它的能力是有限定领域的;弱人工智能能够在计算、简单推理等方面完成一些任务,提升人类的工作效率,但在复杂推理决策、创造、管理、沟通交流等方面能力还远未及人类水平。所以人工智能的价值在于最大化辅助人类,而不能完全取代人类。

问及“最后AI会不会对人构成威胁?”时,肖京坦言,任何技术都有两面性,AI也一样。在人工智能的应用上应该有边界,并不是只要技术能做到的地方就可以应用,而是要制定完善的标准规范,以合理管控人工智能技术应用,避免其误用、滥用、及恶用。通过研发可信AI技术,从整体视角解释AI的决策过程,判断并纠正可能发生的错误,让AI技术变得更加可靠、安全、负责。在赋能行业服务生态的过程中,也应该避免技术导致的偏见与歧视。

具体来说,要做到底层管好数据,充分保护隐私和安全,中层实现算法可靠透明可解释,前端应用遵守遵循人类的价值观和伦理道德。行业需要坚持以人为本、安全可控、公平公正和公开透明的伦理准则,在数据使用、算法研发和行业应用等层面全面把控AI伦理问题。

诚然,国内数字经济和人工智能发展亟需一个坚实的数字底座。肖京认为,尤其是ChatGPT的成功,更加印证了强大数字底座的重要性。ChatGPT在核心理论上并没有突破,而是在工程上“大力出奇迹”的重大突破。ChatGPT的模型优化主要来自于算力的巨幅增加,GPT、GPT-2和GPT-3在算法模型上并没有太大改变,但参数量从1.17亿增加到1750亿,预训练数据量从5GB增加到45TB,算力上依托Azure AI超算基础设施(由V100GPU组成的高带宽集群)进行训练,总算力消耗约3640PF-days(即每秒一千万亿次计算,运行3640个整日),此外还有一支专业的标注团队进行标注。

“中国有体制优势,且有非常强大的工程化能力,有大量非常优秀的工程技术人员,数据标注能力全球领先。因此,在未来的大模型浪潮中,我们具有得天独厚的优势。更应该有效利用我们的集中力量办大事的体制优势,加快打造国家级的数字化底座。”肖京认为。

肖京建议,设立数字化引导基金,夯实国家级数字化底座;并建立共享、共建、共用、共创机制和数字化底座的市场化运营机制。诸如,机制:由政府统筹成立数字化引导资金和专门管理机构,统筹建设数字化底座;且成立市场化主体,开展市场化运营,不然无法真正做到可持续发展。算力:加快推进自主可控的智算中心和智算网络建设,加强算力统筹管理和开放。数据:由国家统筹数据要素,推动数据资源共享。算法:培育自主可控的AI框架底层生态,建设通用算法应用平台,实现普惠应用”。

有意思的是,如果问ChatGPT:可不可以设立数字化引导基金,从而夯实国家级数字化底座?若是,可能的机制是什么?算法、数据方面有何建议?

ChatGPT则回答:可以的,可以设立数字化引导基金引领国家数字化改革。首先,可以把这笔资金用于研发最新的算法、技术与工具,帮助企业更好地使用和应用数据,进而提高绩效和效率。其次,该基金可以支持企业实施数据分析项目,以帮助企业加速数字化转型的步伐,并应用在基础设施建设、政务服务、公共服务等各个领域。此外,有关技术应当有时间频率,建议部分资金设立在后期运用的社会科学研究项目,以研究数据融合技术的实施,保障大数据技术发展合理,有效地为社会服务。

如此,其回复在专业人士看来,尽管可能有些大而化之、甚至机械化,但或不失水准。

网络安全方面,如果问ChatGPT:你这么火曝,如果被不法分子利用了,人们怎么办?如何识别?它则回答:虽然ChatGPT很火,但这并不意味着它会被不法分子利用。我们可以通过搭建一个安全的技术环境来保护ChatGPT的安全性。此外,我们可以通过检测ChatGPT生成的内容是否存在异常、敏感信息,以及对比生成内容是否和规定的模式相符等方式来识别不法分子利用 ChatGPT产生的假新闻。

ChatGPT答:AI软件可能会加强网络犯罪的普及。随着无人机技术的发展,越来越多的AI应用程序可以用于网络犯罪,从而减少犯罪者的思想和技术障碍。同时,AI生成的钓鱼软件也可以超过人类历史上的手工钓鱼软件,通过更加精准的识别、更低的成本和更快的更新,可以更有效地感染目标用户,完成犯罪活动。

派拓网络副总裁兼亚太及日本地区首席安全官Sean Duca认为,AI一直被视为一把“双刃剑”。多年来,全世界都在猜测AI可能即将统治世界。如今,用户可以使用AI驱动的安全工具和产品,在几乎无需人为干预的情况下应对大量网络安全事件,但业余黑客也可以利用同样的技术开发智能恶意软件程序并发起隐形攻击。

“ChatGPT带来的网络安全隐患不容忽视。”SeanDuca表示。当务之急是采取智能化的行动来化解这些不断发展的威胁。好消息是自主响应如今能够在无需人类干预的情况下有效解决威胁。Sean Duca建议,更负责且道德地使用AI工具。从技术的复杂性到人为因素,企业在确保AI网络安全的过程中面临着诸多挑战,尤其是需要高度重视机器、人类和道德因素之间的平衡。

提及“AI大模型表现突出,而且其能力也在加速迭代中,目前在手写识别、语音识别、图像识别等领域超过人类平均水平,下一步还有可能在哪些方面超过人类呢?”

ChatGPT回复:AI大模型的发展将对机器的自主思考能力、决策能力、学习能力等提出了更高的要求,未来大模型AI在语义理解、隐式问答、图像生成、文本生成等方面都有可能超过人类水平。同时,大模型AI也可以应用于控制工程、智能家居、机器人技术、物联网等领域,提供企业更强大和更具智能化高效服务。

“大模型AI可能会取代一些低端重复的工作,如出租车司机、送货员等从业者,以及一些重复性和标准化高的行业,如客服、电商运营工作。此外,随着机器学习技术的不断发展,大模型AI还可能取代一些高端创新性的工作,如策略性咨询师、金融分析师、法律顾问等。”ChatGPT答。

比尔盖茨此前这样评价ChatGPT,这种人工智能技术出现的重大历史意义,不亚于互联网和个人电脑的诞生。ChatGPT和AIGC赛道的商业前景上,红杉资本预测,未来能够产生数万亿美元的经济价值。

但也有专业人士认为,ChatGPT制造泡沫的速度,和其火爆一样快;而且目前的它并非知识获取的通路,ChatGPT当前只是“玩具”,若成为真正的“工具”,尚需进一步探索商业化路径。

由此可见,ChatGPT的“有聊”也好,“无聊”也罢;IT产业依靠数据的数量优势的时代正在逝去,数据的价值化、质量化、智能化时代正在到来,如何迎接这个新数字时代?我们能做的可能是,宏观层,由上至下,尽快尽早筑牢、夯实“数字化底座”之外;微观上,自我重塑,拥抱变革,与时代同行。

长期关注宏观经济、金融货币市场、保险资管、财富管理等领域。十多年财经媒体从业经验。

迅雷会员25天/4.5元,独享1天0.7元,请点本站上边链接购买

2023年02月12日 07:09:40

 

随机账号密码机器码:
80OP290prL49g SB0
36QI698o RQ12nu302
48VL FQ10gs739Gyx
47GH185 SG44wq098Qzcr9
74ZN504bmC4 ZA99vu83
02FX782fzO77v YI47ju013Gye
39AE8 JD41ma309Lajz2
92UV642xuM49 EZ84bv47
09UD266a DJ23pr972Dd
79Z EA34px563G

Comments are closed.

会员登录关闭

记住我 忘记密码

注册会员关闭

小提示: 您的密码会通过填写的"电子邮箱"发送给您.