ChatGPT:终于像个“人工智能”了
作者: 庞钢明 王聃锋截止到2023年1月,ChatGPT月活跃用户数量迅速飙升至1亿,平均每天约有1300万用户访问ChatGPT网站。目前用户数量仍在持续增长,ChatGPT成为互联网历史上用户数量增长最快的应用。“OpenAI公司”总部位于旧金山,最早由特斯拉的马斯克等投资者在2015年共同创立,公司建立的目标是“开发造福全人类的人工智能工具”,目前由微软持股。
一个超大规模的算法模型
ChatGPT脱胎于2018首次发布的生成式预训练转换模型(即Generative Pre-training Transformer项目,缩写为GPT)。先后经历过GPT-2(2019年),GPT-3(2020年)多次的技术迭代,而GPT-4预计将于2023年年底发布,现有的ChatGPT则是基于现阶段最新版本的GPT-3.5研发的。


目前“OpenAI公司”并未公开ChatGPT的技术细节。但从过往公开发表的文献推测,其主要使用了“强化学习”的AI技术:首先搜集、整理、构建超大规模的样本数据集,包含公开网页、书籍、报纸等文本资料。工程师用样本数据来“喂养”一个处在“婴儿期”的AI模型,得到预训练的AI模型,类似于“孩童期”。工程师随后对它进行强化训练——由人类亲自对它生成的答案进行打分,打分高则“奖励”它,打分低则“惩罚”它。通过不断的训练学习,它的表现越来越接近人类。值得一提的是,这个打分的过程需要耗费大量的人力,为此OpenAI雇佣了大量的廉价肯尼亚工人,时薪低至2美元,这也遭到了众多媒体的抨击。
但不难看出,ChatGPT在底层技术原理上并没有根本性的突破,更多地体现在“超大规模取胜”上。这也意味着它需要超大规模的算力、人力、电力资源的支撑。早在2020年5月发布的GPT-3算法模型的参数量就达到了惊人的1750亿条,训练迭代一次的资金成本高达1000万美元。相比之下,谷歌开发的围棋对弈算法“AlphaGO”从零“学会”下棋,就经历了成千上万次训练的迭代,但因为超大规模的ChatGPT“学习”的成本过于高昂,所以即便在训练时发现了它的某个错误,工程师也不会就这一个错误去重新训练它。从规模到做法以及迭代费用上,ChatGPT真的堪称“前无古人”。
并不全能的全能助手
ChatGPT几乎是一位全能的“助手”,使用它也非常简单,输入一个问题,它就能根据你的要求给出答案。用户既可以和它进行简单日常对话:你今天的心情如何?也可以常识问答:中秋节是哪一天?或者知识问答:牛顿第二定律涵义是什么?文本改写:给出一段徐志摩的诗歌,把它改写成“欢乐”风格的文体,等等。除此之外,它还能根据上下文意思,进行阅读理解、逻辑推理、纠错改正等。无论是工程、科学、商业、历史等专业领域的问题,还是体育、文学、文化、艺术等贴近日常生活的问题,ChatGPT都能给出非常准确和引人入胜的回答,而且生成的回答中语法和句法错误很少,书面结构逻辑清晰,甚至ChatGPT能够承认自己回答的错误,指出用户提问中的细微错误,对话能力超乎大众“心理预期”。具体而言它可以成为人类的写作、编程等工作的“全能”小助手。
2023年2月以色列总统艾萨克·赫尔佐格在一个网络安全会议上致辞时便使用了ChatGPT创作的部分演讲稿。他演讲稿中的一句“警言”——“让我们不要忘记,是我们的人性让我们真正与众不同。”正是源自他向ChatGPT提出问题的回答——“写一段关于人类在超人类科技世界中所扮演角色的励志名言”。
ChatGPT能够以B级成绩通过美国宾夕法尼亚大学沃顿商学院MBA的期末考试,以C+成绩通过明尼苏达大学四门课程的研究生考试,甚至通过了美国执业医师资格考试。根据沃顿商学院一项针对4497名学生的匿名调查,约有17%的学生承认他们使用了ChatGPT来辅助完成作业,5%的学生则承认他们直接使用了ChatGPT生成的回答。北密歇根大学的哲学教授安东尼,在为自己任教的一门世界宗教课程的学生论文评分时,发现里面得分最高的居然是由ChatGPT创作的。尽管少部分教授认为将ChatGPT融入到教学中能够相得益彰,但更多的老师认为这与“抄袭”无异。在老师们看来,学生无需思考便能得出研究结果,会扼杀学生的创造力、想象力等。许多美国中小学校与高校都禁止学生使用ChatGPT完成作业,一些学校甚至取消了课后作业,改为随堂测试、手写作业或者口试等方式。华盛顿大学等高校也开始着手修订关于学术诚信的新政策,将“使用生成式AI”定义为“剽窃”。
由哈佛医学院作为共同完成单位发表的一篇论文《ChatGPT在人工智能辅助医学教育上的应用潜力》,则首次将ChatGPT作为了共同署名的作者之一,并声明ChatGPT对该论文的写作做出了贡献。但ChatGPT“创作”生成的文章并非总是“尽如人意”,存在观点不可信、事实性错误、数据错误、数据来源不合规、版权纠纷等问题,甚至会“一本正经地胡说八道”。《自然》《科学》等顶级学术期刊认为AI无法对其生成的文章负责,要求作者不能使用AI生成论文,也不允许将ChatGPT列为署名作者。国际机器学习会议也要求论文中不能包含由类似ChatGPT工具生成的文字。国内《暨南学报(哲学社会科学版)》也声明隐瞒ChatGPT使用情况将被退稿或撤稿。
ChatGPT也可与用户结对编程,结对编程是指两个程序员在一个计算机上共同工作,一个人输入代码,而另一个人审查他输入的每一行代码,这是一种商业软件公司推崇的软件开发的高效方式。而ChatGPT既能扮演“驾驶员”角色,生成用户需求的代码,也能与用户互换角色,扮演“观察员”角色,审查用户提交的代码是否存在错误等。向ChatGPT输入“用Python语言(一种编程语言)生成俄罗斯方块游戏代码”,它便可使用Pyhton编程语言生成完整的俄罗斯方块游戏源代码。用户运行游戏代码后若出现错误,可将错误信息再次“反馈”给ChatGPT,ChatGPT会提示用户需修正哪些代码片段。但要知道的是,这里的错误既可能是因为用户软硬件型号差异从而出现错误,也可能是ChatGPT生成的代码本身就带有错误。
一些技术能力较低的黑客也正在利用该功能生成恶意代码等黑客软件。以色列的信息安全研究机构“Check Point”发布的研究报告表明,他们在暗网中发现了大量利用ChatGPT工具生成的黑客软件工具,“菜鸟黑客”在ChatGPT的帮助下也能轻易掌握原本技术门槛较高的网络攻击、网络窃密等黑客技术。但ChatGPT对于算法构架设计等技术难度较高的问题就表现得“力不从心”了,生成的代码也并不完美。总而言之,ChatGPT现阶段擅长针对计算机软件开发领域的基础问题,生成商用成熟的代码片段,能够在一定程度上帮助“新手”学习编程,取代一些低阶的软件开发工作。





补充而非取代的工具
ChatGPT作为AI技术中自然语言处理方向发展比较成熟的项目,也可以和其他架构的人工智能系统相结合,在更多领域的应用场景中发挥作用。如“语音识别AI、聊天AI、模拟人声AI”和ChatGPT结合后,会达到意想不到的体验感受:当用户拨打电话,“语音识别AI”系统将通话语音识别成为文本,输入到ChatGPT平台中,将它生成的答案文本,通过“模拟人声AI”转换生成模拟真实人声的声音片段,这个过程完全依靠计算机软件代码自动完成,用户根本无法察觉他们正在与AI通话。
“OpenAI公司”此前发布了一个名叫“DALL·E2”的AI作画系统,这个系统可以根据文本内容生成图像,如果将这类AI作画系统与ChatGPT相结合, ChatGPT优异的上下文理解能力,有助于AI作画系统更好地理解用户意图,从而生成更符合用户心意的AI绘图作品。但这种耦合的方式引发了一些担忧。美国贝尔弗科学与研究中心声称ChatGPT会“劫持民主”:别有用心的人可以利用它对每天的新闻快讯、博客条目和社交媒体的帖子发表数百万次的评论,从而影响大众的判断和社会舆论,而且手段非常隐蔽。


同时,ChatGPT最值得关注的商业化路径便是将它嵌入到搜索引擎中去。2023年2月微软宣布将ChatGPT技术嵌入到自家搜索引擎“必应”中,并展示了嵌入ChatGPT的搜索引擎将如何运行:将传统搜索引擎的搜索结果与ChatGPT对搜索结果的注释并排显示,用户也可以与得到ChatGPT技术加持的“必应聊天机器人”对话。微软的“Edge浏览器”在嵌入ChatGPT之后,也增加了“聊天”与“转写”功能——用户可以将这两个功能设置在侧边栏中,“聊天功能”可以让用户提问关于正在查看的网页或文档的问题,而“转写功能”就是提供写作助手之类的功能。