ChatGPT:开启经济金融研究新时代
推文撰写:任晓阳 中南财经政法大学金融学院2021级研究生
指导老师:吕勇斌 数字技术与现代金融学科创新引智基地副主任
ChatGPT is scary good. We are not far from dangerously strong AI. ——Elon Musk
ChatGPT非常强大,令人望而生畏。我们离危险的强人工智能并不遥远。 ——埃隆 · 马斯克
上线不到一周日活用户破百万,2个月破亿……当前,AI智能聊天机器人ChatGPT已在全球范围内火爆,一时间成为现象级AI应用。无论你是否关注,都可以在各类新闻、视频网站的热搜里发现它的身影。
对于ChatGPT的功能,中国科学院大学人工智能学院教授、亚太人工智能学会执行主席雷渠江表示:“ChatGPT利用从大型文本语料库中所学到的内容,可以自主生成文本,帮助用户找到问题的答案。”
3月中旬,OpenAI正式推出最新版GPT-4.0,经测试其在2022年高考语文试卷的大致得分为128分,相当于一个具有大学生智力水平的人。ChatGPT如今已能做到通过理解和学习人类的语言来进行对话,还能根据聊天的上下文进行互动,真正像人类一样来聊天交流,甚至能完成撰写邮件、视频脚本、文案、翻译、代码,写论文等任务。
ChatGPT及其背后大语言模型(Large Language Model,LLM)强大的内容生成能力能够替代人类承担部分学术日常工作,这引起了业界普遍关注。研究人员已经使用ChatGPT和其他大语言模型来撰写论文、总结文献、修改论文,甚至能够识别研究中的漏洞和编写计算机代码,包括统计分析。越来越多的学者关注其在研究领域所能发挥的功能,也对其高速发展所带来的科研伦理、道德风险产生了担忧。
从经济金融研究的视角来看,已有学者对ChatGPT在相关研究领域的应用进行了具体而深入的探讨,本推文主要参考以下三篇文献:
• NBER(2023):Language Models and Cognitive Automation for Economic Research
• FRL(2023):ChatGPT for (Finance) research: The Bananarama Conjecture
• Nature(2023):ChatGPT: Five Priorities for Research
大语言模型(LLM)是一种能够生成自然语言文本的人工智能模型,它的主要作用是自动生成高质量的文章、对话和翻译等自然语言内容。ChatGPT便是LLM的一个典型应用实例。
芯片巨头英伟达对LLM的应用领域及介绍如下:
2023年2月,Anton Korinek在NBER上发表论文“Language Models and Cognitive Automation for Economic Research”,对LLM及其实现的认知自动化可能会彻底改变经济学等学科的研究进行实验探讨。
该论文描述了LLM发展出的六个领域的用例:构思、写作、背景研究、数据分析、编码和数学推导,并具体实践了这六大领域下的25个用例,以此为基础将每种LLM能力根据具体的实用性进行分类。
论文指出,在构思的过程中,LLM可以帮助进行头脑风暴、评估想法并提供反驳。在写作中,它可以实现合成文本、编辑与评估文本、为论文生成朗朗上口标题、生成用于推广的推文。在背景研究中,它可以用于生成文献摘要、文献搜索与引用、翻译文本、概念解释和设置参考文献格式。在编码方面,LLM能够基于自然语言指令编写代码、解释代码、翻译转换代码,甚至在调试代码方面也十分强大。对于数据分析,LLM可以从文本中提取数据、重新格式化数据、进行文本分类、提取情感,甚至模拟人类对象生成数据。最后,LLM也开始在数学推导方面显示出新的能力,从建立模型、完成推导方程式到最终的模型解释。
以下展示论文中的一个具体用例——写作领域下的文本合成功能:
论文展示了所说明的25个示例任务,最终以表格的形式按LLM的六个应用领域进行了分类,在表格的第三列中,对LLM功能的实用性程度进行的主观评级:1代表当前功能只是实验阶段,容易产生不一致的结果,需要大量的人力监督;2表示该功能具有实用性且可能节省时间的能力,但仍需要仔细监督;3表示了功能具有非常高的实用性,并且在大多数时候将其融入研究工作流程以进一步节约时间,提高效率。
作者在最后总结到:从短期来看,通过LLM实现认知自动化将使研究人员的工作效率显著提高,预计越来越多的研究人员会将LLM纳入他们的工作流程;从中期来看,基于LLM将越来越有助于生成越来越多的研究论文内容,而人类研究人员将专注于他们的比较优势,即组织研究项目、提示和评估生成的内容;从长远来看,随着信息技术的快速发展,有了足够的计算与迭代,足够先进的人工智能系统可能会不依靠人类产生和阐明卓越的经济模型。
LLM的迅速崛起带来的认知自动化给经济学家带来了重要而紧迫的新研究问题,要确保越来越先进的超智能人工系统的追求与人类目标一致。
It ain’t what you do, it’s the way that you do it And that’s what gets results’’ ——Song lyrics by Bananarama and Fun Boy Three (1982)
“关键不在于你做了什么,而在于你做事的方式。” ——Bananarama和Fun Boy Three的歌词(1982)
金融学国际知名期刊ChatGPT首秀:2023年2月9日,Michael Dowling与Brian Lucey在《Finance Research Letters》发表论文“ChatGPT for (finance)research: The Bananarama conjecture”,文章对ChatGPT能够在多大程度上帮助金融研究进行了实验分析与探讨。
作者选择了加密货币的领域,让ChatGPT来完成科研工作者的四个常见任务:
1. 创意生成
2. 文献综述
3. 数据识别和准备
4. 测试框架的确定与实现
论文研究了三个相同的加密货币研究思想的版本,每个版本都包括以上四个研究阶段。第一个版本(V1:只有公共数据)只使用ChatGPT中已经可用的公共数据。第二个版本(V2:添加私有数据)结合私有数据来协助生成研究阶段。第三个版本(V3:私有数据与专业知识)进一步合并了研究人员领域的专业知识以及私有数据。
论文将ChatGPT生成的大纲交给该领域的论文评审专家打分,评估其有多大可能性会被接受。审稿人被要求对每个阶段的输出进行两方面的评价,评价标准见图。根据指定的标准,最终结果由1(高度不同意)到10(高度同意)之间的评级组成,评估这些产出被最低ABS2星期刊可接受的可能性。
主要研究成果为:
1. 检查各个研究阶段,发现最高的评分为第一阶段——创意生成,这是在于ChatGPT可以访问数十亿参数和文本,特别擅长对现有思想的广泛探索。
2. 数据汇总阶段也十分强大,或许是因为这一阶段往往是研究中易于识别的文本“块”中的不同部分。
3. 文献综述与测试框架的表现并不成功。文献综述是将研究思路与方法论联系起来的内在工具,测试框架将研究思路、文献综述和数据汇总三个方面联系起来。该模型似乎不太能够将多个内部产生的想法联系起来。
4. 添加了私有数据的版本表现不佳,似乎是由于模型过度依赖所提供的私有数据,并限制了对其他有益的公共数据的访问。
5. V3研究的结果表现卓越,因为研究人员可以观察到任何缺失的环节,并要求平台进一步迭代以解决这些空白。
上述实验抛出了一个值得思考的问题:拥有ChatGPT如此高水平的指导和帮助,研究人员会声称自己的研究成果正确吗?如何对待生成作品?Iaia(2022)指出,根据欧盟法律,在“充分”的人类监督下,人工智能生成的工作通常被认为属于人类创造者。
当然,“充分”这一定义仍然相当模糊。这表明,使用私人数据和更高水平迭代的研究可以被认为是研究人员自己的工作,但可能不是只使用公共数据和简单问题提示的基础研究研究。正如Bananarama歌词中所提到的:“关键不在于你做了什么,而在于你做事的方式,这才是(道德上可以接受的)结果。”
与上述两篇论文最后的担忧一致,许多学者都认可ChatGPT这类模型在帮助顺利进行研究工作、缩短出版时间的巨大助力,但另一方面也担心它可能降低研究的质量和透明度,从而产生道德问题。现如今ChatGPT爆火,研究界的当务之急是需冷静下来思考并讨论这项潜在的颠覆性技术可能带来的严重影响。
2023年2月3日,荷兰阿姆斯特丹大学的多位教授在Nature杂志发表文章“ChatGPT: five priorities for research”,讨论了科学界应当如何应对ChatGPT。
文章一共概述了五个关键问题:
1.坚持人工验证
将对话式人工智能用于专门的研究,很可能会引入不准确、偏见和抄袭等问题。这些错误可能是由于ChatGPT在训练过程中未能提炼出相关的信息,或者无法区分来源的可信程度造成的。研究人员们需要对此保持警惕,由专家推动的事实核查和验证过程将是不可或缺的。
2.制定问责规则
研究论文中,作者的贡献声明和致谢应该清楚且具体地说明在准备稿件和分析时是否使用了ChatGPT等AI技术,以及使用的程度。他们还应该指出使用了哪些LLMs。这将提醒编辑和审稿人更仔细地审查稿件,以发现潜在的偏见、不准确和不当的来源。 “作者身份意味着要对作品负责,这不能有效地适用于LLMs。作者在撰写论文时以任何方式使用LLMs,如果合适的话,都应在方法或致谢部分记录其使用情况。”—— Nature杂志主编Magdalena Skipper
3.投资于真正开放的大语言模型
当下少数科技公司在搜索、文字处理和信息获取方面几乎处于垄断地位,这引起了相当大的道德担忧。研究界最紧迫的问题之一是缺乏透明度,ChatGPT包括其前身的基础训练集以及LLMs是不公开的,科技公司可能会隐瞒其内部工作原理。这有悖于科学透明化和开放的趋势,也使得人们很难发现聊天机器人知识的来源或差距。为了应对这种不透明性,应该优先考虑开源人工智能技术的开发和实施。
4.拥抱人工智能的好处
正如研究中所提到的,研究人员通过ChatGPT的协助可以做到更快地发表研究结果,他们会有更多的时间专注于新的实验设计,进而显著加速创新。人工智能技术可能会重新平衡学术技能组合。在未来,人工智能聊天机器人可能会产生假设、制定方法、创建实验、分析和解释数据,并撰写手稿。人们的创造力和原创力、教育、培训以及与其他人的富有成效的互动,可能仍然是进行相关和创新研究的关键。
5.扩大讨论范围
鉴于LLM的颠覆性潜力,研究界需要组织一场紧急而广泛的讨论。首先,建议每个研究小组立即召开会议,讨论并自己尝试ChatGPT。其次,立即举办一个关于发展和负责任地使用LLM进行研究的持续国际论坛。利益相关者,包括不同学科的科学家、技术公司、大型研究资助者、科学院、出版商、非政府组织以及隐私和法律专家将参加这个论坛。
可以在论坛上讨论的问题清单:
“ChatGPT非常强大,令人望而生畏。我们离危险的强人工智能并不遥远。” 去年底,OpenAI的创始人之一马斯克在推特对自家聊天机器人模型ChatGPT这样评价。
总而言之,作为一个现象级技术产品,ChatGPT在人工智能生成内容领域的表现无疑是革命性的,对科学和社会有着深远的影响。不难预测,随着深度学习算法的不断发展,ChatGPT的精度会越来越高,服务范围会越来越广泛,这将改变金融与经济研究的基本方法。
在信息技术飞速发展的时代,ChatGPT及其背后技术的使用已不可避免,明令禁止只会适得其反。当下更重要的是拥抱这类AI带来的机会并对其风险及早管控,相信科学界终将找到一种方法使科学研究从对话式AI中获益,并且不会失去研究工作中的人类的天性:好奇心、想象力、探求欲。
说明:推文来源于基地研究员推荐的前沿文献,由学生在原文提炼、小组讨论的基础上整理而成。推文仅限于学习交流,不得用于其他用途!