关于chatGPT的4个另类思考
作者:陈恩加
引言
当ChatGPT刚出来那会儿,虽然网上有关这款被称为“史上最强聊天机器人”的消息铺天盖地,但因为笔者向来对突然爆火的东西并不是很感兴趣,因此当时没有太过在意它。直到有一天,一位朋友突然发微信问我:“ChatGPT你怎么看?我总觉得我要失业了”之后,笔者才开始逐渐接触和了解它。后来才知道,原来就在友人联系自己不久之前,美国知名的科技博客“商业内幕”(Business Insider)就以“ChatGPT将来可能会取代我们的工作”为题,提出像程序员、会计师、金融分析师等这类技术类工作未来都有可能被ChatGPT取代[1]。
尽管,当遭遇新的突破性技术,科技圈或投资圈动辄就用“革命性”“颠覆性”等词去描述,不过,根据大量事实,以及笔者的使用体验来看,ChatGPT的诞生的确可以说是2023年AI领域的里程碑事件。更重要的是,虽然它并非像科学史上许多从无到有、阶跃性突破的技术,但它站在巨人的肩膀上(基于Transformer模型并通过更多的数据来引导,ChatGPT模型的回答更加符合人类预期)所揭开关于人类社会充满不确定性的未来图景,的确非常值得我们密切关注。
AI给人类带来的益处有目共睹,不再赘述。下文仅是笔者从基督信仰的角度,对ChatGPT可能会带来的问题所做的一些思考。抛砖引玉,与读者分享。
1. ChatGPT会不会“吃了”你的脑子?
相信许多人用ChatGPT做的第一件事就是“我问你答”,比如有人就以“女朋友和妈妈同时掉水里先救谁”这类经典的命题问它。相比这类问题,从最近ChatGPT在对一些专业性问题给出含糊其辞甚至错误的回答[2],以及许多高校纷纷禁止学生使用它来看,笔者认为ChatGPT带来的第一个明显的问题就是:它的许多回答仍然存在不少错误,因此对其过度信赖很有可能会加剧人们批判性思考能力的退化。这一现象即使在ChatGPT(基于GPT-3.5)的升级版GPT-4中仍然存在。GPT-4刚推出来时笔者还特地下载了一份OpenAI团队最新发布的长达99页的技术文档,其中研究人员提醒使用者在使用该语言模型时要“特别小心”[3]。
类似搜索引擎、ChatGPT之类的技术让海量的咨询唾手可得,好像在你身边安插了一个AI顾问,但它们同样会制造出笼罩在AI阴影下的“信息茧房”:仅给出模型自己能推理出的答案,这些答案或许大部分都是对的,但就怕在关键问题上给出错误回答。随着准确度的不断提高,人们很可能会越发依赖ChatGPT的解决方案(专业回答、撰写文章、文稿翻译,等等),从而无形中丧失了自主思考能力。这不禁让笔者想起法国著名哲学家德勒兹(Deleuze)曾提出过的“控制社会”(society of control)这一概念。虽然其本意是为了针对福柯提出的规训社会进行修正,来描述另一种不同于死板规训的权力压榨,但把这种具有流动性且更加隐蔽的权力——“控制”有关的运作方式套用在当下的环境中也极为精准:包括ChatGPT在内的应用所涉及的算法,看似给你极大的使用自由度,但它会把人的各类发问、欲望、行动都纳入到自己的模型中,给予标准化和引导式的回答或推荐,无形中成为一种通过封闭式“控制”来垄断个体思考的“技术权力”。换句话说,你以为你在利用技术,其实是技术在利用你,就好像你的脑子被“吃掉”了一样。
如果从更广阔的视角去看待今日我们与科技之间日益复杂的关系可能带来的负面影响,以及面对AI技术加持下越发严重的“科技成瘾”,在海量的信息中我们该如何保持一颗具备独立思考的内心?笔者非常赞成享有盛誉的科学作家Annie Murphy Paul形象而又合乎中道的看法:“人类扩展自身局限的方式,并非是让大脑像机器一样快速运转,或是像增肌一样让它变得更粗壮,而是让我们世界撒满丰富的“布料”,并用它们来编织我们的思想。”[4]
2. ChatGPT会“偷吃”分别善恶树的果子吗?
在圣经中,上帝曾明令禁止伊甸园中唯一一种不可食用的果子——分别善恶树上的果子,上帝也曾告诫过亚当“吃的日子必定死”(参《创世记》2:17)。并不是说这棵树上的果子本身含有致命的毒素,上帝也没有详细解释为何不能吃,他下达如此禁令的目的是为了考验所造之人是否愿意顺服他的命令。可惜人类始祖在蛇的诱惑下行使了自由意志的权力,最终选择了违背命令。虽然他们并没有因此而死亡,甚至眼睛还真的明亮了(参《创世记》3:7),但这种对违背约束之“独立心智”的追求,对自我命运的全权掌控,不仅让上帝感到失望,也给人类带来无尽的烦扰。
当我们把视角从上帝与人类的关系拉回到人类与ChatGPT(以及未来更先进智能体)之间的关系时,难免会发出与伊甸园事件类似的疑虑:作为人类的创作物,ChatGPT有天也会去“偷吃分别善恶树的果子”吗?换句话说,未来它的后代是否真的会产生属于自己的价值观,并在某些时候选择背叛人类的命令?科幻作家或者影视编剧往往会给出肯定的回答,因为只有这样才能展现拥有自我意识的智能体与人类之间的冲突与张力。但回到ChatGPT身上,这样的情况有可能发生吗?
笔者有限的认知自然无法给出一个确切的回答,虽然目前有不少耸人听闻的文章认为它具备孩子的心智能力,但这并不意味着ChatGPT拥有的是“发自内心”的价值体系。在智能聊天程序的发展历程中,曾经出现过“伊莉莎效应”(“ELIZA effect”)[5]。这个效应来源于20世纪60年代的一个著名的聊天机器人ELIZA。它所涉及的技术并不先进(它本身靠固定套路与人类进行对话,其开发者甚至只用了200行代码就实现了这一过程),却欺骗了许多人。原因在于,许多测试者在发现自己的问题被理解和答复之后,便一厢情愿地开始对ELIZA产生情感上的依恋,产生了“这个程序有智能”的错觉。而ChatGPT本身也是通过大量来自人类的数据投喂和矫正出来的一个语言模型,它模仿的更多的是“人类的心智”,而非“心智”这一概念本身。
对于AI来说,“吃下分别善恶树的果子”意味着它能够像人一样具备在复杂环境下拥有直觉、抽象与类比的能力,甚至能像人类一样做出许多无意识行为。但目前来看,ChatGPT或者GPT-4均还未具备这一能力。相信关于ChatGPT是否会拥有独立于人类的心智,并因此引发一系列价值和道德的问题,将会是未来许多AI学者、心理学家、伦理学家、哲学家、神经科学家等研究人员讨论的热门话题。
3. 从“人际关系”到“人智关系”
随着ChatGPT的爆红,人们开始兴致勃勃地打量这位能够即时回答各种问题的新朋友,它一下子成为人类交流的新宠。除了交流、问答外,更多的人认为ChatGPT对人类社会最深刻的变革将包括信息获取和职业替代这两个方面。对于后者,就有笔译领域的工作者表示,只要客户对翻译准确性要求不高,的确可以使用ChatGPT,而未来的译者更多做的可能是机器译后的润色工作[6]。而至于信息获取,除了前文提到可能会给使用者带来知识依赖之外,ChatGPT同样能为诉诸它的情感需求提供极高的情绪价值。反观人与人之间(上级与下级、父母与子女、丈夫与妻子等)往往出现无法相互理解、互筑藩篱的问题,ChatGPT等智能聊天工具的出现是否会让越多在现实世界中无法拥有高流畅度和高饱和度的情感交流的人,沉浸于AI定制的情感体系中,并引发除“知识依赖”外的另一种“情感依赖”(比如出现“人机恋”),以及家庭结构、社交体系的巨大震动,也是一个不容小觑的问题。
此外,未来的“人智关系”还涉及到许多方面。《经济学人》上曾发表的一篇文章中就举了一个例子来说明AI和人类之间的交互模式给人的情绪带来的影响[7]:关于客户对不同决策手段的反应,比如当要决定是否给一个人放贷或者同意其成为乡间俱乐部的会员时,不管是被算法拒绝或者人工拒绝,申请者的反应大都一样,可是在申请通过的情况下,人们的反应却不太一样——人工审核通过要比算法审核通过更能让申请者对该组织留下好的印象。因为对于后者而言,他们会觉得自己对算法来说就是一个数据点,而不是因为有人感受到他们自身的特点和魅力。对于ChatGPT来说,我们提出的问题或者情绪诉求又何尝不是如此?它的回答或许在理论上是满分的,但无法给你来自真人的温情。
数字时代的一大难题,是如何处理人与数字媒介(手机、电脑)的关系;而在已经到来的智能时代,难题则又会转变成如何处理人与人工智能的关系。未来需要的能力,也不再仅仅是如何与人相处的能力,更需要与人工智能相处的能力,甚至超越人工智能的能力,比如找寻工作被它取代时的个体出路、时常警惕的批判性思维、保持当面交流的习惯等。使徒保罗曾说“不要效法这个世界”(参《罗马书》12:2),在未来这句话或许会变为“不要效法‘AI当道’的世界”。
4. ChatGPT与“行动的信仰”
最后,笔者想从基督信仰的视角出发,谈谈其与教会和信仰发生碰撞时带来的影响。为何这两样看似无关的事物会发生碰撞?ChatGPT本身属于一种“大型语言模型”(Large Language Model,LLM),经过持续不断海量数据的训练和特定目标的优化,它能够输出较为精准的回答,给人以求知欲上的满足或心理上的安慰。
从这个角度来看,教会本身也是一种经历过、并正在经历“训练”的“大型语言模型”:上帝使用各种境遇(数据)来打磨他的身体,让教会能够更加符合基督的心意(训练目标),并透过教会来传达真理,传扬福音,安慰、激励他的百姓,更要吸引万人来归向他(输出)。目前,ChatGPT已经具备正确回答基督教教义,甚至写讲章的能力[8]。笔者也曾尝试让其回答“为何约伯会受苦”这一难题,也能收获一个算是客观、全面的回答。难怪笔者身边已经有弟兄姐妹开始使用ChatGPT来探索自己在婚恋、工作、服侍等基督徒生命中极为重要的议题上的困惑。
考虑到ChatGPT有可能给出错误的回答,未来以ChatGPT及其后代为代表的大型语言模型一定会给以教会为代表的“大型语言模型”带来不小的挑战。即使现在火花还不明显,但两类“语言系统”的碰撞势必迫使基督徒正视这一挑战。教会如何能够在输出精度足够高的真理的同时,活出被福音改变的热诚,让世人愿意参与到教会中来,而不是仅仅去AI中寻找冰冷的真理?
笔者认为,关键不在于千方百计阻止会众接触这类智能软件,而是学习如何输出比ChatGPT更具备温度、深度和广度的言说和行动:虽然ChatGPT也能输出前者,但出于内心真实经历的信仰告白比纯粹的说理更具感染力。不消说ChatGPT无法从行动上给出回应,它就像法利赛人能说不能行(参《马太福音》23:1-3),而教会却能透过爱肢体、爱邻舍的行动表明自己在信心和爱心上的实践,给人带去真实的安慰和盼望,正如保罗曾说自己在教会中因为大家彼此的信心就得了安慰(参《罗马书》1:12)。
比起ChatGPT,基督信仰最大的不同,就是它是一种“行动的信仰”。
结语
曾有人说,技术在短期内是被高估的,但是长期又往往会被低估。未来每个人都将面对以ChatGPT为代表的AI技术所带来的挑战,而对于基督徒来说,属灵的大道理连语言模型都已经会讲了,但这些都只是字句,教会如何有真实的信心、活出基督,才是E时代的基督徒所要思考的。
注:
[1] 所有十类工种可参见ChatGPT may be coming for our jobs. Here are the 10 roles that AI is most likely to replace,
https://www.businessinsider.com/ ... abor-trends-2023-02[2] 例如笔者因工作原因经常去上面找解决方案的技术性问答社区Stack Overflow就禁止用ChatGPT来生成回答,参见Stack Overflow Bans ChatGPT For Constantly Giving Wrong Answers,
https://www.vice.com/en/article/ ... iving-wrong-answers[3] 原文是“Great care should be taken when using language model outputs”。GPT-4 Technical Report的第五章专门提到了最新模型仍然存在的局限性,其中最重要的一点仍然是“与早期GPT模型类似,GPT-4也并非完全可靠,可能会导致“事实幻象”以及“发生推理错误”。具体内容参见
https://cdn.openai.com/papers/gpt-4.pdf[4] Annie Murphy Paul, The Extended Mind: The Power of Thinking Outside the Brain
[5] ELIZA effect,
https://en.wikipedia.org/wiki/ELIZA_effect[6] 参见南方周末文章:《ChatGPT进军翻译业:狼来了吗?》,
https://mp.weixin.qq.com/s/6NPmPc53JatWcCfuyp2xow[7] The relationship between AI and humans,
https://www.economist.com/business/2023/02/02/the-relationship-between-ai-and-humans?gclid=Cj0KCQjw2v-gBhC1ARIsAOQdKY0ZVVbItIZrWXc_mqwNI-kPqd6vn1Rw5zdvFle8dcp7Z8EOskoWsPAaAks9EALw_wcB&gclsrc=aw.ds[8] 参见fortune上的一篇文章:ChatGPT is coming for religion and lazy pastors might use it to write their sermons—But it ‘has no soul’,
https://fortune.com/2023/02/15/chatgpt-religion-writing-sermons-has-no-soul/amp/作者简介:
我是一位看起来像健身教练的程序员,因为比起撸代码,我更喜欢撸铁,正所谓“上班掉血,健身续命”。不过我最喜欢的还是阅读与写作:职场再卷,文字的世界永远充满自由。
来源:海外校园