人类民工迎战 ChatGPT 指南
2023-1-30 18:47:32 Author: 爱范儿(查看原文) 阅读量:14 收藏

ChatGPT的
能与不能
今天你可能错过的大新闻 👉🏻 国产首款 3CL 靶点抗新冠药获批上市;Google 新 AI 支持文本、图片生成音乐;MIUI 14 第二批正式发布计划公布;国产文本编辑器 Notepad-- 发布......
最近 ChatGPT 在各大新闻媒体的热度居高不下,从其对学术规范的冲击到替代 Google 的争议,都可以感受到扑面而来的颠覆性。
相对于搜索引擎仍然给人保留了相当一部分信息检索的主动性,ChatGPT 几乎是万能管家——它直接提供唯一的答案和解决方案。也因而,它引发了人们普遍的危机感:既然如此,它是否将替代掉我的工作?
作为一个经常「负责解答万事万物」宏观研究员,驱使我接触 ChatGPT 的一方面是好奇,另一方面也是「被替代」的恐惧——毕竟我们所做的几乎是同行。我花了 2 天左右的时间与 ChatGPT 进行各个层面的对话,尝试弄清这台「机器」的能与不能,进而评估两个问题:

1. ChatGPT 一进门,是否可以代替屋里所有人?

2. 什么样的特性可以避免被AI替代,并且驾驭AI?

2001 太空漫游的经典一幕,该电影也讨论了 AI 与人的关系
我与 ChatGPT 的问答主要涉及以下几种类型,我将分别用星级代表我对 ChatGPT 在此方面实际能力的评估:
事实/史实
★★★☆☆
对于大部分公开资料充分的事实,ChatGPT 能进行简单并清晰的总结。但有一点引起了我的注意,即在一些冷门事实上,ChatGPT 会发生明显的张冠李戴、移花接木的情况,但它清晰和毋庸置疑的语法对读者构成了陷阱。我向 AI 询问我研究生时代宿舍楼的历史,可以看到 ChatGPT 陈述得相当,然而我自己的检索却无法验证其中的大部分内容,反而找到一些证据指向 ChatGPT 可能基于错误的关键词联想,将这栋楼与另外的建筑搞混了。同样的问题也出现在我询问 ChatGPT 我工作单位所在的建筑历史时。显然,ChatGPT 在处理这些问题方面只是「随口编了个通顺的故事」。
原理/方法/机制
★★★★★
这方面我向 ChatGPT 的提问内容涉及:经济、物理、甚至是黄焖鸡米饭的制作方法。如果你尝试问明确地问一个已经被研究得很成熟的问题,大概率能得到一个非常系统性的回答。在回答中可以看到,ChatGPT 在结构化写作方面的优势非常突出,回答精炼通顺、要点明确,十分易于读者快速理解。
对比/评估
★★★★☆
这方面我对 ChatGPT 提问涉及电池的不同技术路线、国别间货币政策框架、方言的差异等。可以发现,ChatGPT 进行概念对比并不完全依托既定材料的结论,而是遵循了分类-比较的逻辑思路。不过需要注意的是,在对比复杂成因的事物(比如经济模式等)时,ChatGPT 似乎会犯下静态比较等等错误,并可能会错过一些非常重要的深层因素。
此处 AI 的陈述有很多错误,并不让人满意
议论/评价
★★★☆☆
如果让 ChatGPT 评价既有研究比较充分的领域(比如说政策评价等),ChatGPT 同样能发挥出结构化写作的相当优势。但在涉及具体人物/政策/哲学困境/审美等的评价上,AI 基本上采取了开放、中立、或是官方立场,目前似乎不能指望AI展现出明显的政治/哲学/美学倾向。
预测/即时分析
★☆☆☆☆
目前为止,ChatGPT 无法预测未来也拒绝预测未来。ChatGPT 同样无法分析正在发生的事件和数据,问到此类问题是,ChatGPT 会直接建议你去寻求权威发布机构和专业观点的支持。
创作/建构
-----
这部分无法由人类评价,我只能说 AI 的创造可能提供了另一种审美的视角,但如何评价则因人而异。比如以下的这番创作,使我感到些许奇妙,但其文笔又很难说能打动人。
总结来说,目前已知的 ChatGPT 的特性有(长处显而易见,这里主要聊聊短板):

1. AI 的回答可能是真假交织或不完整的,具有相当的迷惑性;

2. AI 目前无法获取非公开的事实和结论;
3. AI 无法预测,无法对不同的观点赋予权重,也无法进行及时、具体场景的分析;
4. AI 无法提供主观和价值层面的判断。
从目前 ChatGPT 所提供回答质量来看,我仍然认为 Google 和 Wiki 等简单易行的替代渠道在多数情形下能提供更优质的信息,而在专业的领域内,专业的信息渠道和检索能力将更占有压倒性优势。不过我也相信,随着时间推移,以上 1、2、3 点短板都可能得到改进,但其中隐含的一个关键问题可能很难被解决:我们在获得 ChatGPT 回答的同时,并没有被告知其背后的信息来源和处理过程,亦不知道 ChatGPT 在回答过程中省略了什么。在更宏观的维度上,AI 对事实的误解和扭曲可能具有广泛的社会危害,进而挑战我们的集体记忆与共识。我们需要认真地从社会和个人两个层面来思考 AI 时代的诸多「何去何从」。
在与 ChatGPT 聊天时,我时常感觉到自己在疑惑:与我对话的这台机器是否真的在思考,抑或是,它只是用流畅的语法来让我觉得它在思考,而它实际上或许只是概率的运算,并不「理解」自己在说什么?正因如此,它才会有以上种种缺陷,甚至是「一本正经地胡说八道」。不过,我对其底层技术的细节十分外行,这个问题似乎更多是留给「图灵测试」等哲学话题了。不过我想,既然现代的语言哲学已经揭示了语言对于思维塑造的重要性,那么既然 AI 能够熟练地运用语言框架,我们或许也不能完全拒绝承认 AI 可能拥有了思考的能力——也因而,AI 与人类的竞争必然存在。
就输出的结果而言,ChatGPT 和人类的「研究员」们(不幸的是,我正是其中一员)有很多相似点——他们都向受众提供了「似然正确的答案」。考虑到 AI 未来非线性发展的路径,它们所能提供的「似然正确性」还会明显地提升,或许很快我们便将看到 AI 与人类的「研究员」的直接竞争,而这在金融领域内或许会十分明显。我时常会听到类似这样的灵魂拷问:究竟是真相重要还是回答重要?如果是后者的话,那么研究员似乎确实没有什么存在的价值了。但这个问题显然不能如此消极地回答,我想更为重要的是思考:人类将如何证明其驾驭 AI、而非被 AI 驾驭的价值呢?什么样的态度和能力是重要的呢?我思忖了一些时间,有一些未必成熟的想法:
发现和提问的能力:如果答案终将跟随算力变得越来越廉价,那么发现并精确地描述的问题,其价值将更胜于答案;
独立与批判性的逻辑框架:我们将越来越频繁地面对各类虚假事实和错误结论的挑战,扎实的知识储备是必要的,同样也需要独立、警惕和批判的态度,以及对任何信息进行交叉验真的技能也必不可少。
深度独创研究的能力:AI 归纳梗概的高效率和清晰的结构性表达,将使得涉及浅层知识的内容创造和传播变得极端高效,以及冗余。而研究者需要拥有的竞争优势在于:用深度、独创、实在的研究,对浅知识形成压倒性的增强。
信息赋权和决策的能力:我不怀疑 AI 最终会具备一定的预测能力。但人类所不同的是,我们对信息作出自己的赋权,并作出决策、付诸行动。我们的精力将越来越注重终端的决策,提高决策的胜率、并降低错误决策的影响,将是人类越来越不能回避的问题。
杜绝语言的腐败:这一点想法,来源于我看到的一篇用 ChatGPT 做的城市发展远景规划,其中竟也充斥着相当多官样文章。Rubbish in rubbish out,我们太习惯用复杂的语言来掩饰真实的目的、扼杀创新的想法,既然AI提供了语言使用的一种新的形式,创造了新的可能,我们是否可以改变「语言的腐败」?——精炼直白,直抵核心。
行文至此,我也想到人类玩家的另一个、或许也是最凸出优势:相比起 AI 而言,大多数人在很长一段时间内仍将更愿意相信人类。何然?人未必比 AI 更为正确,但具体的人可以成为明确归咎的主体,而他们对价值的鲜明坚持也使得他们更为鲜活可爱。我想最重要(也可能是有点中二)的一点是,是要有身为人类的觉悟,承担起全部的风险和责任,勇敢地进入与 AI——这个人类造物共存的新世界。

PS5 的「怪异」新手柄,是游戏未来的缩影|硬哲学

十七年过去,MacBook Pro 从小众走向大众


文章来源: http://mp.weixin.qq.com/s?__biz=MjgzMTAwODI0MA==&mid=2652228219&idx=1&sn=48312da6009d2740dc74987f9dcdea81&chksm=9b635ce4ac14d5f211922f708b11e5f8224ff7da54128361f14ee7f67d3dc856b4ebd920b0ec#rd
如有侵权请联系:admin#unsafe.sh