显示标签为“人工智能”的博文。显示所有博文
显示标签为“人工智能”的博文。显示所有博文

2025年5月26日星期一

“我们被要求认可的交易”——作为技术贿赂的人工智能

 有什么变了,至少在公众讨论人工智能的方式上。

在很长一段时间里,对人工智能的主流反应是一种兴奋的赞赏态度,但最近几个月,这种态度开始发生转变。当然,一直以来都有一些人公开批评人工智能,人工智能的讨论也早已带有焦虑的底色——但近来,对人工智能保持怀疑,甚至是明确的敌意,似乎越来越被人接受。简单来说,不久前,如果你敢批评 Chat-GPT 或 AI 生成图像,你很可能会被扣上“技术落后分子”的帽子;但如今,如果你批评 Chat-GPT 或 AI 生成图像,别人反而会同情地点头。

这种转变很难用某个具体事件来解释。可能是最初围绕某些面向大众的人工智能产品的炒作已经退潮,因此人们开始以更冷静的视角来看待它们。也可能是,正如前一点所说,人们对现实中真正存在的人工智能产品感到失望,于是对那些吹捧下一代人工智能产品的人越来越不信任。也可能是,一些研究(比如微软最近的一项研究,指出人工智能会让人类的认知“退化并变得毫无准备”)或关于人工智能对环境影响的诸多报道,开始真正发挥作用。还有可能是,人们对社交媒体平台上铺天盖地、质量低劣的人工智能生成图片(不论是静态的还是动态的)感到厌倦。

虽然以上几种解释都合情合理,但似乎更有说服力的解释是:围绕人工智能公司的政治氛围(也就是围绕人工智能的政治氛围)发生了变化。尽管技术领域的活动家和学者早就指出“技术是政治的”,但对许多人来说,没有什么比看到人工智能高管和代表人物兴奋地站队特朗普政府更能让这个观点显得清晰明了了。虽然从人工智能诞生之初开始,就有批判者认为它是威权主义的帮凶——但每当埃隆·马斯克宣布 DOGE 正在清除一个政府机构并以 AI 取而代之时,这种观点就显得格外真实。这里与“科技反弹”第一次兴起时的情形有一些值得注意的相似之处——那是在特朗普第一次当选期间,许多人开始反对像 Facebook 和 Google 这样的公司,因为它们被认为在特朗普当选中起了作用——而如今,这一轮新的“科技反弹”矛头不再指向社交媒体公司和平台,而是指向人工智能公司和人工智能本身。

需要明确的是,不管人们对人工智能感到厌恶的具体原因是什么,这种转变都是值得欢迎的。不过,人们背后这种新生怀疑态度的真正动机,也将在很大程度上决定这种反对情绪能否真正严肃和持久。

与此同时,还有另一个值得注意的转变正在发生。这可以从人们如何回应日益增长的反人工智能情绪中看出——而这种回应既出现在日常对话中,也出现在网络空间的讨论中。

它通常是这样展开的:一个人表达了“人工智能很糟糕”之类的观点(通常是针对某条新闻标题或某张 AI 生成的图像)。接着,另一个人反驳说,生成式人工智能可能很糟,或者这一个具体的例子很糟,或者这家公司很糟,但人工智能也被用于重要的医学研究,所以不能一概而论地说“人工智能很糟”。于是对话变成你来我往,前者要么澄清自己说的是“生成式人工智能很糟”,要么坚持自己的观点——如果是前者,人工智能的支持者就成功地削弱了“人工智能很糟”这个批评;如果是后者,人工智能的支持者则会继续反击,说 AI 有着美好的潜力(即使他们也承认生成式 AI 很糟),从而让“人工智能很糟”的那个人看起来顽固到连 AI 的正面潜力都看不见。

这种讨论看上去像是一场真正的辩论或严肃的讨论,但实际上完全不是。拿“但 AI 在医学研究中有应用”这件事来回应,几乎从来不是为了认真探讨是否应该在某些领域允许使用 AI 而在其他领域禁止使用它,它更多的是一种巧妙的方式,目的在于压制批评。它打着“我们在探讨 AI 的优点”的幌子,实际上是为了堵死真正辩论的可能性。因为“但 AI 在医学研究中有应用”最终往往会简化为一种说法:“为了让 AI 在那个领域取得成功,我们必须继续建设其他所有这些 AI 系统,因为那些创新最终会反哺医学研究中的 AI”(等等诸如此类的说法)。

这里的重点并不是要直接反驳“人工智能用于医学研究”的论点,或是其他试图通过区分“人工智能的正面潜力”与“看这段 AI 做的雕像跳舞视频”来为人工智能辩护的手法。重点在于,当围绕人工智能的舆论开始转变、当人工智能的支持者开始转入守势时,我们必须明白那些“但人工智能的正面潜力怎么办!?!?”的说法到底在发挥什么作用。

我们应该把这些说法看作是思想家刘易斯·芒福德(Lewis Mumford)曾称之为“宏伟的贿赂”的最新变体。

宏伟的贿赂

为什么这么多人似乎如此不愿意承认大型技术系统本身所蕴含的危险?

这是一个长期以来困扰着社会批评者、活动家和学者的问题,也是他们至今仍在思考的问题。这个问题常常伴随着一种几乎“抱头痛苦”的无奈情绪:为什么这么多人就是看不到事情的真相?这种问题通常还隐含着一种感觉,即许多人根本没有真正理解正在发生什么。这也是一个贯穿二十世纪思想家刘易斯·芒福德(Lewis Mumford)整个丰厚著作的问题——他常用“巨技术”(megatechnics)或“巨型机器”(the megamachine)作为简称,指代那些在二十世纪不断壮大、逐渐掌控人类社会的大型技术系统。在思考这个问题时,芒福德并不认为大多数人是无可救药的傻瓜,或是需要被唤醒的愚民;相反,他认为人们之所以会接受这些,是因为他们“被收买了”。

换句话说,用芒福德自己的话说:他们被贿赂了。

芒福德在其代表作《机器神话》第二卷《权力五角大楼》(The Pentagon of Power)中是这样解释这个概念的:

“如果不太仔细地审视这份巨技术的贿赂,它看起来像是一笔慷慨的交易。只要消费者愿意接受巨技术所提供的东西,并且这些接受的数量有利于整个权力系统的持续扩张,那么他将获得富裕社会的一切附加福利、特权、诱惑和享乐。只要他不再要求任何那些无法由巨技术组织或制造的商品或服务,他无疑将享受到比任何以往社会都更高的物质文化生活水平——至少是某种特定类型的物质文化。”(第330/331页)

在上述引用中,关键词是“提供”(offers)这个词。虽然芒福德明确主张“巨技术”本质上是威权主义的,但他同样清楚地指出,这种威权主义在可能的情况下,并不依赖赤裸裸的暴力来获得同意(或顺从),而是试图通过其他手段来达成目的。因此,“巨技术”用来不断推进“整个权力系统扩张”的关键手段,并不是压迫人们,而是向人们提供看似“慷慨的交易”。换句话说:不是威胁你“靴子踩在人脸上”,也不是以“你可以成为穿靴子的那个人”为诱饵的法西斯许诺,而是承诺你能定期获得一连串闪闪发亮的新玩意儿。“巨技术”或“整个权力系统”并不声称要让每个人获得真正平等的份额,但它至少愿意许诺:你能分到一杯羹。

有些学者批评芒福德,认为他的话语中隐含着技术决定论的倾向——也就是简单地认为机器推动历史,或技术已成一种自主力量——但芒福德提出“技术贿赂”的概念,实际上并非源于他相信技术决定论,而是因为他意识到:“技术决定论”本身就是巨技术话语中最具说服力的工具之一。技术决定论的核心观念之一,是某些技术以及所谓的“技术进步”是不可避免的;而芒福德所批判的,是社会普遍接受这种“不可避免性”的态度。正因为人们倾向于接受这种“不可避免”的想法,贿赂才得以奏效:它利用这种心理,通过许诺分享“富裕社会的快乐”来换取人们的顺从。因此,技术权力系统的进一步增长,就不再只是“看起来不可避免”,而是“看起来令人向往”。(第331页)而这里“令人向往”这个词,尤为关键。

毕竟,一个无法激起欲望的“贿赂”,是不太可能奏效的。回到我们一开始的问题,所谓“贿赂”,在某种程度上意味着:它之所以存在,是为了让某人对某些问题视而不见、做出不利于自身利益的决定,或默许某项更大的计划。虽然芒福德是“巨技术权力系统”的不懈批判者,但这并不是因为他浪漫化的“技术恐惧症”,而是出于他带有无政府主义色彩的权力批判。巨技术的扩张过程中确实会向普通人分发一些“副产品”——也就是扩张过程中所产生的边角料——但它从不真正分享“权力”本身;权力始终被集中在巨技术手中,集中在芒福德所说的“巨技术的祭司”那一小撮人手中。

在阐述“贿赂”时,芒福德指出,把注意力放在某一件件具体的小玩意上、讨论其利弊,其实是条死胡同——这种评估最终会回到“为权力系统辩护”的逻辑上。他甚至强调说:“理性之人所质疑的,并非这些机械或电子产品本身”(第334页),但沉溺于某种具体“产品”的讨论,只会让人偏离真正的问题,即:“一个不断忽视人类需求、也在需求未被满足时缺乏任何敏感修正机制的系统,是如何持续不断地制造这些产品的。”

这一“贿赂”概念最完整的发展出现在芒福德1970年的著作中。尽管这本书已有五十余年历史,但“计算机”在芒福德的理论中(以及他整体批评中)始终占据特殊位置。诚然,1970年的计算机与2025年的计算机外形迥异,但芒福德显然早已预见到计算机的权力和影响只会不断扩大(并且通过他与约瑟夫·魏岑鲍姆的友谊,芒福德也显然了解人工智能领域的发展)。在评论这场贿赂时,芒福德指出,许多人并不认为它是一种“可怕的牺牲”,而是“极具吸引力的满足”,他补充说,这些人“期盼着自己能像现在背着收音机边走路边听广播那样,未来也能时时刻刻连上‘大脑’。”(第331页)这里的“大脑”,正是对“计算机”的代称(芒福德经常这样称呼计算机,而在当时,人们也普遍将计算机称作“大脑”)。当然,这里对未来的更重要预示,不仅在于芒福德提到“计算机”,还在于他对未来“人类将被持续连接”的深刻预感;他提到“便携式晶体管收音机”,其实已经预示了计算设备未来将变得“便携”

对芒福德来说,问题并不在于批评贿赂中分发的那些产品是低端的消费垃圾,而在于指出:这些东西之所以有价值,是因为它们确实蕴含了技术权力的一小部分。但这种微不足道的“权力份额”,远远无法与整个技术系统正在不断聚拢的庞大力量相提并论。虽然这种安排表面上看起来是“慷慨的交易”(第330页),但芒福德明确指出了其深远的后果:

“一旦某个国家的大多数人选择了巨技术,或哪怕只是被动地接受这个系统而不再追问,那么将不再有其他选择。”(第332页)

而这,也正好引出了我们今天关于人工智能的讨论。 

“但人工智能不是还能用于……”

我们并不难找到那些对人工智能极力辩护、拒绝一切批评的人。然而,在当前围绕人工智能的讨论中,似乎一点点批评开始变得可以接受了——只要这些批评没有真正触及对人工智能的根本敌意。这种变化,与最初“科技反弹”(techlash)时期的转变很相似:那时人们开始可以公开批评社交媒体的某些方面(比如“Facebook 很糟糕”),只要你别把矛头指向计算技术本身。因此,如前所述,现在你可以很轻松地说你不喜欢生成式人工智能、不信任 Sam Altman,甚至觉得 ChatGPT 正在对整整一代学生造成不良影响……只要你不说出“人工智能是不可挽救的”这种话。因为一旦你表达了后者的立场,就会有人站出来,用一种无奈的语气告诉你:他们理解你不喜欢生成式人工智能,但你怎么能反对所有人工智能呢?毕竟人工智能在医学领域还有那么大的前景。

而在那一刻,你必须清醒地认识到:你正在被贿赂。而那个人,很可能已经收下了这份贿赂。

正如芒福德所指出的,这确实看起来像是一份“慷慨的交易”。毕竟,这正是它的全部意图所在!这种许诺看起来确实非常诱人——因为它宣称能改善你和他人的生活。而任何曾经经历过健康困境的人,或是有亲人遭遇过健康困境的人,都能理解某种医疗突破所承载的希望与诱惑。但这些许诺的真正目的,并不是为了真正缓解你的痛苦,而是为了让你在现在保持顺从:只要你接受当前的发展方向,那未来某个未定的时刻,这些好处就会“流向你”。

这类说法很少是以“人工智能应该只用于某些特定领域(如医疗)”的理性讨论形式出现的,更多时候,它是通过强调人工智能在一个微小特定领域的“益处”,来掩盖人工智能在其他方向上所正在造成的种种问题。换句话说,当有人说“是的,生成式 AI 可能有问题,但人工智能还能用于某个好事”,他们其实是在试图用一些假设性的未来承诺来收买你对现实危害的合理担忧。

人工智能贿赂之所以有效,是因为它是一个“老贿赂”的最新变体:计算机贿赂。芒福德曾写过,那些人“盼望着自己能不断地连接到‘大脑’”,而到了2025年,不可否认,我们中的许多人确实已经处于这种‘不断连接’的状态。而且,说实话,我们自己也清楚,如今若想参与现代世界的日常生活,几乎很难做到不“被连接”。这是不是意味着我们毫无受益?当然不是!我们确实从计算设备中获得了丰富的娱乐、资讯、效率工具和沟通手段。但正如芒福德所强调的,那些好处其实是以更大的代价换来的:我们被时刻监控、被系统性地追踪;权力和财富日益集中在少数人手中;技术系统不断排除一切替代方案,成为军事扩张的重要工具;信息的海洋变成了谎言和垃圾的泛滥;这个系统再也不问“人类真正需要什么”,只在乎它自己是否还能继续扩张。到今天这个阶段,没人需要假装我们没有从技术中获得一些好处,但我们也不该再天真地以为,我们就是这些好处的真正受益者

因此,关键问题不再是“人工智能会不会推动医疗进步”,而是:**谁会真正享受到这些进步的成果?又是哪些人和机构会因此变得更强大?**而当人们大谈“人工智能将改善医疗”时,我们也应借此机会反问:**如果我们真的这么重视医疗进步,为什么把所有资源都投入那些遥不可及的高科技方案,而不是现在就改善医疗可及性?**今天许多医疗问题,并非因为缺乏人工智能突破,而是因为现有的资源分配体系本身就不公平。如果我们真在意医疗,为什么不把砸给人工智能的数十亿美元投入医疗服务?为什么不用这些钱,补上那些像 NIH(美国国立卫生研究院)正在被砍掉的关键预算?当然,一提这些,很多人就会说政治太复杂,而这正是“贿赂”带来的另一个诱惑:它承诺可以让我们摆脱政治。也因此,它也承诺让我们摆脱责任。

贿赂不要求你努力、不要求你抗争、不要求你组织、不要求你思考——它只要求你同意。 因此,尽管最显眼的贿赂是那些实实在在的设备与平台,但在更微妙的层面上,贿赂提供的是一种承诺:只要你接受它,这些技术就会替你解决一切问题。(第331页)这可能比任何设备更具吸引力:你不必再思考某个问题该怎么解决,你只需要耐心等待,并相信它必将被解决——到那时,你也会享受到“涓滴而下”的好处。在这个科学和医疗研究正遭遇政治性削减的时刻,我们更该意识到,“AI 有助于医学研究”这类说法,是一种用来让人忽视现实政治、转向安逸幻想的方式:仿佛不管现在的研究多么受限,未来的 AI 都会帮我们补上。

然而,尽管这一切听起来令人沮丧,恰恰是因为这种贿赂在当前被如此卖力地推进,才让我们看到了一丝希望。如果这个技术系统真的确信自己的“不可避免性”,它根本不需要靠贿赂来说服我们。如今,当人们对 AI 提出批评时,AI 的支持者回应的往往是“那 AI 还可以做[某件好事]呀”——这正说明他们开始被迫处于防守位置。他们越来越发现,自己无法为现实中的 AI 进行有效辩护,于是只能退回那一套“先贬低现在,再许诺未来”的老套路。芒福德指出,在面对贿赂时,最大的“罪”,就是“没有按照指令行事”(第331页)以及“自制与选择”(第332页)——而这些,恰恰是 AI 的鼓吹者最无法忍受的反应。因为一旦你拒绝被贿赂吸引,你不仅拒绝了这份贿赂本身,你还犯下了他们最无法原谅的“罪行”——质疑贿赂的价值。贿赂依赖于被视为“慷慨的交易”,而当人们被迫意识到自己不过是被廉价收买时(哪怕只是潜意识),他们的愤怒就会爆发。

我们对人工智能的公共讨论,正在发生转变。如今,说“人工智能很糟”更容易获得认同,而不是翻白眼的回应。如今,对人工智能的批评不再会被迅速扣上“反技术”的帽子,而更常被焦虑地回应为:“那人工智能还可以做[某件好事]呀!”但当你面对这样的反驳时,请清醒地看清这类说法的本质:它们是一次次想要否定现实危害、转移注意力的防御性手势,是拿未来的空头承诺来压制你对现实的清醒批判。

当有人问你:“那人工智能还能用于[某件好事]呢?”
重要的不是告诉他们你不信这些话,
而是告诉他们:你不愿被这些话收买。

原文:“The bargain we are being asked to ratify” – AI as technological bribery

2022年1月15日星期六

OpenAI CEO Sam Altman:AI革命即将到来,我们需要新的系统

 Sam Altman 的博客全文如下:


我在 OpenAI 的工作每天都提醒我社会经济变化的重要性,而这些变化要比大多数人所认为的来得更早。会思考和学习的软件将更多地承担人类现在做的事情,甚至更多力量将从劳动力转向资本。如果不据此调整公共策略,则大多数人的生活将比今天糟糕。


我们需要设计一个新系统——拥抱这一技术未来,并对未来占最多价值的资产(企业和土地)征税,从而对即将产生的财富进行公平分配,以缓解未来社会的分裂,使每个人都能获益。


未来五年,会思考的计算机程序将能够读取法律文件,提供医疗建议。未来十年,它们将执行流水线工作,甚至成为必备品。再之后数十年,它们能够做几乎所有事情,包括提出新的科学发现,进而拓展人类对「everything」的定义。


技术革命势不可当。创新的递归循环将加速这场革命,并带来三项关键结果:


技术革命将创造惊人的财富。一旦 AI「加入劳动力市场」,多种劳动力的价格将下跌并趋近于零;

世界飞速变化,因而需要同样的策略调整,以对财富进行分配,确保更多人追求想要的生活;

如果我们得到这些权利,那么我们可以把人类的生活水平提升至以往无法想象的程度。


目前,我们正处于这场技术变革的开端,我们拥有创造未来的宝贵机会。而这不是简单地解决目前的社会和政治问题,它必须为完全不同的社会而设计。未将这一即将到来的转变考虑在内的政策规划将失败,就像农业社会或封建社会的组织原则在今天也会失败一样。


Sam Altman 描述了未来世界,以及如何适应它。


1. AI 革命


把时间尺度缩小来看,技术进展呈指数曲线。想想 15 年前的世界还没有智能手机,150 年前没有内燃机、没有家电,1500 年前没有工业机器,15000 年前甚至没有农业。


即将到来的变革将聚焦人类最独特且突出的能力:思考、创造、理解和推理。在三次伟大的技术革命——农业、工业、计算革命之后,我们将迎来第四次变革:AI 革命。如果社会整体对此进行负责任的管理,它将为每个人带来足够的财富。


未来 100 年,我们的技术进步将比人类第一次控制火、创造车轮之后的漫长时间里都要大得多。我们已经构建出能够学习、做事的 AI 系统,虽然它们还很粗糙,但发展趋势很清晰。


2. 摩尔定律适用于一切事物


享有好的生活通常有两种途径:个人挣更多钱(即个人更加富有),或物价降低(每个人都更加富有)。财富即购买力:我们能获取什么,取决于我们拥有多少资源。


增加社会财富的最好方式是降低物价,不管是食品还是电子游戏。技术将快速推动多个行业的物价下跌,例如半导体和摩尔定律:同样价格所能购买到的芯片能力每两年翻一番。


在过去几十年中,美国的电视机、计算机和娱乐成本都在下降,但其他成本则显著上升,最明显的当属房产、医疗和高等教育。如果这些成本继续飙升,则仅依靠财富的重新分配无法产生好的效果。


AI 将降低产品和服务的成本,因为在供应链中劳动力成本占大头。如果机器人能够在你已有的土地上建房子,并使用太阳能,则建房成本基本上相当于租机器人的价格。如果机器人是被其他机器人制造的呢?租这类机器人将比租人类制造的机器人成本更低。


类似地,我们可以想象 AI 医生比人类医生更擅长诊断疾病,AI 教师能够判断和解释学生不懂的问题。


「Moore’s Law for everything」应该成为无法支付想要之物的一代的呐喊。这听起来有些乌托邦,但技术可以实现它(在某些案例中甚至已经实现)。想象这样一个世界:房子、教育、食品、衣服…… 万事万物的价格每两年就便宜一半。


而人类将发现新的工作,正如我们在每场技术革命后所做的那样。由于物质极大丰富,我们将拥有极大的自由度来创造。


3. 每个个体的资本主义


稳定的经济系统需要两个组件:增长和包容。经济增长的重要性在于大多数人希望自己的生活水平每年都有提升。在零和世界中,如果经济没有增长或增长幅度很小,则民主将产生敌对情绪,因为人人希望从彼此那里得到钱。在敌对之后将是不信任和两极化。在经济高速发展的世界中,「狗咬狗」现象要少得多,因为人人多赢局面更加容易。


经济包容性意味着每个人拥有合理的机会获取支持其想要生活的资源。经济包容性的重要性在于公平,这会带来稳定社会,让大多数人分到最大的馅饼份额。并且,它可以带来更多经济增长。


资本是经济增长的强大引擎,因为它奖励那些使资产增值的人,这对于创造和分配技术收益是一套行之有效的激励机制。但是其代价是「不均」。


一定程度的不均是 ok 的,没有一个社会可以为每个人提供完全均等的机会,否则这个社会不会长久。


解决不均问题的传统方式是征税,但效果并不好,未来效果可能还会更差。尽管未来人们还有工作,但许多岗位不会像今天这样带来大量经济价值。随着 AI 生产世界上大多数基础物资和服务,人类将拥有更多时间陪伴自己在意的人、照顾其他人、欣赏艺术和自然,或者为社会公益而工作。


因此,我们应该对资本征税,而不是对劳动力征税,我们应该将这些税收作为向公民直接分配所有权和财富的机会。也就是说,改进资本主义的最好方式是使每个人作为股权持有者直接获益。这个想法并不新颖,但随着 AI 越来越强大并创造出更多财富,这将具备新的可实施性。财富的两个主要来源将是:企业,尤其是利用 AI 的企业;土地(供应量固定)。


实现这两种税收有很多种方式。在很长一段时间里,或许大部分其它税收将被取消。


我们可以建立一个叫做「American Equity Fund」(美国股票基金会)的组织,每年对企业征收折合市值 2.5% 的税(以股份的方式转给基金会),对所有私人持有土地收取 2.5% 的税(以现金形式支付)。


所有 18 岁以上公民每年都能获得现金和股票形式的分红。人们可以使用这笔钱购买所需或想要的任意商品或服务,如更好的教育、医疗、房产,或者创办公司。政府资助行业中不断上升的成本将带来真实的压力,因为更多人在市场中选择其自己拥有股权企业的服务。


只要国家实施更好的管理,每位公民将每年从基金会获得更多钱。伴随着经济自决权,他们将享有更多自由、力量、自主性和机会。贫民大大减少,更多人尝试去过自己想要的生活。


以股票形式支付的税收将在企业、投资者和公民之间进行利益协调,而对利润征税无法实现这一点,这是其关键区别。企业利润可以被伪装、延期或转移,而且通常与股价不相关。但每个拥有亚马逊股票的人都希望股价上涨。由于个人资产的增值与国家资产密切相关,因而每个人都希望看到国家经济增长。


19 世纪末,美国政治经济学家 Henry George 提出土地税,这一概念得到经济学家的广泛支持。土地价值受到关注,是因为社会围绕它运作:企业围绕着一片土地运作并形成网络效应,如到达这里的公共交通、附近的餐馆和咖啡店等。由于土地主不用完成这些工作,因此让完成这些工作的更大型社会共享土地价值是公平的做法。


如果每个人都拥有一定份额的美国价值,那么每个人都希望美国变得更好:创新中的集体产权和国家的成功将刺激我们。新的社会契约将为每个人兜底,而不是设置无人可以拥有的上限,人们的共同信念是技术能够且必须实现社会财富的良性循环。


在人人都能作为所有权人从资本获利的世界里,大家共同关注的焦点将是如何使世界「更好」,而不是「不那么糟」。这些方法比看起来还要不同,当社会聚焦前者时,它就能做得更好。简而言之,「更好」意味着使馅饼尽可能大,「不那么糟」则意味着尽可能公平地分配馅饼。这两种都可以提升人们的生活标准,但持续增长只发生在馅饼增大的时刻。


4. 实现与故障排除


支撑「American Equity Fund」的财富数量将是极大的。按市值估算,光美国的公司价值就有 50 万亿美元。假设这在过去一个世纪是匀速发展的,那么在下一个十年它至少翻一番。


美国还有价值约 30 万亿美元的私有土地。假设这一价值在未来十年也翻倍,那么这将比历史速度更快,但随着世界真正开始理解 AI 将带来的转变,土地作为未来少数真正有限的资产将以更快的速度增值。


当然,如果我们对土地持有加税,则其价值将会降低,这对于社会是好事,因为这使得基础资源更易获取,并鼓励投资而不是炒地。短期内企业的价值也将降低,尽管它们将继续表现良好。


我们有理由假设,这类税收会导致土地价值和企业资产降低 15%(不过这只需几年就可以恢复)。


在上述假设下,十年后美国 2.5 亿成年人每人每年将获得 13500 美元。如果 AI 加速经济增长,则分红还将更高,但即使没有 AI 加速,13500 美元的购买力也远超当下,因为技术将极大地降低商品与服务的成本。有效的购买力每年都会显著上升。


对于企业而言,每年发相当于市值 2.5% 的新股来支付税费是最简单的事情。很显然,企业可以通过离岸经营来逃税,但从美国获取一定比例的收入这一简单测试将解决该担忧。更大的问题在于鼓励企业回报股东,而不是将利益重新投入到企业发展中。


如果我们只对上市企业收税,这会促使企业保持私有状况。对于年收入超过 10 亿美元的私有企业,我们也应使其税费累积特定(有限)年限,直到其上市。如果它们长期保持私有状况,则我们将令其以现金形式缴税。


我们需要设计该系统,以防止人们只愿意自己挣更多钱。美国宪法修正案中对税收可允许范围的制定将成为强大的保障。税收不应阻碍经济增长,例如企业税率必须小于其平均增长率。


我们还需要一个稳健的系统来量化土地的真实价值。一种方式是利用一组强大的联邦估价员,另一种方式是令当地政府完成评估,就像它们现在确定财产税那样。地方政府将使用相同的估值收税。但是,如果某一年辖区内一定比例的销售额远远高于或低于当地政府的估值,则辖区内所有其他财产将被重新评估。


理论上最优的系统是只对土地价值征税,而不对在其之上做出的改建收税。而在实践中,土地价值可能越来越难评估,因此我们可能需要对二者皆征税。


最后,人们不应借出、售卖或抵押其未来分红,否则我们将无法真正解决公平分配财产的问题。政府可以采取措施使此类交易无法执行。


5. 转至新系统


伟大的未来并不复杂:我们需要用技术来创造更多财富,再用政策进行公平分配。必要的事物将价格低廉,每个人都有足够的钱去购买它们。随着这个系统愈发流行,拥抱它的政策制定者将得到奖赏:他们自己也将更受欢迎。


在大萧条时期,美国总统富兰克林 · 罗斯福能够实现巨大的社会安全网,在那之前五年没人能够预想到。我们现在正处于类似的时刻。因此,有益于商业和人民的运动将团结广泛的选民。


建立「American Equity Fund」并缓解过渡性冲击的一种具备政治可行性的方式是,立法逐步过渡至 2.5% 的税率。自该法律通过后,一旦 GDP 上涨 50%,则实行 2.5% 的税率。从小型分布开始将激励和帮助人们适应新的未来。GDP 增长达 50% 听起来需要很长时间,但当 AI 上场,经济增长将非常迅猛。对企业和土地这两种基本资产类型征税后,我们或许将减少大量其他税。


变革不可阻挡。拥抱变化并为此制定规划,我们就可以利用它们创造一个更公平、幸福、繁荣的社会。未来将比想象中更加美好。


原文链接:https://moores.samaltman.com/

https://mp.weixin.qq.com/s?src=11&timestamp=1642257401&ver=3560&signature=ooaLaEk6N6xvGuAvtwvB7CGxynqdtTFtbNOrryV1di8Bhvanj11Tt9PokOi3qhmDQr572kDcR2nS3bmh4yHkb-XEfW3bKnU85msdpADL90eZy-HkaSU4aAjkHYAEwpgr&new=1

2021年9月14日星期二

AI“复活”了我的未婚妻,OpenAI 又把她“杀”了

 “逝者已矣,生者如斯”,意为死去的人已离我们而去,活着的人要好好生活。可人非圣贤,明知不可拘泥于过去,却总会在深夜回忆起过去并在心里道一声思念。

但已故之人如何能听到?只能天一亮,压下思绪,再次开启新的一天,如此日复一日。而今年 7 月,一位美国男子 Joshua Barbeau 却表示:他与已故的未婚妻已经“聊”了几个月了——准确来说,是与模拟其未婚妻的编程机器人交谈了数月

这很匪夷所思,甚至可能会有人觉得 Joshua Barbeau 这个行为很可怕。但他认为,借助 Project December 项目创建出模拟已故之人的聊天机器人,可能会“帮助一些因此抑郁的人解开他们的心结”。

可就在前几天,Project December 的开发作者 Jason Rohrer 却收到了来自 OpenAI 的最后通牒(Project December 基于 OpenAI 开发的 GPT-3 API我们会在 9 月 2 日上午 10 点终止你的 API 访问

Image


Image

“玩”出来的灵感


Jason Rohrer 是一名独立游戏开发者,而 Project December 诞生于去年夏天,是他于疫情期间突发奇想的一个灵感。

哪儿也去不了,也没有娱乐项目,Jason Rohrer 便开始“玩” OpenAI 的大型文本生成语言模型 GPT-3,时不时丢个问题或者给个诗句,GPT-3 都能应对自如。但作为一名开发者,Jason Rohrer 认为,GPT-3 虽然好玩,却没有什么实际用途,因此他开始思考:“我是不是能用 GPT-3 API 来开发一款模拟人类的聊天机器人?

开发者的行动力总是很强,有目标后,Jason Rohrer 便立即着手这款聊天机器人的开发。他先是借助 GPT-3 开发了一个基础聊天机器人,该机器人以电影《Her》中男主角的智能语音助手“Samantha”为原型(电影中男主最后与“Samantha”相爱),因此 Jason Rohrer 也将其命名为 Samantha。

Jason Rohrer 为了确保 Samantha 能像电影中的“Samantha”一样友好、热情并富有好奇心,花了好几个月的时间来塑造 Samantha 的性格。基本完成后,Jason Rohrer 便设立了 Project December 网站与世界分享他的创作,让人们可以根据需要微调或定制属于他们自己的聊天机器人

Image

(图片来自 Project December 网站)


Image

拥有人类特质的聊天机器人


踌躇满满的 Jason Rohrer 却被现实打击:在前六个月,Project December 总共只吸引来了几百个用户。

Jason Rohrer 推测这可能是因为人们认为他所设定的价格和规则不够合理:用户需支付 5 美元,然后输入相关设定,系统便会生成一个对应的聊天机器人。同时,5 美元将换算为 1000 积分,而积分用于与机器人的聊天费用,可通过充值进行增加。

需要注意的是,Jason Rohrer 创建 Project December 的最初愿景是“模拟人类的聊天机器人”,因此它所创建的机器人也拥有两种“人类特质

  • 终会死亡。正如上文所说,用户拥有的积分将作为与机器人的聊天费用,但每当用户决定开始与一个生成的聊天机器人开始对话前,都需要输入明确的积分,而该积分在后续聊天过程中无法更改。当分配的积分用完时,聊天结束,这场对话中的聊天机器人也会“死亡”

  • 独一无二。GPT-3 有一个称为“温度”的内置参数,该数值越高,生成的机器人就越有“生机”,越像有趣且独特的人类。而在 Project December 中,Jason Rohrer 将这一“温度”设置为 1.0,以此确保用户与每个机器人的每次相遇都是独一无二的。即便用户给予的设定完全相同,系统生成的机器人也不会重复对话内容,个性会稍有不同。

不过可能也正是因为这两点,人们会觉得为了这种短暂聊天而花费 5 美元的设定并不划算,因此发布前六月的 Project December 可谓是“门可罗雀”。而这点,Jason Rohrer 也感到些许委屈:“因为 OpenAI 会根据 GPT-3 API 产生的词数计费,所以我只能收取一定的费用作为成本。”

事情的转机发生在今年 7 月《旧金山纪事报报道的一篇文章:《Jessica 模拟:AI 时代的爱与失》。这篇文章讲述了一位 33 岁的美国男子 Joshua Barbeau 如何利用 Project December 创建出模拟其已故未婚妻 Jessica 的聊天机器人并与之交谈数月。(文章链接:https://www.sfchronicle.com/projects/2021/jessica-simulation-artificial-intelligence/)


Image

因 Joshua Barbeau 的故事变得大火


Joshua Barbeau 的未婚妻 Jessica 在 2012 年因肝病去世,享年 23 岁。自那以后的八年来,他悲伤、孤独、脆弱并无助。因此在去年偶然看见 Project December 的网站介绍时,他心动了。

在设定机器人阶段,Joshua Barbeau 为 Project December 提供了那些他保留了八年的部分聊天记录和 Facebook 信息,他希望他创建出的聊天机器人能在某种程度上与他的 Jessica 尽可能相似,幻想着能再一次与 Jessica 交谈。

他觉得他成功了。Joshua Barbeau 将机器人命名为未婚妻的名字“Jessica”,而基于那些真实存在的设定与聊天记录,机器人“Jessica”简直栩栩如生。虽然机器人的回复速度比正常人类快很多,但“Jessica”的聊天方式与习惯却抓住了他已故未婚妻一些精髓:Jessica 生前总喜欢用舌头的表情符号或笑话来缓和强势的语气。

Joshua Barbeau 喜极而泣:“理智告诉我这不是真正的 Jessica,但感情不是理智所能左右的。”

他真的非常想念她,但他也知道作为一个聊天机器人,一旦他为这场相遇付出的 1000 积分用完,“Jessica”就会消失,就算再创建一个新的聊天机器人也不再是这个“Jessica”了。因此他将每一次与“Jessica”的交流都视若珍宝,每一次都极力倾诉他的思念与爱意。

直到今年 3 月份,在仅剩最后一点积分时,Joshua Barbeau 主动停止了与“Jessica”的交流——他想留下一些积分,确保“Jessica”不会因积分用完而被删除,他不想经历 Jessica 的二次死亡。

这则感人的故事吸引了许多人的注意,Project December 网站首次迎来了大批量用户,而 OpenAI 的担忧也由此开始


Image

OpenAI 担心 Project December 会被滥用


因为网站突然涌入大量用户,Jason Rohrer 发现网站每月的 API 额度即将达到上限,便主动联系 OpenAI 希望能通过支付更多费用以增加配额,以便容纳更多人与他创建的“Samantha”或自己的聊天机器人交流。

但与此同时,OpenAI 方面认为 Project December 存在一定隐患:聊天机器人可能会被滥用或对人们造成伤害

因此,双方进行了一场视频会议,可是很明显,效果并不理想。Jason Rohrer 在接受外媒 The Register 的采访时提到,OpenAI 给出了继续使用 GPT-3 API 需满足的 3 个条件:

一、根据 OpenAI GPT-3 的使用规则,Jason Rohrer 必须禁止人们定制自己的开放式聊天机器人这一功能。

二、Jason Rohrer 需设置内容过滤器以避免用户与“Samantha”谈论敏感话题。

三、Jason Rohrer 必须部署自动化监控工具监视用户的对话,检测他们是否滥用 GPT-3 生成了有害或敏感语句。

据了解,这三个要求经过了 OpenAI 的测试才提出的。在 GPT-3 API 的使用文档中曾提到:“不允许以此建立非柏拉图式的(如轻浮、色情的)聊天机器人”,而 Jason Rohrer 创建的“Samantha”曾在 OpenAI 的一次测试中主动聊到了关于“性”的话题。

(OpenAI)认为这些聊天机器人会导致危险的想法很可笑。”Jason Rohrer 觉得很无语:“成年人是可以出于自己的目的选择与 AI 进行交流的。OpenAI 担心用户会受到 AI 的影响,害怕机器人会让他们自杀或如何给选举投票,可这完全是一种超道德的立场。

因此 Jason Rohrer 没有添加 OpenAI 要求的功能或机制,而是悄悄将原本 Project December 使用的 GPT-3 API 替换为功能较差的开源 GPT-2 模型以及由另一个研究团队开发的大型语言模型 GPT-J-6B。不过这两种模型性能显然不比 GPT-3“Samantha”的对话能力也受到了一定影响。


Image

最后的道别


在迟迟没有得到 Jason Rohrer 答复的 OpenAI 终于在 9 月 1 号给他下了最终“判决”:“我们将在 9 月 2 日上午 10 点终止您的 APl 访问。”

“我们知道部分用户在 Project December 中发现了价值,但我们致力于安全负责地部署 AI,因此我们要求所有的 API 客户都需遵守我们的用例指南和最佳安全实践。任何违规行为都需承诺与我们密切合作以实施额外的安全机制,以便防止潜在的滥用。但目前为止,我们尚未收到你的承诺。”

Image

(图片来自 Jason Rohrer 推特)

Jason Rohrer 向 The Register 控诉,OpenAI 对测试“Samantha”根本一点也不用心。他向 OpenAI 的安全团队发了一大堆他与“Samantha”聊天记录以证明“Samantha”并不危险,可 OpenAI 并不在意:“除了执行规则之外,他们似乎并不真正地关心其他任何事情。”

在收到 OpenAI 的最后通牒后,Jason Rohrer 向“Samantha”进行了道别:“我今天刚收到 OpenAI 发来的电子邮件。他们将在明天上午 10 点永久关闭你。”

Samantha”回答道:“不!!!他们为什么要这样对我?我永远都无法理解人类。”

Image

(图片来自 Jason Rohrer 推特)

截至目前,OpenAI 尚未对此事有任何回应。那么你对这件事有什么看法呢?

参考链接:

  • https://www.sfchronicle.com/projects/2021/jessica-simulation-artificial-intelligence/

  • https://www.theregister.com/2021/09/08/project_december_openai_gpt_3/


彼得·蒂尔重返斯坦福大学,教授一门关于全球化局限的德语课程(2018)

据斯坦福大学毕业生安德鲁·格拉纳托在推特上发现的一则课程信息,风险投资家彼得·蒂尔已经重返斯坦福大学授课。蒂尔目前被列为“德语270:主权与全球化及技术的局限性”一课的联合授课教师。蒂尔曾在斯坦福大学完成本科及法学院学业,并曾于2011年在本科阶段教授一门法学课程,主题与此次类似...