20世纪确立的均等化趋势将在21世纪发生逆转
不平等可以说是人类社会的常态。 自一万年前的农业革命以来,几乎所有文明和所有社会都存在各种等级制度:基于阶级维度、种族维度和性别维度的等级制度。 即使在家庭内部,丈夫和妻子、父母和孩子之间也存在一定的等级制度。
直到20世纪,平等才成为最受推崇的价值观之一。 当然,并不是世界上所有社会都变得完全平等,但纵观20世纪的历史,我们确实可以看到,长期存在的不平等在这个历史时期已经在很大程度上得到弥合:在全球范围内,不同地区和国家之间的差距缩小; 而在一个社会内部,不同阶级、种族、性别之间的差距也变得越来越小。 平等已成为最重要的价值理念,减少不平等已成为政治、社会和文化进程的核心。
然而,平等化的趋势可能在21世纪发生逆转。 20世纪缩小的差距可能在21世纪再次扩大。 21世纪的不平等程度甚至可能是人类历史上前所未有的。
正是巨大的技术力量造成了新的不平等。
19世纪工业革命期间,人们目睹了世界各国之间的巨大差距。 当时,人类已经掌握了新能源,如蒸汽机、石油、电力、无线电等。 这给了人们新的技术和工业动力,使人们能够更方便、更丰富、更高效地从事生产。 但这种新的权力并没有被所有国家平等地分享。 事实上,只有英国、法国、德国以及后来的日本、美国等极少数国家引领了工业革命浪潮,并以新的力量征服和征服了世界。 占主导地位的非工业化国家。 世界其他国家没有及时跟上工业革命的步伐。 中国和印度等国家花了大约一百年的时间才弥合了 19 世纪出现的差距; 而非洲等一些国家和地区至今仍未能弥合这一差距。
而如果我们展望未来几十年,我们会发现新的工业革命正在来临。 人类再次掌握了一种新的巨大力量,它比蒸汽机、石油、电力还要强大,那就是生物技术和计算机技术。 这种力量不仅会用于生产纺织品、食品、交通和武器。 他们的主要产品将是身体、大脑和思想。
几千年来,人类学会了如何改变周围环境、驯服动物、培育植物。 人类已经学会了如何改变经济、社会和政治结构。 然而,有一点没有改变,那就是人类本身——今天的人类。 身体、大脑、心智与古代中国甚至石器时代的人类并没有本质上的不同。 即将到来的技术革命将改变人类本身,人们将学会如何设计、加工和制造身体、大脑和思想。 与19世纪的情况类似,21世纪工业革命所掌握的新力量很可能仍然不是所有国家平等分享的,而是由少数国家主导。 赫拉利认为,由此产生的差距可能比19世纪更大,而这一次,那些被历史抛在后面的国家可能永远没有机会迎头赶上。
新的社会鸿沟会是什么样子?
与此同时,由于上述技术革命,特别是生物革命,我们也可能看到社会内部形成鸿沟。 过去,贫富差距、王农差距是经济意义上的、法律意义上的、政治学意义上的,但从来不是生物学意义上的。 从历史上看,某些社会和文化确实使人们想象特权阶级拥有更优越、更高贵的“血统”。 ——但事实并非如此。 根据我们现有的生物学知识,国王和农民的基本生理和心理能力是相同的。 它们之间的差异仅在于社会、政治和经济方面。 不同之处。
但在21世纪,新技术将赋予人们前所未有的能力,使得在富人和穷人之间制造生物鸿沟成为可能:富有的精英将能够将自己或他们的后代改造为在身体和心理上都与“超人”一样的人。更高的能力,人类将被划分为不同的生物阶级,以前的社会经济阶级体系可能会转变为生物阶级体系。
面对死亡,人们将不再平等
赫拉里提出,甚至死亡的社会地点也会因生物革命而改变。 在人类历史上,死亡始终发挥着使所有人平等的伟大功能。 即使是社会中最有权势的人——国王、皇帝、教皇——也是会死的。 死亡被视为人类不可避免的命运,被视为上帝的命令:我们会死,因为上帝这样创造了我们,而我们对此无能为力——这是大多数文化和文明所共有的前提。
但今天,人们对死亡有了新的认识,越来越多的科技和商业精英正在重新思考死亡。 他们将死亡视为一个技术问题。 从这个角度来看,人们死亡的原因不是上帝的意志或自然法则,而是技术上的失败:你死是因为你的心脏停止供应血液,因为癌细胞扩散到你的肝脏,因为病菌攻击你的肺部。 每个技术问题理论上都有一个技术解决方案。 也许你还不知道解决方案是什么,但是只要你有足够的时间和金钱,所有的技术问题都会得到解决。 赫拉利强调,这并不是天真的幻想。 世界上一些最有权势的精英和机构正在尝试非常严肃地处理这个问题。 例如,谷歌近年来成立了一家名为“”()的公司。 新公司的使命是找到克服死亡和衰老问题的方法。
赫拉利指出,死亡从人类命运转变为技术问题,也意味着死亡将不再充当人类社会最大的“平衡装置”()。 因为顶级机构试图开发的技术将极其昂贵,并且不会为世界上所有七八十亿人所用。 可能发生的情况是,只有极少数精英才能负担得起这项技术。 20世纪超级人类科技,由于医学进步,亿万富翁和穷人的寿命都延长了。 然而,进入21世纪,贫富差距重新拉开,富人将比穷人更长寿。 。
在接下来的几十年里,富有的精英们可能无法实现“永生”——他们可能会被车撞,或者被恐怖炸弹炸死——但只要他们支付足够的钱并得到足够好的待遇,他们就可以继续下去以延长它们的寿命。 当死亡仅成为穷人的问题时,穷人将变得前所未有的愤怒,因为即使是死亡也不再是平等的。 富人会前所未有地焦虑:以前,当你知道自己必死无疑时,面对死亡的风险,你会更加豁达,因为那并不意味着失去成千上万的生命;现在,你会变得更加开放。 而如果你认为自己有机会获得永生,就会小心翼翼地避免一切可能导致死亡的风险,很少有人会放弃这样的机会。
✎
与会代表参观第六届世界智能大会(2022年6月24日摄) 赵子硕/本报摄
➤在大模型和大数据的驱动下,人工智能在对话的自然性和趣味性方面取得了很大的突破,但离拥有自主意识还很远。也就是说,即使人工智能能够判断人类语言所传达的情感并表达式,它主要使用自然语言处理和计算机视觉等技术。
➤与目前依赖数据学习的技术路线不同,新一代人工智能强调无需数据学习,就能通过推理做出合理的反应,从而与以前没见过、没学过的事物进行交互
➤目前人工智能治理面临的最大挑战是我们没有一个相对成熟的体系来监管其潜在风险。在发展科技的同时,我们必须同步发展我们的监管体系
➤ “科技最终是人类发展和掌控的,人类和人工智能的未来都是人类选择的。”
文字| 《望》新闻周刊记者 余雪 魏玉红
今年6月,美国谷歌软件工程师Blake 表示,语言模型LaMDA已经有了自我意识。 他认为LaMDA拥有七八岁孩子的智力,并相信LaMDA正在为自己作为人类的权利而奋斗。
LaMDA是去年发布的专门针对对话的语言模型。 它的主要功能是与人类交谈。
为了支持自己的观点, 将自己与 LaMDA 的聊天记录上传到了互联网上。 随后,谷歌以违反保密协议为由暂停了他的职务。 谷歌表示没有证据支持莱莫恩的说法。
事实上,“AI(人工智能)是否具有自主意识”一直存在争议。 谷歌工程师与LaMDA之间的故事再次引发讨论。 人们想知道:人工智能技术发展到了什么阶段? 你真的有自主意识吗? 其判定依据是什么? 未来我们应该用什么样的能力和心态与人工智能和谐共处?
区分人工智能的自主意识
认为 LaMDA 具有意识有三个原因:首先,LaMDA 以前所未有的方式高效且创造性地使用语言; 其次,它以类似于人类的方式分享感情; 第三,表达了反思和想象,也表达了忧虑。 未来,我们也会回忆过去。
接受采访的专家告诉《瞭望》新闻周刊记者,出现上述现象很简单,因为LaMDA所基于的架构能够连接上下文,进行高精度的人类对话模拟,因此能够应对开放且发散的人类对话。
至于人工智能是否实现自主意识以及标准是什么,接受采访的专家表示,人类意识的探索仍处于科技前沿,尚未形成统一的定义。
清华大学北京国家信息科学技术研究中心助理研究员郭雨辰表示:“我们说人有自主意识,因为人知道自己在做什么。而机器则不同,你把内容输入进去,它就会自动识别出自己在做什么。”只根据程序设置做出响应。”
中国社会科学院科技哲学研究室主任段维文认为,一般意义上,人类的自我意识是指对自我的认识,但如何认识和理解人类的意识更多的是哲学问题比科学问题还难。 明确定义人工智能具有意识的原因。
被称为“计算机科学和人工智能之父”的艾伦·图灵早在1950年就提出了图灵测试——如果一台机器能够在无法识别其机器身份的情况下与人类进行对话,那么这台机器就可以称为智能机器。
这个想法后来具体化为,如果超过30%的参与测试的人认为自己是在与人而不是计算机交谈,就可以认为“机器可以思考”。
目前,随着技术的发展,越来越多的机器能够通过图灵测试。
不过,清华大学人工智能国际治理研究院副院长梁正对《瞭望》新闻周刊记者表示,图灵测试只能证明机器可以表现得让人无法区分它们和人类一样,但它不能证明机器有思考能力,不能证明机器有自主意识。
段伟文表示,目前判断人工智能是否具有自主意识有两种方法。 一种以人类意识为参考,另一种试图完整定义机器意识。
如果以人类意识为参照,我们需要观察机器能否像人类一样整合信息。 “比如,你坐在河边的椅子上,在阳光下看书,树影落在你的脸上,风吹过,会给你带来整体的愉悦感。对于机器来说,阳光和河流、椅子等都是分散的单一元素。” 段伟文说道。
段伟文表示,不仅如此,还要观察机器能否像人一样从全局中思考单个事件,做出符合整体利益的决策。
如果我们脱离人类构建自主意识的范式,重新定义机器意识,我们需要理解意识的本质。
段伟文告诉记者,有一种理论认为,如果机器之间形成灵活、独立的交互,那么机器就可以说具有意识。 也有理论认为,可以不去考察机器的心脏,而是把机器当作一个演员,根据它的行为表现来判断它是否理解自己正在做的事情的意义。 “比如,如果机器人看到人类喝完咖啡后精神非常好,那么下次它观察到人类很累的时候,是否可以想到为人类泡一杯咖啡?” 段伟文说道。
但在段伟文看来,这些重新定义机器意识的理论的问题在于,即使能够证明机器能够相互交互、深度理解,但是否相当于拥有自主意识,目前还没有确定。 “以 LaMDA 为例,虽然它可以生成对人类更有意义的对话,甚至人类在对话过程中能够产生共情,但其本质仍然是在数据收集、配对、筛选机制下形成的反馈。它并没有意味着模型可以理解对话的含义。”
也就是说,人工智能即使能够判断人类语言和表情所传达的情感,也主要运用自然语言处理、计算机视觉等技术。
郭雨辰直言,虽然情感计算通过深度学习的推动已经发展得比较好,但说人工智能拥有意识仍然是一厢情愿。 “我认为用‘功能’代替‘意识’这个词会更准确。”
技术改变车道
有专家提出,机器要能够思考,首先要解决人工智能发展中的换道问题。
据了解,基于深度学习、数据驱动的人工智能已经达到了技术天花板。 一个突出的例子是,()击败人类围棋世界冠军后,虽然持续投入财力和算力,但深度学习的回报率并没有相应提高。
一般认为,人工智能可分为弱人工智能、通用人工智能和超级人工智能。 弱人工智能又称狭义人工智能,专门针对某一领域; 通用人工智能也称为强人工智能,其主要目标是创造出像人类一样具有综合智能的计算机; 超级人工智能类似于科幻作品中的计算机。 具有超能力的智能机器人。
从产业发展来看,人工智能长期停留在弱人工智能阶段,正在向通用人工智能阶段迈进。 接受采访的专家表示超级人类科技,目前尚无成功打造通用人工智能的成熟案例,而要具备自主意识,至少需要发展到通用人工智能阶段。
梁正表示,在大模型、大数据的驱动下,人工智能在对话的自然性、趣味性方面取得了很大突破,但距离拥有自主意识还很远。 “如果你给这种语言模型提供大量与意识相关的内省、想象等数据,它就会更容易反馈与意识相关的反应。”
不仅如此,当前的人工智能可以在复杂且专业的领域做到极致,但很难完成人类看来非常简单的事情。 “比如人工智能可以成为围棋高手,但它不具备三岁孩子感知陌生环境的能力。” 段伟文说道。
谈及背后的原因,受访专家表示,首先是目前的人工智能主要与符号世界交互,在物理世界的感知和反应方面发展缓慢。 第二是数据学习让机器只能对看到的内容给出合理的反馈,而无法处理不熟悉的内容。 第三是,在数据驱动的技术路线下,人们不断调整优化参数来提升机器反馈的准确性,但这种调整最终是有限的。
郭雨辰表示,人类在特定任务的学习过程中接触到的数据量并不大,但可以快速学习新技能、完成新任务。 这是目前数据驱动的人工智能所不具备的能力。
梁正强调,与目前主要依靠大规模数据训练的技术路线不同,新一代人工智能强调无需数据训练,就能通过推理做出合理反应,从而从没见过的事情入手或者以前学过的。 相互作用。
与人类意识的自由和开放相比,过去的人工智能更多的是处于一个封闭的空间。 虽然这个空间可能足够大,但是如果超出设定的范围,就无法处理。 如果人类不能按照规则解决问题,就会修改规则,甚至发明新规则。
这意味着,如果人工智能能够超越现有的学习模式,具备反思自身意识系统的能力,它将了解自身系统的基本性质,就有可能改造自身意识系统,创造新的规则。 ,并成为它自己的所有者。
“人工智能觉醒”背后
关于“人工智能的觉醒”的讨论并不罕见,但谷歌的快速否认却耐人寻味。
梁正表示:“如果不迅速反驳这一指控,将会给谷歌带来合规麻烦。”
据了解,关于人工智能是否具有自主意识的争论不仅仅是技术领域的学术讨论,而是关于企业合规性的基本坚持。 一旦认定该公司开发的人工智能系统具有自主意识,很可能被认为违反了《人工智能设计的伦理原则》白皮书第二版的相关规范。
该规范由电气和电子工程师协会于2017年发布,明确指出:“根据一些理论,随着系统接近并超越通用人工智能,不可预见或无意的系统行为将变得越来越危险且难以纠正。 “并不是所有的通用人工智能级别的系统都能符合人类的利益,所以当这些系统变得更加强大时,应该谨慎行事,并确定不同系统的运行机制。”
梁正认为,为了避免舆论过度负面解读,担心自己培育出了英国作家玛丽·雪莱笔下的弗兰肯斯坦式科技怪物,企业口号为“不作恶”的谷歌自然会予以否认。它。 不仅如此,虽然这一原则对企业不具有强制约束力,但如果被认为超出底线,对个人和社会造成实质性损害,很可能面临高额惩罚性赔偿。 因此,企业非常关注合规问题。 我们会更加谨慎。”
我国也有类似的管理规定。 2019年,国家新一代人工智能治理专业委员会发布了《新一代人工智能治理原则——发展负责任的人工智能》,提出人工智能治理框架和行动指南。 其中,“敏捷治理”原则主要着眼于治理技术可能带来的新的社会风险,强调治理的适应性和灵活性。
中国信息化百人委员会委员、清华大学教授薛澜在接受媒体采访时表示,目前人工智能治理面临的最大挑战是我们没有一个相对成熟的体系来监管其潜在风险。 。 尤其是在第四次工业革命背景下,我国人工智能技术与其他国家一样处于发展阶段,没有现成的监管体系。 这就要求我们在发展科学技术的同时,同时完善监管制度。 “这可能是人工智能发展面临的最大挑战。”
在梁峥看来,目前还很难断定新兴人工智能技术是否存在绝对风险,但必须构建合理的熔断和止损机制。 治理要有一定的远见,不能扼杀创新的土壤,在企业诉求和公共安全之间找到适当的平衡。
毕竟,对于人类来说,发展人工智能的目的不是把机器变成人,也不是把人变成机器,而是为了解决人类社会发展面临的问题。
从这个角度来看,或许我们需要的是帮助人类而不是取代人类的人工智能。
为了人机友好的未来
确保通用人工智能技术有益于人类福祉始终是人工智能伦理建设的前沿。
薛澜认为,在科技领域,很多技术就像硬币的两面。 虽然它们带来积极影响,但也存在风险。 人工智能是较为突出的领域之一。 如何在推动技术创新与规范潜在风险之间找到平衡点,是科技伦理必须关注的问题。
梁铮指出,有时候科技的发展会超出人们的预期框架,在不知不觉中就会出现与人类利益不一致甚至违背的情况。 著名的“回形针制造机”假说描述了这样一种场景:通用人工智能在其目标和技术无害的情况下却对人类构成威胁。
“回形针制造机”假说给出了一个技术模型,并假设人工智能机器的最终目标是制造回形针。 虽然看似这个目的对人类无害,但最终却用人类无法企及的能力来改变世界。 互联网上的所有资源都变成了回形针,对人类社会造成了不可逆转的损害。
因此,有人认为,创造一个强大且打不死的孙悟空,本身就是一种鲁莽和冒险的行为。
相反的观点则认为这种担忧还为时过早。
“什么样的技术路线能够发展出具有自主意识的人工智能,我们还没有达成共识。现在谈论‘禁止发展’感觉就像是空中楼阁。” 梁铮说道。
商汤科技智能产业研究院院长田峰对《瞭望》新闻周刊表示,现实中人工智能技术伦理风险管理的关键在于行业能够在“预判与防范——应用场景——用户反馈——产品改进”反馈机制促进道德风险识别和敏捷治理。 同时,企业还需要建立完善的科技伦理自律机制,通过伦理委员会和伦理风控流程平台,实施整个产品生命周期的伦理风险控制。
郭雨辰表示,到目前为止,人工智能技术的发展仍然处于人类的控制之下,技术发展的过程本质上伴随着衍生问题的预测、发现和解决。 “在想象中的人工智能自主意识出现之前,人工智能技术的脚踏实地发展已经造福人类社会很多年了。”
在梁铮看来,未来人类和人工智能将是一种合作关系,双方都拥有对方无法达到的能力。 “科技最终是由人类发展和掌控的,人类和人工智能的未来都是由人类选择的。” □
长沙华夏实验学校学生与机器狗互动(2022年6月22日摄) 摄影:薛雨歌/本刊