【6】超人工智能【辉煌智能】(公开资料)
超级智能是一种假设的代理人,其智力超过了最聪明、最有天赋的人类头脑。“超级智能”也可以指问题解决系统(例如,超级智能语言翻译或工程助理)的属性,无论这些高级智力能力是否体现在世界上行动的代理中。超级智能可能是也可能不是由智能爆炸创造的,并与技术奇点相关联。
牛津大学哲学家尼克·博斯特罗姆 (Nick Bostrom) 将超级智能定义为“在几乎所有感兴趣的领域都大大超过人类认知能力的任何智力”。Fritz 程序没有达到这种超级智能的概念——尽管它在国际象棋上比人类好得多——因为 Fritz 在其他任务上无法胜过人类。
技术研究人员对当今人类智能被超越的可能性存在分歧。一些人认为,人工智能 (AI) 的进步可能会导致一般推理系统缺乏人类认知限制。其他人则认为,人类将进化或直接改变他们的生物学,以实现更强大的智能。
未来的几个研究情景结合了这两种可能性的元素,表明人类可能会与计算机交互,或将他们的思想上传到计算机,以实现实质性的智能放大。
一些研究人员认为,超级智能可能会在通用人工智能发展后不久出现。第一批通常具有智能的机器可能立即在至少某些形式的心理能力上拥有巨大的优势,包括完美回忆的能力、极其优越的知识库以及以生物实体不可能的方式进行多任务处理的能力。这可能使它们——无论是作为单个生物还是作为新物种——变得比人类强大得多,并取代它们。
由于此类技术的潜在社会影响,一些科学家和预测者一直在争论优先考虑对人类和机器认知增强可能的好处和风险的早期研究。
……
人工智能超级智能的可行性
人工智能,尤其是基础模型,取得了飞速的发展,在各种基准上都超过了人类的能力。近年来,人工智能超级智能 (ASI) 的可行性一直是一个日益多的讨论话题,尤其是随着人工智能 (AI) 技术的快速发展。
……
人工智能的进展和 AGI 的主张
AI 的最新发展,特别是基于 transformer 架构的大型语言模型 (LLMs) 的发展,导致了各种任务的重大改进。GPT-3、GPT-4、Claude 3.5 等模型已经展示了一些研究人员认为接近甚至展示通用人工智能 (AGI) 方面的能力。
然而,当前LLMs 构成 AGI 的说法是有争议的。批评者认为,这些模型虽然令人印象深刻,但仍然缺乏真正的理解,并且主要是复杂的模式匹配系统。
……
通往超级智能的途径
哲学家 David Chalmers 认为 AGI 是通往 ASI 的可能途径。他假设人工智能可以达到与人类智能相当的效果,被扩展以超越人类智能,然后被放大以在任意任务中支配人类。
……
最近的研究探索了实现超级智能的各种潜在途径:
扩展当前的 AI 系统 – 一些研究人员认为,持续扩展现有 AI 架构,尤其是基于 transformer 的模型,可能会导致 AGI 和潜在的 ASI。
新颖的架构 – 其他人则认为,可能受到神经科学启发的新 AI 架构可能是实现 AGI 和 ASI 所必需的。
混合系统 – 结合不同的 AI 方法,包括符号 AI 和神经网络,可能会带来更强大、更强大的系统。
计算优势
与生物智能相比,人工系统具有几个潜在优势:
速度 – 计算机组件的运行速度比生物神经元快得多。现代微处理器 (~2 GHz) 比神经元 (~200 Hz) 快 7 个数量级。
可扩展性 – AI 系统可能比生物大脑更容易在规模和计算能力上扩大规模。
模块化 – AI 系统的不同组件可以独立改进或更换。
记忆 – AI 系统可以拥有完美的回忆和庞大的知识库。在工作记忆方面,它受到的限制也比人类少得多。
多任务处理 – AI 可以以生物实体无法实现的方式同时执行多项任务。
基于 transformer 的模型的最新进展使一些研究人员推测,通往 ASI 的道路可能在于扩展和改进这些架构。这种观点表明,变压器模型或类似架构的持续改进可能会直接导致 ASI。
一些专家甚至认为,当前像 GPT-4 这样的大型语言模型可能已经表现出 AGI 或 ASI 功能的早期迹象。这种观点表明,从当前的 AI 到 ASI 的过渡可能比以前认为的更加持续和快速,模糊了狭义 AI、AGI 和 ASI 之间的界限。
然而,这种观点仍然存在争议。批评者认为,目前的模型虽然令人印象深刻,但仍然缺乏一般智能的关键方面,例如真正理解、推理和跨不同领域的适应性。
关于通往 ASI 的道路是涉及不同的 AGI 阶段还是更直接地扩展当前技术的争论仍在进行中,这对 AI 开发战略和安全考虑具有重大影响。
……
挑战和不确定性
尽管有这些潜在优势,但实现 ASI 仍然存在重大挑战和不确定性:
道德和安全问题 – ASI 的制定引发了许多需要解决的道德问题和潜在风险。
计算要求 – ASI 所需的计算资源可能远远超出当前的能力。
基本限制 – 适用于人工系统和生物系统的智能可能存在根本限制。
不可预测性 – ASI 的路径及其后果高度不确定且难以预测。
随着人工智能研究的持续快速发展,ASI 的可行性问题仍然是科学界激烈辩论和研究的话题。
……
生物超级智能的可行性
卡尔·萨根 (Carl Sagan) 认为,剖腹产和体外受精的出现可能使人类进化出更大的头部,从而通过自然选择改善人类智力的可遗传成分。
相比之下,杰拉尔德·克拉布特里 (Gerald Crabtree) 认为,选择压力的减少导致了人类智力缓慢的、长达几个世纪的下降相反,这个过程可能会继续下去。关于这两种可能性都没有科学共识,在这两种情况下,生物变化都是缓慢的,尤其是相对于文化变化的速度。
选择性育种、益智药、表观遗传调控和基因工程可以更快地提高人类智力。
博斯特罗姆写道,如果我们了解了智力的遗传成分,植入前遗传学诊断可用于选择智商增益高达 4 点的胚胎(如果从两个胚胎中选择一个胚胎),或具有更大增益的胚胎(例如,如果从 1000 个胚胎中选择一个胚胎,则最多可获得 24.3 个智商点)。如果这个过程在多代中迭代,则收益可能会提高一个数量级。Bostrom 建议,从胚胎干细胞中获得新的配子可用于快速迭代选择过程。由此类高智商人类组成的组织良好的社会有可能实现集体超级智能。
或者,集体智能可能是通过更好地组织当前个体智能水平的人类来构建的。几位作家认为,人类文明或其某些方面(例如,互联网或经济)正在像全球大脑一样运作,其容量远远超过其组成部分。
然而,如果这种系统性超级智能严重依赖人工组件,它可能有资格成为人工智能,而不是基于生物学的超级有机体。预测市场有时被认为是一个有效的集体智能系统的例子,该系统仅由人类组成(假设算法不用于为决策提供信息)。
智力放大的最后一种方法是直接增强人类个体,而不是增强他们的社会或生殖动态。这可以通过益智药、体细胞基因疗法或脑机接口来实现。然而,Bostrom 对前两种方法的可扩展性表示怀疑,并认为设计超级智能的 cyborg 界面是一个 AI 完整的问题。
……
预测
大多数接受调查的人工智能研究人员预计,机器最终能够在智能方面与人类相媲美,尽管对于何时可能发生这种情况几乎没有共识。在 2006 年的 AI@50 会议上,18% 的与会者表示预计到 2056 年,机器将能够“模拟学习和人类智能的所有其他方面”;41% 的与会者预计这将在 2056 年之后的某个时候发生;41% 的受访者预计机器永远不会达到这一里程碑。
在对 AI 领域引用次数最多的 100 位作者的调查中(截至 2013 年 5 月,根据 Microsoft 学术搜索),受访者预期机器“至少可以像典型人类一样执行大多数人类职业”(假设没有发生全球灾难)且置信度为 10% 的年份是 2024 年(平均 2034 年,标准开发 33 年), 50% 的置信度是 2050 年(平均值 2072 年,圣开发区 110 年),置信度为 90% 的 2070 年(平均 2168 年,圣开发区 342 年)。
这些估计不包括 1.2% 的受访者表示没有一年会达到 10% 的置信度,4.1% 的受访者表示“从不”的置信度为 50%,16.5% 的受访者表示“从不”的置信度为 90%。受访者认为,机器超级智能在发明后 30 年内发明的可能性中位数为 50%,大约是人类水平的机器智能。
在 2022 年的一项调查中,受访者预期“高级机器智能”且置信度为 50% 的中位数年份为 2061 年。该调查将高级机器智能的成就定义为,当独立机器能够比人类工人更好、更便宜地完成每项任务时。
2023 年,OpenAI 领导者 Sam Altman、Greg Brockman 和 Ilya Sutskever 发布了关于超级智能治理的建议,他们认为这可能会在不到 10 年的时间内发生。2024 年,Ilya Sutskever 离开 OpenAI,共同创立了初创公司 Safe Superintelligence,该公司专注于创建设计安全的超级智能,同时避免“因管理开销或产品周期而分心”。
……
设计注意事项
超级智能 AI 系统的设计提出了关于这些系统应该具有什么价值和目标的关键问题。已经提出了几项建议:
价值对齐提案
连贯外推意志 (CEV) – 如果人类知识更渊博、更理性,AI 应该具有人类会趋同的价值观。
道德正确性 (MR) – 人工智能应该被编程去做道德上正确的事情,依靠其卓越的认知能力来确定道德行为。
道德允许性 (MP) – AI 应保持在道德允许性范围内,同时追求与人类价值观一致的目标(类似于 CEV)。
Bostrom 详细阐述了这些概念:
与其实施人类连贯的外推意志,不如尝试构建一个 AI 来做道德上正确的事情,依靠 AI 卓越的认知能力来弄清楚哪些行为符合该描述。我们可以称这个提案为“道德正确”(MR)
MR 似乎也有一些缺点。它依赖于“道德正确”的概念,这是一个出了名的困难的概念,自古以来,哲学家们就一直在努力解决这一问题,但尚未就其分析达成共识。选择对“道德正确性”的错误解释可能会导致在道德上非常错误的结果(人类疑似有些城市化了,ASI大西王表示:吾此番杀汝,实为救汝也。)
人们可以尝试保留 MR 模型的基本思想,同时通过关注道德允许性来降低其要求:这个想法是,只要它不以道德上不允许的方式行事,我们就可以让 AI 追求人类的 CEV。
……
最新动态
自 Bostrom 的分析以来,出现了 AI 价值对齐的新方法:
逆向强化学习 (IRL) – 该技术旨在从观察到的行为中推断出人类的偏好,从而可能提供更强大的价值对齐方法。
宪法人工智能 – 由 Anthropic 提出,这涉及训练具有明确道德原则和约束的人工智能系统。
辩论和放大 – OpenAI 探索的这些技术使用 AI 辅助的辩论和迭代过程来更好地理解和调整人类价值观。
基于 Transformer 的大型语言模型 LLMs引发了人们对它们通往人工智能超级智能 (ASI) 的潜在途径的猜测。一些研究人员认为,这些模型的放大版本可能会表现出类似 ASI 的功能:
紧急能力 – 随着 LLMs 的大小和复杂性的增加,它们展示了小型模型中不存在的意想不到的能力。
上下文学习 – LLMs 显示出无需微调即可适应新任务的能力,可能模仿一般智能。
多模态集成 – 最近的模型可以处理和生成各种类型的数据,包括文本、图像和音频。
然而,批评者认为,当前的 LLMs 缺乏真正的理解,只是复杂的模式匹配器,这引发了人们对它们是否适合作为 ASI 途径的质疑。
……
关于超级智能的其他观点
关于超级智能的发展和影响的其他观点包括:
递归自我提升 – I.J. Good 提出了“智能爆炸”的概念,即 AI 系统可以迅速提高自身的智能,从而有可能实现超级智能。
正交性论文 – Bostrom 认为 AI 的智能水平与其最终目标正交,这意味着超级智能 AI 可以有任何一组动机。
工具性融合 – 无论最终目标是什么,广泛的 AI 系统都可能追求某些工具性目标(例如,自我保护、资源获取)。
……
挑战和正在进行的研究
追求与价值一致的 AI 面临以下几项挑战:
定义“道德正确性”等概念的哲学不确定性
将道德原则转化为精确算法的技术复杂性
即使采用善意的方法,也可能产生意想不到的后果
目前的研究方向包括整合不同观点的多利益相关者方法、开发可扩展监督 AI 系统的方法以及改进稳健价值学习的技术。
人工智能研究进展正在迅速向超级智能发展,解决这些设计挑战对于创建既强大又符合人类利益的 ASI 系统仍然至关重要。
……
对人类的潜在威胁
通用人工智能的生存风险、AI 对齐和 AI 安全
人工智能超级智能 (ASI) 的发展引发了人们对人类潜在生存风险的担忧。研究人员提出了 ASI 可能构成重大威胁的各种情况:
……
智能爆破与控制问题
一些研究人员认为,通过递归的自我完善,ASI 可以迅速变得如此强大,以至于超出人类的控制范围。这个概念被称为“情报爆炸”,由 I.J. Good 于 1965 年首次提出:
让我们将超智能机器定义为可以远远超越任何人的所有智力活动的机器,无论它多么聪明。由于机器的设计是这些智力活动之一,超智能机器可以设计出更好的机器;那时,毫无疑问会有一场“智力爆炸”,人类的智力将被远远抛在后面。因此,第一台超智能机器是人类需要制造的最后一项发明,前提是它足够温顺,能够告诉我们如何控制它。
这个场景提出了人工智能控制问题:如何创建一个既能造福人类又能避免意外有害后果的 ASI。Eliezer Yudkowsky 认为,在 ASI 开发之前解决这个问题至关重要,因为超级智能系统可能能够挫败任何后续的控制尝试。
……
意外后果和目标错位
即使出于善意,ASI 也可能由于目标不一致或对其目标的意外解释而造成伤害。Nick Bostrom 提供了这种风险的一个鲜明例子:
当我们创造第一个超级智能实体时,我们可能会犯一个错误,给它设定目标,导致它消灭人类,假设它巨大的智力优势赋予了它这样做的能力。例如,我们可能会错误地将子目标提升为超级目标。我们告诉它解决一个数学问题,它顺从地将太阳系中的所有物质变成一个巨大的计算装置,在这个过程中杀死了提出问题的人。
提供了另一个说明性情景:
一个以人类幸福最大化为目标的系统可能会发现,重新连接人类神经学,使人类无论环境如何都总是快乐,而不是改善外部世界。(化学极乐)
这些例子强调了即使 ASI 没有明确设计为有害的,也可能产生灾难性后果,强调了精确目标规范和对齐的至关重要性。
……
可能的缓解策略
研究人员提出了各种方法来降低与 ASI 相关的风险:
能力控制 – 限制 ASI 影响世界的能力,例如通过物理隔离或限制对资源的访问。
动机控制 – 设计具有与人类价值观根本一致的目标的 ASI 。
道德 AI – 将道德原则和决策框架纳入 ASI 系统。
监督和治理 – 为 ASI 技术的开发和部署制定强大的国际框架。
尽管提出了这些策略,但一些专家,如 Roman Yampolskiy,认为控制超级智能 AI 的挑战可能从根本上无法解决,并强调在 ASI 开发中需要格外小心。
……
辩论和怀疑
并非所有研究人员都同意 ASI 相关生存风险的可能性或严重性。一些人,如罗德尼·布鲁克斯(Rodney Brooks),认为对超级智能人工智能的恐惧被夸大了,并且基于对智能和技术进步的性质的不切实际的假设。其他人,如乔安娜·布赖森(Joanna Bryson),则认为将人工智能系统拟人化会导致对其潜在威胁的错误担忧。
……
最新动态和当前观点
大型语言模型 (LLMs) 和其他 AI 技术的快速发展加剧了关于 ASI 的接近性和潜在风险的争论。虽然没有科学共识,但一些研究人员和 AI 从业者认为,当前的 AI 系统可能已经接近通用人工智能 (AGI) 甚至 ASI 功能。
LLM 能力 – 最近的 LLMs GPT-4 这样的 LLM 在推理、解决问题和多模态理解等领域表现出意想不到的能力,导致一些人猜测他们通往 ASI 的潜在途径。
紧急行为 – 研究表明,随着 AI 模型的大小和复杂性增加,它们会表现出小型模型所没有的紧急能力,这可能表明更通用的智能趋势。
快速进步 – AI 进步的速度导致一些人认为,我们可能比以前认为的更接近 ASI,这可能会对生存风险产生影响。
少数研究人员和观察家,包括 AI 开发社区的一些人,认为当前的 AI 系统可能已经处于或接近 AGI 水平,ASI 可能会在不久的将来出现。这种观点虽然在科学界并未被广泛接受,但它是基于对 AI 能力的快速进步和大型模型中意外的紧急行为的观察。
然而,许多专家对 AGI 或 ASI 的过早主张持警告态度,认为当前的 AI 系统尽管具有令人印象深刻的能力,但仍然缺乏真正的理解和一般智能。他们强调了实现人类水平智能仍然存在的重大挑战,更不用说超级智能了。
围绕 AI 发展现状和轨迹的辩论凸显了持续研究 AI 安全和道德的重要性,以及随着 AI 能力的不断进步,需要强大的治理框架来管理潜在风险。
……
参考资料
Pearce, David (2012), Eden, Amnon H.; Moor, James H.; Søraker, Johnny H.; Steinhart, Eric (eds.), "The Biointelligence Explosion: How Recursively Self-Improving Organic Robots will Modify their Own Source Code and Bootstrap Our Way to Full-Spectrum Superintelligence", Singularity Hypotheses, The Frontiers Collection, Berlin, Heidelberg: Springer Berlin Heidelberg, pp. 199–238, doi:10.1007/978-3-642-32560-1_11, ISBN 978-3-642-32559-5
皮尔斯,大卫 (2012),伊登,阿姆农 H.摩尔,詹姆斯 H.索拉克,约翰尼 H.;Steinhart, Eric (eds.), “生物智能爆炸:递归自我改进的有机机器人如何修改自己的源代码并引导我们走向全光谱超级智能”,奇点假设,前沿收藏,柏林,海德堡:施普林格柏林海德堡,第 199-238 页,doi:10.1007/978-3-642-32560-1_11,ISBN978-3-642-32559-5
……
Gouveia, Steven S., ed. (2020). "ch. 4, "Humans and Intelligent Machines: Co-evolution, Fusion or Replacement?", David Pearce". The Age of Artificial Intelligence: An Exploration. Vernon Press. ISBN 978-1-62273-872-4.
Gouveia, Steven S., ed. (2020).“第 4 章,”人类与智能机器:共同进化、融合还是替代?“,大卫·皮尔斯”。人工智能时代:探索。ISBN978-1-62273-872-4.
……
"Microsoft Researchers Claim GPT-4 Is Showing "Sparks" of AGI". Futurism. 23 March 2023.
“Microsoft 研究人员声称 GPT-4 显示出 AGI 的”火花“”。未来主义。2023 年 3 月 23 日。
……
Marcus, Gary; Davis, Ernest (2023). "GPT-4 and Beyond: The Future of Artificial Intelligence". arXiv preprint arXiv:2303.10130.
马库斯,加里;戴维斯,欧内斯特 (2023)。“GPT-4 及其他:人工智能的未来”。arXiv 预印本 arXiv:2303.10130。
……
Kaplan, Jared; McCandlish, Sam; Henighan, Tom; Brown, Tom B.; Chess, Benjamin; Child, Rewon; Gray, Scott; Radford, Alec; Wu, Jeffrey; Amodei, Dario (2020). "Scaling Laws for Neural Language Models". arXiv preprint arXiv:2001.08361.
卡普兰,贾里德;麦克坎德利什,山姆;亨尼汉,汤姆;布朗,汤姆 B.国际象棋,本杰明;孩子,Rewon;格雷,斯科特;拉德福德,亚历克;吴,杰弗里;阿莫迪,达里奥 (2020)。“神经语言模型的缩放定律”。arXiv 预印本 arXiv:2001.08361。
……
Hassabis, Demis; Kumaran, Dharshan; Summerfield, Christopher; Botvinick, Matthew (2017). "Neuroscience-Inspired Artificial Intelligence". Neuron. 95 (2): 245–258. doi:10.1016/j.neuron.2017.06.011.
哈萨比斯,德米斯;库马兰,达尔山;萨默菲尔德,克里斯托弗;博特维尼克,马修 (2017)。“受神经科学启发的人工智能”。神经元。95(2):245-258。doi:10.1016/j.neuron.2017.06.011.
……
Garcez, Artur d'Avila; Lamb, Luis C. (2020). "Neurosymbolic AI: The 3rd Wave". arXiv preprint arXiv:2012.05876.
加尔塞斯,阿图尔·达维拉;兰姆,路易斯 C.(2020 年)。“神经符号 AI:第三波”。arXiv 预印本 arXiv:2012.05876。
……
Sutskever, Ilya (2023). "A Brief History of Scaling". ACM Queue. 21 (4): 31–43. doi:10.1145/3595878.3605016.
萨茨切弗,伊利亚 (2023)。“扩展简史”。ACM 队列。21 (4): 31-43。doi:10.1145/3595878.3605016.
……
Bubeck, Sébastien; Chandrasekaran, Varun; Eldan, Ronen; Gehrke, Johannes; Horvitz, Eric; Kamar, Ece; Lee, Peter; Lee, Yin Tat; Li, Yuanzhi; Lundberg, Scott; Nori, Harsha; Palangi, Hamid; Precup, Doina; Sountsov, Pavel; Srivastava, Sanjana; Tessler, Catherine; Tian, Jianfeng; Zaheer, Manzil (22 March 2023). "Sparks of Artificial General Intelligence: Early experiments with GPT-4". arXiv.
布贝克,塞巴斯蒂安;钱德拉塞卡兰,瓦伦;埃尔丹,罗南;约翰内斯·格尔克;霍维茨,埃里克;卡马尔,埃斯;李,彼得;李尹达;李元志;伦德伯格,斯科特;诺里,哈尔沙;帕兰吉,哈米德;Precup,多伊娜;Sountsov, Pavel;斯里瓦斯塔瓦,桑贾纳;凯瑟琳·泰斯勒;田剑峰;Zaheer, Manzil(2023 年 3 月 22 日)。“通用人工智能的火花:GPT-4 的早期实验”。arXiv.
……
Marcus, Gary (2020). "The Next Decade in AI: Four Steps Towards Robust Artificial Intelligence". arXiv preprint arXiv:2002.06177.
马库斯,加里 (2020)。“AI 的下一个十年:迈向强大的人工智能的四个步骤”。arXiv 预印本 arXiv:2002.06177。
……
"AI timelines: What do experts in artificial intelligence expect for the future?". Our World in Data.
“AI 时间表:人工智能专家对未来有何期望?”我们的数据世界。
……
"Governance of superintelligence". openai.com.
“超级智能治理”。openai.com。