您当前的位置 :首页 > 人工智能 > 正文
为什么我对人工智能的风险持怀疑态度
2021-02-20 14:40:30

为什么我对人工智能的风险持怀疑态度

智慧,科学?

在我看来,相信来自人工智能的灾难性风险的可能性的人认为智力是一种黑盒子,一种可以发芽丰富的新奇的聚宝盆的毫无疑问的假设。但这隐含假设如果你增加智力,你也减少发现之间的距离。

智能本身不是解决方案,它只是未知未知数的有效探照灯,谁知道光的亮度与未知未知数之间的距离成比例地增加?为了实现智能爆炸,光线必须比每增加未知未知数之间的距离增加智力才能更远地到达。我只是不认为这是一个合理的假设。

智能放大,它是否更好?

似乎如果你增加智力,你也增加了它的进一步改进的计算成本和距离发现一些未知的未知,可能使另一个量子飞跃。看来,你需要应用更多的能量,以获得一点更复杂。

如果智力的任何增加远远超过其计算成本和发现它所需的时间的花费,那么它可能不是对如由游戏理论家想象的完全合理的代理(例如人工一般智能)增加其智能,而不是使用其现有的智能直接追求其终端目标,或投入其给定的资源来获得其他自我完善的手段,例如更高效的传感器。

我们有什么证据表明智能的,面向目标的实验的收益相对于其成本产生了进化发现的巨大优势(足以使智力爆炸)?

我们根本不知道智力是有用的还是快速地击中收益递减。

智能可以有效地应用于自己吗?我们如何知道任何给定的智能水平能够有效地处理自己的复杂性?许多人甚至不能处理蠕虫的脑的复杂性。

人类和发现的重要性

如果你应用智能来改进进化设计,情报和进化之间有显着的区别:

?智能是面向目标的。

?智能可以提前思考。

?智能可以跳健身差距。

?智能可以直接进行实验。

?智能可以观察和整合其他优化剂的解决方案。

但是当涉及未知未知数时,智力和进化之间有什么区别?关键的相似性是,当涉及到真正的新奇时,两者都依靠哑巴运气。而在其他地方,但当它涉及到智能本身的戏剧性的改进,它需要发现新的未知未知数?

我们不知道发现的本质和它的重要性,当谈到什么是必要的达到一个水平的智力超过我们自己,由我们自己。我们知道多少是实际上是人们定量思考和考虑范围,概率和边际影响的结果?我们今天知道多少是愚蠢的运气,而不是目标导向,聪明的问题解决的结果?

我们的“非理性”和人类大脑的拼凑式结构可能构成一个实际的特征。人类大脑的嘈杂和拼凑的建筑可能在未知未知物的发现中发挥重要作用,因为它允许我们分心,离开基于证据的探索的路径。

很多发现是由没有明确试图预期效用的人。很多进步是由于运气,以未知未知数的发现的形式。

支持超人智能的风险的一个基本论点是,我们不知道可能出现什么。这也是为什么它被称为“奇点”的原因。但为什么没有人会问,超人的智能如何知道它可能出现什么呢?

它不是智能本身,允许人类完成伟大的壮举。即使像爱因斯坦这样的天才,似乎能够自己提出伟大见解的天才,只是幸运地诞生在正确的情况下,时间成熟的伟大的发现,由于以前的未知未知的发现成熟。

发展历程智慧

有人认为,如果进化可能绊到一般智力,并且有一些低调的果实比一般智力更有效率,人类的心灵设计空间必须是大的,进化只是随着第一个。进一步论证,进化不是无限创造性的,每一步必须增加其主机的适应性,因此有人工心理设计,可以做什么没有自然选择的产物可以完成。

我同意上面的看法,但鉴于盲目的白痴上帝的所有明显的缺点,进化能够提出利他主义,这是在个人和社会以上两个层面上起作用的东西。到目前为止,我们还没有能够通过纳入从个人甚至社会地位看不出来的成功来显示这种聪明才智。

利他主义的例子提供了证据,智力不是进化之上的许多层次。因此,关键的问题是,性能优势有多大?是否足够大以证明智力爆炸的概率容易大于1%的结论是正确的?我不这么认为。为了明确地回答这个问题,我们必须理解未知未知数的发现(“随机突变”)在发明(目标导向的“研究和开发”)的显着扩增中对已知概念界限内的改进的意义。

另一个例子是飞行。人工飞行甚至不接近鸟类或昆虫的能量效率和机动性。我们没有从没有人工飞行直接飞往飞行,这通常优于自然飞行是生物进化的影响。

蜻蜓

以蜻蜓为例。即使我们把一个完美的人造蜻蜓的设计,减去蜻蜓飞行的设计,我们将无法建立一个蜻蜓,可以接管蜻蜓的世界,所有其他相同的,通过上级飞行特性。

的确,Harpy Eagle可以提起超过其体重的四分之三,而波音747大货船的最大起飞重量几乎是其运行空载重量的两倍(我怀疑昆虫可以做得更好)。我的整个观点是,我们从来没有达到人工飞行,这是强烈高于自然飞行的水平。鹰可以在各种情况下抓住它的货物,如山坡或从海底,由于其优越的机动性。

人类是偏执和愤怒

显然,我们的专家系统比我们的专业知识范围更好。但专家系统在某些任务更好并不意味着你可以有效和高效地将它们组合成一个统一的机构。

人类大脑的嘈杂性可能是允许它显示一般智力的重要特征之一。然而,相同的噪声可能是人类可以完成的每个任务不以最大效率执行的原因。具有单一独立能力的专家系统能够达到该能力的独特平衡。而尚未完全放松到平衡的系统具有呈现一般智能所需的必要特性。在这个意义上,效率的降低是一般智力的副作用。如果将某种能力外部化成一个连贯的代理框架,你会大大降低它的效率。这是工具与使用该工具的代理的能力之间的差异。

在上述意义上,我们的偏见和非理性行为的倾向可能部分是在可塑性,效率和目标稳定性的必要性之间进行权衡。

嵌入式认知和环境

另一个问题是,一般智能主要是代理与其环境之间的交互的结果。原则上可能通过感应获得各种能力,但是它只是给出无限计算资源的理论可能性。要实现真实世界的效率,你需要依靠缓慢的环境反馈,并在不确定性下做出决策。

人工智能XI经常被引用作为概念的证明,有可能简单的算法将其自身改进到原则上可以达到超人智能的程度。 人工智能XI证明有一个一般的智力理论。但有一个小问题,人工智能XI是远离真实世界的人类一般智能作为一个抽象概念的图灵机与无限磁带是来自超级计算机与人类大脑的计算能力。一个抽象的智力概念不会让你在现实世界的一般智力方面。正如你不能将自己上传到非生物底物,因为你表明在一些抽象的意义上,你可以模拟每个物理过程。

想象你模仿一个成年人的心灵,它想成为apick艺术家,它将如何与互联网连接?它至少会需要一些头像,然后等待环境提供很多反馈。

因此,即使我们在谈论一个成长的心灵的模仿,也很难获得一些能力。那么,一个人类的孩子的模拟是如何获得这些技能的?更糟糕的是,某种抽象的AGI是如何做的,它错过了一个人类的孩子的所有硬编码的能力?

我们甚至可以试图想象一个人类的蹒跚学步的盒装模拟是什么错误,使它不能在很短的时间成为社会工程硕士?

我们可以想象,缺少什么能够使现有的专家系统之一在其狭窄的专业领域中快速发展出巨大的超人能力?为什么我们没有看到一个学习算法教自己国际象棋智力从什么只是规则开始?

在某种意义上,一个智能代理就像一个滚下坡的石头,两者都朝着一种平衡的方向发展。不同的是,智力跟随更复杂的轨迹,因为它读取和响应环境线索的能力远远大于石头的能力。无论是否智能,嵌入代理的环境扮演着至关重要的角色。存在对非智能过程的根本依赖。我们的环境结构是这样的,我们使用它内部的信息作为我们心灵的延伸。环境使我们能够通过提供测试平台和不断的数据流来学习和改进我们的预测。

用于智能爆炸的必要资源

如果人工智能无法抓住必要的资源进行爆发性递归自我完善,那么超人类智能本身的能力和认知灵活性作为特征本身就必须足以自我修改它的方式,直到大规模超人的智能在很短的时间内。

没有先进的现实世界的纳米技术,AGI将很难进行快速的自我完善。它将必须利用现有的基础设施,例如。购买芯片制造商的股票,并让他们创造更多或更好的CPU。它将不得不依靠惩罚人类的许多任务。如果没有世界的整个经济支持它,它将不能创造新的计算基础。它将无法创建一个机器人无人机的军队过夜没有它。

这样做,它必须利用大量的社会工程,而没有创造者注意到。但更重要的是,它必须利用其现有的智能来做所有这些。 AGI将不得不慢慢地获得新的资源,因为它不能只是自我改进以提出更快和更有效的解决方案。换句话说,自我完善需要资源。 AGI不能从其自我改进的能力中获益,因为资源的必要获得首先能够自我完善。

因此,没有先进的纳米技术对爆炸性递归自我完善的可能性和一般来说人工智能的风险构成巨大的打击。

有人可能会说,AGI将自己解决纳米技术,并找到一些方法来诱使人类制造分子组装商,并授予它访问它。但这可能是非常困难的。

资源和制造商之间有着很强的相互依存关系。 AGI将不能简单地诱使一些人建立一个高端工厂来创建计算基板,更不用说分子组装商。人们会提出问题,不久后得到可疑。记住,它不能协调一个世界阴谋,它还不能自我提高到这一点,因为它仍然试图获得足够的资源,它必须做没有纳米技术的困难的方式。

无论如何,你可能需要一个大脑的月亮来有效地运行和协调一个非理性的人类的整个世界,拦截他们的通讯和改变他们在飞行中没有任何人吓坏了。

与SI人工智能相关的人将在这一点上声称,如果人工智能不能利用纳米技术,它可能利用我们甚至没有想到的东西。但什么,魔术?

人工普遍智能,单一断断续续?

在谈论人工智能的风险时,另一个要考虑的问题是人工智能的发明会如何快速发生。我们有什么证据,有一些原则,一旦发现,允许我们一夜之间增长超人的智力?

如果AGI的发展缓慢,渐进和可控的发展,我们可能能够从小规模的错误中学习,同时不得不面对其他风险。例如,如果智能不能被离散算法捕获,或者是模块化的,并且因此永远不允许我们到达一个点,在那里我们可以突然构建只是无限延伸的最聪明的事物。

对我来说,它看起来不像我们会迅速地提出人工智能,而是我们将必须艰苦地优化我们的专家系统一步一步长时间。

纸张最大

据称,人工智能可能会在不经意间消除我们进行爆发性递归自我完善,以更有效地追求其终极目标。我认为大多数人工智能设计不可能不会。 1

除特别注明外,本站所有文章均为原创,转载请注明出处来自


培训机构管理系统软件 https://www.xiaobaoonline.com/
相关新闻
美福百姓网