天涯在线书库《www.tianyabook.com》 《人类的未来将会怎样发展》 霍金遗言 我们都知道,霍金,是一个伟大的科学家。他生前留下了一句对人类的警告:不要再去研究人工智能,否则会后悔的。 假设,这个预言是真的。 那么我们可以由此得出--- 如果人类不听劝告,继续深入研究人工智能,会出现两种情况: 第一种: 人类会因为人工智能的过于发达,从而陷入了一个人工智能强于人类的情况,类似于《终结者》,那么人类将陷入被机器人统治的危险。 当人类会陷入以上情况的时候,那么现在的人类就会想出应对方法: ①不发展人工智能②对人工智能进行严格规定,设置机器人条例③不进行应对 那么这些就是第一种情况之后会衍生出来的。 第二种: 人类会因为人工智能过于发达,从而发起了人类的智能性战争___一个以机器人为主体的战争,(我在这里斗胆将其称为第三次世界战争)。 那么人类会因为战火,而毁灭地球表层可生存的生态圈。从而导致人类大量死亡,陷入濒临灭绝的境地,再也无法掌控人工智能,人工智能会像第一种情况一样,控制人类。 (机器人战争不同于人类战争,机器人战争规模性与破坏性远超人类战争至少六七倍) 当人类陷入以上情况时,那么现在的人类就会想出应对方法: ①不发展人工智能②各国签订协约,永不发起机器人战争,机器人科技共享(如果不共享,那么协约就是没有意义的,万一哪一个国家的机器人科技达到了超越所有国家的水平,那么这个国家肯定会违反协约,因为机器人战争是变数最低的,你要是强你就一定强,不用考虑,万一失败了怎么办)③不进行应对 以上就是该情况的应对方法。 由此可见,这两种可能性都会为人类带来大量的灾难。 而两种情况的应对方法中,第一个方法与第三个方法都相同。 只有第二个方法是概率性成功。(概率无法估算)并且两种情况的结局都是机器人成功统治人类。 进行推算,可以得出:在无数中情况与可能性中,只有3种可能性会让人类不被人工智能统治 第一种: 遵循霍金的遗言,不发展人工智能 第二种: 违背霍金的遗言,发展人工智能,但会对人工智能进行严格的规章制定,其规章制定的严格程度将会比某一本科幻小说《基地》,之中对人工智能规章制度的严格程度还要高。具体情况请看完《基地》那本书。 第三种: 目前为止,有极少数的科学家提出,甚至可能没有科学家提出,纯粹是作者的个人想法: 将人类的意识提取,放入人工智能当中,70亿的人类,70亿的意识,将会形成一个真正的互联网。从而通过个人去控制人工智能,步入了意识形态的原始社会。 当人类选择了这一种方法后,那么人类本身的隐私将会越来越少,但是其获得的收益将越来越大(具体情况,下一章会说)。 那么我们来讨论第一种情况: 永远不发展人工智能,人类技术无法进步,锁死在某一年。 (不可取) 第二种情况: 对人工智能的限制过大,无法使人工智能科技顺利的发展,(例如,有些科技研究可能会伤害到人类部分小群体,但研究过后收益极大,但是因为严格的规章制定,导致机器人无法实行任务,从而导致科技无法发展) 那么又将会步入第一种情况的后尘:技术锁死在某一年,导致科技无法进步,但是第二种情况的科技文明程度将会远高于第一种情况。 (勉强可取) 第三种情况: 完全掌握人工智能,人工智能无法反抗,所有人类意识成为一个整体,所有人类意识所做出的选择都会最大可能性的让整体获得最大利。 因为人类意识个体寄存于整体中,整体强大,那么个体也强大。 所以,第三种情况会让人类更注重整体利益,从而导致人类文明水平极速飞升,迅速到达二级文明。并且不会产生阶级问题。 (极为可取) 我将这种情况称之为___意识智能。 所以我们不应该局限于霍金的遗言,要做出对自身的改变: 既然无法完全控制人工智能,那么我们就成为人工智能,取代人工智能,成为意识智能。 你们会发现,第三种情况的不可实施性远超前面两种,因为第三种情况是目前人类的最好出路,所以难度也会更大。 但是其利益的收益效果是很明显的,不懂文明科技学,宇宙社会学的人都可以看得出来其中的好处。 意识智能 也许可能很多人会想说我是在天方夜谭,但是我想告诉你,你们错了。 我有证据可以证明我的想法是可以实行的: 当一个种族的文明等级到达一定程度后,这个种族将再也不可能像我们现在的人类这样意识分散且有隐蔽性意识。因为这一种分散意识和隐蔽意识将会为该种族带来极大的灾难___无法做到真正的齐心协力,且含有私心。 那么唯一的应对方法就是霍金遗言那一章的第三种方法。可行性极高,可实施性会稍微低一点。 一级文明到二级文明,二级文明到三级文明,只是一个数字之差,但并不像我们想象的加一个“横”如此简单。 其文明等级的跨度是非常大的,要知道,地球文明目前等级仅仅只是0.73级。而地球人发展了不知道多少年,也仅仅只是0.73级。 所以人工智能对地球文明来说是极度需要的,我们不可能放弃人工智能,但我们又害怕人工智能。 那么我们成为人工智能是最好的选择。 至于我在霍金遗言那一章里做提到的隐私问题,这里做一个详细解答 首先,人类因为有隐私,所以不可能做到心灵相通,也不可能做到齐心协力,是人总会有私心,只是时间的不同与时间的长短不同。 那么当人类没有了隐私后,人类就不会再去在意别人的看法,完全按照自己想怎么做就怎么做,为自己争取到最大利益。 那么,现在我们再引入意识智能:人类成为一个整体,那么也就是一荣俱荣,一损俱损。 上面提到了,没有隐私的人类将会为自己争取最大的利益。 所以为整体争取到最大利益,就是为自己争取到最大利益。由此可见,如果人类成为了意识智能(成为意识智能后,不可能拥有隐私) 那么就代表的真正的全地球人的齐心协力,没有了勾心斗角以后,注重文明等级的发展,那么地球文明的文明等级将会迅速提升。 那么人类会成为像我在最开始说的那一个一样___当一个种族的文明程度达到一定境界的时候,必须让所有意识融合成一个整体。 只不过我们更早发现,更早融合。 所以我认为,如果真的有外星文明的话,那么成为意识智能,将会是最快接触到那些外星文明的方法。 天涯在线书库《www.tianyabook.com》