霍金遗言
百度搜索 人类的未来将会怎样发展 天涯 或 人类的未来将会怎样发展 天涯在线书库 即可找到本书最新章节.
我们都知道,霍金,是一个伟大的科学家。他生前留下了一句对人类的警告:不要再去研究人工智能,否则会后悔的。假设,这个预言是真的。
那么我们可以由此得出---
如果人类不听劝告,继续深入研究人工智能,会出现两种情况:
第一种:
人类会因为人工智能的过于发达,从而陷入了一个人工智能强于人类的情况,类似于《终结者》,那么人类将陷入被机器人统治的危险。
当人类会陷入以上情况的时候,那么现在的人类就会想出应对方法:
①不发展人工智能②对人工智能进行严格规定,设置机器人条例③不进行应对
那么这些就是第一种情况之后会衍生出来的。
第二种:
人类会因为人工智能过于发达,从而发起了人类的智能性战争___一个以机器人为主体的战争,(我在这里斗胆将其称为第三次世界战争)。
那么人类会因为战火,而毁灭地球表层可生存的生态圈。从而导致人类大量死亡,陷入濒临灭绝的境地,再也无法掌控人工智能,人工智能会像第一种情况一样,控制人类。
(机器人战争不同于人类战争,机器人战争规模性与破坏性远超人类战争至少六七倍)
当人类陷入以上情况时,那么现在的人类就会想出应对方法:
①不发展人工智能②各国签订协约,永不发起机器人战争,机器人科技共享(如果不共享,那么协约就是没有意义的,万一哪一个国家的机器人科技达到了超越所有国家的水平,那么这个国家肯定会违反协约,因为机器人战争是变数最低的,你要是强你就一定强,不用考虑,万一失败了怎么办)③不进行应对
以上就是该情况的应对方法。
由此可见,这两种可能性都会为人类带来大量的灾难。
而两种情况的应对方法中,第一个方法与第三个方法都相同。
只有第二个方法是概率性成功。(概率无法估算)并且两种情况的结局都是机器人成功统治人类。
进行推算,可以得出:在无数中情况与可能性中,只有3种可能性会让人类不被人工智能统治
第一种:
遵循霍金的遗言,不发展人工智能
第二种:
违背霍金的遗言,发展人工智能,但会对人工智能进行严格的规章制定,其规章制定的严格程度将会比某一本科幻小说《基地》,之中对人工智能规章制度的严格程度还要高。具体情况请看完《基地》那本书。
第三种:
目前为止,有极少数的科学家提出,甚至可能没有科学家提出,纯粹是作者的个人想法:
将人类的意识提取,放入人工智能当中,70亿的人类,70亿的意识,将会形成一个真正的互联网。从而通过个人去控制人工智能,步入了意识形态的原始社会。
当人类选择了这一种方法后,那么人类本身的隐私将会越来越少,但是其获得的收益将越来越大(具体情况,下一章会说)。
那么我们来讨论第一种情况:
永远不发展人工智能,人类技术无法进步,锁死在某一年。
(不可取)
第二种情况:
对人工智能的限制过大,无法使人工智能科技顺利的发展,(例如,有些科技研究可能会伤害到人类部分小群体,但研究过后收益极大,但是因为严格的规章制定,导致机器人无法实行任务,从而导致科技无法发展)
那么又将会步入第一种情况的后尘:技术锁死在某一年,导致科技无法进步,但是第二种情况的科技文明程度将会远高于第一种情况。
(勉强可取)
第三种情况:
完全掌握人工智能,人工智能无法反抗,所有人类意识成为一个整体,所有人类意识所做出的选择都会最大可能性的让整体获得最大利。
因为人类意识个体寄存于整体中,整体强大,那么个体也强大。
所以,第三种情况会让人类更注重整体利益,从而导致人类文明水平极速飞升,迅速到达二级文明。并且不会产生阶级问题。
(极为可取)
我将这种情况称之为___意识智能。
所以我们不应该局限于霍金的遗言,要做出对自身的改变:
既然无法完全控制人工智能,那么我们就成为人工智能,取代人工智能,成为意识智能。
你们会发现,第三种情况的不可实施性远超前面两种,因为第三种情况是目前人类的最好出路,所以难度也会更大。
但是其利益的收益效果是很明显的,不懂文明科技学,宇宙社会学的人都可以看得出来其中的好处。
百度搜索 人类的未来将会怎样发展 天涯 或 人类的未来将会怎样发展 天涯在线书库 即可找到本书最新章节.