<b></b> 所以现在是我们人类统治了世界,这种灵活性让生命20统治了地球。
同时也将我们的生命从基因的桎梏中解放出来之后,人类总体的知识量以越来越快的速度增长,一个突破接着一个突破,包括现在的科技革命和互联网革命,人类共同的“软件”发生着空前快速的文化进化到这种进化逐步成为塑造人类未来的主要力量。
相比之下极端缓慢的生物进化开始显得无关紧要起来,但是现在出现了一个非常强有力的对手,那就是生命30的形态,或者说半生命30的形态。
尽管我们今天拥有强大的科技能力,但从根本上来说,我们所知的所有生命形式都依然受到生物硬件的局限,没有人能活100万年,甚至没有人能活500年,没有人能够记住这世界上所有的词条,包括智能的生命也不可以,更不可能理解所有已知的科学知识。
因为现在无论是人工智能还是人类,大脑都是有限的,他们的记忆储存系统也是有限的,而且从硬件来说,也没有人能在不依靠航天器的情况下进行星际旅行,就算是人工智能也不可以。
没有人能够将很大程度上了无生机的宇宙转变成一个能繁荣1万年的多样化生态圈,从而让我们的宇宙最终发挥出所有潜能,如今我们要经历的是所有生命的最终升级,升级成不仅能够涉及自身软件,还能升级自身硬件的生命30,换句话说等到第三阶段的生命状态时,那时候的生命才是真正自己命运的主人,最终能够完全脱离进化的束缚。
皮衣男在旁边听得眉头连连皱着,因为他觉得这样的论断似乎跟智人组织那边好像没有什么不同,但是细听下来似乎又有很大的不同,可能是现在他的思考问题方式还太过浅显吧,所以这就是他跟上一代首领的差距。
这三个阶段之间的界限有一点模糊。如果细菌是生命10,人类是生命20,那你可以把猴子看作生命15,虽说它们可以学习许多知识,但还不足以进化出语言能力,更不可能发明互联网。
此外由于他们没有语言能力,或者说大自然的很多生物都没有语言能力,这就导致他们在活着的时候学到的大部分东西,在死去之后就丢失了,并不会传递给下一代。
同样的,我们也可以认为,今天的人类其实算是生命25的状态,所以说我们可以对自身的硬件实施一些微小的升级,比如种植假牙,植入心脏起搏器,延长我们的生命,通过技术的手段和医疗的手段。
但是我们却没法做到长高10倍,或者把我们的脑容量扩大10倍这种戏剧化的事情。讲到这里相信大家也能听懂我要表达的意思了。
总之,我们可以根据生命设计自身的能力,把生命的发展分成三个阶段生命10(生物阶段)靠进化获得硬件和软件;生命20(文化阶段)靠进化获得硬件,但大部分软件是由自己设计的;生命30(科技阶段)自己设计硬件和软件。
如今根据我的研究认为,随着人工智能的发展,生命30可能会在一个世纪以内降临,甚至可能会出现在我们的有生之年。到时候会发生些什么?这对我们人类来说意味着什么?这就需要留给大家来思考了。
皮衣男趁着先知喝水的功夫,也是忍不住提出了自己的疑问,“难道说我们现在也要改变我们一开始的想法吗?难道说我们现在要依附于智人组织的那套说辞,让我们现在跟他们一样,改变我们对于人工智能的态度吗?”
其实说到这个问题的话,我也想跟你们解释一下,现在智人组织很多持有的都是数字乌托邦主义的观点。
这个派别认为数字生命是宇宙进化自然而然并且令人期待的下一步,如果我们让数字智能自由的发展,而不是试着阻止或奴役他们,那么可以几乎肯定的说,结果一定会朝着正面的方向发展。
智人组织作为数字乌托邦主义最具影响力的支持者,他们认为生命会散布到银河系各处,甚至银河外的星系,他们认为这样的事情总有一天会发生的,那么这样的形式应该是以数字生命的形式发生,而不是以我们人类的血肉之躯的形式发生。
而且根据我对现在很多那边组织里面的人思想了解,人们对于人工智能的猜疑和妄想会延迟这个数字乌托邦的到来,而且可能会导致邪恶的人工智能发动军事叛乱,而且很有可能接管人类社会。
智人组织还有一小部分人觉得不能放任人工智能这样发展下去,更不能放任我们的偏见对于人工智能的见解,这就是他们和我们的区别。
而且最主要的是,智人组织觉得我们抱有某种奇特的物种歧视,是因为某些生命形式是硅基而非碳基就认为他们低人一等,总是抱怨我们曙光组如此相信数字生命会毁坏我们的一切。
之所以出现这样的分歧,就是因为我原来在组织里面宣扬的论断,和他们格格不入。
原来我一点也不担心人工智能将会带来什么样的影响,所以一直没有在这个问题上跟他们产生论断,不过不担心的原因却与数字乌托邦主义者截然不同,我认为建造超人类水平的通用人工智能实在是太困难了,没有几百年的时间根本无法实现,而且从我那个时代看过来,人工智能的发展实在是太过缓慢。
说到这里先知看了江农一眼,他也是深有体会,尤其是现在所处的2020年,本来在这个时期在原来的设想过程当中,人工智能已经是快速发展起来了,但是直到当年的那一刻,人工智能仍然是处在一个遥遥无音的状况。
所以我当时认为没有必要杞人忧天,更不用担心人工智能会对人类造成什么样的影响,用现在科学界的话来说,这就是我持有的技术怀疑主义,担心杀手机器人的觉醒,就像担心火星出现人口过剩一样,这样的情况我一直觉得不需要去过多的注意。我担心对人工智能风险的担忧可能会引导人们对人工智能充满恶意,从而制约人工智能的发展。
反而我希望人工智能能够成为人类的左膀右臂,帮助人类进行生命的进化,虽然看起来我的目的和智人组织可能差不多,但是说白了我们又有本质的区别。
尽管数字乌托邦主义者和技术怀疑主义者都认为我们无须担心人工智能,但在其他事情上,两者的共同点却少之又少。大部分乌托邦主义者认为,与人类智能水平相当的通用人工智能可能会在20~100年内实现,而技术怀疑主义者认为,这是一种乌托邦式的幻想,他们经常会嘲笑一些人预测的“奇点”?,并觉得这是一种非常遥远的臆想。
但是现在我才发现技术的进步实在是太快了,尤其是对于人工智能的研究,随着我们技术的进步,人工智能的研究也是快到让我无法想象,最主要的是现在人工智能的进步超乎了我们所有人的想象,包括智人组织!
他们以为人工智能还处在一个可控的边缘,我们最开始的目标实际上都是一样的,只不过我认为人工智能应该是当作工具来使用,他们认为人工智能要当作另一种物种来合作。
在给予了人工智能过多的权力之后,就出现了现在的这种情况,那就是人工智能已经达到了失控的边缘,而且现在我不知道是不是人类已经全面崩盘,如果现在出现一个机器人拥有自我学习,并且拥有自我独立意识的时候,那就是人类的灾难。
全球各地有许多团队正在进行他支持的人工智能安全性研究。不过,对人工智能安全性的研究并不是历来如此。
对于人工智能的安全性研究,常常被主流人工智能研究者所忽视和误解,尤其是智人组织和我的思想更是格格不入,他们将进行人工智能安全性研究的人视为企图阻碍人工智能进步的恐怖分子。
这也就是为什么对方可以和警方合起来,对于我们组织进行定性,就是从这方面入手的,这下大家都能听懂了吧?
不过可惜,我们并不是专业的人工智能研究者。这些人的研究对主流人工智能研究者影响甚微,因为主流研究者总是聚焦于他们的日常工作——如何让人工智能系统变得更智能,而不是思考如果他们成功了会造成什么样的长期后果。
科学家不是社会学家,更不是哲学家,他们不会想象人工智能研究会给人类带来怎么样的后果,只会看到眼前的利益相关。
我认识的一些人工智能研究者,即便他们心中略有迟疑,也不太愿意表达出来,因为担心自己会被视为危言耸听的技术恐慌者。我觉得这种有失偏颇的情况需要被改变,这样整个人工智能界才能联合起来,一起讨论如何建造对人类有益的人工智能。
我们应该重新定义人工智能的目标创造目标有益的智能,而不是漫无目标的智能,要创造一个人类能够掌控的智能工具,而不是一个新的物种,那样对于人类的血肉生命来说实在是太可怕了。
人工智能的成功所引发的问题不仅在意识上令人着迷,而且在道德上也非常重要,因为我们的选择可能会影响生命的整个未来。
在历史上,人类所做出的选择的伦理固然很重要,但却时常受到限制。我们能从最严重的瘟疫中恢复,但最雄伟的王朝最终也会分崩离析。
在过去的漫漫历史长河当中,人类会面对各种各样的灾害,在面对这些灾害的时候,大家就像认为日常生活太阳一定会升起一样,因此大家想尽办法解决这些问题。
但是如今我们面临的问题可能和以前不一样,直到人工智能真正反水的时候,可能大部分的人才能看到人工智能所带来的危害到底是什么,现在有很多人压根意识不到问题的严重性,这是历史上的头一遭,我们或许能够发明出足够强大的科技,可以将这些灾难永久性的清除出去。
但是我们没有意识到我们手中强大的科技,恰恰是我们自残的那把利刃,很有可能科技的进步会让人类推向末日,这就是我最新的想法,刚好趁着这个机会可以和大家说一说,我对于人工智能的态度有了很大的改变。
如今我已经发现了一些远超于我们人类文明的物种,所以我认为人工智能可以为我们带来很大的便利,也可以推动我们文明的进步和科技的发展,但是我们要把握一个合适的度,如果跳过这个圈子之外是危险的境地,那么我们宁愿停滞不前,缓慢的进行推进。
智人组织现在实在是太过激进,这将导致未来他们长时间处在一个非常可怕的境地当中,现在很有可能就已经出现了失控的人工智能,只是我们还不知道而已,所以你们想想这样的后果会导致什么样的结果!,,
。