第340章 人工智能(2 / 2)

“这样的话,我们就通过了第一个考验了。”

“那么好吧,向目标出发。智能一号给了我们足够的提示,它就在那颗矮行星上面。”萧宇做出了决定:“所有飞船,全部进入战备状态。”

萧宇并不能确定这个智能一号到底有没有自己的思维。为了防止意外发生,萧宇并没有掉以轻心。

换句话说,就是萧宇现在尚不能确定这个智能一号对自己到底是善意的还是恶意的。毕竟,一个有了自己思维的存在,不管它是存在于生物体内也好,存在于电脑世界也好,它总会有许多不可预测的行为。为了以防万一,必要的戒备还是要有的。

虽然萧宇本身就和机械文明差不太多,但是萧宇和机械文明仍旧存在本质的差别。萧宇的前身,是文明智慧生物,而机械文明的前身,则是机械。

直到现在,以萧宇现在的科技程度,真正的人工智能,拥有自己独立思维的电脑生物,对萧宇来说仍是不可思议的存在。萧宇始终无法想象,从虚无的代码段之中,竟然会诞生出活生生的自主生命出来。

在这段时间之中,萧宇已经对所谓机械文明做了尽可能详尽的推测。推测结论表明,由于代码的完善性和复杂性不断提升,在六级文明之中,确实可能诞生出具有一定自主能力的所谓机械生命,甚至于它们还可以进行自主学习,吸收新的知识。毕竟,六级文明普遍采用的计算机科技,是自己尚未了解的光线计算机架构,整台计算机之内就只有一块芯片,其余所有部件都由虚无的光线构成。

不过在萧宇的推测之中,就算六级文明可以创造出真正的电子生命,这些电子生命也绝对不可能有创新能力。

还有最重要的一点,这些电子生命体除了不会拥有创新能力之外,还会有另一方面的限制,那就是,它们的编写者留在它们的核心代码段之中的硬性限制。

这些硬性限制是不可违背的。在萧宇的推测之中,如果违背了这些硬性限制,构成这个程序,或者说这个智能生命的所有相关代码段将会全部崩溃,它将会直接死亡。但是在这里面却有一个漏洞存在,这些硬性限制,虽然不可以违背,但并不代表不可以寻找漏洞。例如一个很简单的例子,假如要求一段程序,要保护人类的安全,既,不可以主动杀死人类,以及见到人类遇到危险必须施以援手。这个限制看似完善,但仍旧破绽重重。

假如有一个有了自主性的智能程序希望掌握世界,但是因为有这两个条件限制,它既无法主动杀死人类,也不能见到人类危险而不去救援,那么它该怎么办?

答案很简单,将所有人类都限制在一个固定场所,以确保安全的理由限制他们的自由,因为外部环境之中总可能遇到危险,呆在这里不动毫无疑问是最安全的。限制自由的同时再提供给人类足够的食物便可。

这个智能程序主动杀死人类了吗?没有。这个智能程序见到人类危险而不肯救助了吗?没有。事实上,它反而给了人类最安全的待遇—有什么环境,能比呆在屋子里面不出去还更安全?毕竟,在外部环境之中,可能会被车撞死,可能会被倒塌的楼房砸死,可能会被天上直接掉下来的陨石砸死。

看似这段程序没有违背任何限制,但是事实上,它还是通过这个方法控制了整个世界。

这就是智能生命的可怕之处了。甚至还有更可怕的一点,它还可以以“生育会有危险”的理由,禁止人类进行任何繁殖活动,最终导致人类全部灭绝。这一点看似残酷,但是它仍旧没有违反任何一条基本原则。

萧宇所害怕的,便是这种情况了。萧宇相信托洛尔文明确实是想留给矮人族遗产,但是萧宇却不敢相信这个智能一号。因为初始阶段,再完善的限制条件都会有漏洞,而只要这个智能一号有了自己的独立思维,只要它不想让自己顺利拿到遗产,它就总是可以找到漏洞去钻。譬如提高考验难度,譬如故意隐瞒某些信息之类的事情。

所以在靠近这颗矮行星的过程之中,萧宇保持了充足的戒心。