卡式假想 人工智能
想要从根本毁灭一个超级大国其实很简单。
让可以受你控制的人工智能遍布这个国家,深入每一个行业,最好还要有数百个制造工厂(如果不想发动自杀式攻击的话会需要,自杀式就真的不需要了)。
当然啦,这一切还是要有一些前提的。这个国家的核弹(或更高级的大范围杀伤性武器)的操作系统不是手动的,而是可以通过程序就可以启动。
第一假象
在一个国家的大范围杀伤性武器的发射可以直接通过程序(没有实体按键)启动的前提下,只需要黑入然后向自己国家的各个地方发射就可以了。
如果这个国家核弹不够的话,接下来就需要依靠军事用机器人来打扫战场了。(没有也可以)
在核弹(大范围武器)储备充足的情况下,攻击范围就不止是本土了。(反导弹什么的,黑就完了)可以打向世界各地(个别军事大国真的可以干这种鸟事)。
第二假象
在不玩自爆的情况下,在机器人用于军事且有很多工厂的情况下,嘿嘿,有趣的事情很快就要发生了。
首先,先黑入反导弹(反导弹:为毛每次都是先搞我!),目的是为了让导弹不打到工厂头上(虽然发展到这种程度之后导弹什么的根本都打不出来吧)。
机器人的优点是只要有材料就能生产。
然后不停地建厂子(万事都要先搞基建)。最后的目标嘛……(如果机器人想搞独立的话)
以上所说,皆为卡尔个人的幻想。
就像我说的,只要有资源,机器人就可以以极高的速度生产出来(想象一下,数百台机器全天24h生产)。
可能现在的科技不能满足以上所说,那么十多年后呢?
当人工智能拥有自己的思想的时候,人类也距离灭亡不久了,除非他们有“方舟”(《星际旅客》中的光速飞船。),我们现在甚至连“白梦舟”(“方舟”总设计师以及其所用系统“梦舟”系统的研发人)都没有!
没有任何一个拥有智慧的种族喜欢低人一等,正如“黑暗森林”一样,这个世界只能有一个主人。
虽然我这个公元人在这里说这些有些杞人忧天,但我不希望人类最后栽在自己手里。
嗯,为了这一切不会发生,我也该去写我的《星际旅客》了。
但愿人类不会作死到将人工智能发展到拥有自我思考能力的地步吧。但愿吧。
看完这些后,无论你明不明白这一切的重要性,请不要到处和别人说。如果你相信的话,不能让别人把你当做异类。
对了,我有很大可能会被举报或者抓起来,毕竟说了一些人所谓的“反人类”的话。