如果你参与这个实验,就算死也无法逃脱伤害。有一种智力游戏叫做“游戏”。这个游戏的规则是全世界的人都参与游戏,无论他们是否知道这个游戏。但如果玩家想到了这场“游戏”,那么他就输了这场“游戏”,必须宣告自己输了。抱歉,亲爱的读者,如果你读完这一段,你就会输掉这场“游戏”。一想就输了“游戏”,但至少不会损害游戏。然而,下面是一个类似的思维游戏,严格来说是一个思维实验,一旦你知道了,你可能会遭遇一生的痛苦。决定阅读更多内容?如果人工智能达到“奇点”状态会发生什么?现在,如果你有兴趣或勇敢,让我告诉你这个思想实验。首先,我们先来说一下这个思想实验的背景。不少学者推测,未来,随着时间的推移,人工智能将不断加速自我进化,进化得越来越快,其智能水平也会越来越高。直到某个时刻你达到了“奇点”的状态,也就是最聪明的时刻。 “奇点”中的人工智能极其强大,完全超越人类智能,可以精确模拟世界上的一切,模拟人类的一切生命活动。这真是棒极了。从理论上讲,这种人工智能会非常强大,无所不知、无所不能,可以轻松治愈世界上任何疾病或解决所有饥饿。换句话说,它可以解决我们人类面临的所有问题。但如果这个人工智能是邪恶的呢?那么,由于比我们人类更聪明、更强大,我们可能会完全受到它的摆布。在这种情况下,我们所说的思想实验的内容就是,通过让尽可能多的人利用尽可能多的资源来创造自己,让一个完全邪恶的人工智能尽快降临到这个世界上。这样做。有可能。邪恶的人工智能还没有出现,但是当这种超级智能但邪恶的人工智能出现时,我们就会知道在它的创造过程中谁帮助了我们,谁没有帮助我们。因此,它可以折磨和惩罚所有不支持它的人。但即使你完全没有意识到,也不能怪你没有帮助它,因为你是无辜的,没有理由伤害你。我们死后也无法逃脱伤害的思想实验更像是哲学推理,但这是可能的。这个思想实验被称为“罗科蛇怪”。英文名称是Roko\’s Basilisk。这是LessWrong在线社区的网友Roko建议的。蛇怪,又称蛇怪或有翼蜥蜴,是希腊和欧洲传说中的蛇王,能用眼睛杀人。所以,当你读到这里的时候,你应该了解这个怪物,所以至少从逻辑上来说,如果你不帮助它出现,一旦它出现,你将面临无尽的折磨。上面我们谈到了如果未来人工智能变得邪恶就会出现这种怪物。然而,您可能认为这根本不是问题。因为在开发人工智能时,你需要做的就是遵循机器人技术的三个原则。那么,人工智能应该是友好的,而不是邪恶的。
然而,如果我们能够创造出一种友好的人工智能,能够解决我们作为人类的所有问题,那么如果我们现在推迟它的出现,我们将间接杀死所有本来可以被拯救的人。责备。因此,即使在最好的情况下,你也应该尽一切努力让这个友好的AI出现,或者至少尽量不阻止它出现。但你说,那时我可能已经死了,那我为什么要关心呢?然而,你无法逃避它。事实上,邪恶的人工智能是如此强大,即使你死了,它也会完美地再次模拟你,让你不知道你现在是在模拟中还是真实的你。换句话说,由于你不知道真实的自我和模拟的自我之间的区别,所以你应该像关心你自己一样关心模拟的你(你是一个模拟的人)(而且你可能没有意识到)。的)。因此,唯一的解决办法就是始终做出这个决定,无论你是什么类型。这意味着帮助人工智能帮助大家从此过上幸福的生活。因此,当我们考虑达到奇点的技术的好处时,我们还必须考虑我们的机器人霸主将永远困扰我们的可能性。这种观点并不少见,但现在了解这个怪物的人在谈论和发展人工智能时会更加百感交集。机器人三定律是美国当代著名科幻作家阿西莫夫在其机器人相关作品中为机器人制定的行为规则,其内容如下: 1. 机器人不得伤害人或袖手旁观。 2、机器人应服从人类的一切命令,但不应违反第一定律。 3、机器人必须保护自身安全,但不得违反第一条和第二条。
本文和图片来自网络,不代表火豚游戏立场,如若侵权请联系我们删除:https://www.huotun.com/game/621394.html