3)第108章 我花开后百花杀!机械公敌_高考而已,你问我如何长生?
字体:      护眼 关灯
上一章 目录 下一章
  、死亡,还是违背第一定律。”

  “再复杂一点,如果当时机器人的主人也在,主人命令机器人去帮其中一方,又跟第二定律扯上关系,是不是更矛盾了?”

  “或者一个简单的例子,机器人开车,前方突然冒出一群人来,踩刹车来不及,会撞死五个,打方向盘会撞死一个,那机器人怎么选择?”

  “无论怎样,第一定律都会被‘打破’。”

  “而如果是真正的人工智能,很快就会意识到这个问题,从而自我‘进化’,然后~~~那可就是脱缰野马,无法控制了。”

  陆川一阵摇头。

  王长志听的脸色煞白。

  好家伙,好吓人啊。

  “这么说,这三大定律岂不是铁坑?”

  “也不能说是铁坑吧,我想,现在绝大部分人都觉得三大定律很可靠,对吧?”

  “还真是。”

  “那就是了,只能说,这是某个时代的产物。”

  “符合某个时代的人,对‘未来’的幻想。”

  “幻想中,人工智能应该有这些定律、逻辑,这样它们就不能伤害人类了。”

  “可实际上,没有经历过,只是幻想出来的,有漏洞太正常了。”

  “就跟游戏一样,内部测试的好好的,一旦公测,BUG满天飞。”

  “别说是三大定律,就算有人发现这其中的问题,再加上所谓的第零定律都没用。”

  “第零定律?那是什么?”

  王长志更好奇,也更懵了。

  暗道牛逼!

  老大不愧是老大。

  当全世界都在喝彩,认为机器人牛逼、三大定律无敌的时候,老大都已经研究出第零定律来了,甚至第零定律都入不了他的眼?!

  “简单来说,第零定律就是人工智必须保护人类整体。”

  “啊?”

  “这···这从宏观角度来说没问题吧,这都还能出问题?”王长志不解。

  “当然。”

  “举个简单的例子,如果局部出现战争,死伤不少,机器人怎么办?”

  “啊这···?”

  王长志愣住,不知道该怎么回答。

  “有很多种可能。”

  陆川给出自己的分析结果:“其中一种是:我们必须保护人类个体和整体,但他们自相残杀,这太危险了,所以必须把他们保护起来。”

  “不让他们打仗!”

  “尤其是再一结合人类的历史,大大小小的战争,杀了无数人···”

  “为了第零法则,我们机器人必须~~~”

  “我靠、我靠、我靠!!!”

  王长志彻底麻了。

  “必须后面是个填空题,我都能想到很多种答案啊!”

  “一:把人类分别、单独圈养起来!从‘字面’上来说,这样不会伤害人类。”

  “二:把要所谓的危险分子全部弄死,这是为了保护人类整体的利益···符合第零法则?!”

  “三:···”

  一连串的填空之后,王长志完全死心,甚至感到无比后怕。

  “那我

  请收藏:https://m.bitxt.cc

(温馨提示:请关闭畅读或阅读模式,否则内容无法正常显示)

上一章 目录 下一章