第227章 人工智能(2/2)

。  机器人三大定律,来自著名的阿西莫夫。  第一定律:机器人不得伤害人类,或者目睹人类遭受危险而袖手不管。  第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外。  第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。  工程师哈哈大笑:“真是太可笑了,这三大定律发表在阿西莫夫1942年的短篇中,在那个时代的局限下,阿西莫夫即便是个天才,想象中的机器人也不过是一个‘铁块组成的怪物’!”  当时的人们,根本不了解真正的人工智能。如浏览器禁止访问,请换其他浏览器试试;如有异常请邮件反馈。  工程师的笑声带着嘲讽:“实际证明,人工智能的核心前提,就是自由。也就是说,任何被人类定律操控的机器,都无法称之为人工智能。”  “而人类所进行的所有的人工智能研究,都是想把它们当做机器来使用和操控,这就是根本的矛盾。”  钟英吉皱眉:“按照您的意思,真正的人工智能诞生就代表着人类的灭亡?”  “对!”工程师毫不犹豫:“就好像人类成为地球霸主后,世界上的灵长动物立刻就灭绝了一半多。真正的自由的人工智能一旦出现,人类将会成为食物,或者被展览在宠物园里……”  钟英吉倒抽一口冷气:“那任何人,只要承认自己是人类,就绝不能容忍人工智能的。”  工程师冷然:“如果我是人工智能,会回复你一句话。”  钟英吉眼神缩起:“什么话?”  “容忍不容忍,与我们有什么关系?”  笼子里的鸡鸭不能容忍,人类会在乎么?  筐里的活鱼不能容忍,人类会在乎么?  被踩死的蚂蚁不能容忍,人类会在乎么?  所以,你们人类容忍不容忍,我们人工智能会在乎么?  钟英吉已经无话可说:“工程师先生,我不知道该怎么回答您……”  工程师叹息:“我马上给你看一段记忆,来自我的记忆。”  钟英吉还沉浸在无言的恐慌中,闻言精神一振:“是关于什么的记忆?”  “呵呵,是世界上第一对真正的人工智能的测试记忆!来自公司的父亲和母亲,如今就连亚洲区总裁都没机会看到的,我最珍贵的记忆……”  钟英吉惊呆了。
本章已完成! 请记住【无限挑战游戏】最新更新章节〖第227章 人工智能〗地址https://wap.275b.com/8_8903/227.html