论事,这也就是说多半儿街道的其他住户只是普通天然人类,却被简佚当成了“不是真人”的AI仿生人。也许是因为在一成不变的空间站环境生活得太久了,行为习惯跟简佚脑海里正常人的样子产生了偏差。无论如何,简佚作为“精神病人”认知功能障碍是很可能存在,因此他说的这些话其实可信度也很低。
“您是怎么知道,他们不是真人?”姜祎成对他问道。
简佚听到她这么问,不由得有些惊讶地转过头看向她:“您一看便能知道,他们明显不是真人。”
紧接着他就说道:“您可能还没有见过他们。他们是按照预设轨迹运行的假人,没有思想,就像我家里那个坏掉的一样。”
姜祎成似乎明白了,他觉得除了他之外的所有人都不是真人,是因为他对于“真人”的定义跟别人不太一样。就像判断文明时常依据其是否有体系化的语言,而除了简佚之外住在这街道的其他所有人都不会说卡谢语也没有翻译系统,因此很容易被他这个精神疾病患者笼统地概括为“不是真人”。
然而当姜祎成刚想稍微刨根问底,问他如何确定一个人形物是否有“思想”,简佚却突然一把拉住她的手腕把她拉到一棵两人合抱粗的槐树后面。
他从后背环抱住姜祎成,压低声音在她耳边说道:“小心,野人来了。”
————————————
注释:
AI不能伤害人类,这个设定可能被认为与机器人学三定律的第一定律有关,但在实际操作中通常都会在编程时输入大量规则,前文也提到家居AI不能做出任何具有法律风险的行为[1]。此处与其牵扯到人类和弱AI之间的某种伦理学上的关系,不如直接理解为制造弱AI的公司是单纯为了规避法律风险。毕竟当代已经不是1950s了,大到自动化流水线小到手机智能app,大家见到“机器人”多了都知道其实程序的逻辑根本不是那么回事儿。
至于当代文艺作品里很常见的“弱AI由于理解不了某一指令的真实含义,而造成为了完成任务而找到并利用指令漏洞的事件——例如为了保护人类生命而把人变成植物人的情节——我只能说这些“天才”想象出的程序设计者可真天才,非得给AI写一个“不择手段必须完成指令”的模块。为什么我写的脚本就不行,刚一碰到BUG就停下来报错?
[1]“避免违反法律的行为”之间可能是冲突的,但只要不预设“必须完成指令”,AI在遇到此种矛盾时完全可以停止执行直接报错。相比于把“第一定律”放在最高优先级,简单地规避所有违法行为反而具有更高的可操作性和更低的法律风险。
例如在主人发生窒息时AI判断需要切开气管,此时如果有最高优先级的“第一定律”,则可能发生AI为了救人而切气管却误切到主动脉导致主人死亡,引发用户和AI设计者之间的扯皮官司。而如果不区分优先级地禁止一切违法行为,救人行为与手术合法性冲突,AI直接报错而停止活动,是不存在任何问题的。
本质上这是一个权责一致的问题。AI不是公民,就不能作为承担责任的主体,因此不应当被赋予任何权衡利弊的权利(从另一个角度,人可以有对他人的救助义务,而工具不能对人有救助义务;工具没有“义务”)。上世纪的很多科幻作品刻意在这一点上进行混淆,是为剧情服务所做的特殊处理,与现实中自动化技术的发展方向不能相互混淆。