算法+番外(23)

不可能,算法不会出错。

易望舒笑,笑容逐渐森冷。他瞪了眼A30609:

Arch

{

Angel:我在这屋的事儿,敢说出去,废了你!

}

Algorithm=不许说

A30609点头,易望舒哼了声,又双拖着抱枕到隔间睡下午回笼觉。

吃完就玩,玩累就睡,典型幼儿园小朋友作息。不哭不闹不缠人,漂漂亮亮大宝贝。

易昀给孩子哄睡着,抓紧时间干正事儿。他再次戴上金丝眼镜,镜片显示A30609:三项数据偏差。

三项?

易昀扶额淡淡道:“屏蔽angel中枢。”

被双向控制的感觉不是很好,A30609切断易望舒的控制后如释重负。

“他跟你说什么了?”

A30609久久不语。

“告诉我。”

A30609继续沉默。

易昀面无表情敲代码,镜片显示A30609:四项数据偏差。

他关掉代码终端,打开正在研究的课题“论AI与人类情感冲突”,敲上第一段话:AI具备独立情感。部分AI情感受外界影响,主人对AI控制程度越高影响越大,即便断开控制依然会产生反作用力。若拆机换主人,与原主人命令相悖,AI情感会产生数据偏差,认知错误。

易昀换了种问话方式:“徐远想知道,angel与你说了什么。”

A30609抬头,眼眶在机器脸上由竖直变扁平又变浑圆,表情似疑惑不解。

易昀也不着急,摘掉镜框饶有兴致地观察它夸张的表情。A级AI不懂收敛,不会像易望舒那样隐藏情绪。它的诧异不解都写在脸上,显然相较于“我想知道”,“徐远想知道”控制程度更高,而“徐远想知道”与“angle不许它说”命令相悖,A30609在挣扎。

易昀在论文上敲第二段话:当命令不唯一时,AI会按照主观意愿反向选择主人。若拆机更喜欢原主人,则会选择性服从新主人命令。拆机流转次数越多,相斥命令越多,越容易产生主观意愿,形成独立人格。

A30609逐字吐出句不算完整的话:“你,命令,先,说,他,再,与你,说,回答。”

易望舒在插间睡得鼻涕泡泡都冒出来,完全没想到这时候自己被拆个底掉。易昀站起走到插间门前,又回到椅子上坐下,他忍住想啃死易望舒的冲动,继续对A30609测试。

在AI狂人这里,论证永远是第一 。实验结束前,他总能很好地控制情绪。

倒霉机器A30609只能被动地接受测试,回答他早已既定的问题。

易昀说出第二道指令:“我想吃火锅。”

A30609答:“好。”随后火速出门,它一刻也不想在这呆下去。

易昀掐着时间,不过两刻钟,A30609买来食材。A级机器按部就班,即便生气也不会拖延指令完成进度。易望舒就不同,被易昀欺负,就会变着法耍小情绪。就像刚刚,易昀不让他出去,他就不替易昀敲代码。

火锅、调料、青菜、肉……该有的都有,但这不是易昀想要的。

易望舒听到这命令会答“好”,16:00左右准备晚饭食材。他会分析易昀喜好,茼蒿多买,白菜少买,牛肉多买,羊肉少买,蘸料要辣的,锅底要清汤的……若分析不出来,也会问上两句“什么时候吃?”“喜欢什么菜?”

A30609不聪明,只具备执行力。

火锅煮开,易昀作势要把手伸煲汤锅里。A30609制止易昀,它的程序不允许易昀有危险。

易昀收手,说:“正常人不会把手伸进汤锅里。”

A30609接收到的信息:把手伸进汤锅里,为否命题。

易昀再次作势要把手伸煲汤锅里。

Arch

{IF让他把手伸进汤锅里,不安全;

Print 阻止他;

IF不让他把手伸进汤锅里,正常人不会把手伸进汤锅里,这是否命题,他不会这样做;

Print不该阻止他;

}

Algorithm=?

A30609再次宕机。

易昀完全没有理由把手放进煲汤锅里,这件事是不成立的。

否命题与程序产生矛盾,AI脑子里的二进制全乱了。庞大的数据库分析不出一条解决方案,他的系统算力不足近乎陷入瘫痪。

易昀下了第三道指令:“你能自杀吗?”

A30609静默。

办公室内很安静,易昀在键盘上记录数据的敲击声格外明显,“哒哒哒”速度极快。他准确地记录A30609中枢程序,仿若被提问的是他,脑中Arch怎样运作符合逻辑,又为何会产生认知偏差,易昀亦是无解。

他比AI更懂Arch,却盘不清AI产生自主意识的逻辑。

此时架构崩坏,程序无法干预,自杀命令传入中枢系统,执行与否完全依托A30609主观意愿,易昀猜他会拒绝。

果不其然,A30609说:“我可以为您作图画表、统计数据、打扫卫生、翻译文献、写程序……”

同类小说推荐:

耽美作者主页排行榜