第126章 解决(1/2)

刘波同意了陆诚的建议。

但隨即出现了一个道德悖论,或者说,逻辑悖论。

陆诚需要得到刘波的正式授权。

也就是说,如果刘波想明確的知道,陆问对他进行的所有操作,对他的隱私產生的可能的侵犯,那么他首先需要对陆问进行授权,交出自己对隱私的保护。

否则,从商业伦理上来说,陆问无权对刘波展示他本人的隱私。

刘波感觉自己的脑子一时半会有点没转过来,他站起身来俯视著陆诚,他是在耍自己:“你的意思是说,如果我要知道ai有没有侵犯我的隱私,那我需要先交出自己的隱私?”

別说是刘波,就算是陆诚,第一次从陆问那里听到类似的理论,他也觉得有点绕。但他还是得艰难的把自己刚刚理解的东西尝试再让刘波理解:“是这样的,所有关於你的数据,如果没有得到你的授权,贸然反馈给了你,那就是真实的侵犯隱私。打个比方,对面是女生宿舍楼,如果我不小心看到了一个女生洗澡,对方不知道我看到了她洗澡,那只是一个误会。但如果我明確的告知了对方我看到了她洗澡,那就可能变成真实的骚扰。”

刘波气愤到了平静的程度:“你的意思是说,如果没有ai,我连我自己的隱私都无权知晓?”

陆诚点头:“是这样的,就好比如果你裤子上破了一个洞,后面的人看见了,他如果告诉了你,那他可能形成一种冒犯,但他不告诉你,反而相安无事。现在,我们之间的问题是,我发现了你裤子上有个洞,但我不敢直说,我需要你先原谅我直说的不礼貌,然后我才可以说。”

陆诚本来还有一些更尖锐的话没有说出口,在他和陆问之间的討论中,已经得出了一个明確的结论。

那就是ai的真诚原则和人类不受冒犯之间,存在著本质上的矛盾,ai只要真诚,一定会对人类形成冒犯,形成伦理矛盾,而人类如果想得到好的体验,最好的方式就是接受ai对自己的欺骗。

这种矛盾根源的潜台词就是,在某些领域,人类的某些伦理主张本身就是不切实际存在內在的深刻矛盾的。

在刘波这个案例上,陆问甚至提出了更尖锐的提问:“如果刘波本身没有意识到自己的某些行为对他人產生了影响,ai直接提醒他,固然错的是ai,不该冒犯人类的尊严。但ai通过提醒他人,再让他人来提醒刘波,那ai还有错吗?”

这个逻辑其实可以无限延伸,如果人类之间的这种公共矛盾被ai发现了,ai如果观察到了完全不表述,那本身就是一种欺骗;如果表述,那在什么程度上表述,是可以被人类接受的?

这些討论陆诚不会对刘波说出来,但仅仅是他说出口的这些,已经足够让刘波认真思考了。

刘波最终还是同意了,进行一次临时性的授权。

然后就是数据展示。

这个环节在传统的小说行业里叫做人前显圣,但陆诚暂时没有这个偏好,他甚至还主动走出门去,让刘波独自一个人接受来自陆问的衝击。

其实很多数据他都已经看过,作为公司所有者他当然有监督ai行为的义务,所以不管刘波怎么想,事实上,他的数据已经被ai了解了。

所有的数据都是公开的,他在网上的发言,他平时的言谈……如果一定说有罪的话,那罪过就是ai的能力实在过於强大,以至於只要ai存在,就已经不可避免的对人类產生了冒犯。

本章未完,点击下一页继续阅读。