可以了。从来没有什么东西是绝对安全的,如果这还有人觉得不安全,那我建议移民火星吧,蓝星太危险了,不适合你。】
【举手,我有先驱集团的智脑,也有智能系统。我证明,确实有自检程序。说明书我没看,正经人谁看说明书啊?不过量子计算机第一次开机的时候,会弹窗提醒。另外,和先驱集团的工作人员确定智能系统的设置的时候,工作人员也有跟我说明过这个。】
【我也有智脑和智能系统。嘻嘻,我给设置成了一个乖巧可爱的小女孩,满足了我无痛当妈的愿望。恐男,这辈子不准备结婚,但很喜欢小女孩,本来还以为只能等将来老了去领养一个,没想到先驱集团帮我圆梦了!】
【无痛当妈算什么,我的智能系统是一只熊猫崽崽!我有熊猫了!谢谢先驱集团,让我有熊猫了!】
后面弹幕就歪楼变成了各种秀自己的智能系统的,什么现实里不可能养的熊猫啊、小熊猫啊、雪豹啊、东北金渐层啊之类的,应有尽有。
当然也有比较常规的猫猫狗狗之类的宠物,以及像那个无痛当妈的用户一样热爱人类幼崽的。
虽然也有一些不和谐的弹幕,但在这一大堆秀智能系统的人面前,不和谐的弹幕被压的水花都没有溅起来,很快就无力地消失了。
第一个被点到的记者也是国内的,是一个口碑很好作风正派的自由媒体人,“夏总监您好,听了您刚刚的回答,我对智能系统的安全已经有了很大的信心。但我还是有一个疑问,假如智能系统完全听从主人的话,那么如果智能系统的主人心术不正,想要借助智能系统去做一些违法犯罪的事情呢?针对这种情况,我们有办法避免吗?”
这个问题引起了很多网友的共鸣,尤其是那些目前已经拥有了智能系统的网友,在使用过之后,他们是最清楚智能系统能做到多少事情的。
夏垒:“这位记者朋友的问题问得很好。回答上一个问题的时候我们就说过,我们在核心源代码中就对智能系统的行为进行了限制。但这个限制在有些地方可能会非常详细,我们没有办法一条条写进智能系统的核心源代码里,那样的话源代码就会太臃肿了,智能系统的程序就会变得非常大,占据太多的存储空间。
“学习过C++的人肯定知道,很多时候我们写一段代码,并不需要把函数全部写出来,而是可以直接从库函数里