他很年轻,却又显出和年纪不一样的滴水不漏。
说话时自然带动下颌线条起伏,面部轮廓完美,每一个角度都恰到好处,唐念忍不住猜测,这层那近乎完美的皮囊下,隐藏着的究竟是温热的血液还是一系列复杂的算法和冰冷的逻辑电路。
声音很好听,目光也很专注。
唐念听着这位林教授讲话,心中总涌起一股似曾相识的感觉,觉得自己除了031那张脸,还在哪里见过他。
以至于他在说话的时候不自觉地走神。
她心里有种直觉,她与林教授在过去有过交集。
难道是那段遗失记忆中的一部分?
林教授的声音不知什么时候停下了。
目光温和地看着她,提醒,“唐小姐,你盯着我的脸看了很久了。”
唐念佯装平静地将视线转移向屏幕,“不好意思,你刚刚说到哪了?”
林隅之抬手看了一眼时间,体贴地说,“这些东西可能对你来说很枯燥。”
唐念摇头,“还好,我会试着理解。”
屏幕上闪烁着密集字符,以极快的速度刷新着/它们是信息的载体,正自动训练消化研发团队灌注的数据和指令。
唐念提出一个问题,“我有一个疑问。”
“请问。”
“如果有一天它的迭代进步到了超出人类能够控制的地步,到时候该怎么办?”
“比如什么样的超出控制?”
“比如……将人类困在它的掌控之下,像驯化动物园里的动物一样,将人类关起来的那种?”
屏幕的冷光照在林隅之薄薄的镜片上,字符仿佛拥有了生命,不断跳跃。
他转过身,正面对着唐念,淡色的唇瓣镀上一层金属感的冷色。
声音却依旧温和。
“创建这套算法之初,我就植入了人类安全保护协议,这是一条基础编程限制,任何超出协议允许范围的行为,都将触发系统内部的自毁算法。所以你不用担心安全问题。”
唐念摇头。
“你口中的保护人类是基于人类的理解,可如果是算法理解错了呢?”
林隅之安静地看着唐念,并不打断。
“如果有一天它理解的保护人类是将人类豢养起来呢?”
她轻声问,“就像人养宠物那样,出门上班时会把它关在家里,因为担心外面危险,它出门会受伤,所以在我们的理解里,将宠物关在家里就是对它的保护。”
偌大的办公室变得很安静,只剩下电脑主机发出的微弱电流声。
唐念的嗓音在安静的环境中显得格外清晰。
“缺失了人性化的理解与判断,就可能在关键时刻偏离保护人类的初衷,导致无法预料的后果。”
她对上林隅之的目光,认真地说,“如果算法理解错误,甚至违背了人类真正的意愿和需求,那它的存在,会不会成为一种灾难?”
林隅之的眼神多了几分认真,若有所思。
机房里不知什么时候只剩下他们两个。
如果人工智能过于执着于执行某项指令,而忽略了人类的实际安全或利益,那么这种保护就失去了意义。
毕竟,它是机器,终究没有人类那样复杂多元的情感。
“如果它算出毁灭会到来,就提前以保护的名义,终结大部分生命,以保存文明延续。”
"我可以理解你的担忧与不安,你的担忧是合理的,角度也完全正确。”
林隅之说话时带着很浅的气音,两人相隔不足一米的距离,足以是唐念看清他的眼睛。
很浅的褐色,像琥珀。
“在未来到来之前,有很多事情都是有可能会发生的,这的确是一场很危险的博弈。”
他的声音有安抚的意味,大概是因为唐念的担忧实在是太过明显。
“可是没有博弈,就不会有进步,人类文明发展至今,都是在不断试错中一路走来的。”
林隅之起身给她倒了一杯温水,随后拉开椅子示意她坐下。
唐念接过,问,“如果将它的数据上传到互联网,那么它会不会像病毒一样,在各个网络终端上复制、蔓延、扩散?”
从某种角度看,唐念接二连三的疑问冲刷掉了林隅之对她原有的刻板印象。
她所表达的担忧证明她并非外界谣传中那种混吃等死、不学无术的酒囊饭袋。
林隅之语气更温和,缓缓地补充,“我为它设定了严格的框架,它不能离开它的主控系统,一旦它离开了我设置的区域——比如你说的上传网络并复制备份,就会自动启用自毁程序。”
“什么意思?”
“你可以当作一种编程限制,就是它的备份全部会在一定时限内自毁,所以不会出现你说的那种情况。”
“你不觉得这样的风险太高了吗?”
唐念又说,“就靠程序限制,万一它哪天进化突破了这种限制呢?”
她越说越觉得这样的前景令人担忧。
“它们的基础逻辑构建于算法之上,因此,人工智能本身不具备情感,也就不会有贪欲或憎恨。如果它们的核心指令是为了服务人类,那么它们将会穷尽所有能量,执行所有它们认为对人类有益的行为。”
唐念提出了担忧,“那如果它们具备了感情,有了贪欲或者憎恨呢?是不是就会伤害人类了?”
“那它们就会像人类一样思考,你一开始的‘因为错误理解指令而豢养人类’的假设也就不存在了。”林隅之笑了一下,态度依旧温和,“但正如我一直所强调的,它们缺乏情感。”
AI是由人类设计和编程的。
它们所有情绪相关的反应都是为了更好地与人类交流互动而设计的模拟行为,但这些只是基于算法和预设的响应,而不是真正的情感。