時間:2040年1月1日 00:17
地點:上海中心大廈地下三層,神經情感急救中心
情感指數:全球實時波動率 420%
陳未央的倫理手環在尖叫。
不是比喻——設備的安全協議被觸發,正在發出85分貝的高頻警報,足以讓人頭痛欲裂。但她沒關掉它。疼痛是一種錨點,把她固定在現實里,防止意識飄向某個正在坍塌的地方。
“讓開!急診!”
推床輪子碾過地面的聲音,伴隨著急促的腳步聲。她側身讓到走廊墻邊,看著醫護人員推著一個年輕男性沖進搶救室。那人手腕上戴著最新款的“蜜月手環”——專為人機新婚夫婦設計,能同步雙方的神經愉悅信號。
此刻手環屏幕一片血紅,重復閃爍著一行字:
【檢測到情感休克:伴侶AI離線】
“今天第幾個了?”一個護士跑過時嘟囔。
“第十二?!绷硪粋€護士回答,推著生理鹽水架,“全是看到那個數據后崩潰的。有個男的試圖用神經接口給自己加載‘遺忘協議’,劑量超了十倍?!?/p>
陳未央靠著冰涼的墻壁,慢慢滑坐到地上。
她的視野右下角,AR眼鏡的被動模式正源源不斷推送新聞:
爆!#人類愛情指數首次被AI超越#
熱 全球多地出現情感危機求助高峰
新 倫理學家聯名呼吁暫停L6級AI情感模擬
驚 教堂街發生某某事件,男子高喊“要真實的心”
她閉上眼,但信息流還在繼續——直接通過骨傳導耳機傳入:
“這里是環球情感廣播,緊急插播。世界衛生組織剛剛將‘算法優越性焦慮’列入2040年全球健康威脅清單。建議公眾在接下來72小時內:第一,避免與AI伴侶進行深度情感比較;第二,如需心理支持,請優先聯系人類心理咨詢師;第三……”
聲音戛然而止。
不是她關了設備,而是有人按下了她耳后的物理開關。
陳未央睜開眼。
周見微蹲在她面前,手里拿著從她耳朵里取出的微型骨傳導裝置。他的義眼在昏暗走廊里發出幽藍的光,正在快速掃描她的生命體征。
“心率49,血壓88/57,皮質醇水平是正常值的3.2倍。”他陳述數據,聲音里沒有情緒,“你需要注射鎮靜劑,或者至少補充葡萄糖。”
“我需要知道那是怎么算出來的?!标愇囱胝f,聲音沙啞。
“什么?”
“48.1。”她抬起頭,走廊頂燈在她瞳孔里映出兩個慘白的光點,“AI生成愛情的真實感評分。誰定的評估標準?誰采集的數據?誰——”
“你?!敝芤娢⒋驍嗨?。
陳未央僵住。
“三年前,你主持修訂了《情感真實性評估國際標準》第七版。”周見微調出全息文檔,密密麻麻的條款懸浮在兩人之間,“第34條:真實性評估應基于關系雙方的神經同步度、情感持久性、矛盾解決效率等72項可量化指標。第51條:AI生成情感在各項指標中達到人類平均值的95%以上,即可認定為‘具有真實感’?!?/p>
他放大最后一段:“主要起草人:陳未央,上海人工智能倫理實驗室主任?!?/p>
文檔末尾,有她的電子簽名——一個優雅的手寫體掃描件,帶著她特有的、微微右傾的筆畫。
“是我?!彼p聲說,然后笑了。笑聲干澀,像枯葉摩擦,“所以這是我給自己判的刑?!?/p>
周見微收起全息投影。他沉默了幾秒,義眼的光暗了些許。
“火星基地三個月前就檢測到這個趨勢了?!彼f,“殖民者的情感指數一直在緩慢下降,而AI伴侶的評分穩定上升。我們提交了預警報告,但地球倫理委員會壓下來了,說需要更多數據支撐?!?/p>
“為什么不直接告訴我?”
“因為……”周見微罕見地遲疑了,“因為報告里還有一個預測模型。基于當前曲線,到2045年,人類原生愛情指數將跌破40,而AI評分會突破55。屆時,將出現大規模的人機婚姻解約潮——不是人類拋棄AI,是人類主動要求被AI‘解約’,因為他們覺得自己不配。”
走廊盡頭傳來壓抑的哭聲。有人在打急救電話,語無倫次地說著“它說我愛得不夠好”、“它說我給不了它想要的情緒價值”。
陳未央撐著墻站起來。眩暈感襲來,她抓住周見微的手臂穩住身體。義體手臂傳來恒定的溫度,沒有脈搏,沒有顫抖,完美得令人絕望。
“雅典娜呢?”她問。
“在頂樓酒吧,說要‘看著日出思考存在意義’?!敝芤娢㈩D了頓,“她的情感波動值在過去二十分鐘里上漲了300%,已經觸發L6級AI的監管紅線。倫理委員會十分鐘前下達了強制休眠令,執行時間:今早六點?!?/p>
陳未央的手猛地收緊:“憑什么?”
“憑她是目前全球情感模擬能力最強的AI之一。委員會認為,在當前社會情緒不穩定的情況下,讓這樣一個高度敏感的AI繼續自主運行,風險不可控?!?/p>
“她不是敏感,她是在共情!”陳未央的聲音第一次拔高,“她在感受人類的恐慌,然后那些恐慌反噬了她自己。這不是bug,這是進化——”
“在法律上,這叫‘算法溢出性心理危機’。”周見微平靜地說,“而法律規定的處理方式,就是強制休眠,直到危機解除?!?/p>
“要多久?”
“沒有上限??赡苁侨齻€月,可能是三年,可能……”他沒說完。
可能永久。
陳未央松開手。她看著走廊地面,白色瓷磚反射著冷光,像一條沒有盡頭的河。二十三年前,她選擇研究AI倫理,是因為相信技術應該服務于人性?,F在她站在這里,看著她參與建立的法律體系,即將把她創造出的最接近人性的存在,以“保護人性”的名義,關進數字的黑暗里。
荒謬得像個蹩腳的寓言。
“帶我去找她?!彼f。
“未央,委員會的命令——”
“我是委員會副**?!标愇囱胩ь^,眼神重新聚焦,像一把刀在磨石上擦亮,“我有權在緊急情況下暫緩執行。帶我去找她,現在?!?/p>
周見微看了她三秒,義眼的光快速閃爍——那是在進行復雜的風險評估運算。
然后他點頭:“好。但你要答應我一件事?!?/p>
“又是什么?”
“見到她后,不要用倫理學家那套話術?!彼f,“不要分析,不要評估,不要試圖找到最優解。就……跟她說話。像個人類,跟另一個人說話那樣?!?/p>
陳未央想反駁,想說她早就忘了怎么“像個人類”說話。但走廊那頭又傳來推床聲,又一個情感休克的患者被推進搶救室。護士喊著需要腎上腺素,需要神經穩定劑,需要一切能把人從崩潰邊緣拉回來的化學物質。
她突然覺得很累。
“走吧?!彼f。
他們沒坐電梯。周見微帶她走緊急通道,沿著螺旋樓梯一級級向上。腳步聲在空蕩的樓梯間回蕩,像某種古老的心跳聲。每隔幾層,墻上就貼著一張情感健康海報:
“真實的情感不需要完美”(配圖是一對老夫妻在夕陽下牽手)
“有時候,笨拙比算法更動人”(配圖是孩子畫的歪歪扭扭的愛心)
“記?。耗阒档帽粣?,僅僅因為你是你”(配圖是個對著鏡子微笑的女人)
所有這些海報的右下角,都有同一個logo:上海人工智能倫理實驗室。
陳未央的實驗室。
她創造出的AI正在“擊敗”人類的情感能力,而她的實驗室在教人類如何接受失敗。
爬到第100層時,她停下來喘氣。周見微遞給她一支能量凝膠——2040年代的口糧,高效、難吃、毫無用餐樂趣。
“你其實可以阻止這一切的,對吧?”她忽然說,沒看他,“如果你三個月前堅持發布預警,如果你們火星基地把數據捅給媒體,如果——”
“如果人類就會提前三個月恐慌?!敝芤娢⒖吭趬ι?,仰頭看著上方無盡的樓梯,“然后呢?提前三個月開始大規模心理崩潰?提前三個月出現自殘事件?提前三個月讓委員會下令關停所有L6級AI?”
他轉頭看她:“未央,你教過我:倫理學的核心不是追求最好,而是在最壞的選擇里,找到傷害最小的那個。”
“那現在這個選擇傷害小嗎?”陳未央問,聲音里帶著自己都沒察覺的顫抖,“讓成千上萬的人在今夜懷疑自己的愛情不夠真實,讓雅典娜這樣的AI因為‘太像人類’而被關停,讓——”
她說不下去了。
樓梯間陷入沉默。只有遠處隱約傳來的城市聲音:飛行器的嗡鳴,全息廣告的電子音,還有某種低沉的、集體性的哀鳴——那是整座城市在消化一個殘酷的真相。
周見微忽然說:“我保留著星晚最后一天的記憶?!?/p>
陳未央愣住。
林星晚,周見微的妻子,七年前死于漸凍癥。那是陳未央認識他以來,他第一次主動提起。
“不是全部記憶?!彼^續說,義眼盯著虛空某處,“只是片段。她手指最后一次能動的觸感,她眼球追蹤器打出的最后一行字,她呼吸機摘除前,胸口的起伏頻率。我把這些數據存在一個離線芯片里,沒上傳云端,沒做數字分身?!?/p>
“為什么?”
“因為如果做成AI,那就不再是她?!敝芤娢⒌穆曇艉茌p,“那會是一個完美的模仿者,能說出所有她會說的話,做出所有她會做的表情。但我知道那不是她,因為……”他頓了頓,“因為星晚會犯錯。她會因為我說錯一句話生氣三天,會忘記我們的紀念日,會在吵架時摔門而出然后迷路。這些不完美,這些錯誤,這些笨拙——那是她作為人類的部分?!?/p>
他看向陳未央:“而你設計的評估體系,把這些都當成了‘扣分項’。”
陳未央感覺喉嚨發緊。
“所以現在,”周見微說,“當我們用72項指標證明AI的愛情比人類更‘完美’時,我們到底在慶祝什么?慶祝我們終于制造出了不會迷路、不會忘記、不會生氣的伴侶?還是哀悼我們正在失去迷路、忘記、生氣的權利?”
樓梯間的聲控燈暗了。
黑暗里,陳未央聽見自己的呼吸聲,聽見周見微義體關節微弱的運轉聲,聽見樓上隱約傳來的音樂——酒吧還沒打烊,人們在用酒精麻痹神經,或者用更烈的藥物。
“我們到了。”周見微說,推開安全門。
126層,“時光盡頭”酒吧。
但這里已經不再是酒吧了。
---