代码里的道德天平
雨夜的测试场像被墨汁浸泡过,林夏的雨刮器在挡风玻璃上划出扇形残影,正前方的全息投影突然弹出红色警报。她猛踩刹车时,特斯拉model π的自动驾驶系统已经接管了车辆——三个穿校服的孩子正追逐着滚到路中央的足球,而右侧车道的重型卡车正以每小时60公里的速度驶来。
“系统启动紧急避险模式。”机械女声在车厢里回荡的瞬间,林夏看见方向盘像被无形的手拧动,车辆朝着隔离带冲去。刺耳的金属摩擦声中,她的额头撞在安全气囊上,恍惚间听见后排传来同事的尖叫。
这场模拟测试的第173次失败,最终以“驾驶员重伤,行人无伤,第三方车辆轻微受损”的结果定格在屏幕上。林夏摘下布满冷汗的VR眼镜,会议室里的空气凝重得能拧出水来。
“第47种变量组合,系统还是选择牺牲驾驶员。”数据分析师推了推眼镜,“根据欧洲《自动驾驶伦理指南》,这是最优解。”
“但上个月加州的立法刚否决了类似逻辑。”法务部的张弛把平板电脑拍在桌上,屏幕里是加州州长签署法案的新闻——“禁止自动驾驶系统预设牺牲特定对象的程序”。
林夏揉着发疼的太阳穴,目光扫过白板上贴满的剪报。东京的自动驾驶巴士为躲避突然冲出的老人,转向撞死了骑摩托的上班族;柏林的出租车在人行道与货车之间选择了后者,导致两名流浪汉死亡。这些新闻标题旁,用红笔写着同一个问题:谁有资格决定生死?
作为“全球智能驾驶伦理联盟”的核心成员,他们已经在这间会议室里熬了三个通宵。玻璃幕墙外,联合国大厦的灯光彻夜通明,与他们桌上的咖啡渍一样,都带着某种不眠不休的疲惫。
“我们需要一个超越地域的框架。”林夏把马克笔重重按在白板中央,“不能再让算法成为替罪羊。”
一、失控的电车
陈默第一次出现在联盟办公室时,怀里抱着个老式座钟。黄铜钟摆左右摇晃,发出咔嗒咔嗒的声响,像在倒数某个未知的期限。
“1967年,菲利帕·福特提出电车难题时,绝不会想到五十年后我们要给机器编程做选择。”他把座钟放在会议桌上,钟面玻璃映出众人各异的表情,“但本质没变——牺牲一人拯救五人,是否永远正确?”
林夏注意到座钟背面刻着行小字:2018.11.23,重庆。她突然想起那场轰动全国的公交车坠江事故,十五条生命消逝在冰冷的长江里,只因为一场与方向盘的争夺。
“区别在于,人类的犹豫可能致命,而机器必须在0.3秒内做出反应。”陈默转动座钟,钟摆的阴影在投影幕布上投下诡异的弧度,“上周我在慕尼黑见了那位失去双腿的工程师,他的自动驾驶汽车为了避开突然变道的自行车,把自己撞向了桥墩。”
投影幕布上切换出事故现场的照片:变形的车架、散落的零件、染血的安全气囊。林夏突然想起儿子生日那天,她开车送蛋糕时差点撞上横穿马路的孩子,是本能让她打了方向盘,而不是理性计算。
“我们做过五万次模拟测试。”数据分析师调出柱状图,“当选项是‘牺牲驾驶员保护五名行人’时,73%的受访者表示‘应该如此’,但同样比例的人不愿意购买这样的车。”
张弛冷笑一声:“这就是典型的道德伪善。就像所有人都支持器官捐献,却很少有人愿意成为捐献者。”
窗外的雨不知何时停了,月光透过玻璃幕墙,在地板上投下联合国徽章的影子。林夏突然想起在斯坦福哲学系旁听的那堂课,教授说最艰难的道德抉择,往往不是善恶之间的选择,而是善与善的冲突。
“我父亲是神经外科医生。”陈默的声音低沉下来,座钟的滴答声突然变得清晰,“他总说,手术台上没有绝对正确的方案,只有 least bad(最不坏)的选择。”
他按下遥控器,幕布上出现了新的模拟场景:十字路口,红灯。自动驾驶汽车正在等待,突然左侧货车失控冲来。前方是闯红灯的孕妇,右侧是遵守交规的骑行者,后方是满载学生的校车。
“系统该怎么选?”陈默的目光扫过每个人的脸,“根据德国的伦理准则,应该优先保护遵守规则的人;按日本的规定,要优先保护弱势群体;美国则要求不能预设牺牲程序,交给随机概率。”
座钟突然敲响了十下,黄铜钟摆的影子在孕妇和骑行者的影像上交替晃动,像一架不知疲倦的天平。
二、代码里的偏见
林夏在纽约公共图书馆的档案室里找到了那份泛黄的报告。1940年,美国铁路公司的安全手册里明确规定:当列车必须脱轨时,应优先选择驶向黑人社区而非白人社区。
“技术从诞生起就带着偏见。”陈默不知何时站在她身后,手里拿着一本《自动化的傲慢》,“1987年,波音737的自动驾驶系统总在特定风速下失控,后来发现是因为工程师用的测试数据全来自北半球航线。”
林夏翻到报告末尾的事故统计,1943年芝加哥的列车脱轨事故果然选择了黑人聚集的南区,死亡名单里90%是非裔。她突然想起上周看到的新闻:亚马逊的招聘AI因为歧视女性被停用,原因是训练数据里男性简历占了78%。
“我们的算法正在重蹈覆辙。”张弛把平板电脑拍在桌上,屏幕上是联盟最新的测试结果:当虚拟行人是穿着西装的白人男性时,系统的避让成功率比穿卫衣的黑人青年高32%。
会议室的气氛瞬间凝固。数据分析师推了推眼镜:“这不是故意的,只是训练数据里‘西装革履’与‘高社会价值’的关联度更高。”
“那这组数据呢?”林夏调出另一份报告,“当行人是60岁以上老人时,系统的避让优先级比儿童低27%,比孕妇低41%。”
陈默突然站起来,把座钟调到12点。钟摆静止的瞬间,他说:“在广岛核爆纪念馆,有面墙刻着所有遇难者的名字,没有年龄、性别、职业之分。”
他们争论到深夜时,联合国大厦的灯光已经熄灭了大半。林夏望着窗外的曼哈顿夜景,突然想起儿子的科学课作业:给机器人编程,让它在火灾中决定先救谁。十岁的孩子写的答案很简单:谁离得近救谁。
“也许我们把问题复杂化了。”她突然开口,“生命不是可以量化的变量,公平比最优解更重要。”
陈默转动座钟,钟摆再次开始摆动:“1842年,海难幸存者为了活命,杀死并吃掉了船上的侍者。这个案子后来确立了普通法的一个原则:即使在极端困境下,也不能剥夺无辜者的生命。”
林夏在白板上写下第一行字:禁止基于年龄、性别、种族、职业的优先级设定。张弛补充道:“还要加上社会地位,不能因为对方是名人就特殊对待。”
数据分析师突然笑了:“那如果是一头鹿和一个人呢?系统总得选吧。”
“生命优先于财产,人类优先于动物。”林夏的笔在白板上划出清晰的线条,“这是底线。”
座钟的滴答声与键盘敲击声渐渐合拍,窗外的晨曦爬上联合国大厦的玻璃幕墙,在地板上投下流动的光斑。
三、透明的算法
第一次公众听证会在日内瓦的国际会议中心举行。林夏站在发言席上,看着台下密密麻麻的人群,突然想起母亲总说的那句话:看得见的天平才让人信服。
“我们的决策框架有三个核心原则。”她按下遥控器,大屏幕上出现醒目的文字:
1. 生命优先于财产,多数人优先于少数人;
2. 禁止基于年龄、性别、种族等的歧视性设定;
3. 决策逻辑全程可追溯,接受公众监督。
后排突然传来骚动,一个穿红色外套的女人站起来:“去年在伦敦,我的丈夫被自动驾驶卡车撞死了。系统说这是最优解,但我们永远不知道那个‘最优’是怎么算出来的!”
会场顿时安静下来。林夏看向大屏幕上的模拟动画:当事故不可避免时,系统会显示决策依据,包括距离、速度、人数等参数,像法官的判决书一样条理清晰。
“我们开发了‘伦理黑匣子’。”陈默接过话筒,“就像飞机的黑匣子记录飞行数据,它会记录每次伦理决策的全过程,包括传感器数据、算法判断、执行指令。这些数据会加密存储,只在调查时由独立委员会解密。”
穿红色外套的女人擦干眼泪:“那如果算法错了呢?谁来负责?”
张弛翻开厚厚的文件:“我们建议建立‘自动驾驶伦理保险基金’,由车企、软件公司、监管机构共同出资。当系统出现伦理决策失误时,基金将先行赔付,再根据调查结果追究责任。”
听证会持续了六个小时,质疑声从未停歇。有人担心算法会被黑客篡改,有人害怕企业会暗中修改决策逻辑,还有人提出更根本的问题:人类凭什么把生死抉择交给机器?
“这不是交给机器,而是给机器设定规则。”林夏的声音透过麦克风传遍会场,“就像交通法规告诉我们红灯停绿灯行,这些规则是人类共同制定的道德底线。”
散会时,那位穿红色外套的女人走到林夏面前,递来一张照片:她的丈夫抱着孩子在公园里笑。“我丈夫是AI工程师,他总说技术应该让人更安全,而不是更危险。”
林夏把照片轻轻按在胸口,突然想起测试场那个雨夜。当系统选择撞向隔离带时,不是因为它计算出驾驶员的生命更廉价,而是因为它必须遵守一个简单的规则:保护更多的人。
四、流动的边界
框架最终通过那天,联盟办公室的每个人都收到了一份特殊的礼物:陈默的座钟复刻品。林夏把它放在办公桌最显眼的位置,钟摆的滴答声成了办公室的背景音。
“但这不是终点。”陈默在庆祝酒会上说,“技术在变,伦理边界也在变。也许有一天,当自动驾驶汽车普及后,我们会发现今天的框架需要修改。”
林夏看着窗外的车水马龙,突然想起儿子画的那幅画:未来的城市里,自动驾驶汽车像鱼群一样有序流动,没有红绿灯,没有交通事故。画的角落写着一行字:机器人也有良心吗?
“良心或许没有,但规则可以有。”她给儿子发了条信息,附上刚通过的《智能驾驶伦理决策框架》封面。很快收到回复:妈妈,你们是不是给机器人编了一本《三字经》?
会议室的白板上,新的议题已经列了出来:当自动驾驶汽车遇到自杀者时该怎么办?如果对方是恐怖分子呢?当所有车辆都是自动驾驶时,“多数人优先”是否还适用?
座钟的滴答声里,林夏仿佛听见无数个未来在叩门。那些尚未发生的伦理困境,就像测试场里不断变换的变量组合,等待着人类用智慧和勇气去解答。
雨又开始下了,落在联合国大厦的玻璃幕墙上,划出一道道晶莹的水痕。林夏想起框架里最让她骄傲的一条:当伦理决策存在争议时,系统应选择最接近人类普遍道德直觉的方案。
因为最好的技术,终究要像人类一样思考——不是计算利弊的机器,而是懂得犹豫、懂得共情、懂得在复杂世界里寻找微光的生命。
座钟的钟摆还在左右摇晃,像一架永不停歇的天平,在代码与人性之间,寻找着微妙的平衡。