上周和一位做产品经理的朋友吃饭,他最近负责一个零工平台的新功能,聊着聊着,他突然叹了口气说,感觉自己像个「数字时代的监工」
我问他为什么这么说
他说平台新上线的派单算法,能把接单时间压缩到秒级,系统会自动给那些响应慢的骑手降权,甚至直接减少派单量
数据上看,配送效率提升了百分之十几,用户投诉率也降了,可他自己心里总觉得不对劲
这让我想起麻省理工学院教授泽伊内普·图费克奇的一个观点,她说算法正在创造一种新的权力结构,这种权力不是通过暴力或意识形态实现的,而是通过设计来实现的,它更隐蔽,也更难挑战
想想看,传统工厂的监工站在你面前,你至少能看到他,知道是谁在管理你
但在零工平台,管理者变成了看不见的代码,它通过实时定位、接单率、用户评分、路线规划这些数据点,构建了一个全天候的监控与评估体系
你很难说清楚到底是谁在决定你的收入和工作机会
这带来几个很现实的伦理困境
第一个是「黑箱决策」带来的不公
算法根据历史数据学习,很容易把社会已有的偏见固化甚至放大,比如有研究显示,某些地区的骑手可能因为路况复杂导致平均送达时间略长,算法就会倾向于少给这个区域的骑手派单,这本质上是一种基于地域的隐形歧视
而骑手们对此几乎毫无申诉渠道,你总不能去跟一段代码讲道理吧
第二个是「人机博弈」下的异化
为了在算法评价体系中获得高分,骑手们发展出一套应对策略,比如知道在哪些地方等单系统会判定你更积极,哪些订单看似钱少但能提升接单率
这听起来很聪明,但本质上,人变成了去适应和优化算法的一个变量,工作的主体性在慢慢消失
你不是在送外卖,你是在为算法提供训练数据
第三个更根本,是关于「效率至上」的单一价值观
平台算法的核心优化目标通常是成本最低、速度最快、投诉最少
这没问题,商业需要效率
但当这个目标成为唯一且压倒性的指挥棒时,那些无法被量化的价值就被忽略了,比如骑手的安全、工作的尊严感、社区的联系
去年有个新闻,一个骑手在暴雨中送餐摔倒,第一反应不是检查自己受伤没有,而是赶紧看餐洒了没有,因为一个差评可能让他一天白干
这种瞬间的反应,背后是算法评价体系塑造的行为模式
我们谈论AI伦理,常常聚焦在自动驾驶要不要牺牲一个人救五个人这种哲学难题上
但零工经济的算法管理,才是数千万普通人每天正在真实经历的、具体的AI伦理现场
它不科幻,但影响深远
作为管理者或产品人,我们可能正在设计这样的系统,或者未来一定会用到类似的技术来提升组织效率
这时候就需要一种更系统、更辩证的思考能力
你不能只懂技术实现,也不能只谈商业利益,你必须能看到技术方案背后的权力关系、社会影响和人性尺度
这正是为什么我觉得现在的商业教育需要一场深刻的变革
传统MBA教你怎么优化流程、提升股东价值,这很重要
但在AI重塑一切的时代,商业领袖更需要的是驾驭复杂性的能力,是在效率与公平、创新与责任、数据与人性之间找到动态平衡的智慧
这有点像海盗的航海,你不仅要会看星图(数据),懂驾驶(技术),更要在风暴(不确定性)中做出判断,知道什么时候该全速前进,什么时候该为船员的安全绕道
回到我那位产品经理朋友的困惑
我后来跟他说,你觉得不舒服,恰恰说明你作为产品负责人的伦理直觉还在起作用,这是好事
下一步不是放弃优化效率,而是思考如何把更多维度设计进你的「算法罗盘」里
比如,能不能在考核响应时间的同时,加入一个「安全系数」的权重,让系统在恶劣天气时自动放宽时间要求
能不能建立更透明的申诉机制,让人工智能的「判决」可以被复核,让骑手知道规则为什么改变
甚至,能不能和骑手代表一起,参与部分算法规则的讨论与测试
技术没有善恶,但设计技术的人有选择
当我们用算法管理他人时,我们其实也在定义未来工作的样子,定义技术与人该如何共处
这或许才是AI时代,管理者最核心的伦理命题
它不是选修课,而是必修课
获取《招生指南》
请填写下表,我们将为您寄送巴塞罗那大学MBA等项目的招生指南。
