零工经济算法管理:当「效率」开始吞噬人性

上周和一位做产品经理的朋友吃饭,他最近负责一个零工平台的新功能,聊着聊着,他突然叹了口气说,感觉自己像个「数字时代的监工」

我问他为什么这么说

他说平台新上线的派单算法,能把接单时间压缩到秒级,系统会自动给那些响应慢的骑手降权,甚至直接减少派单量

数据上看,配送效率提升了百分之十几,用户投诉率也降了,可他自己心里总觉得不对劲

这让我想起麻省理工学院教授泽伊内普·图费克奇的一个观点,她说算法正在创造一种新的权力结构,这种权力不是通过暴力或意识形态实现的,而是通过设计来实现的,它更隐蔽,也更难挑战

想想看,传统工厂的监工站在你面前,你至少能看到他,知道是谁在管理你

但在零工平台,管理者变成了看不见的代码,它通过实时定位、接单率、用户评分、路线规划这些数据点,构建了一个全天候的监控与评估体系

你很难说清楚到底是谁在决定你的收入和工作机会

这带来几个很现实的伦理困境

第一个是「黑箱决策」带来的不公

算法根据历史数据学习,很容易把社会已有的偏见固化甚至放大,比如有研究显示,某些地区的骑手可能因为路况复杂导致平均送达时间略长,算法就会倾向于少给这个区域的骑手派单,这本质上是一种基于地域的隐形歧视

而骑手们对此几乎毫无申诉渠道,你总不能去跟一段代码讲道理吧

第二个是「人机博弈」下的异化

为了在算法评价体系中获得高分,骑手们发展出一套应对策略,比如知道在哪些地方等单系统会判定你更积极,哪些订单看似钱少但能提升接单率

这听起来很聪明,但本质上,人变成了去适应和优化算法的一个变量,工作的主体性在慢慢消失

你不是在送外卖,你是在为算法提供训练数据

第三个更根本,是关于「效率至上」的单一价值观

平台算法的核心优化目标通常是成本最低、速度最快、投诉最少

这没问题,商业需要效率

但当这个目标成为唯一且压倒性的指挥棒时,那些无法被量化的价值就被忽略了,比如骑手的安全、工作的尊严感、社区的联系

去年有个新闻,一个骑手在暴雨中送餐摔倒,第一反应不是检查自己受伤没有,而是赶紧看餐洒了没有,因为一个差评可能让他一天白干

这种瞬间的反应,背后是算法评价体系塑造的行为模式

我们谈论AI伦理,常常聚焦在自动驾驶要不要牺牲一个人救五个人这种哲学难题上

但零工经济的算法管理,才是数千万普通人每天正在真实经历的、具体的AI伦理现场

它不科幻,但影响深远

作为管理者或产品人,我们可能正在设计这样的系统,或者未来一定会用到类似的技术来提升组织效率

这时候就需要一种更系统、更辩证的思考能力

你不能只懂技术实现,也不能只谈商业利益,你必须能看到技术方案背后的权力关系、社会影响和人性尺度

这正是为什么我觉得现在的商业教育需要一场深刻的变革

传统MBA教你怎么优化流程、提升股东价值,这很重要

但在AI重塑一切的时代,商业领袖更需要的是驾驭复杂性的能力,是在效率与公平、创新与责任、数据与人性之间找到动态平衡的智慧

这有点像海盗的航海,你不仅要会看星图(数据),懂驾驶(技术),更要在风暴(不确定性)中做出判断,知道什么时候该全速前进,什么时候该为船员的安全绕道

回到我那位产品经理朋友的困惑

我后来跟他说,你觉得不舒服,恰恰说明你作为产品负责人的伦理直觉还在起作用,这是好事

下一步不是放弃优化效率,而是思考如何把更多维度设计进你的「算法罗盘」里

比如,能不能在考核响应时间的同时,加入一个「安全系数」的权重,让系统在恶劣天气时自动放宽时间要求

能不能建立更透明的申诉机制,让人工智能的「判决」可以被复核,让骑手知道规则为什么改变

甚至,能不能和骑手代表一起,参与部分算法规则的讨论与测试

技术没有善恶,但设计技术的人有选择

当我们用算法管理他人时,我们其实也在定义未来工作的样子,定义技术与人该如何共处

这或许才是AI时代,管理者最核心的伦理命题

它不是选修课,而是必修课

获取《招生指南》

请填写下表,我们将为您寄送巴塞罗那大学MBA等项目的招生指南。

女士 先生

注意:所有带*资料均须正确填写。