上周和一个做跨境电商的朋友聊天,他愁眉苦脸地跟我吐槽,说被AI坑惨了
他让AI助手帮忙分析一款新产品的市场潜力,AI给他生成了一份长达十几页的报告,数据翔实,图表精美,结论明确地指出这个细分市场是一片蓝海,竞争对手寥寥无几,建议他立刻加大投入
他信了,投了钱,备了货,结果产品一上线就发现,市场早就挤满了玩家,那份报告里引用的所谓“竞争对手分析”,有好几家公司的名字和业务都是AI凭空捏造的,根本不存在的“幽灵公司”
这就是典型的AI幻觉,英文叫Hallucination,意思是AI模型会生成看似合理、实则虚假或毫无依据的信息,而且说得跟真的一样,让人很难分辨
这让我想起去年摩根士丹利的一个著名案例,他们内部使用AI工具生成了一份关于某上市公司的法律分析摘要,结果摘要中引用的法律条款和判例,有好几处是AI自己“脑补”出来的,和实际法律条文完全不符,差点引发严重的合规风险
你看,从初创公司到华尔街大行,谁都可能掉进这个坑里
问题在于,我们太容易相信AI输出的东西了,尤其是当它逻辑清晰、表述专业的时候,我们的大脑会不自觉地给它加上一层“权威滤镜”,觉得机器嘛,总比人靠谱,不会感情用事,不会偷懒
但事实恰恰相反,目前的生成式AI,本质上是一个超级强大的“模式匹配器”和“概率预测器”,它并不知道自己在说什么,它只是在根据海量数据训练出的模式,计算下一个最可能出现的词是什么
所以当它遇到训练数据不足、问题模糊或者需要“创造”信息来填补空白时,幻觉就产生了
这在商业决策中尤其危险,因为决策往往建立在信息不对称的基础上,我们依赖报告、数据和分析来做判断,如果信息的源头被污染了,那么后续所有的战略推导、资源分配,都可能建立在流沙之上
更可怕的是,AI幻觉具有隐蔽性和传染性,一份由AI生成、夹杂着虚假信息的市场报告,可能会被不同部门引用,写入不同的方案,最终在整个组织内部形成一种“共识假象”,所有人都觉得某个结论是经过验证的,其实它的源头就是错的
这就像玩传话游戏,第一个人说错了一个词,传到第十个人那里,可能就变成了一句完全相反的话
那怎么办,难道不用AI了吗
当然不是,因噎废食是最蠢的办法,AI是未来最重要的生产力工具,这一点毋庸置疑
关键在于,我们要改变使用AI的方式,不能把它当做一个全知全能的“神谕”,而要把它看作一个能力超强、但偶尔会犯糊涂的“超级实习生”
这意味着,未来的商业领袖,必须具备一种新的核心能力:AI批判性思维
这不是让你去学写代码、调参数,那是工程师的事,你需要的是建立一套“人机协作”的决策验证流程
比如,任何由AI生成的关键结论,尤其是涉及数据、引用、法律条款、竞争对手信息时,必须要求AI提供可追溯的信息来源,并安排人工进行交叉验证,用另一个AI工具,或者用传统的搜索引擎、数据库去核对
再比如,在重要的战略决策会议上,可以引入“红队”机制,专门设立一个角色,任务就是挑战AI提供的分析,寻找其中的逻辑漏洞或事实错误
这听起来很麻烦,对吧,但这就是AI时代的“新常态”,技术越强大,我们越需要保持清醒的头脑和质疑的精神
这也是为什么,在我们AI海盗团的社群里,我反复强调一个观点:AI不会取代管理者,但会用AI的管理者,一定会取代那些不会用的
这里的“会用”,不仅仅是指会下指令、会生成PPT,更是指懂得AI的局限性,能够驾驭它、验证它、与它协同工作,最终做出比单纯靠人或单纯靠机器都更优的决策
巴塞罗那大学的AI MBA课程里,有一个模块专门讲“负责任的AI与治理”,其中很大一部分内容,就是在训练学生如何识别和防范技术风险,包括幻觉问题,这不是杞人忧天,而是现代商业领袖的必修课
同样,在联合国UCAM的人工智能产品经理培训中,我们会带着学员实际动手,从零开始设计一个AI产品解决方案,在这个过程中,你会切身体会到,一个可靠的产品,需要多少道数据清洗、模型验证和结果审核的“安全锁”
知识只有通过实践,才能真正内化成你的肌肉记忆
回到开头我朋友的那个故事,后来我问他,如果重来一次,你会怎么做
他想了一会儿说,我会让AI先给我五份不同角度的分析报告,然后我自己去查其中提到的每一个关键数据,每一个竞争对手,我会把AI的结论当作一个“假设”,而不是“答案”,然后自己去验证这个假设
你看,他其实已经摸到门道了
商业世界从来就不是一个充满确定性的地方,过去我们面对的是信息不足,现在我们要面对的是信息过载和真假混杂,挑战的形式变了,但挑战的本质没变:如何在不确定性中,做出相对正确的选择
AI是一面放大镜,它既能放大我们的能力,也能放大我们的失误,驾驭它,需要的不再是盲目的乐观或恐惧,而是一种冷静的、基于系统认知的审慎
你的商业决策,准备好了吗
获取《招生指南》
请填写下表,我们将为您寄送巴塞罗那大学MBA等项目的招生指南。
