AI万金油:被教唆的信念与被蔑视的梦想

日期:2026-03-24 22:35:14 / 人气:4



《AI Snake Oil:What Artificial Intelligence Can Do,What It Can’t,and How to Tell the Difference》,中文译本名为《人工智能“蛇油”》,也被通俗称作《AI万金油》。“蛇油”一词,源自美国19世纪的商业骗局,在本土文化里,它就是包治百病却毫无实效的“万金油”代名词。

彼时,水蛇提取的油脂被民间宣称能缓解关节疼痛、肌肉劳损,一度被民众信任;待到美国“专利药时代”来临,仿制蛇油成了暴利行当,用矿物油、牛油、辣椒素等冒充蛇油,成了行业公开的秘密。彼时的“蛇油大王”Clark Stanley,甚至靠现场“解剖蛇、提炼油”的戏码造势营销,直到真相被戳穿:其产品里压根没有半点蛇油成分。

这像极了当下的荒诞现实:鸭血豆腐不见鸭血,夫妻肺片没有夫妻,人形机器人只剩遥控、全无自主,而AI,也正在沦为新时代的“蛇油”。蛇油丑闻留给美国社会的核心启示从未过时:蛇油的问题,从来不在“油”本身,而在人如何讲述它。这正是AI时代最尖锐的隐喻——技术本无原罪,是资本与权力的叙事,把AI塑造成了万能万金油。

被裹挟的AI叙事:资本、权力与公众的FOMO困局

AI企业在资本的裹挟下,以摧枯拉朽之势疯狂迭代,三天一升级、五天一更新,如同一场无止境的登山竞赛,每隔一段时间就通过媒体、网红造势,宣称攻克新的技术制高点。而以特朗普政府为代表的权力层面,更是毫不避讳地将AI厂商纳入国防承包商行列,在重大国际行动中刻意透露零星细节,煽动公众对其“梦幻式”威慑力的无限遐想。

夹在中间的公众,则被媒体渲染的就业危机、AI产品夸大的能力指标裹挟,陷入极致的FOMO心态(错失恐惧症):被迫涌入一个个本不该参与的技术游戏,疲于奔命地学习今天刚掌握、明天就过时的AI技能,生怕被时代淘汰。

这便是当下人工智能的话语困境:如何谈论AI、由谁来讲述AI,早已决定了AI的走向。那些嗓门最大的叙事者,不断制造“AI取代工作”“AI预测未来”的信息迷雾,鼓吹一种众望所归、不可抗拒的暗黑未来,本质是为了掩盖技术缺陷、掩藏资本逐利的真实目的。

预测的幻象:人类非理性,戳破AI万能神话

《AI万金油》一书的核心观点振聋发聩:人工智能根本无法预测未来,因为人类行为充满复杂的非理性选择。我们痴迷于AI“预测未来”的魔力,根源在于对随机性的深刻不适,总想用确定性对抗未知。

数据主义者坚信“只要算力足够、数据够多,一切皆可预测”,这在作者眼中无疑是无稽之谈。对不确定性的恐惧、对不可控因素的遏制,让人类与AI的预测结果陷入诡异的动态博弈,最经典的例子便是“眼镜蛇效应”:英国殖民印度时期,为减少眼镜蛇数量设立悬赏,民众非但不野外捕蛇,反而大规模养殖眼镜蛇换取奖励,最终导致蛇类数量不减反增。这一虚构案例,精准揭露了人性会为了迎合预期,主动扭曲现实的底层逻辑。

即便初衷是“AI向善”,预测算法也常引发灾难性后果。曾有医院试图用AI评估肾移植患者术后存活时长,按“存活越久越优先移植”的逻辑分配器官,看似是优化医疗资源,实则倒逼肾病年轻患者故意放弃日常护理,只为提前获得移植机会,所幸这一激励错位被及时纠正。

书中进一步指出:好的预测,绝不等于好的决策。AI可以预判流行病趋势,但防控区域、干预人群、执行时机等关键决策,都需要人为判断,与预测本身无关。可现实往往是,人们抱怨政策失误,却从不反思执行层面的问题,更不愿承认AI预测的局限性。

虚假的主动权:人类监督,不过是心理安慰剂

每当企业、政府推出自动化程度极高的AI工具时,总会贴心承诺“人类掌握主动权,AI仅为辅助”,将“人类监督”设为标配,以此消解公众的心理防线。但事实却是,所谓的人类监督员,几乎从未推翻过AI生成的决定。

在AI与人类监督员的制度框架里,早已形成无声默契:只要人类没有强烈抗拒、机器行为未引发明显关注,AI的决策就会一路通行。所谓的“人工监督”,不过是为了让公众接受技术霸权的遮羞布,本质上并未改变AI主导决策的现实。

不公的代价:AI偏见,正在加剧数字鸿沟

新技术诞生时,总会承诺带来增量技术红利,但AI的社会化落地,却在现有规则、资源、偏见的基础上,进一步放大了不平等。AI带来的伤害从不平均分摊:数字素养高的群体,能实现早期认知套利、中期能力升级、晚期职业转型;而数字弱势群体,只会持续被针对性收割伤害。

PC时代,他们被垃圾广告弹窗侵扰;移动时代,被网赚、虚假医疗广告、短视频谣言误导;AI时代,他们依旧是被精准算计的对象。AI预测性算法的滥用,不成比例地伤害着本就处于弱势、被系统排除的群体,让数字鸿沟演变成更深层次的生存鸿沟。

AI无法预测微观个体的核心原因,在于现实的复杂性不可感知。宏观趋势靠热力图、曲线图勾勒,容错空间极大,如同星座解读,只要心存执念便处处契合;可一旦落实到具体时间、地点、个人,预测就会出现巨大偏差。个体行为的随机性无法被算法量化,群体趋势的规律也无法复刻到个体身上,预测的成功率会呈几何倍数下降。更何况,AI预测从来不是单纯的数据计算,它既客观又主观,既关乎自然规律,更牵扯社会人情与人性需求。

偏见的源头:数据标注背后,被忽视的劳动与尊严

AI的偏见并非天生,而是后天习得的——数据标注工作者,正在把现实世界的偏见输入机器,再由算法投射回社会。而数据标注行业,充斥着短期化、不稳定、无保障的困境,从业者始终活在对未来的不安中。

不少标注公司甚至招募囚犯、难民营居民、经济崩溃地区的劳动力,这群人别无选择,只能接受这份压榨式工作。想要改善AI偏见、实现所谓“价值对齐”,靠企业空谈道德、提升数据质量毫无用处,首要任务是改善从业者的劳动环境、保障基本权益。这就像餐厅要做出干净饭菜,必先保障后厨员工待遇、规范工作流程,而非空喊卫生口号。

若AI真要实现“价值对齐”,首先要对齐的,是全球各国对个体人权、劳动尊严的无差别保护,而非单纯的技术参数。

批判性炒作:生存焦虑,成了资本的工具

作者直言:对人工智能的生存担忧,本质是一种批判性炒作。批评人士一边夸大AI的无所不能,一边弱化其局限性,反而给了资本方逃避监管的可乘之机。当公众陷入AI毁灭人类的极端焦虑时,反而忽略了AI日常化的真实风险。

比如国内为打击电信诈骗,AI被用于识别诈骗电话,一旦号码被锁定,就面临手机号注销、银行卡冻结的处罚,被误伤的民众申诉无门,面对冰冷的算法毫无辩解余地;社交媒体的AI审核更是荒诞:父母给医生发送孩子生殖器肿大的病情照片,会被AI判定为儿童色情;国际象棋视频中的“白子更好”,会被误判为种族主义言论;白人家庭与黑人孩子的合影配文“没有宠物的家不是家”,会被AI曲解为歧视黑人。

这些荒谬的后果,罪魁祸首并非AI技术本身,而是背后的企业。在利益权衡下,企业选择袖手旁观,不愿投入成本提升人工监督的主导权、完善审核规范。正如Facebook在缅甸反罗辛亚人暴力爆发时,仅安排一名位于都柏林的缅甸语审核员,且始终拒绝披露非英语国家审核员数量——资本大肆收割发展中国家的流量利益,却不愿承担对应的社会责任,万里之外的民怨与战火,丝毫影响不了资本的狂欢。

AI万金油的本质,从来不是技术能力不可及,而是资本与商业的道德选择。

算法的逻辑:不辨真假,只识相似

算法模型的核心缺陷,在于它从不评估陈述的真实性,只依赖已标注内容的相似性做判断。一张全裸儿童尖叫的图片,是控诉战争暴力的纪实作品,还是淫秽色情内容?答案取决于时空背景、社会叙事与权力定义。社交媒体中敏感词的忽隐忽现,背后都是权力规范与利益交换的结果。

推荐算法的逻辑更是如此:它不看内容本身,只看用户的行为反馈。一段方言、一张暗语图片、一串小众暗号,只要用户停留、互动,算法就会快速识别并精准推送,形成信息茧房。更隐蔽的误导是“暗示性传播”:比起直白的虚假言论,含沙射影、指桑骂槐的内容更易传播,不懂的人好奇转发,懂的人优越感爆棚,算法在自我学习的空档期,便成了灰色流量的温床,这也是短视频平台擦边球内容屡禁不止的根源。

而AI引以为傲的“准确性”,更是充满欺骗性:一方面,“精准”不代表客观,数据标注的过度精细化会剥夺模糊空间,反而损害群体利益、背离初衷;另一方面,“准确”与否从不由技术决定,而是与社会现实、大众价值观深度绑定。比如高校靠饭卡消费、是否使用笔记本电脑判定贫困生,反而会让非贫困者钻空子,真正的贫困生被排除在外。

媒体与学术:推波助澜的狂欢者

资金匮乏的新闻机构、经费紧张的学术机构,也成了AI万金油炒作的帮凶。记者为抢头条、省时间,不经核实就照搬企业公关稿;学者为发表论文、拿下企业课题,炮制符合市场预期的虚假数据与研究成果。

不准确的信息反复刷屏,耸人听闻的论调固化公众偏见,ChatGPT等大模型崛起时,媒体与学术期刊蜂拥而上,为前途未卜的技术慷慨贡献版面,沉浸在自我制造的狂欢中,全然忘记自身的社会责任。在资本驱动的齿轮下,任何理性克制,都被污蔑为保守短视。

头部AI企业更是刻意营造“AI不可监管、发展不可逆”的神话,鼓吹“政策制定者不懂技术,监管毫无意义”,实则是为了逃避约束。只要坚守“AI向善、以人为本”的底线,那些被资本建构的技术叙事,便会不攻自破。

就业与文化:无需恐慌,AI从未真正取代

针对“AI杀死就业”“AI毁灭文化”的言论,作者持否定态度。纵观人类历史,技术彻底消灭某一职业的情况极为罕见:1950年美国普查的数百种职业中,只有电梯操作员因自动化完全消失,电报操作员则是因技术淘汰而退出历史舞台。

自动化更多是减少岗位人数,而非彻底消灭职业:1980年的办公室助理忙于整理档案、打字,如今则转向制作PPT、处理数字设备问题,职业技能迭代,而非职业消亡。这一观点与《技术陷阱》不谋而合:技术对职业、技能的取代,从来不是单一因素决定,而是与社会保障、教育培训、政策激励的时间窗口密切相关。

针对文化创意产业的恐慌,作者反而认为,AI模仿艺术的能力越强,公众越会珍视人类真实的自我表达。如同象棋软件普及后,大众对象棋的兴趣反而激增;当大模型能几十秒生成滴水不漏的长文,人们反而怀念手写文字的迟疑、斟酌与灵感迸发的惊喜,这种独属于人类的情感与温度,是AI永远无法复制的,也让人们重燃对文字创作的敬畏。

结语:被教唆的信念,被蔑视的梦想

将AI称作“万金油”,定义其为“被教唆的信念与被蔑视的梦想”,根源在于:人类对AI的美好期待与盲目信念,是资本的道德选择与算法的技术结构共同教唆的结果;而AI本应在社会进程中发挥的正向价值,却被利益幻象、虚假叙事与嘈杂噪音彻底蔑视、无视。

这种扭曲的极致表现,便是市面上涌现出大批“数据投毒”服务商,号称能100%操控算法,让产品霸榜大模型推荐首位。AI本该是赋能人类的工具,却在资本的叙事游戏中,沦为收割利益、制造焦虑的万金油。唯有拆穿虚假叙事、回归技术本心,才能让AI摆脱蛇油标签,真正服务于人类的梦想。

作者:杏彩娱乐




现在致电 xylmwohu OR 查看更多联系方式 →

COPYRIGHT © 杏彩娱乐 版权所有