算法之下,以人为“资本”

购物APP首页的衣服包包,好像昨天才看过;外卖每次推荐的美食,是最近一个周都在点的;昨天点赞过的某个网红,今天仿佛多更了十条短视频……

于是,某一天,有人突然开始思考,衣服可不可以换种风格,外卖可不可以换种美食,新闻可不可以多一些种类。

要改变算法对个人的固有定位很容易,多搜索一些其他关键词就可以实现,但现实是很多人并不会刻意去改变这些东西,只会在不断接收类似推送时抱怨一句:怎么还是这些。

只有实在厌烦了,才会选择“不感兴趣”,但这样做的收效并不大。

毫无疑问,算法为大众生活和商家都带去了便利,只是在双方逐利的过程中,作为消费者的用户反而越来越成为可量化的个体,挖掘个体的本能喜好也成为了算法操纵者们最大的目标。

为了实现这个最大目标,运营商将用户幻想成一个容器,既要填充其空间,也要填充其时间。

算法和大众生活共栖共生,为用户提供个性化定制的服务,但是算法也用娱乐化和过载的信息吞掉了我们的时间,用户的视野可能会随之变窄。所以,到底是个性化还是重新塑造?这个问题值得深思。

最重要的是,用户只能看到算法的结果,看不到过程。用户端一页一页的推送,看起来都是用户自行选择的结果。

以前,数据是一种资源和财富,但是演变至今,数据的权力属性在扩大,算法在数据成为权力的过程中,显然充当了帮手。

大数据杀熟拼命抢夺交易剩余,泰勒制扎根信息时代,为了更高的效率和更低的成本,一些行业变成流动的血汗工厂。没有人料到,在一个史上信息最为公开的时代,更多的人被信息不对称所困住,成为了商品。

以前段时间广泛讨论的“骑手”为例,无论是将矛头对准互联网公司,还是将责任转嫁于消费者,都没有办法解决骑手真正的问题,因为没有人认为自己该为这事负责。

一方选择利益出让,只会让另一方更加肆无忌惮。

从亚马逊的差异化定价试验开始,掌握大量隐私数据的公司们就开始频繁陷入滥用市场支配地位的嫌疑中,而且这种质疑即便被证实也无法得到彻底解决,因为技术不过是一面镜子,每一个被薅羊毛的人都在充当镰刀手。

法国诗人波德莱尔《恶之花》里面的几句诗倒是很应景:我是伤口,又是刀锋;我是耳光,又是脸面;我是四肢,又是囚车;我是死囚,又是屠夫……

在一个提到隐私就人人自危的年代,指责算法只拥抱人类的动物性,追逐本能喜好,而不讲究高级目标,是一件十分理想主义甚至天真的事。毕竟即便你为我定制高级目标,我又如何放心你给的高级目标没有暗含某种交易呢?

一、算法猜心计:想要还是应该要

当下的算法逻辑主要是围绕用户“想要什么”而存在,猜测用户想要得到什么,也成为了算法的主要目标之一。

然而目前一切系统都还停留在初级阶段,能够识别简单的好恶,却解读不了用户的深层次需求。当然,对于背后的操纵者来说,深层次的需求可能并不重要,因为只有激发动物性才能让人不断沉迷。

那对于用户而言呢?是否一定要追求更高级的目标,而放弃即时的快乐?当然不见得,个体无论是要追求片刻的享受还是追求长远的理想,都值得尊重,只是当这件事放到群体中来看,态度就很值得商榷了。

支付手段的改变,使得更多的人花钱如流水;短视频的兴旺,造就了“网上十分钟,人间俩小时”的错觉;本地生活的激烈竞争,使得外卖不断压缩送达时间。于此,市场得出了一个结论:用户追求更快、更爽。

结论是天衣无缝的,鲜有人会反驳,因为这是生活正在变美好的铁证。可大家为了这种便利而付出的代价也是巨大的。明明就想点个外卖而已,却被要求提供通讯录权限,明明只是想刷个短视频而已,却被迫接受了大量“可能认识的人”推荐。

在隐私这件事上,用户很多时候不是开明,只是没得选,因为不授权便不给用。一个人的隐私数据或许没有价值,但是当这些数据变得庞大时,就会成为互联网公司的核心资产,其价值难以估量。

有视频博主“郭拽拽呀”亲身体验,只花500元就能查到一个人的家庭全员户籍信息,此外,查名下房产1100元,飞机票(火车票)40元,移动电信定位1500,联通定位1200,开房记录600……

你永远无法想象自己在互联网中,裸奔成了什么样子,即使你平时很注意保护隐私。而就算按《网络安全法》中最高刑罚100万来计算,违规成本也十分低。

你可能不止一次地发现,上一秒才和朋友聊到某种产品,下一秒打开购物APP,就能看到很贴心的推荐,算法加持下的广告,可能比你的家人、恋人还要了解你。

这种精确和贴心也成为了互联网公司兜售广告的利器,这些公司也终于通过数据收集纷纷成为了“广告巨头”。

算法的确可以影响消费者的决策,但算法越是便利,背后的黑暗面也就越大。如果说侵犯隐私是黑暗面之一,那将人不断动物化便是另外一个黑暗面。

不断开局打游戏和在直播间下单的年轻人和沉迷短视频的爸妈没有什么区别,防沉迷模式等于为羊群设置的木栅栏,拦不住真正想要偷羊的人。

人们不断在互联网中寻找快感和即时满足,很符合动物的习性。动物没有高级目标,但社会属性的人更追求高级目标。在“想要”和“应该要”之间摇摆,相当于在动物性和社会性之间犹豫,人没有办法舍其一,而且很容易在各种诱惑中偏向动物性。

将进化中的人类导向动物世界,或许是资本逐利的结果,但将一切总结为“算法没有价值观”未免轻率,毕竟,算法背后的人应该有价值观,这种价值观建立在人性的基础上。

二、算法不可算:到底谁定义了谁

和算法停留于填鸭式内容轰炸中一样,智能化只是停留在自动化的层面。然而强大的智能化系统需要精细的算法来支撑,算法的初级状态也决定了智能化生活的局限。

恰恰正是这样初级状态的算法及智能化,侵占甚至操纵了很多人的生活。由人制定的算法规则,最终却用公式定制了“人”。

所谓个性化,不如说是算法规定的标准化。用新的关键词搜索去覆盖原有的标签,得到的其实是另外一种标准化。

人之所以为人,便在于无法标准化,能标准化的只能是物品。物品没有未来,但人可以有,只是基于过往痕迹而给予服务或信息的算法,算不出未来是什么。

表面上看起来,算法规制可以做出精准的行为预测,也能为使用者提供良好的干预机制,但是普通用户,例如骑手,在算法面前却没有任何议价能力,只能被动接受系统所给予的一切标准化规则。

没有消费者觉得自己应该为骑手负责,尽管互联网大厂是消费者选出来的优胜者。

因为这事找消费者没有用,只能将责任抛之于大企业身上。企业则选择让算法决定更多的东西,但算法只捕获人的动物性,久而久之人也就成为了被算法重新定义的人。

人们对算法寄予厚望,但如果算法成为另一个“人”,甚至“超人”,将是一件十分危险的事。

频繁的自动驾驶车事故,反映出了一个很基本的事实,不是车不够智能化,是人高估了算法的学习能力,太将机器“人化”的结果就是人被机器“物化”。

2017年2月16日,欧洲议会投票表决通过《就机器人民事法律规则向欧盟委员会的立法建议[2015/2103(INL)]》。建议主要考虑赋予机器人法律地位,在法律上承认其为“电子人”(electronic person),引起了巨大争议。

机器人虽然至今没能取得法律人的地位,但是人们却已经将机器人背后的算法“人化”了,这个无形的机器人,通过算法工程师的双手,已经控制了大部分的自然人,这个角度而言,算法似乎比机器人更值得警惕。

同时,未来的失控是人预料不到的。Facebook创立之初,扎克伯格也没有想过未来可以通过这个软件操纵选票。

硅谷精英们深谙手机的魔力后,最终选择了将自己的孩子隔离在手机之外,甚至兴起了细分的保姆职业,她唯一的任务就是不让孩子看到手机。

可惜身为普通用户的大多数,并没有办法深入了解自己是如何成为商品,摆在算法公式中的。他们唯一的选择只不过是在看到讨厌的内容时点击“不喜欢”,而这对于不断刷存在感的算法来说是杯水车薪。

用户看似在参与个性化定制,实际上是在不断标准化,最后,经过算法塑造的“新人类”终于完全符合商业需求。

三、纠偏伪命题:无人幸免遇难

在《三体》中,人类与三体人最大的区别在于,人类虽然落后但是会撒谎,三体人没有办法解读人类的言外之意,更没有办法应对人类的口是心非。

参照人类,三体人更像是一桩机器,机器无法真正撒谎,算法也一样。

不能撒谎的算法,意味着将所有相对不体面的动机都摆到了台面上,其中包括种族、性别与地域歧视等,而这些偏见都受到编制算法背后的人的影响。

谴责偏见虽然重要,但是我们不能忽略一个事实,即便没有算法,这个世界也是有偏见的,甚至可以说,只要有人在的地方就会有偏见。

根据偏见的形式不同,又可以分为交互偏见、选择偏见、确认偏见、潜意识偏见和数据驱动的偏见。

这里稍微提一下确认偏见,它说的其实就是当用户有一天得知“东方人更聪明”,然后潜意识里就会偏向于寻找可以强化这种偏见的信息。

最早用算法实施偏见政策的是亚马逊,20年前,它就尝试过对新老用户进行区别定价,当然这种策略并没有维持多久就被识破了。

亚马逊之后,但凡能人们能叫得上名字的互联网公司,都在将这种偏见“发扬光大”,这种偏见阻碍了信息和观点的多元化与透明化。

随着算法越来越深入生活,尽可能地消除偏见已经成为了一道亟需解决的问题。

目前比较推崇的建议是专门开发一个系统来提前发现偏见决策,方便提前干预。机器比人类更适合严谨的数学,例如贝叶斯方法。

贝叶斯方法是一种将未知参数的先验信息与样本信息综合,再根据贝叶斯公式,得出后验信息,然后根据后验信息去推断未知参数的方法。

简单来说就是先确定某种未发生事件的概率,更有助于系统在进行决策时减少偏见。

专为消除偏见而开发系统显然是一件成本高昂的事,而且运营商们不见得愿意这么做,因为偏见所能带来的利益可能更直接,参见所有大数据杀熟的案例。

除开贝叶斯方法,对AI模型进行无监督训练也是一种消除偏见的办法。让算法在没有人类监督的情况下,自行数据分类等事务,理论上可以必面人为参与贴标签所带来的偏见烙印,但显然人类并不想放任算法自流。

没有人可以百分百地保证自己毫无偏见,偏见背后又是丝丝相扣的利益,而利益生在人与人之间。所以,人在选择了通过偏见攫取利益时,就应该做好会饱受偏见的心理准备。

如此看来,将算法责任转嫁于消费者的互联网大拿们,面对消费者的任何指责都没资格喊“冤枉”。

四、资本变脸录:信息化与泰勒制

财经视频主一句“资本永不眠”开启了大众对于资本解析的兴趣,只是很多人远没想到,资本的面目并非只能从上市公司和退市公司身上看到。

信息化时代,每个人都是资本的一部分,只要他可以分解为一组一组的数据。然而这些数据带来的收益却并不属于个人,只属于掌握它的巨头。

一个有趣的现象,十年前,好莱坞大片里的反派可能是基地组织、敌对国家、黑手党或连环变态杀人狂,但是这样的反派已经越来越少见,取而代之的反派是华尔街的金融家们或IT天才,譬如以扎克伯格为原型的电影《社交网络》。

当资本在一个行业堆积到一定数量时,就会引来人们的忌惮,扎克伯格有没有用社交软件影响选民,或者与英国公司进行数据交易已经不重要,重要的是,大家已经开始警惕他了。

参与了近20年互联网膨胀进程的人,基本也见证了大部分互联网巨头的崛起。曾经被房地产商占据的福布斯中国富豪榜上,如今也多了很多互联网巨头的身影。

为了撑起这些巨头的庞大帝国,996反而成了“福报”。的确,996虽然失去了很多东西,但是得到的回报也比其他人更多,只是这种回报没法与付出量化对应。

人在城市的两点一线之间,变成了新的劳作机器,今天屈居在格子间的白领和流水线上的工人病没有本质的区别。

更多的996们没有机会逐级上升,转身成为更大的资本,只能在耗尽最能熬夜的时间后黯然退休。

众多来起源于监狱的组织管理模式,也换上了“科学”面貌,从工厂走向了格子间。在政治经济学中被大加挞伐的泰勒,到了管理学里,却摇身一变成为了“科学管理之父”。

泰勒以父之名,将流水线上的工人成功变成了机器,福特又以温和改良派的姿态为这些机器增加了保养频率。

因此无论管理学里写着多少于科学、效率有关的词,到了批判者眼里就只剩下“剥削”。

然而批判管理学不是目的,一切用于调整生产关系、发展生产力的手段,本质上还是中性的,唯有到了市场支配者手里才容易变得面目可憎。

如今的市场支配者通常是掌握了最多数据的人,他们在掌握了大量数据后,又以数据分析诱导用户继续贡献数据,最后形成了一个闭环,用户再难以从中脱离开来。

五、异化的人:生而为物

1912年,卡夫卡在自己的小说《变形记》中创造了一个变成臭虫的人格里高尔。

为家庭奔波了一辈子的格里高尔在失业后变成了臭虫,最后在孤独中死去,冷漠和变形的社会最终将人挤压成了非人的存在。

人类或许永远不会像格里高尔一样变成臭虫,但却很容易变得不像人。

法兰克福学派的代表人物马尔库塞在《单向度的人》中提出,普通群众生活水平的提高,并不意味着阶级消失,只是意味着普通群众被虚假的需求操纵从而丧失了自己的批判能力。

提到虚假的需求,就很难不提到消费主义。前段时间,还有自媒体大大“表扬”了一把上海“名媛”,认为这种拼奢侈品的行为是在暴打消费主义。暴没暴打不知道,但是大家对消费主义的痛恨的确由来已久。

看起来消费主义来源于造概念和造节日的商家,但却没法指责他们,因为他们脑门上鲜明写着“是你要买的,而且买得很开心”。

有人跟随潮流,不停买买买,自然也就有人逆势而为。

B站有up主开视频分享自己的攒钱心得,宣扬攒钱才是年轻人的未来,豆瓣还有抠门女性联合会,帖子集薅羊毛大成,适逢双十一更是拼命抵制。

某种意义上,选择极度抠门的人,哪怕他本身不缺钱,应该也意识到了消费社会对人的异化,看不到现金的支付手段会让他们随时担忧余额下降的速度,过于了解自己的算法会让他们觉得恐慌。

而那些站上了算法目标阵营的人,却能够获得抠门组无法体会的快乐:所有即时的满足,即时的服务和信息。对于这些人而言,明确的未来是不知道什么时候才到的戈多。

2020双十一之前,有一条讨论冲上了热搜#我和李佳琦的区别#,答案是“李佳琦熬夜赚钱白天补觉,我熬夜花钱白天还得打工”。“李佳琦一声偶买噶,我欠xx宝三万八”。

我们没法因此断定熬夜看李佳琦们直播的人是不快乐的,因为对于很多人来说,夜晚的时间才是真正属于自己的,多熬一分钟就仿佛多活了一分钟。

可是熬夜找快乐的内容其实也是经由算法挑选,送到你面前的,他们根本的目的只是侵占用户时间,让用户消费,而非让用户快乐。

最后呈现在我们面前的是一个十分残酷的事实:无论工作还是生活,没有人可以活出自我。

因为算法不需要个性化,只需要让用户觉得“个性化”,所有不可计算的东西在算法面前都没有价值。可是一想,连人都能固定标签、拆解成数据,久而久之,还有多少事情是不可计算的呢?

人类的本能喜好可以计算,高级目标或许也可以,总有一套流程可以让你认为人生只有暴富才有意义,在此之下,生而贫穷宛如天生原罪。

虽说我们也犯不着为此太悲观,因为无论算法还是算法之下的人工智能,一切都还处在学童期,可是人类自古以来就擅长对坏兆头视而不见,除非事情糟糕到一发不可收拾。

参考资料:

  1. 智本社 《算法,即剥削》
  2. 中欧商业评论 《对话张瑞敏:算法在这个时代被滥用了》
  3. 卫夕指北 《为什么微信终于开始拥抱算法分发了?》
  4. 底层设计师 《今天我们被算法“控制”了吗》
  5. 看理想 《“亲爱的女儿,我们不必害怕算法” 》
  6. 电子发烧友《 人工智能遭遇的偏见 算法偏见带来的问题》
  7. 高山大学 许倬云《大数据与个人隐私和基本权利不太相干》
  8. 亨哼 《解构智慧旅游:智能化浪潮下的梦幻泡影?》
  9. 腾讯研究院 《算法偏见:看不见的裁决者》
  10. 新华日报 《假如算法有“偏见我们怎么办?》
  11. 新金融洛书 《算法是怎样一步步毁掉年轻人的世界的》
  12. 赵皓阳 《当代资本主义剥削的秘密,隐藏在“管理学”的诸多理论背后》

 

作者:吴不知;编辑:风千语;微信公众号:银杏财经

本文作者 @银杏财经

版权声明

本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处。如若内容有涉嫌抄袭侵权/违法违规/事实不符,请点击 举报 进行投诉反馈!

相关文章

立即
投稿

微信公众账号

微信扫一扫加关注

返回
顶部