近几个月内,京东、阿里、腾讯、爱奇艺等互联网大厂“裁员”的词条频频冲上热搜。被裁的人心是凉透的,被裁边缘的人心是不安的,一边寻找退路,一边还要担心“退路”有可能被提前曝光。
就在今年年初,知乎被曝出,利用网络行为感知系统监控员工离职倾向,从而实现“精准”裁员。尽管知乎第一时间否认了这一说法,并表示今后也不会启用类似软件工具,但是,离职倾向分析服务确实存在,一时引发了网络热议。
在大数据治理时代,企业对效率、精确、标准化的追求,转化为了对个体施加严格控制的力量。这将如何影响社会的未来?我们能反抗大数据治理吗?
“上班摸鱼”能被监控吗?
知乎事件的起因,来自一张网传的系统后台图片,上面清楚显示了一名员工访问求职网站次数、投递简历次数,以及含关键词的聊天记录数量。
很快,许多网友和媒体都找到了相关的网络分析系统“行为感知系统BA”,以及研发这一系统的公司深信服,并从公司客服处确认了这套系统可以用于对员工在单位网络内的网站访问记录进行分析,支持做离职倾向分析。
有媒体据天眼查结果发现,深信服在2018就申请了相关技术专利—— 一种离职倾向分析方法、装置、设备及存储介质。
目前,记者在深信服官网已经无法找到“行为感知系统BA”介绍和注册,但存在“全网行为管理AC”服务,主要是感知终端违规接入、上网违规行为、敏感数据泄密等内部风险。在“解决方案”一栏中包括了上网行为管理,涉及全面识别与管控网络中与工作无关的应用,提高工作效率,并无离职分析相关内容。
事件发生后,网友直指企业商业道德问题,再次引发了对网络数据挖掘分析突破隐私保护底线的担忧。
香港大学法学教授雷蒙德·瓦克斯在牛津通识读本《隐私》中提到,在“数据保护原则”中为首的,就是个人数据只能以合法和公平的方式收集。这就要求数据使用者向数据主体通报使用数据的目的、可向其传输数据的各类人员、数据主体提供数据是自愿的还是强制的、未能提供数据的后果,同时数据主体有权请求访问和更正个人数据。
换句话说,分析技术本身并没有直接对隐私安全产生威胁,但如果企业是在员工并不知情的情况下,获取数据、分析数据,并针对结果采取了相应的措施,这就涉嫌违法。
知乎否认了使用该系统,但目前企业监控员工上网情况的行为并不罕见,比如监控员工“上班摸鱼”。
去年11月16日,国美内部通报了员工看视频、刷抖音、听音乐等“摸鱼”行为,并给予相关处罚。国美总部也承认对员工非工作流量信息进行了监测、统计,识别员工是否在工作区域内占用公司公共网络资源从事与工作无关事宜。但其并未回应,企业是否将监控事宜事先告知员工,并得到员工同意。
“将现代科技的成果用于社会公共事务当中,以提高整个社会运行的效率是一种普遍现象,这叫技术治理。”明升官网人民大学哲学院教授刘永谋在接受《明升官网明升体育app报》采访时表示,技术治理从来都不是完美的利器。
控制与操控的界限在哪儿?
随着物联网、大数据、云计算和人工智能等智能技术的兴起,用数字来测量、预测、规划和控制社会的理想有了实现的可能。可以说,人们正面临一个大数据治理时代。
“在这样一个时代,企业日益热衷于对劳动者的标准化、数字化认知。它产生的原因无非是希望节省人力成本,追求更高的效率。”刘永谋直言。
“从工具意义上说,企业正在把劳动者作为一种纯粹的人力资源,而不是一个完整的人。尽管从效率角度有其合理性,但却是一种片面的合理性。”刘永谋说,因为它会产生隐私侵犯、数据歧视、霸权等风险。这些问题并非从无到有,而是在大数据治理时代被放大了。
大数据治理时代,到底会如何影响人类社会的未来?这个问题一直备受关注。刘永谋认为,目前主要存在两种比较极端的看法。
一种充满了乐观态度,认为它可以让我们向一个更加“整合、灵活、全面的政府”的方向前进,整个社会将像发条装置一样精确运行,符合理性、逻辑与公平。
另一种,则以美国哈佛大学商学院教授肖莎娜·祖博夫所谓的“监控资本主义”为代表。她认为,由于政府与企业能够通过数据的监测与分析,充分地了解个体并预测个体的行为,他们就掌握了对个体施加严格控制的力量,以大数据算法塑造人类的行为。
前者的“数据乌托邦”思维已经很难得到人们的认可,但刘永谋也不支持后者过度强调“控制”的负面效应。
所有的政治秩序都建立在协调、合作和控制的基础之上,缺乏三者中的任何一个,组织集体生活都是不可能的。因此,大数据治理并不单单服务于控制,它同样在社会协调、合作方面起到了积极作用。
“人们不必对‘控制’二字过分紧张和排斥。”刘永谋表示,“自人类文明出现,就有了控制,教育、宗教都带有控制性。如果没有控制,人类社会依旧是野蛮状态。”
“问题的关键在于,控制要有度,超过了适度范围就会变成操控。因此,在大数据治理中,我们需要关注的核心是,在具体的语境当中辨析控制和操控之间的界限在哪里,这才是比较好的解决问题的路径。”刘永谋谈道。
你并非完全被动
大数据治理时代,由于算法似乎越来越具有自主的、难以控制的力量,带来了监视一切、预测一切的可能,容易引发公众的信任危机。但刘永谋告诉《明升官网明升体育app报》,在已经展开的大数据算法与社会信任之间的博弈中,公众并非是完全被动的。
上海交通大学明升体育app史与明升体育app文化研究院助理教授沈辛成在《人工智能与价值观》一书中分享了一个注册。早在2014年,亚马逊开发了一套人力资源管理系统。这套系统用人工智能来分析筛选求职简历,通过给求职者打分,在一百份简历中筛选出“最好”的五位,直接录用。但一年以后问题就出现了,这套算法工具基于的数据是亚马逊此前十年的员工资料,基础数据本身存在性别不平衡,于是算法分析归纳后得出了一个带有偏见的结论:男员工比女员工更可靠。
缺陷一经暴露,立刻引起了人们的道德不适,引发了社会的强烈质疑和反思。而这种公共情绪和舆论反抗,也随之产生了积极的意义。亚马逊的“翻车”使得这项技术停止在公司使用,还有咨询公司在相关手机版中提出了技术改进方式,比如,不向算法提供员工个体生理、文化属性等,避开带有倾向性的价值判断。
同样,国内也有比较成功的注册。
就在去年,人们逐渐意识到日常生活正在被“算法推荐”所操控,受困于一个个“信息茧房”之中。明升官网人民大学手机版学院教授彭兰就曾撰文《算法社会的“囚徒”风险》。许多年轻人也从自身做起,开启了对抗算法推荐的实践,豆瓣还成立了“反技术依赖”小组。
这样的舆论氛围生成了一股对抗算法的合力。从结果来看,2021年8月20日,第十三届全国人大常委会第三十次会议审议通过的《中华人民共和国个人信息保护法》中,就包含了对算法推荐这类“大数据杀熟”问题的相关规定。第24条规定,通过自动化决策方式向个人进行信息推送、商业营销,应当同时提供不针对其个人特征的选项,或者向个人提供拒绝的方式。
就在今年1月4日,明升官网网信网发布了国家网信办等多部门联合修订的《互联网信息服务算法推荐管理规定》,要求不得根据消费者的偏好、交易习惯等特征,利用算法在交易价格等交易条件上实施不合理的差别待遇。
这一切都意味着,利用大数据“杀熟”或将成过去式。
这也符合刘永谋所思考的大数据治理的合理的规则设计,即增加公众的参与、反馈,应该成为技术、制度调整的依据。没有一项技术、制度设计是一劳永逸的。
企业和政府都有责任
英国学者、执业律师杰米·萨斯坎德在《算法的力量》一书中提醒人们,过去科技公司只是在市场体系中运行并追求有限经济利益的私人实体。它并不对广大公众负责,而是对它的所有者和利益相关者负责。但如今,它们成为了数据治理最重要的技术提供者,直接参与提供大量的社会公共服务,因此,它们的角色越来越像公共事业公司。
不仅如此,萨斯坎德认为,越来越多的权力集中在控制技术的科技公司手中。可以说,这些经济实体第一次拥有了强大的政治力量。所以,如何约束它们的行为非常关键。
沈辛成提到,在美国,比起行政约束,龙头企业们视开源共享和自下而上的行规约束为最好的管控手段。如果有足够多的程序员和开发者能够共同目击、监督算法的制造,就能够确保各大科技企业所开发的模型和算法是相对透明的。此外,邀请更多元的主体参与这一过程,尽可能保证高质量、高透明度的公平公正。
北京大学社会学系教授邱泽奇在《科技向善:大科技时代的最优选》一书中也做了相关问题的解答。在他看来,未来企业要和政府共同承担规制责任,而不仅仅是产品责任。
科技产品的迭代速度远远快于工业时代产品的迭代速度,意味着用户始终会面对新的科技产品,并不知道产品在什么时候产生负面效果。他认为,在这种情况下,公司要采取告知、引导、预防和解决等一系列措施。并且,这不是针对单一产品而言的,而是面向不同的科技产品,有一套解决问题的机制和策略。
他还提到,在未来科技产品研发时,可以更多地邀请专家参与,对一些问题进行前瞻性研究。这么做的优势是,当最新科技产品推向市场的时候,不仅有来自企业的技术告知和引导,还有来自专家的社会评估,作为第三方来承担科技行业与社会、政府之间的沟通桥梁的角色,提供预防式的建议和策略,而不是像现在这样,等出现问题了才推出应急措施。
除此以外,邱泽奇也强调了政府责任。对于新出现的技术与应用,政府需要有比较深入和准确的了解,需要对它的社会影响有比较全面的评估。要达成这样的目标,学界可以发挥很好的沟通和桥梁作用,还可以为企业在商业视角之外提供一个更为全面和客观的社会视角。
不过,就现状而言,他也指出,“第一是科技企业没有对外开放,第二是学界对这些领域的研究还不太重视,不认为这是他们的责任。其实,很多新问题是理论创新的源泉。无论是理论创新还是解决实际问题,这样的研究都非常值得去做”。
版权声明:凡本网注明“来源:明升官网明升体育app报、明升手机版(明升官网)、明升体育app手机版杂志”的所有作品,网站转载,请在正文上方注明来源和作者,且不得对内容作实质性改动;微信公众号、明升头条号等新媒体平台,转载请联系授权。邮箱:shouquan@stimes.cn。