admin管理员组

文章数量:1533834

2024年3月1日发(作者:)

202011新闻传播NewsDissemination聚合类新闻客户端算法偏见及影响辨析田孟龙(黑龙江大学文学院哈尔滨150080)【摘要】本研究试图通过算法偏见概念及其表现形式、算法应用技术导致的伦理风险问题、新闻生产中算法偏见影响等方面,建立分析框架,探究算法偏见产生的机理,为算法偏见治理、规范算法新闻的生产探索新路径。【关键词】人工智能;算法偏见;算法技术在中国的资讯信息分发市场上,算法推荐的内容超过50%。[1]算法已经渗透到从数据源,到分发的新工在背后操控,算法就不能发挥作用,所以算法的价值观是包含了诸多人为因素的集合体。由于人为因素的介入,使得多维度的主观化噪音有意或者无意地渗透到算法生产中去。算法偏见的详尽诠释应该是,作为人工智能系统核心的算法,在机器学习的过程中,由于输入数据的偏见、算法模型设计的局限、组织机构的偏见及算法设计者的偏见,引发的对公众、用户的不公正偏见和区别对待。(二)算法偏见的表现1.输入数据的偏见人工智能已经并正在量化通常需要人类智慧完成的某些任务代码,为了便于机器学习,这些算法通过人工产生大量数据,探索找出其中的共性和联系,而后基于检测出的结果提供分类和预测。AI的智慧程度通常和训练它们的数据相关,这就意味着人工自带的局限——偏见、误区与疏忽,也会加入其中。2.模型设计的偏见算法模型设计的偏见,是整个算法推荐偏见表现中最复杂也是最难解决的偏见类型,缘于算法模型的整个设计过程,全权把握在算法工程师手中,外部因素由于技术的闻生产的各个流程之中,通过搜索引擎或新闻聚合器查看在线新闻或定制新闻推荐等等,已经成为公众新的媒介消费方式,并引导着新闻生产的变革。诸如,“百度”“今日头条”“抖音”“新浪新闻”“一点资讯”等聚合类移动新闻客户端,在熟练运用算法分发内容之外,开始尝试算法自动生成新闻。路透社新闻研究所发布的《数字新闻报告2019》显示,超过四分之三(78%)的受访者认为,有必要向人工智能(AI)投入更多,以便拯救新闻业的未来,但是并不能因此就不再雇佣新的编辑。智能算法提高了信息生产、管理、分发的效能,正在数字内容分发、在线广告、电子商务、金融等领域加速应用,但是算法的运用在优化效率的同时并未完成主流价值观的优化,还引发了全社会对偏见、歧视、隐私、安全等问题的关注。算法偏见带来的后果必然是结论错误,甚至引起新闻信息认知的偏差,使媒体作为时代风云瞭望者的地位受到挑战,极端的算法偏差甚至可能成为新闻信息传播的误导者。一、算法偏见的概念及其表现形式(一)算法偏见的概念算法偏见(Algorithmofprejudice)的定义,现阶段并无统一说法。算法偏见也被称为算法歧视,是指由于算法自身的因素或突发性错误等瑕疵使算法运行过程中出现偏差,导致不公平、不合理结果的系统性可重复出现的错误。[2]算法推荐的技术核心是人工智能技术,如果没有人限制很难介入其中。比如,有偏差的逻辑、有缺陷的假设或判断、不适当的建模技术、编码错误以及识别训练数据中的虚假模式。[3]算法“黑箱”的封闭性与排外性,很难用外人理解的方式对其进行解释与说明,导致外部力量很难对算法设计的质量进行监管。3.组织机构的偏见及算法设计者的偏见算法偏见现象中组织机构的偏见,是以算法推荐为服【作者简介】田孟龙,黑龙江大学博士研究生;研究方向:文献学、新闻史、新闻传播。10

202011新闻传播NewsDissemination务形态的互联网科技公司,为了实现战略目标与维护自身利益,在信息推荐流程中表现出的一种主观价值偏移或偏向。在中国的算法新闻推荐行业中,政治性的偏向凤毛麟角,但是会体现出个人的观点与公司利益的影子,这直接导致了一些夸大其词的广告、博人眼球的标题党、极端情绪化文章的出现。2018年7月,《人民日报》发表了《评算法推荐:引发低俗劣质信息精准推荐》一文称,算法推荐事实上充当了编辑角色,内容能否推荐、推荐目标是谁,都是由预先设定好的程序说了算,驱动标准是平台能不能获取流量,其流量至上的导向忽略了内容本身的真伪和善恶,这是导致劣质信息层出不穷的主要原因。二、算法应用技术导致的伦理风险问题算法技术,在给新闻业带来勃勃生机的同时,也带来了诸多伦理问题。随着算法在新闻编辑、传播与分发流程中的广泛应用,原有的生产结构也发生了翻天覆地的变化:在内容生产环节,算法的介入,部分替代了传统的编辑和记者的工作;在信息分发环节,替代了原有的发行商与零售商的工作。算法参与新闻信息的编辑模式,使得原有的新闻伦理也发生了质变。(一)算法技术应用限制了公众信息获取的自由强大的算法过滤技术及其精准的用户画像描摹,都是为了更好地分析用户特点,迎合受众的趣味,最终达到赢利的目的,这无疑强化了社交平台上的回音室效应,导致人们困在一个个过滤气泡中,加剧了群体极化。比如社交平台上的“相关性推荐”功能,实际上就是消解信息偶遇机会的典型例子。马修·辛德曼在《数字民主的迷失》一书中认为,个性化的算法推荐,实际上剥夺了公民传播的自由,既使公众接受到自己不感兴趣或不同价值观的内容,那也是传播自由的一部分。他认为,只有拥有任意选择的机会,才可算得上真正的信息获取自由。[4](二)算法技术应用衍生算法歧视、算法偏见2018年,皮尤研究中心测试了17个全国性新闻媒体在Facebook上发布新闻图片的性别比例,测试算法识别出的男性占67%,女性仅占33%。[5]但是在现实生活中,美国人口的性别比例是均衡的,这引起了公众对算法的客观性与公平性的忧虑,诸如算法偏见、算法歧视、信息茧房等伦理问题,破坏了媒介生态的大环境,加深了社会阶层的偏见问题。算法偏见,是算法伦理问题中最有代表性,也是出现后果最严重的问题。(虽然歧视与偏见有所不同,但是普遍认为,歧视是由偏见引起的,所以本文不对此做区分)。(三)算法技术应用存在用户信息误判风险美国MIT媒体实验室科学家乔布兰维尼认为,算法偏见会导致排他性与歧视性等不公平现象的发生,正如人类中的偏见一样。高度发达的人工智能算法,会充分分析用户的家庭、性别、年龄、消费水平等等因素,给出所谓,于是具有明显差异的人会看到不同类别的新闻、不同的产品,从而产生不同的认知维度,不同特性的人所获取到的信息差异可能比现实世界的差异还大,也因此很可能形成截然不同的视野、格局和能力。技术本身所涉及的各个方面不可能是完全平衡的,而这种不平衡可能带来明显的偏见,甚至衍生获取信息的误判风险。(四)算法应用导致公众对算法潜力的担忧史蒂芬·霍金和埃隆·马斯克担心,超级人工智能是邪恶的,它会对人类文明构成最大威胁。在《工业社会及其未来》一文中,卡辛斯基断言,工业化时代的人类,不是直接被高智能化的机器控制,就是被机器背后的少数精英所控制,如果是前者,那就是人类亲手制造出自己的克星,如果是后者,就意味着工业化社会的机器终端只掌握在少数精英的手中。[6]的确,一些算法应用机构在捕捉、分析、使用用户私人数据的同时,存在违规利用数据、过度开发数据操控用户的现象。2018年,Facebook就因将未经用户授权的私人数据提供给第三方使用而受到美国司法部门的立案调查。三、新闻生产中算法偏见的影响(一)算法价值偏移间接导致了“信息茧房”现象2001年,美国法学家凯斯·桑斯坦在《网络共和国》一书中说,互联网时代,人们面对剧增的海量信息,会倾向于选择符合自己喜好的加以吸收,结果是每个人摄取的内容越来越狭隘,逐渐滑入“信息茧房”[7],这是对11“最适合你的选择”“信息茧房”现象较为公认的解释。在传统意义上,大型

202011新闻传播NewsDissemination而全面的传播模式更看重“面”的探索,而基于算法的个性化信息推荐则侧重于“点”的探究,因此当满足用户特定需求时,算法推荐将不可避免地限制用户的信息接触面。“信息茧房”问题的产生已经制约了聚合类移动新闻客户端社会效益作用的发挥。[8]形成“信息茧房”的原因主要是,用户倾向于选择自己感兴趣的模块预览,无视不感兴趣的信息,这是用户的行为原因。另一方面则是由于聚合类移动新闻客户端的价值偏见引起的算法偏见所致,此类新闻客户端通常会以产品的技术特性作为借口,为了追求公司的利益,没有履行好对用户推荐多元化信息的义务与职责,并在推荐环节的议程设置工作上体现出价值性的偏离。比如算法设计者在规划算法模型的设计方案时,仅仅对“用户画像”的自身属性与用户的兴趣模块进行建构与分析,忽略了用户不感兴趣的、不关联的及用户真正需要的信息,缩小甚至扭曲了用户的探索维度,间接地促使了“信息茧房”的产生。(二)算法推荐为社会既有偏见的传播提供了新载体在大数据时代,人类将越来越多地分享与大数据直接相关的利益,当公众在新闻客户端浏览新闻时,不再看到多元化、无差别、全面的新闻内容,而是看到算法系统在学习了用户日常偏好后精心准备的“套餐”,这为用户带来了隐忧——由于每个人看到的内容都是不同的,那么算法是否会把更全面的内容推荐给用户?实际上,面对算法决策的“黑箱”,人们无法理解算法的决策过程,只能理解输出的结果。在过去的几年中,许多技术公司的算法被发现具有歧视性。纵观中国的算法推荐行业,即使不太可能发生像种族偏见等后果,也出现了针对不同人群的区别性对待。例如地域歧视、弱者有理、仇富心理、强者有罪等等的非理性内容和言论。算法,曾经被理解为是公正且相当客观的——计算步骤清晰明确、流程可操作、输出结果一目了然。而事实证明,它在设计过程中即使能够摒弃人类的主观因素,但是机器学习算法所植入的数据信息来自人类,其中包含大量人类的个体以及群体的偏见。由人所创造的算法技术,摆脱不了人性的局限,即便学习了知识,也无法摒弃认知的12偏见,含有社会既有偏见数据的输入,导致了算法偏见现象的发生,算法输出的结果理所当然地是对社会既有偏见的反应。尼克·蒂默在一篇关于计算不公的文章中写道:“人工智能在寻找方法方面的独特天赋,只是延续了我们法律体系的歧视历史……在算法驱动之下,具有相似兴趣与特征的用户,将被标记成一个个不同的群体圈层。人们的探索与认知只限于了解自己圈子内部的事情,持有相同意见的人会不断坚持彼此的认同,并继续朝着偏颇的方向前进,从而加剧极端化观点的形成,而对持有不同观点或不同身份的人进行无视甚至打击,这很容易引发群体性的意见分化甚至阶层分化现象。”“社会阶层的分化以及阶层的固化,使人们更加希望能够在网络空间中找到同类的认同”[9],从某一个人对另一个人的偏见,到某一个人对某一个群体的偏见,再到某一个群体对另一个群体的偏见,它的发展存在不可控制的风险,因为在群体中人的理性思维会被降低。为了获得群体认同,个体甚至愿意抛弃是非而博取群体归属感。当某一个群体对另一个群体的偏见形成固化思维的时候,距离极端偏见行为可能只差一个煽动者。算法推荐技术无疑为这种认同的达成,提供了新载体。算法推荐内容的差别,可能导致阶层间的价值观念差异,最终引发对不同阶层偏见的加剧。(三)流量万岁衍生假新闻、低俗化乱象在网络信息碎片化时代,“今日头条”“腾讯新闻”等聚合类新闻客户端,依靠个性化推荐的手段,迅速在传播领域显露头角,依据平台所带有的自媒体运营优势迅速吸引了大量的内容创作者加入,拓展了用户的信息内容视野。在算法推荐的影响下,用户可以直达为自己量身定做的内容场景中,这一点是毋庸置疑的,但是这种基于用户特性的内容推荐,在缩短了用户消费时间的同时也容易导致各种有关内容质量的诟病,诸如阴谋论、标题党、伪科学、假新闻等媒介乱象的发生,使公众逐渐处在一种低质量的传播环境中,不仅侵犯了媒体平台的品牌利益,更对整个公众的主流价值观产生不良影响。算法的技术特性使其本身具备了极强的商业价值,一

些个人或媒体公司为了达到目标流量、订阅数等价值目标,而淡化内容生产的真实、客观、公正的初衷,诸如一些算法应用平台以算法的技术中介为借口,逃避算法监管的责任,用科技公司为托词逃脱媒体的舆论谴责,这有悖一个媒体平台应有的使命,暴露着公司内部算法监管与审查环节的缺失。路透社新闻研究所2018年报告显示,WhatsApp和脸书都被广泛用于墨西哥新闻传播,同一份报告中称,63%的墨西哥用户表示非常担心假新闻传播。”聚合类新闻客户端在算法设计中,不仅要考虑到传播的商业价值,还需要考虑传播文化所引导的社会价值、社会效益。如果商业平台只考虑流量万岁和变现期待,而淡化主流价值取向、回避社会责任,那么即使用户群很大、阅读量很高,其口碑和品牌价值也必将受到影响,更难摆脱强势监管。■参考文献:[1]陈琳辉.平台媒体的类型演进逻辑和发展趋势[J].新闻与写作,2019-03-22.[2]刘友华.算法偏见及其规制路径研究[J].法学杂志,202011新闻传播NewsDissemination2019-06-15.[3]Deloitte.Managingalgorithmicrisks:Safeguardingtheuseofcomplexalgorithmsandmachinelearning[EB/OL]./us/en/pages/risk/artiles/01-10.[4]董天策,何旭.算法新闻的伦理审视[J].新闻界,2019-[5]全媒派.人脸识别的肤色性别偏见背后,是算法盲点还是人心叵测/s/SUT8BOsCof5g2GInwGgIHA.[6]刘华杰,田松.卡辛斯基与工业文明批判[J].关东学[7]凯斯·R·桑斯坦,黄维明译.网络共和国[M].上海人民刊,2018-01-20.出版社,2003-06.[8]凌莉敏.聚合类移动新闻客户端内容升级路径研究[9]赵双阁,岳梦怡.新闻的“量化转型”:算法推荐对媒[D].山东大学硕士论文,2019-05-29.介伦理的挑战与应对[J].当代传播,2018-07-15.(上接第9页)不利于共识的达成,二是网络多元声音限制认同的形成。因此,我们应该通过发展“公共媒介”、科学应对多元声音等限制移动社交媒介传播社会主义核心价值观的不利因素,形成传播社会主义价值观的有效路径。■参考文献:[1]新华社.习近平:决胜全面建成小康社会夺取新时代中国特色社会主义伟大胜利——在中国共产党第十九次全国代表大会上的报告[DB/OL]./native/gd/20171027/t20171027_.状况统计报告[R].2019:19、31.[3]陈新汉.哲学视域中社会价值观念的共识机制[J].哲学动态,2014(4):31-39.2000年[J].林华译,北京:中信出版集团,2015:5.[4][英]汤姆·斯丹迪奇.从莎草纸到互联网:社交媒体[5]高存玲.移动互联网背景下科技期刊传播力提升策[2]中国互联网络信息中心.第45次中国互联网络发展506-512.[6]陈新汉.认同、共识及其相互转化——关于社会价值观念与国民结合的哲学思考[J].江西社会科学,2014(7):38-46.[7]陈新汉.哲学视域中社会价值观念的共识机制[J].哲[8]高存玲、杨清壹.可见的灾难:短视频自然灾害信息传播研究[J].中国地质大学学报(社会科学版):2020(3):147-156.[9][美]凯斯·桑斯坦.网络共和国[M].黄维明译.上海:上[10][美]比尔·科瓦奇和汤姆·罗森斯蒂尔.真相:信息超载时代如何知道、该相信什么[M].陆佳怡、孙志刚,译.北京:中国人民大学出版社,2014:207-208.[11][美]比尔·科瓦奇和汤姆·罗森斯蒂尔.真相:信息超载时代如何知道、该相信什么[M].陆佳怡、孙志刚,译.北京:中国人民大学出版社,2014:234.学动态,2014(4):31-39.海人民出版社,2003:12.略:基于5W模式的研究[J].中国科技期刊研究,2020(5):13

本文标签: 算法偏见新闻