精准推送、大数据杀熟……什么样的“算法”才是我们需要的
随着信息技术的发展和大数据的广泛应用,算法推荐使得信息传播更加个性化、个性化和智能化,但也存在一些混乱。
我们需要什么样的 " 算法?
你是否有过类似的经历:在一个自动推送匹
一些喜欢网上购物的人也可能遭受“大数据杀戮”的折磨。一些平台利用算法技术对不同类型的消费者数据进行“画像”,判断其偏好、用户凝聚力、价格敏感度等,让不同的用户看到不同的价格或搜索结果。通常,老用户看到的价格比新用户贵,或者搜索结果比新用户少。
今年“双 11”期间,北京消费者韩女士发现,她用一款 app 预订酒店,“同时,用不同的手机”,差价在 1000 元左右。
9 月中旬,微博上发起的一项民意调查显示,1.5 万人(占所有选民的近 80%)认为自己的物价差距很大。
“算法”是中立的,问题在于人。算法技术的意义在于将基于人力资源的“人找信息”转变为基于计算机自动操作的“信息找人”,不仅极大地解放了人力资源,而且更有效地完成了人与信息的匹配。
自 2012 年起,互联网平台头条较早将算法推荐系统应用于信息领域的产品,实现了系统的自动学习和推荐。据今日头条算法设计师曹欢欢介绍,推荐系统综合考虑内容特点、用户特点、环境特点等因素进行决策。例如,环境特性包括用户在不同场景下的兴趣偏好信息,例如在工作期间、上班途中和下班时。
为了帮助用户找到更多有趣的点,今日头条不断介绍各领域的优质内容制作者,并用算法向用户推荐;推出“精灵狗”反低俗助手,杜绝低俗信息。前者旨在消除对同类文章的推荐,后者则降低了同一领域或同一主题文章的推荐频率。
然而,在互联网主平台严格自律的同时,仍有部分网络社交媒体和新闻客户端编辑流程不规范、管理不严,偏离了业务定位。主要表现在:向用户推荐劣质信息。为了留住用户,一些平台不断推荐自己关注的类似内容,包括低俗媚俗、色情暴力、真假难辨、缺乏深度、价值取向紊乱等信息。为了提高一些互联网平台的点击率和流量,他们还进行人工推荐,积极推荐“眼球”和“边缘球”信息,不少用户称之为“火眼金睛”。这反映了一些平台社会责任感的缺失,也忽视了价值观的建设。
- 增加用户权益保护难度。一些算法推荐的内容过度强化了用户的偏好,影响了用户自主选择信息内容的权利,加剧了“信息茧室”效应,容易导致个人与社会的隔离,对当前国情和世情缺乏深刻的认识和判断。由于对用户浏览记录等数据的依赖性,如果算法推荐设计不当,也可能侵犯用户隐私。
-- 实施“大数据杀戮”。中国传媒大学大数据研究中心教授沈浩介绍,对于该算法,通过用户数据量和数据更新频率,很容易判断是“陌生人”还是“熟悉的客户”。结果就是平台赚大钱,商家和消费者的利益受损,很容易导致垄断。
作为技术应用,算法推荐是中立的,问题在于设计者和操作者。
一方面,它追求“流动优先”的单一价值取向。为了应对竞争,一些平台把用户停留时间作为一项重要的考核指标,忽视了其“把关人”的作用。“把关人”必须按照公序良俗,以积极健康的价值引导算法推荐的设计和应用,确保推送内容的正确价值取向。
另一方面,过度追求“利益至上”,利用其信息不对称优势侵害了消费者的合法权益。这是一个需要引起足够重视的法律问题。
“一些算法的顶层设计思想存在问题”,中国社科院信息技术研究中心主任姜奇平告诉记者,英国著名数学家、逻辑学家图灵等学者提出,在绘制人工智能图景时,要把人的思想和思维方式结合起来机器是平等的、双向的、相互推进的。然而,一些算法设计表明人机关系是单一的。比如在大数据中,迷信相关分析,忽视因果分析。在算法效率的定义中,只有专业化的效率才被定义为效率,而多元化效率实际上也是效率。
大数据和算法推荐要有更多“温度”
近日,有网友在一个问答平台发帖称,他在社交平台上与朋友聊天时提到了一个清洁工,随后平台上出现了一个清扫机器人的广告。在帖子中,不少网友发问:“平台有没有可能利用算法等技术,捕捉用户聊天记录,进行准确的广告投放?”
app 专项治理工作组专家何彦哲今年 9 月表示,四部委 app 专项治理工作组在 app 多批次测试中未发现任何“窃听”行为。不过,从技术实现上看,应用程序存在一定的“窃听”可能。有关部门有必要出台规定,明确企业在制作大数据“写真”时是否可以使用个人语音信息,让用户更加放心。
从另一个角度看,民意问题实际上指向大数据、算法等技术应用的价值取向。如何规范大数据和算法技术的使用,使其更“温暖”更让人放心?必须建立有效的监督体系和评价体系,确保算法设计者和操作者以健康、正确、积极的价值观指导算法推荐的设计和应用。
相关立法和监管有待加强,尤其是算法推荐本身的法律监管。
比如正在征求公众意见的个人信息保护法草案,规定认为自动化决策对其权益有重大影响的个人,有权拒绝个人信息处理者仅通过自动化决策做出决策。
“根据市场交易习惯,根据市场交易习惯和其他交易习惯,制定交易规则”和“交易规则”实行条件;对新老交易对手的交易条件、实行差别化标准、规则和算法、实行差别化支付条件和交易方式等,实行差别化交易价格或其他交易条件。,可能被认定为“大数据杀戮”等不正当竞争行为,将面临更严厉的监管。
北京大学电子商务法律研究中心主任薛军告诉记者,应根据算法使用的场景及其对公民基本权益的影响,对算法进行不同强度的监管。除了法律规定需要更加明确外,我们可以建立某种社会评价机制来评价在平台上使用算法的后果,并要求平台基于公共价值进行优化。
夯实平台的社会责任。曹欢欢说,今天的头条新闻并不是完全依靠算法推荐,而是一个集成“算法 + 热点 + 搜索 + 关注”的通用信息平台,帮助用户扩大兴趣。用户还可以选择关闭“个性化推荐”按钮或“永久清除历史行为”并选择获取信息的方式。
“算法技术要强调价值伦理,人的一面应该是技术本身,鼓励企业在经营行为中履行社会责任。”姜奇平认为,对算法推荐技术和平台的规范,应确保公平与效率、个人信息的开发与保护、平台信息的平衡。为了促进数字经济服务业态的健康发展,可以根据个性化信息服务收益与支付均衡的原则进行政策调整。因此,消费者有权随时主动向消费者提供信息,以便消费者能够主动提供服务。
有专家认为,监管部门应督促企业调整业务逻辑,将积极的价值取向和对用户的高质量追求作为关键标签纳入算法的顶层设计;政府、学校,家长和平台应该分担责任,不断提高青少年的网络素养。
配职位的求职网站上填写一份求职偏好调查;打开购物软件,发现大部分页面是最近搜索或浏览的;通过应用程序读取健康信息,然后经常收到健康知识和保健产品……广告。随着信息技术的迅速发展和大数据的广泛应用,算法推荐技术正把人们带入个性化、定制和智能信息传播的时代。
由于算法的推荐,互联网平台可以越来越多地抓住用户的心灵,帮助人们更方便、更准确地获取信息,同时也牢牢地吸引了用户的注意,据不完全统计,基于算法的个性化内容推送已占整个互联网信息内容分布的 70% 左右,而算法推荐已逐渐成为各个平台的 "基本操作",如粗俗、劣等信息的准确推送、"大数据杀灭熟悉" 等杂乱图像也得到突出显示。
作为数字经济的重要推动力,算法如何实现更高质量的发展?在移动互联时代,我们需要什么样的算法?
互联网平台正在变得越来越多 "理解" 用户吗?
观看了一段短视频后,该平台将自动推荐大量相关视频,这非常方便。在北京一家企业工作的陈慧是一个网络游戏的 "爱好者",他喜欢在手机上观看短视频以提高自己的操作水平。他发现,随着浏览视频频率的增加,该平台推荐的相关视频越来越多," 游戏介绍、英雄游戏、战争视频都在那里,电子商务平台也会推荐鼠标、键盘。
这些平台的自动推荐功能采用了一种称为算法推荐的技术。这是通过人工智能分析和过滤机制对海量数据进行深入分析的一种技术,完成了信息内容和用户精确匹配技术。
自从明尼苏达大学的团队在 1994 年推出第一个自动推荐系统以来,算法推荐技术已经渗透到信息、社交、电子商务、短视频、搜索引擎和其他平台以及互联网应用中。
互联网平台变得越来越 "理解" 用户,这不仅极大地便利了用户获取信息,而且很容易导致一些用户,特别是青少年,在不同程度上沉溺其中。
大家同意只看五分钟,结果一次只看了几个小时。" 贵州省贵阳市的林忠信说,他 12 岁的儿子最近痴迷于涂刷一些不仅影响他的学业表现,而且在户外活动中与同伴相处的短视频。
自去年 5 月底以来,中国主要的网络短视频平台开始推广青少年戒毒所。在 "青年模式" 下,大多数平台主要推动教育、知识等有益内容。然而,在没有监护人监护监督的情况下,戒毒所的效果很容易被忽视。
一些受访者反映出,在一些新闻、信息、社交网络和其他平台的个性化推动下,存在 "三种以上" 现象,比如 "更多关于泛娱乐的信息、更多粗俗的内容和更多未经核实的内容";一些平台,如在线社交网络,有较少的防止放纵的手段,这很容易导致青少年沉迷和盲目模仿。
北京大学社会与发展研究中心主任邱泽奇告诉记者,自我偏好是人类认知偏好的一部分,"偏爱" 阅读可能加速 "信息茧屋" 效应和 "情感传递" 效应的形成,这很容易导致视力受限,而后者往往会将个人情绪传染给他人。