推荐算法:为什么被针对的都是我?

2017年10月15日 人人都是产品经理



作者:我堂堂一个熊猫

全文共 2665 字,阅读需要 6 分钟


———— / BEGIN / ————


人民日报在三评王者荣耀后,最近今日头条也遭到了点名。批评的重点是以今日头条为代表的的算法推荐资讯平台,还提出了价值观缺失、制造信息茧房、竞争手段无底线的“三宗罪”。


总的来说,人民日报提出的这些问题还是非常客观的。


此前也有不少新闻业内人士反映过,低俗的信息会刺激人性中的阴暗面,吸引点击量,在推荐算法的加持下,不知不觉我们的信息流上就全是婆婆小三、艳情野史。


而得出的结论却是:不是资讯平台低俗,而是算法觉得你低俗。


同样的情况也曾经在快手上出现过,当我们抱怨快手上全是鞭炮炸裤裆、老太嚼灯泡时,得到的答复是:中国的大多数就是这个样子。


多数人的暴政


这种情况被称为“多数人的暴政”。


大多数人忍不住会被低俗内容吸引,所以创作者会创作更多的低俗内容。去除人工编辑把控的中间环节,算法只会根据你有意无意的点击把那些低俗的内容推上信息流。


这样的多数人的暴政,不仅仅出现在中国,此前Facebook也深受各种惊悚标题党的困扰。


不过外国人的脑回路是很清奇的——Facebook推出了一项用户决策机制,如果读过之后感觉内容和标题严重不符,可以将其标注为假新闻,这样就会降低这条消息的推荐权重。



尴尬的是,很多用户会依照个人喜好随意标注,甚至会因政治倾向对某一派别的新闻进行恶意标注。


最后Facebook不得已还是采用了算法进行判断——用机器学习对以往的标题党标题进行总结,对相似标题的文章进行降权。


就是喂给算法一批诸如《震惊了!……》、《……真相是这样!删前速看!》的标题,算法学会后,就会对“震惊派”的文章进行降权。


实际上“夸张的标题”、“假新闻”、“低俗内容”之间往往只有一线之隔——把决策权交给用户是一项非常冒险的行为。


不管是算法还是用户投票,只要是在去编辑体制的平台上,多数人的暴政都会出现。


完全依赖用户抉择,平台会被视作没有责任感、不作为;可如果平台参与决策,又很可能破坏“算法推荐”这一原有的特色。


这样的矛盾,不管是Facebook还是今日头条都在经历;但对于国内用户来说,不适感来的要更强烈一些。


在App冷启动时,用户都会选择好自己的兴趣标签。


可打开信息流,还是会有一些低俗夸张的内容出现;甚至在选择了“不感兴趣”后,划过几屏,类似的信息还是会出现。


要不就像新闻中说的那样:随手点开了一条低俗信息,立刻有大量类似的信息涌入。


虽然几乎没有公开谈过其推荐算法都取决于哪些权值,但我们可以从目前主流的推荐算法中看看,今日头条们可能错在了哪里。


如果你的信息流不对劲,可能是因为…


在推荐算法中,最常见的就是协同过滤算法。资讯类产品常常会使用基于用户的协同过滤算法,即利用K邻近算法,找到和你兴趣相近的用户,并把对方的喜好推荐给你。


比如A、B两个用户都对时政、军事类的资讯感兴趣,而A用户也对历史类资讯感兴趣,那么系统就会给B用户推荐历史类资讯。


这种基于用户行为的推荐机制,在豆瓣一类更个性化的、社交属性更强的平台的中更为精准。


可今日头条这类资讯平台中,用户群体更加繁杂,用户行为往往也都是无目的性的——在豆瓣中标记某一部电影可能是为了告诉大家“我是看这种电影的人”,而在今日头条中点击一条新闻往往只是因为“想看看”。


这无疑给基于用户的协同过滤算法的精确度带来很大挑战——用户本身的属性就是模糊的。如果你的信息流中不断出现一些你不感兴趣的东西,很有可能是平台利用了这种算法,为你推荐了相似用户的喜好。


不过资讯类平台利用的更多的还是基于内容的推荐算法。


如果说用户协同算法关注的是人与人之间的相似度,那基于内容的推荐算法关注的则是内容本身。


还是以电影为例:


一部电影可以细分出影片类型、年代、演员、导演等等多种元素。用户标注了某一部电影,算法就会为他推荐同一导演的作品。


这样的推荐模式大多被适用于识别结构化数据——算法并不知道文章、影片中到底说了什么,只能根据结构化数据标注判断。


这就是为什么大多数资讯类平台都存在标签和关键词机制:算法要通过这些结构化标注对内容进行判断,再推荐给用户。


这其中最大的问题,就是关键词机制的不准确。


我曾经在某平台上标注了兴趣“宠物”,本意是希望看到一些可爱的猫猫狗狗,然而某一天该平台居然给我推荐了一段斗狗视频,视频下面居然也有宠物的标注。


资讯类平台中的内容越来越丰富,短消息、图文、问答都有。而关键词标注只能对内容进行浮于表面的理解,而内容中暗含的情绪往往会冒犯到用户。


而在流量的诱惑下,很多创作者会更倾向于生产具有刺激性情绪的内容。


斗狗、职场性骚扰、历史艳情,这些内容本身似乎也是合规的,但其中暗藏的暴力、歧视、色情等等情绪,被掩盖在宠物、职场、历史等等标签下,堂而皇之的污染着我们的信息流。


那么出路在哪?


我们想知道的是,除了加强平台对低俗内容的监管,是否还能从技术方面解决当前的问题?


其实相关的研究结果已经很多,比如谷歌推出的云端自然语言分类功能,可以通过语言分析情绪。据称这项功能在分析了报纸的某一版面后,自动将其中一篇菜谱归入了美食栏目,还添加了具体的标签——而且谷歌云的自然语言API还可以识别情绪,了解文章内容是积极的还是消极的。


更详细的分类和情绪识别,可以很好的解决上文提到的关键词机制不精准问题。


而人民日报在文章中提到的,用户兴趣变化问题业内也有过相关讨论。


有人提出过将用户停留时间和内容相似度两种数据权重加入到协同过滤算法中,以用户在不同内容上停留的不同时间来判断用户的兴趣是否发生了变化,从而确定推荐内容的权重。


其实不管是谷歌NLP这种高成本的解决方式,还是调整原有算法这种更简单易行的方式。用技术解决推荐算法的局限没有想象中那么难,甚至对于低俗的内容,都已经出现了“人工智能鉴黄”这种神器。


推荐算法是一种历史悠久的技术,发展到今天,电商、广告的推荐越来越精准,资讯的推荐算法却惹得天怒人怨,要是把锅甩到算法上,恐怕有些不公。


有人说算法呈现出的结果是人性本质的体现,可从当下看来,算法呈现出的更多是平台、内容创作者这些利益既得者的人性。


作为一个天天研究算法的普通内容消费者,我倒是觉得:越了解算法,就越不懂人性。


———— / END / ————


作者: 我堂堂一个熊猫,微信公众号:脑极体(unity007)

本文由 @脑极体 授权发布于人人都是产品经理。未经作者许可,禁止转载

↓↓↓ 点击"阅读原文" 立即下载APP

收藏 已赞