头条号市场总监刘晨(作者原文中的粗体字已转为普通粗度的字体):
「工程师文化」……是一种思维方式:一切问题都是可以被解决的,一切资源都应该用于解决现实的问题,一切问题的解决都应该能被清晰地观察和衡量。
今日头条的员工,尤其是产品、技术团队,对于运用直觉、经验和灵感是比较保守的,任何产品、运营上的决策必须对应可观测可评估的数据依据,否则的话几乎不太可能落实执行。
我有一个问题,相信不只我一个人有这个问题:在一台新买来的手机上首次登录今日头条的首页后,我想用烟头烫自己的眼睛。这个非常现实的问题如何解决?
朋友知道我看今日头条后,直觉地反应说「你怎么这么 low?」这样的现实问题如何解决?
(当然,我知道标准答案:「你不是我们的目标用户。」)
比如大家觉得自媒体多了之后,信息流质量可能下降了。当然直接说质量不行了是没有用的因为:
- 点击和互动率可能没有损失;
- 每个人刷到的信息流不一样,而且每个人的质量标准也不一样。
你必须要说「投诉率在快速上升」这样的表述,才能引起整个团队的足够重视。
每个人刷到的信息流不一样,每个人的投诉标准也不一样。但每个人心中可以被 exploit 的那种动物性是一样的。刷,点,互动,顶,踩,吐槽。人类会严肃地讨论「是否应该减少刷知乎的时间」,但不会思考是否应该减少刷今日头条的时间。解决投诉率的方法就是进一步 exploit 人类的动物性。今日头条是一家手游公司。
然后呢?你以为大家会说,那我们就减少自媒体入驻或者我们招一大堆审核吗?当然不会。
结论会是:让我们建立一个数据模型,让机器自动识别出低质量内容并且进行拦截吧。
每个人刷到的信息流不一样,而且每个人的质量标准也不一样。
大数据和信息技术在人类生活里扮演越来越重要的角色这一点是逆转不了的,你通过算法寻找出租车,通过算法寻找身边的餐厅,有什么理由认为将来 5 年、10 年的人类仍然会通过传统媒体的方式去生产和分发信息呢?这是支撑我努力去适应和调整,让自己融入今日头条这家公司的重要原因。
事实上我认为目前主流的人工智能实践者并不像她们宣称的那么站在机器一边。举例:如果人类给兔子打上了「耳朵竖起来」的标签,算法看到垂耳兔可能就不认为是兔子。这时,人类会调整标签或算法,告诉算法垂耳兔也是兔子。这是种族主义的做法。如果机器认为垂耳兔不是兔子,而是免几,人类就应该努力适应并调整自己的认知,在辞典里增加「免几」词条,从而最终和机器一起达到大和谐状态。