Quora 有一个简单的前提:它是一个分享知识和专业知识的地方,好奇的人可以就任何可以想象到的话题提出问题,并从平台博学的社区获得深思熟虑的、见识广博的答案。
想想雅虎答案 (Yahoo Answers),它适用于技术员工和格拉德威尔式的知识分子。
Quora 由两名前 Facebook 员工于 2009 年创立,并迅速发展起来,其答案来自众多硅谷名人、常春藤盟校学者、业内人士以及热心的业余爱好者,他们热衷于对从平凡到深奥的各种问题发表看法。
到 2014 年,其估值已超过 9 亿美元。
它的成功建立在这样的理念之上:平台不应仅仅将我们与信息联系起来,还应将我们与头脑中掌握这些信息的人联系起来。
在 Quora,你不仅可以了解量子物理学或伯罗奔尼撒战争的历史,还可以通过真正专家的个人笔记和回复来研究它。
Quora 声称其意图是打造一个精致的互联网理想,让人们无私地聚集在一起,进行激动人心的讨论和知识共享。
截至 2024 年,它可以说已经失败了。
一开始没什么大不了的。随着 Quora 社区成员人数增长到数百万,该公司安装了算法系统来帮助对问题和答案的数量进行分类和排序。
此前,最佳答案是通过强大的用户投票系统浮现出来的,这是一种与 Reddit 类似的群体智慧方法,但现在算法在决定哪些内容能够被展示和推广方面发挥了重要作用。
有帮助的、精心设计的回答仍然会获得排名,但人工智能开始表现出一些怪癖。观点更极端的答案开始受到过度关注。
用户发现,他们可以通过以更多的情感和热情进行写作来玩弄系统,即使底层内容——我们可以这么说——缺乏。
算法正在缓慢但坚定地重塑社区的文化和动态。
随着 Quora 大力推进人工智能驱动的增强功能,事情变得很奇怪。不道德的用户——潜伏在每个平台阴影下的数字营销人员和增长黑客——意识到人工智能可以被利用。
他们可以通过在答案中添加搜索引擎友好的关键词和夸张的声明来欺骗系统,从而大力推广他们的内容。
此外,他们还发现,人工智能很难区分人工编写的文本和机器生成的内容——这意味着用户可以将问题输入语言模型,将输出逐字粘贴到 Quora,然后看着算法为其点赞和关注。几乎一夜之间,该网站开始淹没在垃圾、语无伦次、人工智能生成的文本的沼泽中。
与此同时,Quora 上一些最受爱戴的贡献者、学者和专家——他们本应被视为 Quora 的命脉——却开始离去。
尽管人工智能绝大多数都喜欢用自信的陈述句写成的答案,但该平台许多最聪明的用户却对此望而却步。他们一直认为自己的角色是补充背景信息,而不是从上层发布命令。
由于担心算法会歪曲事实,或者不愿意迎合算法,优质投稿者纷纷退出了。留下来的人沮丧地看着他们深思熟虑、细致入微的回复被淹没在日益高涨的零卡路里内容浪潮中——虽然不完全不准确,但缺乏任何真正的营养价值。
随着 Quora 的困境日益加重,其领导层也发现自己陷入了颇为讽刺的困境。
这家以推崇知识和专业技能而闻名的公司现在却受制于机器,因为机器无法辨别信息和智慧之间的区别,也无法辨别事实文本和模仿事实写作模式的文本之间的区别。
在不断追求参与度的过程中,算法会展示一些“赢得”点击量和浏览量的内容,但却慢慢侵蚀了 Quora 曾经的内涵和博学文化。通过追求短期指标,该公司正在危及自己在这个充满噪音的世界中作为信号源的长期生存能力。
Quora 的最终妥协是推出了聊天机器人平台 Poe。Poe 是“开放探索平台”的缩写,自命不凡(且令人难以接受),它集成了包括 OpenAI、Anthropic、Meta 和 Google 在内的 AI 模型。
用户现在可以与这些聊天机器人进行来回对话,并立即获得问题的答案。虽然这被认为是“便利性和可访问性”方面的进步,但对许多人来说,这是对一个有前途的以人为本的平台的最后一颗钉子。
Poe 的推出得到了 Andreessen Horowitz 等民粹主义投资者的大量资金支持,这表明 Quora 已经完全屈服于人工智能潮流。这个曾经以人类生成内容的家园而自豪的平台,现在变成了人工智能响应的农场。Poe 的货币化功能允许机器人创建者通过订阅和每条消息收费赚钱,这激励了人工智能生成内容的激增,而牺牲了真实的人类互动。
所以我们找到了 Quora 衰落的真正原因——也是这篇文章的警示。在将越来越多的社区机制和动态外包给人工智能系统(无论多么先进)的过程中,该公司未能认识到人工智能的局限性,而对其吹捧的能力却视而不见。
语言模型在识别文本模式和预测序列中的下一个单词方面非常强大,但它们在嗅探人类专业知识的标志方面却相当糟糕,例如推理、合理的论证和实质性知识。事实证明,这一缺陷是该平台的败笔。正如一位用户所说,Quora 已经从“专家议会”退化为“机器人代笔的内容农场”。
Quora 并不是唯一一家这样做的公司。YouTube 和 Facebook 等平台正在努力解决如何平衡人工智能推荐和审核的巨大前景与令人不安的现实问题,即这些系统无法做出我们人类自然直觉的本质区别。它们无法区分权威信息、令人信服的错误信息、垃圾帖子、尖锐评论和吸引注意力的愤怒诱饵。
在最好的情况下,这些算法可以带来令人愉悦的意外发现——以丰富我们理解的方式拓展我们的视野。在最坏的情况下,它们会产生不正当的激励机制并奖励错误的事情,污染平台文化并削弱社区的信任。
让我们回到 Quora。随着令人沮丧的趋势加速——专家参与度下降、内容质量下降、社区凝聚力逐渐减弱——用户增长首先停滞,然后急剧下降。
据我的朋友圈透露,那些留下来的人在这个网站上花的时间越来越少,因为他们厌恶那些越来越浮夸、自我指涉的噪音。
偶然发现 Quora 的潜在新用户不太可能会对那些无聊且重复的内容留下深刻印象。
这种双重打击——现有用户流失,新用户注册停滞——让 Quora 陷入了可能永远无法恢复的恶性循环。实际上,这是一次精彩的乌龙球。
到 2024 年,Quora 已今非昔比,吸引到的真正热爱该平台的用户寥寥无几。在短暂的一刻,Quora 让人们看到了一个有实质内容的互联网会是什么样子——然后,这一愿景来得快,去得也快,却被人出卖了。
作为 Quora 的前用户,我有一个令人不安的问题:在我们盲目迈向人工智能未来的过程中,是否有可能让我们的算法工具具有洞察力和智慧,而不仅仅是肤浅的参与?
机器很难将知识与单纯的信息进行有效区分,而机会主义者会为了自己的利益而使用和滥用这些系统,我们该如何保护脆弱的专业生态系统呢?
尽管大语言模型课程具备诸多优势,但它们仍然缺乏基本能力,无法取代人类的参与、交流和思考。原本可以存在的 Quora 已经不复存在。
但其他眼光敏锐的科技创始人应该牢记,建立在线社区的难度和重要性。这种社区重视实质内容,而非糟糕、廉价的参与方式,而当他们把这些都抛弃时,我们可能会失去人类的智慧。