我很想听听你对实现社交活动流的最佳方式(Facebook就是最著名的例子)的看法。涉及的问题/挑战有:

不同类型的活动(张贴,评论..) 不同类型的对象(帖子,评论,照片..) 1-n个不同角色的用户(“用户x回复了用户y对用户Z帖子的评论”) 同一活动项的不同视图(“您评论了..”vs。“你的朋友x评论”vs。"用户x评论说.."3个“评论”活动的表示)

. .还有更多,特别是如果你把它提高到一个高度复杂的水平,比如,把几个活动项目合并成一个(“用户x, y和z评论了那张照片”)。

任何关于模式、论文等关于最灵活、有效和强大的方法来实现这样一个系统、数据模型等的想法或建议都将受到欢迎。

尽管大多数问题与平台无关,但我最终有可能在Ruby on Rails上实现这样一个系统


当前回答

关于这样的活动流有两个铁路广播:

http://railscasts.com/episodes/406-public-activity(带有gem public_activity的活动提要) http://railscasts.com/episodes/407-activity-feed-from-scratch(从头开始是一样的)

这些解决方案不包括你所有的要求,但它应该给你一些想法。

其他回答

我在几个月前解决了这个问题,但我认为我的实现太基础了。 我创建了以下模型:

HISTORY_TYPE

ID           - The id of the history type
NAME         - The name (type of the history)
DESCRIPTION  - A description

HISTORY_MESSAGES

ID
HISTORY_TYPE - A message of history belongs to a history type
MESSAGE      - The message to print, I put variables to be replaced by the actual values

HISTORY_ACTIVITY

ID
MESSAGE_ID    - The message ID to use
VALUES        - The data to use

例子

MESSAGE_ID_1 => "User %{user} created a new entry"
ACTIVITY_ID_1 => MESSAGE_ID = 1, VALUES = {user: "Rodrigo"}

我认为Plurk的方法很有趣:他们以一种看起来很像谷歌Finance的股票图表的格式提供你的整个时间轴。

想要了解一个社交网络是如何运作的,不妨看看Ning。开发人员页面看起来特别有用。

如果您愿意使用单独的软件,我建议使用Graphity服务器,它完全解决了活动流的问题(构建在neo4j图形数据库之上)。

算法已经作为一个独立的REST服务器实现,因此您可以托管自己的服务器来交付活动流:http://www.rene-pickhardt.de/graphity-server-for-social-activity-streams-released-gplv3/

在论文和基准测试中,我展示了检索新闻流只依赖于你想要检索的条目的数量,而没有任何冗余,你会从反规范化数据中得到:

http://www.rene-pickhardt.de/graphity-an-efficient-graph-model-for-retrieving-the-top-k-news-feeds-for-users-in-social-networks/

在上面的链接中,您可以找到屏幕视频和这种方法的基准测试(显示graphity能够每秒检索超过10k个流)。

关于这样的活动流有两个铁路广播:

http://railscasts.com/episodes/406-public-activity(带有gem public_activity的活动提要) http://railscasts.com/episodes/407-activity-feed-from-scratch(从头开始是一样的)

这些解决方案不包括你所有的要求,但它应该给你一些想法。

我使用了与heyman类似的方法——一个非规范化的表,其中包含将在给定的活动流中显示的所有数据。它适用于活动有限的小型站点。

如上所述,随着站点的增长,它很可能面临可伸缩性问题。就我个人而言,我现在并不担心规模问题。我以后再考虑这个问题。

Facebook显然在扩展方面做得很好,所以我建议你阅读他们的工程博客,因为它有大量的好内容——> http://www.facebook.com/notes.php?id=9445547199

I have been looking into better solutions than the denormalized table I mentioned above. Another way I have found of accomplishing this is to condense all the content that would be in a given activity stream into a single row. It could be stored in XML, JSON, or some serialized format that could be read by your application. The update process would be simple too. Upon activity, place the new activity into a queue (perhaps using Amazon SQS or something else) and then continually poll the queue for the next item. Grab that item, parse it, and place its contents in the appropriate feed object stored in the database.

这种方法的优点是,每当请求特定提要时,您只需要读取一个数据库表,而不是获取一系列表。此外,它允许您维护一个有限的活动列表,因为每当您更新列表时,您可能会弹出最古老的活动项。

希望这能有所帮助!:)