#Feedsearch provides a simple #API for searching websites for RSS, Atom, and JSON feeds.
The long-term goal of Feedsearch is to provide a comprehensive, publicly accessible repository of feed information by saving the location and metadata of all crawled feeds.
https://feedsearch.dev/
The long-term goal of Feedsearch is to provide a comprehensive, publicly accessible repository of feed information by saving the location and metadata of all crawled feeds.
https://feedsearch.dev/
feedsearch.dev
Feedsearch - RSS, Atom, and JSON Feed Search API
An API service for searching websites for RSS, Atom, and JSON feeds.
#开源 #订阅数 #API
「Substats:快速统计你在各个平台的关注者!」
https://blog.spencerwoo.com/2020/03/substats/
如果想制作显示RSS订阅数量的 #Badge ,一定可以用上 #Substats 这个 API。 继续来自 @realSpencerWoo !
「Substats:快速统计你在各个平台的关注者!」
https://blog.spencerwoo.com/2020/03/substats/
如果想制作显示RSS订阅数量的 #Badge ,一定可以用上 #Substats 这个 API。 继续来自 @realSpencerWoo !
#技巧
@realSpencerWoo 在这篇少数派文章里详述了:
1. 如何利用 #Substats #API 同时请求一个Feed在 #Feedly 和 #NewsBlur 两家订阅服务的订阅数量;
2. 进而借助 #ShieldsIO 生成Feed订阅总数的Dynamic #Badge 。
https://sspai.com/post/59593
@realSpencerWoo 在这篇少数派文章里详述了:
1. 如何利用 #Substats #API 同时请求一个Feed在 #Feedly 和 #NewsBlur 两家订阅服务的订阅数量;
2. 进而借助 #ShieldsIO 生成Feed订阅总数的Dynamic #Badge 。
https://sspai.com/post/59593
少数派 - 高品质数字消费指南
用 Substats 和 Shields.io 为你的个人主页定制动态数据小牌子 - 少数派
希望这篇文章,以及 Substats API,能帮助你更方便、更轻松的零成本自制动态实时更新、快速加载的小牌子,用来装扮你的个人主页、博客、GitHub 项目 README 或其他网页。
基于RSS Feed的 #搜索引擎 #介绍
我始终忘不了被这些月经贴支配的恐惧:「你必读的RSS源有哪些」、「求推荐优质的RSS Feed」。即便在信息搜整能力Top Level的RSS玩家中,Feed的发现依然那么困难。因此个人打理的 #聚合 应运而出,却又各自独立为战、疲于维护,特别是体量渐大之后。我已有两次(1、2)提及过,这事没法靠个人完成。
有一种办法是举全RSS玩家之力。比如公开大家的订阅列表,就像此前提到的 #FeedsPub 和 #FeedBase。可看榜单,可找长尾。接着,还可以在此基础上搞搜索,就像 Feedly、Feedspot和 Inoreader 等RSS阅读器做的那样。可惜的是被阅读器当成了高端功能,目前只有付费用户才能享受。
还有一种就是举爬虫之力了。试想,当人们想找到需要的网页时,人们发明了「搜索引擎」;那当人们想找到需要的Feed时,人们自然去发明了基于RSS Feed的「搜索引擎」。当然,这绝不是新鲜事情了,上古时期这领域的选手还挺多的(特别是 Google Feed API 还在的时候),只是坚持下来的寥寥无几。以前的事就不提了,那么现在能用的搜索 Feed 的引擎有哪些呢?
1️⃣DatoRSS
#开源,基于 feedi #API 。经与作者咨询,其Feed的评分来源于 OpenRank 。
2️⃣ The Ukora™ News Search Service
至少从14年就存在了。有榜单。注册后,可以订阅搜索出来的Feed(例:少数派),并生成一个看板。但不能直接通过Feed地址来订阅。官方简介了所用到的技术或架构。
2.5 RSS Micro
为什么是“2.5”呢?因为这个站历史悠久,但目前处于半死不活的状态。能不能用有点看人品,经常报受限于API。有榜单。
感谢它们为「发现优质Feed」迈出了一大步。不过,目前来说还有些「小步」也可以迈。以个人为例,在找到Feed后我还会继续去关注下这些指标:全文与否、平均文章字数、更新频度、主题分类(可基于RSS <category> element实现)、条目数、建站时间。这些暂时都未集成在上述搜索引擎中,使得它们离“好用”的搜索引擎还有段距离,但未来可期。
注:上述引擎对中文内容的索引和检索中文关键词的能力都十分有限。
我始终忘不了被这些月经贴支配的恐惧:「你必读的RSS源有哪些」、「求推荐优质的RSS Feed」。即便在信息搜整能力Top Level的RSS玩家中,Feed的发现依然那么困难。因此个人打理的 #聚合 应运而出,却又各自独立为战、疲于维护,特别是体量渐大之后。我已有两次(1、2)提及过,这事没法靠个人完成。
有一种办法是举全RSS玩家之力。比如公开大家的订阅列表,就像此前提到的 #FeedsPub 和 #FeedBase。可看榜单,可找长尾。接着,还可以在此基础上搞搜索,就像 Feedly、Feedspot和 Inoreader 等RSS阅读器做的那样。可惜的是被阅读器当成了高端功能,目前只有付费用户才能享受。
还有一种就是举爬虫之力了。试想,当人们想找到需要的网页时,人们发明了「搜索引擎」;那当人们想找到需要的Feed时,人们自然去发明了基于RSS Feed的「搜索引擎」。当然,这绝不是新鲜事情了,上古时期这领域的选手还挺多的(特别是 Google Feed API 还在的时候),只是坚持下来的寥寥无几。以前的事就不提了,那么现在能用的搜索 Feed 的引擎有哪些呢?
1️⃣
#开源,基于 feedi #API 。经与作者咨询,其Feed的评分来源于 OpenRank 。
2️⃣ The Ukora™ News Search Service
至少从14年就存在了。有榜单。注册后,可以订阅搜索出来的Feed(例:少数派),并生成一个看板。但不能直接通过Feed地址来订阅。官方简介了所用到的技术或架构。
2.5 RSS Micro
为什么是“2.5”呢?因为这个站历史悠久,但目前处于半死不活的状态。能不能用有点看人品,经常报受限于API。有榜单。
感谢它们为「发现优质Feed」迈出了一大步。不过,目前来说还有些「小步」也可以迈。以个人为例,在找到Feed后我还会继续去关注下这些指标:全文与否、平均文章字数、更新频度、主题分类(可基于RSS <category> element实现)、条目数、建站时间。这些暂时都未集成在上述搜索引擎中,使得它们离“好用”的搜索引擎还有段距离,但未来可期。
注:上述引擎对中文内容的索引和检索中文关键词的能力都十分有限。
#开源 社交网络“翻译”器 #granary #API
granary 也是 #Indieweb 的重要组成部分,其自称的「 翻译」是指将封闭社媒的内容用开放协议来打包。具体来说,可以打包成 microformats, ActivityStreams, Atom, RSS, JSON Feed (前两者也是支援 Indieweb 而开发的开放协议 ),同时支持这些协议的互相转换。这样,就可以用 Indieweb Reader 来订阅社媒信息流了。Ta 本身可以当个 Python 库或自架当 API 用, granary.io 是一个 Demo 。
在 granary.io ,点社媒图标用你自己账户登录 Twitter/Instagram/flickr/Github/reddit 等社媒后,Ta 即可将你在这些社媒的信息流用各种协议语法打包输出。
https://granary.io/
granary 也是 #Indieweb 的重要组成部分,其自称的「 翻译」是指将封闭社媒的内容用开放协议来打包。具体来说,可以打包成 microformats, ActivityStreams, Atom, RSS, JSON Feed (前两者也是支援 Indieweb 而开发的开放协议 ),同时支持这些协议的互相转换。这样,就可以用 Indieweb Reader 来订阅社媒信息流了。Ta 本身可以当个 Python 库或自架当 API 用, granary.io 是一个 Demo 。
在 granary.io ,点社媒图标用你自己账户登录 Twitter/Instagram/flickr/Github/reddit 等社媒后,Ta 即可将你在这些社媒的信息流用各种协议语法打包输出。
https://granary.io/
Pipfeed news extract API : 可从 Feed 获取英文全文的 API
#Pipfeed 是一款苹果、安卓双平台应用,提供面向英文用户的内容聚合和高质量阅读体验服务。可惜的是,并不支持用户自行订阅 RSS Feed,而是要提交站方审核。不过,其 #API 服务 —— news extract API 可以实现针对英文文章的内容获取、分类等。该 API 免费版支持每日调用 20 次。
https://pipfeed.com/news-extract-api/
官博近日发了个 #教程 ,讲解如何在 Python 下用该 API 从 RSS Feed 中获取全文等信息:「Extract full news article content from any RSS feed using Extract API」。
https://pipfeed.com/2020/11/09/tutorial-extract-full-news-article-content-from-any-rss-feed-using-extract-api/
#Pipfeed 是一款苹果、安卓双平台应用,提供面向英文用户的内容聚合和高质量阅读体验服务。可惜的是,并不支持用户自行订阅 RSS Feed,而是要提交站方审核。不过,其 #API 服务 —— news extract API 可以实现针对英文文章的内容获取、分类等。该 API 免费版支持每日调用 20 次。
https://pipfeed.com/news-extract-api/
官博近日发了个 #教程 ,讲解如何在 Python 下用该 API 从 RSS Feed 中获取全文等信息:「Extract full news article content from any RSS feed using Extract API」。
https://pipfeed.com/2020/11/09/tutorial-extract-full-news-article-content-from-any-rss-feed-using-extract-api/