我正在尝试从以下网址 http://live.reuters.com/Event/rss.aspx?id=70335 的 RSS 提要中提取数据。基本上我想使用这篇文章中概述的代码提取每篇文章的标题和日期:Parse RSS feed using XML packagin R

代码本身是

 library(XML)
library(RCurl)

###Extracting Data from Reuters
xml.url <- "http://live.reuters.com/Event/rss.aspx?id=70335"
script  <- getURL(xml.url)
doc     <- xmlParse(script)
titles    <- xpathSApply(doc,'//item/title',xmlValue)
pubdates <- xpathSApply(doc,'//item/pubDate',xmlValue)
reuters<-cbind(titles, pubdates)
reuters_data<-data.frame(reuters)

 #Exporting as a csv
write.csv(reuters_data, file = "reuters_post.csv")

该代码几乎完全符合我的要求。但是,我遇到的问题是它只提取前 45 个帖子。我知道有接近 1000 个帖子。这与 rss.aspx 格式有关吗?是否有解决方法,以便我可以获取 RSS 提要中的所有帖子,而不仅仅是前 45 个?任何帮助将不胜感激,因为我是数据抓取的新手。

谢谢,
托马斯

最佳答案

它解决了不允许检索历史信息的 RSS/Atom 提要问题,请参阅 How Do I Fetch All Old Items on an RSS Feed?

但是,我们可以使用非官方的 Google Reader API GoogleReaderAPI Wiki

library(RCurl)
library(RJSONIO)

N <- 100 # Number of items to fetch
url <- paste("http://www.google.com/reader/api/0/stream/contents/feed/http://live.reuters.com/Event/rss.aspx%3Fid=70335?n=", N, sep="")

json <- getURL(url)                               # Fetches data
list <- fromJSON(json)                            # JSON to list
df   <- as.data.frame(do.call(rbind, list$items)) # list to data.frame

title    <- unlist(df$title)                                                # Title
datetime <- as.POSIXlt(unlist(df$published), origin="1970-01-01", tz="GMT") # Publication date

reuters <- data.frame(title, datetime)        # Output data.frame
write.csv(reuters, file = "reuters_post.csv") # Writes CSV

关于asp.net - 使用 R 从 RSS 提要中提取更多帖子到 CSV,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/13501688/

10-16 18:36