[問題] 透過R使用Rhdfs package讀取超大CSV檔

作者: dppman (*^o^*)   2014-05-19 12:06:23
[問題類型]:
程式諮詢(我想用R 做某件事情,但是我不知道要怎麼用R 寫出來)
[軟體熟悉度]:
入門(寫過其他程式,只是對語法不熟悉)
[問題敘述]:
使用R透過RHadoop的Rhdfs 1.0.8
[程式範例]:
我目前的實驗環境,需要讀取很大的CSV File(存放在Hadoop的HDFS上,檔案大小幾乎
都大於20GB),
我使用了RHdoop的rhdfs R Package
Ref.
https://github.com/RevolutionAnalytics/RHadoop/wiki
使用Rstudio Web版開發,原始碼如下
*************************************************************************************************
Sys.setenv(HADOOP_CMD="/usr/lib/hadoop/bin/hadoop")
Sys.setenv(HADOOP_STREAMING="/usr/lib/hadoop-mapreduce/hadoop-streaming-2.2.0.2.0.6.0-101.jar")
Sys.setenv(HADOOP_COMMON_LIB_NATIVE_DIR="/usr/lib/hadoop/lib/native/")
library(rmr2);
library(rhdfs);
library(lubridate);
hdfs.init();
f = hdfs.file("/bigdata/rawdata/201312.csv","r",buffersize=104857600);
m = hdfs.read(f);
c = rawToChar(m);
data = read.table(textConnection(c), sep = ",");
*************************************************************************************************
讀完後,發現它只讀進了前一千五百多筆的資料,正確應該有一億多筆
*************************************************************************************************
去Google了一下,有查到下列這個解的方向
“rhdfs uses the java api for reading files stored in hdfs.
That api will not necessarily read the entire file in one shot.
It will return some number of bytes for each read.
When it reaches the end of the file it returns -1.
In the case of rhdfs, and end of the file will return NULL.
So, you need to loop on the hdfs.read call until NULL is returned”
不過看了rhdfs的手冊,並沒有仔細提到上面解法關於hdfs.read()的行為:<
不知道有人有這方面經驗嗎?
[關鍵字]:
R, Large Scale Data Set, Big Data, Hadoop, RHadoop, CSV, HDFS, rhdfs
Thanks in advance!
作者: Wush978 (拒看低質媒體)   2014-05-19 13:01:00
有沒有考慮先用hadoop fs -get 把資料拿到local端再讀取?
作者: dppman (*^o^*)   2014-05-19 15:13:00
hadoop fs -get回local那樣效能更差:~而且就不能利用到RHadoop的rmr2用R寫MapReduce程式:~
作者: Wush978 (拒看低質媒體)   2014-05-19 15:46:00
文件中是有說這些API都是streaming style
作者: dppman (*^o^*)   2014-05-19 16:11:00
在Local的話,連讀前面的一千五百多比都有問題:~
作者: Wush978 (拒看低質媒體)   2014-05-19 16:22:00
設定一下colClasses, 有差別(用rmr的方式也有差)另外記得看看你電腦的記憶體夠不夠
作者: dppman (*^o^*)   2014-05-19 16:25:00
其實我現在應該就是卡在我程式的m=hdfs.read(f)那邊@@
作者: Wush978 (拒看低質媒體)   2014-05-19 16:33:00
文件說明得很清楚,你要不停的呼叫hdfs.read(f)直到它回NULL但是記憶體問題是和hdfs.read無關喔,如果不夠讀到後來也會出問題
作者: gsuper (Logit(odds))   2014-05-26 10:31:00
一億筆相當大...何不分拆?
作者: dppman (*^o^*)   2014-05-29 11:58:00
如果是一台32G or 64G記憶體的Linux上Run R,一億筆怎麼拆比較好呢?
作者: gsuper (Logit(odds))   2014-05-29 13:50:00
一萬筆一萬筆的讀取吧#1HLjk2HI 參考我這篇的最後一段

Links booklink

Contact Us: admin [ a t ] ucptt.com