Naive Bayes 実装用のドキュメント ターム マトリックス (略して dtm) を作成しています (これには関数があることは知っていますが、宿題のために自分でコーディングする必要があります)。問題である dtm を正常に作成する関数を作成しました。結果の行列が大量のメモリを占有していることが原因です。たとえば、100 x 32000 のマトリックス (0 と 1 の) のサイズは 24MB です! これにより、完全な 10k ドキュメントを操作しようとすると、r でクラッシュが発生します。関数が続き、おもちゃの例が最後の 3 行にあります。特に「sparser」関数がそのようなメモリ集約的な結果を返す理由を誰でも見つけることができますか?
listAllWords <- function(docs)
{
str1 <- strsplit(x=docs, split="\\s", fixed=FALSE)
dictDupl <- unlist(str1)[!(unlist(str1) %in% stopWords)]
dictionary <- unique(dictDupl)
}
#function to create the sparse matrix of words as they appear in each article segment
sparser <- function (docs, dictionary)
{
num.docs <- length(docs) #dtm rows
num.words <- length(dictionary) #dtm columns
dtm <- mat.or.vec(num.docs,num.words) # Instantiate dtm of zeroes
for (i in 1:num.docs)
{
doc.temp <- unlist(strsplit(x=docs[i], split="\\s", fixed=FALSE)) #vectorize words
num.words.doc <- length(doc.temp)
for (j in 1:num.words.doc)
{
ind <- which(dictionary == doc.temp[j]) #loop over words and find index in dict.
dtm[i,ind] <- 1 #indicate this word is in this document
}
}
return(dtm)
}
docs <- c("the first document contains words", "the second document is also made of words", "the third document is words and a number 4")
dictionary <- listAllWords(docs)
dtm <- sparser(docs,dictionary)
違いがある場合は、Mac OSX、64ビットのR Studioでこれを実行しています