1

1 つのスキーマの下に 6 つのテーブルがあります。DBI::dbGetQuery を使用して、次のようにすべてのテーブルをクエリするために、それぞれ 300,000 行あります。

myRedshift <- DBI::dbConnect(RPostgreSQL::PostgreSQL(), 
                             dbname = 'dbname',
                             host = 'host',
                             port = 5439,
                             user = "user", 
                             password = "password")

 cis_has_bdpm_data <- data.frame( DBI::dbGetQuery(myRedshift, "select * from synapps.table1"))
cis_cip_bdp_data <- data.frame( DBI::dbGetQuery(myRedshift, "select * from synapps.table2"))
medicam_data <- data.frame( DBI::dbGetQuery(myRedshift, "select * from synapps.table3"))
outpatient_data <- data.frame( DBI::dbGetQuery(myRedshift, "select * from synapps.table4"))
open_medic_data <- data.frame( DBI::dbGetQuery(myRedshift, "select * from synapps.table5"))
hospital_drugs_data <- data.frame( DBI::dbGetQuery(myRedshift, "select * from synapps.table5"))
pmsi_data  <-data.frame( DBI::dbGetQuery(myRedshift, "select * from synapps.table6"))

しかし、それは非常に遅く、すべてのテーブルをクエリするのに 1 分ほどかかります。だから私の質問は:これほど長くかかるのは普通ですか?それをスピードアップする方法はありますか?

4

0 に答える 0