277

spark-csv を使用してデータを DataFrame にロードしています。簡単なクエリを実行してコンテンツを表示したい:

val df = sqlContext.read.format("com.databricks.spark.csv").option("header", "true").load("my.csv")
df.registerTempTable("tasks")
results = sqlContext.sql("select col from tasks");
results.show()

列が切り捨てられているようです:

scala> results.show();
+--------------------+
|                 col|
+--------------------+
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-06 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:21:...|
|2015-11-16 07:21:...|
|2015-11-16 07:21:...|
+--------------------+

列の内容全体を表示するにはどうすればよいですか?

4

17 に答える 17

58

を入れるresults.show(false)と、結果は切り捨てられません

于 2016-04-08T19:02:03.683 に答える
22

他の解決策は良いです。これらがあなたの目標である場合:

  1. 列の切り捨てなし、
  2. 行の損失なし、
  3. 速くて
  4. 効率的

この 2 行は便利です...

    df.persist
    df.show(df.count, false) // in Scala or 'False' in Python

永続化することで、エグゼキューター内の中間の基礎となるデータフレーム構造を使用persistまたは維持する場合、2 つのエグゼキューター アクションである count と show がより高速かつ効率的になります。persist と cachecacheの詳細を参照してください。

于 2017-02-15T06:25:17.670 に答える
3

results.show(false)列の内容全体が表示されます。

Show メソッドは、デフォルトで 20 に制限されており、前に数字を追加すると、falseより多くの行が表示されます。

于 2017-11-08T17:54:23.930 に答える