LinuxターミナルでJavaコードを使用して以下のspark-shellコマンドを実行しようとしています。
echo spark.sparkContext.parallelize\(1 to 3,3\).map\(x => \
(x,\"city_\"+x\)\).toDF\(\"num",\"city\"\).write.partitionBy\(\"num\"\).mode\
(SaveMode.Overwrite\).parquet\(\"/tmp/abinash\"\) | /opt/ab/cd/de/spark-shell
ただし、ファイルが存在する場合でも /tmp/abinash に対して「そのようなファイルまたはディレクトリはありません」というエラーが発生します
これを解決するために非常に多くの方法を試しました。しかし、成功しませんでした。エスケープ文字に問題があると思います。
ここで私が間違っていることを誰かが助けてくれますか。