問題タブ [spark-notebook]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
javascript - Zeppelin ノートブックの右クリックを無効にする
ダッシュボードで Zeppelin 0.6.0 ノートブックを使用しています。
I am embedding notebooks in an iframe, a simple HTML page.
I want to disable the right click on my dashboard.
I can disable right click outside the iframe area, but I cannot disable it inside the iframe area.
I tried with all possible code available on Google like:
etc...
How can I disable right click on the Notebook?
As I read it:
"It is possible if the page inside an iframe is on the same domain. While if you access the page of a different domain inside an iframe, then it is not recommended."
Anyone came across this scenario and found any solutions?
Other than iframe how can I embed it in my dashboard?
scala - 停止したアプリケーションを再送信した後の Spark 例外
オプションで動的割り当てを使用して (Spark ノートブックから) Spark ジョブを実行しています
(注: 問題が dynamicAllocation によるものかどうかはまだわかりません)
Spark バージョン 1.6.1 を使用しています。
実行中のジョブ/アプリをキャンセルし (ノートブックのセルのキャンセル ボタンを押すか、ノートブック サーバーをシャットダウンしてアプリをシャットダウンすることにより)、同じアプリをすぐに (数分) 再起動すると、よく次の例外:
ジョブを再送信する前に、Yarn ResourceManager を使用して、古いジョブが実行されていないことを確認しました。それでも、強制終了されたジョブがまだ完全にクリーンアップされておらず、新しく起動されたジョブに干渉するために問題が発生すると思いますか?
誰かが同じ問題に遭遇し、これを解決する方法を知っていますか?
javascript - zeppelin ノートブックを使用した動的インタラクティブ ダッシュボード
よりインタラクティブなダッシュボードが必要です。データベースからデータを読み取り、それを選択ボックスに渡し、選択ボックスの変更時に値を送信してクエリを実行するように。
選択した値で zeppelin bcz を使用してこれを実現したいので、分析を表示する必要があります。
これを達成する方法は何であり、ツェッペリンを介して達成することは可能ですか.
選択ボックスを試してみましたが、選択した値を保存して次のクエリに送信して実行することができませんでした。何かのようなもの
このパラメーターを保存し、選択したパラメーターをある段落から別の段落に送信する方法がわかりませんでした
または、UIからこれらすべてを処理するようなもの、javascript htmlと言って、その選択した値をパラメーターとしてツェッペリンに送信しますか? URLを使用しているときにこのようなもの
私のツェッペリン段落でこれらの param1=value1¶m2=value2 を使用していますか? 技術的に実行可能かどうかはわかりません。これを達成する方法を教えてください。前もって感謝します :)
pyspark - jdbc の呼び出し中に bluemix pyspark エラーが発生しました
Bluemix の Spark サービスで pySpark を使用して、データ内の何かを変換し、それを Bluemix の DashDB に書き込みます。しかし、データを読み込もうとすると、次のエラーが表示されます。
Py4JJavaError: o111.jdbc の呼び出し中にエラーが発生しました。: org.apache.spark.SparkException: ステージの失敗によりジョブが中止されました: ステージ 4.0 のタスク 0 が 10 回失敗しました。最近の失敗: ステージ 4.0 のタスク 0.9 が失われました (TID 23、yp-spark-dal09-env5-0045): com.ibm.db2.jcc.am.BatchUpdateException: [jcc][t4][102][10040][4.19.26] バッチの失敗。バッチは送信されましたが、バッチの個々のメンバーで少なくとも 1 つの例外が発生しました。getNextException() を使用して、バッチ処理された特定の要素の例外を取得します。ERRORCODE=-4229、SQLSTATE=null
すでに新しい DashDB を作成しようとしましたが、同じエラーが発生します。次に、別のノートブックを作成しようとしましたが、これも機能しません。すべてのカーネルを停止して、一度にカーネルを 1 つだけ実行しようとしましたが、うまくいきません。
データ フレームからデータを書き込もうとするすべてのノートブックで同じエラーが発生しますが、同じケースではデータが読み込まれ、他のノートブックでは読み込まれません。
これは私が書くために使用しているコードです:
python - 単純なテーブルを読み取り、行全体を複製し、新しいテーブルとして保存する方法は?
DataBricks と Apache Spark は初めてです。ノートブックに Python を使用したいと考えています。
私はデータ ブリックを使用しており、作成したことを確認できます。
- 接続された python ベースのノートブック (test-notebook) と共にクラスター (test)
- JSON ファイルからのテーブル (employee_info)
- ノート。
私が持っているサンプル テーブルは、テスト ファイルとしてアップロードした JSON からのもので、以下のとおりです。
このテーブルをアップロードした場合、どうすればよいですか (ノートブックに Python を使用していると仮定します):
- テーブルにアクセスする
- 行全体を複製する
- 重複した列を含むテーブルを新しいテーブルとして保存します
ありがとう。
apache-spark - Zeppelin は外部 Spark では動作しません - 進行状況を取得または更新できません
Zeppelin 0.6.2 をインストールし、外部 Spark クラスター (2.0.1) で動作させようとしています。
インタープリターの設定は次のとおりです。
args
master 121.201.~~.1~~:8080
spark.app.name Zeppelin
spark.cores.max
spark.executor.memory
zeppelin.R.cmd R
zeppelin.R.image.width
ただし、spark コードを試すと、エラーが発生します。
INFO [2016-12-16 15:30:28,236] ({pool-1-thread-16} NotebookServer.java[afterStatusChange]:1150) - ジョブ 20161215-231306_1684928197 が終了しました INFO [2016-12-16 15:30: 28,313] ({pool-1-thread-16} SchedulerFactory.java[jobFinished]:137) - スケジューラ org.apache.zeppelin.interpreter.remote.RemoteInterpretershared_session1405394754 エラー [2016-12-16 15:30 :30,203] ({Thread-83} JobProgressPoller.java[run]:54) - 進行状況を取得または更新できませんorg.apache.zeppelin.interpreter.LazyOpenInterpreter.getProgress(LazyOpenInterpreter.java:111) の .interpreter.remote.RemoteInterpreter.getProgress(RemoteInterpreter.java:373) org.apache.zeppelin.notebook.Paragraph.progress(Paragraph.java:237) org.apache.zeppelin.scheduler.JobProgressPoller.run(JobProgressPoller.java:51) で 原因: org.apache.thrift.transport.TTransportException で org.apache.thrift.transport.TIOStreamTransport.read(TIOStreamTransport. java:132) org.apache.thrift.transport.TTransport.readAll(TTransport.java:86) で org.apache.thrift.protocol.TBinaryProtocol.readAll(TBinaryProtocol.java:429) で org.apache.thrift.protocol .TBinaryProtocol.readI32(TBinaryProtocol.java:318) org.apache.thrift.protocol.TBinaryProtocol.readMessageBegin(TBinaryProtocol.java:219) org.apache.thrift.TServiceClient.receiveBase(TServiceClient.java:69) org. org.apache.zeppelin.interpreter.thrift の apache.zeppelin.interpreter.thrift.RemoteInterpreterService$Client.recv_getProgress(RemoteInterpreterService.java:296)。RemoteInterpreterService$Client.getProgress(RemoteInterpreterService.java:281) at org.apache.zeppelin.interpreter.remote.RemoteInterpreter.getProgress(RemoteInterpreter.java:370) ... 3 詳細
apache-spark - Jupyter Notebook 内で Spark(scala) カーネルを実行したい。OSError の取得: [WinError 193] %1 は有効な Win32 アプリケーションではありません
このリンクに記載されている手順に従いました: https://github.com/ibm-et/spark-kernel/wiki/Guide-to-Integrating-the-Spark-Kernel-with-Jupyter
Windows10で動かしたいです。
Anaconda と Spark をインストールしました。また、両方の環境パスが設定されています。ここに私のkernel.jsonファイルがあります:
カーネルリストで利用できます。ただし、ノートブックから Spark カーネルを選択しているときにエラーが表示される
利用可能なカーネル:
pyspark C:\Users\RDX.ipython\kernels\pyspark
python3 c:\users\rdx\anaconda3\lib\site-packages\ipykernel\resources
スパーク C:\ProgramData\jupyter\kernels\spark