問題タブ [openrdf]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
xml - SPARQL 結果セットを解析できません。要素の属性が多すぎます
私は dotNetRDF を使用しており、SPARQL クエリを実行しようとしていました
しかし、Sesameに対して実行しようとすると、このエラーが発生しました:
TTL ファイルのサンプルは次のようになります。
Sesame は 2 つの属性を返し、dotNetRDF は 1 つしか想定していないため、このエラーが発生していると思います。
OpenVirtuoso を使用している場合、このエラーは発生しません
java - Java API を使用して Sesame RDF リポジトリで SPARQL 更新を実行するにはどうすればよいですか?
コードがあり、新しいトリプルでレポを更新したいのですが、実行メソッドでいくつかのエラーが発生しました:
以下は私のコードです:
以下は、私が解析している updateQuery 文字列です。
最後に、コードを実行したときに表示されるエラーは次のとおりです。
rdf - 開いている RDF リポジトリのクエリ
タートル ファイルがロードされているオープン RDF リポジトリをクエリしようとしています。クエリですべてを選択する場合 - "SELECT ?s WHERE { ?s ?p ?o } "; その後、すべてが正常に機能していますが、少し複雑なクエリを使用している場合は機能しません。クエリ部分のコードを添付しています -
これは継続的に例外セクションに入り、エラー「クエリエラー」をスローします。何がうまくいかないのですか?
tomcat - Cloudbees Tomcat アプリケーション IOException
Cloudbees を Java PaaS として使用しています。Tomcat 8 アプリケーションを作成し、2 つの WAR ファイルをアップロードしました。
- OpenRDF ワークベンチ
- OpenRDF ゴマ
[ソース: http://www.openrdf.org ]
Workbench をアップロードし、想定された待機期間の後、OpenRDF Workbench のインスタンスが機能し、Web インターフェイスにアクセスできました。その後、Sesame をアップロードし、想定される待ち時間の後、sesame の URL にアクセスしようとすると、次のように表示されました。
どうすれば修正できますか?
concurrency - OpenRDFゴマ:ロックを処理するには?
私のApache Tomcatサーバーには、ユーザーとドキュメントに関連するRDFトリプルと、そのようなエンティティ間の双方向リンクを処理するOpenRDF Sesameトリプルストアがあります。
電子メール「john@doe.com」を持つユーザー John Doe が「EU 経済」の本を書いたこの 3 つの状態。
複数のクライアントで実行されている Java アプリケーションは、HTTPRespository を介してそのようなサーバーを使用して、そのようなトリプルを挿入/更新/削除していました。
問題は同時接続から発生します。Java クライアントがブック "456789" を削除し、他のクライアントが同じブックを "John Doe" に同時にリンクすると、"John Doe" がもう存在しないブックにリンクする状況が発生する可能性があります。
解決策を見つけるために、私は 2 つの取引を行いました。最初のものは(T1)です:
(a) ブック ID (つまり、「456789」) が存在するかどうかを確認します。
(b) 「はい」の場合、指定されたプロファイル (つまり「JohnDoe」) をこの本にリンクします。
(c) いいえの場合は、エラーを返します。
2 つ目は (T2) です。
- (d) ID (つまり "456789") で本を削除します。
問題は、シーケンスが (T1,a) (T2,d) (T1,b) (T1,c) の場合、再び一貫性の問題が発生することです。
私の質問は: ロック (MySQL FOR UPDATE や GET_LOCK など) を処理して、ゴマでそのようなトランザクションを適切に分離する方法は?
python - openrdf-sesame update エンドポイントへの最初の呼び出しは非常に遅いです。それを最適化する方法はありますか?
sparql クエリと「更新」(挿入/削除) の両方を実行するための Python スクリプトがいくつかあります。関連するコードのほとんどは次のとおりです(私は思います):
execute_query へのすべての呼び出しは非常に高速で、完了までに 1 秒もかかりません。ただし、execute_update を呼び出すと、最初の呼び出しに非常に長い時間 (16 秒) かかります。最初の呼び出し以降のすべての呼び出しは、1 秒未満で実行されます。私たちはセサミのバージョン 2.7.12 を実行しています (セサミのバージョン 2.7.3 からのアップグレードが役立つかもしれないと考えていましたが、それほど効果はありませんでした)。トリプルは 2 千または 3 千しかありません。これはすべて CGI スクリプトから実行されているため、更新呼び出しを行うために Python セッションを維持することはできません (とにかく、そのワークベンチの仕事ではありませんか?)。update_endpoint への最初の呼び出しで何がそんなに時間がかかっているのかについてのアイデアはありますか? 他の人も同じ問題を抱えていますか? 提案された解決策はありますか?
ありがとう!
編集 RobVのアドバイスに従いましたが、まだ同じ問題が発生しています。tshark からのログ ファイル:
/statements エンドポイントへの最初の呼び出しで大きなギャップが見られます。
scala - 単一の RDF 文字列を解析する
RDF Turtle データの文字列が 2 つある
各行には 3 つの項目があります。RDF 解析で 1 行を実行して取得したい:
解析された各アイテムからローカルアイテムも抽出できる場合のボーナス
この分割を行うライブラリ (java または scala) はありますか? 私は Jena と OpenRDF を見てきましたが、この単一行の分割を行う方法を見つけることができませんでした。
scala - 未解決の依存関係 org.openrdf#sesame;2.3.1: 見つかりません
sbt プロジェクトで C-SPARQL で spark を使用しようとしています。プロジェクトをビルドしようとすると、未解決の依存関係エラーが発生します。
次のようないくつかのライブラリを plugin.sbt ファイルに追加しました。