問題タブ [jsonlines]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
r - JSON 行ファイルを R データフレームに変換する
単一のオブジェクトと約 100 行を含む json 行の形式のサンプル抽出があります。1行あたり約800項目あります。
データのサンプルを次に示します。
Row 1 - {"Id":"User1","OwnerId":"OwnerID1","IsDeleted":false,"Name":"SampleName1", etc...}
Row 2 - {"Id":"User2","OwnerId":"OwnerID2","IsDeleted":true,"Name":"SampleName2", etc...}
これを次のようなデータフレームに変換したい:
dplyr と tidyr を試してみましたが、うまくいきませんでした。
これを処理する最適な方法は何ですか?
これを解決するには、まず JSON バリデーターを使用してデータを解析し、データのフォーマットを修正しました。データを「適切な」JSON 形式に変換したら、R でデータ フレームとして使用するのは非常に簡単でした。
他のユーザーから提案されたjsonLiteを使用しましたが、すべてうまくいきました。
データ構造のため、マトリックスへの変換が必要でした。
次に、適切な列と行の配置でcsvにエクスポートできるように、別の変換を行います。
python - シンプルなファイル読み取りでjsonlinesファイルをロードする方法
次のコードとjsonl
ファイル
があることを検討してください。APIでファイルを読み取らない特定の理由があるためjsonlines.open()
、これを事実として受け取ってください。
jsonlines パッケージのリファレンス: https://jsonlines.readthedocs.io/en/latest/#jsonlines.Reader
example.jsonl
コンテンツ:
オンラインでエラーが発生しましlst=
た:
python - gzip された jsonlines ファイルの解析を高速化
約 5,000個の.gzip
ファイル (それぞれ約 1 MB) があります。これらの各ファイルには、あるjsonlines
形式のデータが含まれています。外観は次のとおりです。
これらのファイルを解析して、パンダのデータフレームに変換したいと考えています。このプロセスをスピードアップする方法はありますか? これが私のコードですが、ちょっと遅いです(ファイルあたり0.5秒)