問題タブ [delimiter]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
4 に答える
5155 参照

delphi - Delphiには効率的な全単語検索機能がありますか?

Delphi 2009以降(Unicode)には、単語を定義する区切り文字を提供する、適度に効率的な単語全体の検索を実行する組み込み関数または小さなルーチンがどこかに記述されていますか。

どこ:

「Word」が文字列に含まれている場合にのみ、trueまたはfalseの値を返すためにこれが必要です。

標準の検索ダイアログにはオプションの1つとして「単語全体を一致させる」があるため、これにはどこかに何かがあるはずです。

これは通常(または最良の)実装方法ですか?


結論:

RRUZの答えは完璧でした。SearchBufルーチンはまさに私が必要としていたものでした。StrUtilsルーチンに移動してコードを抽出し、要件に合うように変更することもできます。

SearchBufが最初に単語を検索してから、区切り文字をチェックしないことに驚いた。代わりに、文字列の文字を1つずつ調べて、区切り文字を探します。1つが見つかった場合は、文字列と別の区切り文字をチェックします。見つからない場合は、別の区切り文字を探します。効率のために、それは非常に賢いです!

0 投票する
10 に答える
5962 参照

java - 複数の種類の区切り文字を含むテキスト ファイルを解析するための最良の方法は?

さまざまな種類の区切り文字 (チルダ、スペース、コンマ、パイプ、キャレット文字) を持つテキスト ファイルを解析する必要があります。

区切り文字が何であるかに応じて、要素の順序も異なります。次に例を示します。

区切り文字はファイル内では同じですが、ファイルごとに異なります。私が知る限り、データ要素内に区切り文字はありません。

普通の Java でこれを行うための良いアプローチは何ですか?

0 投票する
2 に答える
637 参照

java - この StringTokenizer が 2 回目に正しくトークン化されないのはなぜですか?

すべての文字列に一致する StringTokenizer を使用して、次を解析したいと思いますagent>。こんな感じのコードでやってみました。どこが間違っているのですか?

2回だけちゃんとトークナイズしてるのに、イレギュラーな反応…つまり初めて

2回目:

三回目:

0 投票する
3 に答える
1053 参照

php - PHPで複数の区切り文字を含むURL文字列を別の文字列に変換するにはどうすればよいですか?

だから私はこのサンプル文字列を持っています:

URLから抽出:

私はそれをこれに変換する必要があります、そして私の人生のために私は立ち往生しています。

私はここまで到達しましたが、それだけです。

現在の出力は次のとおりです。

model_1最初のセットをデフォルトの代わりにするにはどうすればよいですmodel_0か?

ありがとう

0 投票する
1 に答える
4092 参照

python - 別の行末記号を使用してPythonでcsvファイルを読み取る

デリミタが ASCII ユニット セパレータ^_で、行ターミネータが ASCII レコード セパレータである CSV 形式のファイルがあります^^(明らかに、これらは印刷されない文字であるため、ここでは標準的な書き込み方法の 1 つを使用しました)。私はCSVファイルを読み書きするコードをたくさん書いたので、私の問題はPythonのcsvモジュール自体にはありません。問題は、csv モジュールがキャリッジ リターンまたはライン フィード以外の行終端文字の読み取りをサポートしていない (ただし、書き込みはサポートしている) ことです。少なくとも、テストしたばかりの Python 2.6 ではそうです。ドキュメントには、これはハードコードされているためであると書かれています。これは、csv.py ファイルに変更できるものがないため、モジュールの基礎となる C コードで行われていることを意味します。

この制限を回避する方法を知っている人はいますか (パッチ、別の CSV モジュールなど)? キャリッジ リターンや改行を改行文字として使用できないファイルを読み込む必要があります。これらの文字は一部のフィールドに表示されるためです。可能であれば、独自のカスタム リーダー コードを記述したくありません。私のニーズを満たすのはかなり簡単ですが。

0 投票する
1 に答える
187 参照

php - 爆発 - みたいな?

PHP を使用して、次のような文字列を読み取ります: 36,2,"$21,830.00","$18,012.50","$20,764.00","$14,935.00","$13,655.00","$15,820.00","$6,895.00","$4,357.50","$4,944.

コンマ (,) を区切り文字として使用して爆発させたいのですが、問題があることに気付きました。お金の値にもコンマが含まれています。誰でもこれを処理する方法を提案できますか? コンマに基づいて爆発したいのですが、引用符の中にいる場合はそうではありません。

ありがとう!

0 投票する
6 に答える
2970 参照

python - PythonでCSVファイルから読み取ったリスト内のアイテムを再フォーマットします

CSVファイルには次のような行があります。

お気づきの方もいらっしゃると思いますが、いくつかの数字は「」で囲まれ、千の区切り文字「、」が付いています。千の区切り文字と二重引用符の囲いを削除したいと思います。qouteエンクロージャーの場合、string.replace()を使用することを考えていますが、引用符内のコンマはどうですか?

Pythonでこれを行うための最良の方法は何ですか?

0 投票する
6 に答える
141196 参照

eclipse - EclipseとWindowsの改行

デスクトップがクラッシュしたときに、EclipseワークスペースをLinuxからWindowsに移動する必要がありました。1週間後、私はそれをLinuxにコピーして戻し、コードを作成し、CVSにコミットします。そして残念ながら、Windowsの改行は多くのファイルを汚染しているため、CVS diffは、1行か2行を変更した場合でも、ファイル全体をダンプします。

スクリプトを作成することはできますが、Eclipseプロジェクトファイルが台無しになるのではないかと思います。

0 投票する
2 に答える
1672 参照

bcp - bcp およびバックスペース (^H) 区切り文字

フィールド間にバックスペース (^H) 文字区切り文字を含むフラット ファイルを解析する必要があります。このファイルを解析して、SQL Server 2005 テーブルに挿入する必要があります。フォーマット ファイルと共に bcp ユーティリティを使用しようとしましたが、区切り文字をバックスペースとして指定できませんでした。デフォルトはタブ (\t) です。他にもいくつかの区切り文字がありますが、バックスペースを指定するものはありません。誰でもアイデアがあれば、私を助けてください。

また、SQL Server テーブルから固定長のフラット ファイルにデータをエクスポートする必要があります。非 xml 形式のファイルを使用しようとしましたが、常に区切り文字を要求されます。フィールド間に区切り文字を使用せずに bcp を使用してフラット ファイルを作成するにはどうすればよいですか? 上記はすべてキャラクターファイルです。

0 投票する
4 に答える
2160 参照

c - c を使用して ',' で区切られた char 文字列を解析するにはどうすればよいですか?

各トークン間にゼロ要素が存在する可能性があるコンマ区切りリストを解析する最も簡単な方法は何ですか? cstringは次のようになります

しかし、次のようにも見える可能性があります

私は次のようなことを試しました:

これは、コンマの間に要素がある場合にのみ機能するようです。たとえば、要素がない場合、最初の項目リストがスキップされることに気付きました。

strchr() などの他のソリューションを試しましたが、これは非常に見苦しく、もっと簡単な方法があると思います。

ありがとう

アップデート:

いくつかのテストの後、最初の項目が欠落している場合を除いて、すべてのケースで "," のトークン化が機能しているように見えることに気付きました。だから私はそれを特別なケースとして引き出しています。

ご意見をお寄せいただきありがとうございます。(投稿する前にもっと慎重に考えるべきだったかもしれません。)