問題タブ [decimal]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
perl - Spreadsheet::XLSX::Utility2007 の xls2csv が小数点以下 2 桁に丸められるのはなぜですか?
Spreadsheet::Read モジュールの ss2tk サンプル スクリプトを使用して、Excel ワークシートを表示する Perl/Tk スクリプトを作成しています。小数点以下 2 桁を四捨五入しませんが、Spreadsheet::XLSX::Utility2007の関数は小数点以下 2 桁で四捨五入します。なんで?その 2 番目の関数をプログラムの機能として使用して、表示されたワークシートを CSV ファイルに変換しようとしています。
hex - MIPSで16進文字を同等の10進文字に変換します
単一のASCII文字を取得し、それをMIPで10進数に変換するにはどうすればよいですか?
ASCIIコードから特定の量を減算して10進表現にするために、いくつかの条件が必要ですか?
c++ - C/C++ で 16 進数、2 進数、10 進数を効率的に変換する
正の整数の 3 つの基本表現があります。
- unsigned long 変数の 10 進数 (例: unsigned long int NumDec = 200 )。
- 16 進数、文字列変数 (例: string NumHex = "C8" )
- バイナリ、文字列変数 (例: string NumBin = "11001000" )
最も効率的な方法で、3 つの表現すべての数値を変換できるようにしたいと考えています。つまり、次の 6 つの機能を実装します。
それらのそれぞれにとって最も効率的なアプローチは何ですか? C と C++ は使用できますが、boost は使用できません。
編集:「効率」とは、時間効率を意味します:最短の実行時間。
c# - C# Decimal.Parse のカンマの問題
これが私の問題です(en-USの場合):
Decimal.Parse("1,2,3,4")InvalidFormatException をスローする代わりに、1234 を返します。
ほとんどの Windows アプリケーション (Excel en-US) は、3 桁ごとの区切り記号を削除せず、その値を 10 進数と見なしません。他の言語でも同じ問題が発生します (ただし、文字は異なります)。
この問題を解決する他の小数解析ライブラリはありますか?
ありがとう!
java - Javaの負の整数から16進数への変換が失敗し、
与える
どうしたの?
c# - double と float が存在するのはなぜですか?
複製
.. などなど...
精度が高いため、アプリ全体で C# と SQL Server の decimal データ型を使用しています。合計が詳細に合わないなどのイライラする問題は一度もありませんでした.
double と float が不正確であることを考えると、なぜ存在するのか疑問に思っていました
c# - メモリを節約し、高精度の計算を維持するために、狭いタイプを広いタイプにキャストするのはひどい考えですか?
私は財務データを扱っているので、それがたくさんあり、比較的高精度(64ビット浮動小数点以上)である必要があります。
私の職場での標準的な慣習は、すべてをc#10進型として表すことのようです。これは、丸めのないbase10操作をサポートするために特別に作成された128ビット幅の浮動小数点です。
64ビットは代表的な精度を維持するのに十分な幅があるため、すべての計算(mult、div、addなど)でデータをより広い型にキャストしてから、64ビットに戻してメモリに格納するのはばかげています(その時ならほとんど)?
参考までに:メモリは間違いなくここでの制限リソースです。
c - 本当に大きな数を2進数から10進数に変換して印刷します
2進数を10進数に変換する方法を知っています。私は少なくとも2つの方法を知っています:テーブルとパワー;-)
2進数を10進数に変換して、この10進数を出力したいと思います。さらに、私はこの「10進数」には興味がありません。印刷したいだけです。
しかし、上で書いたように、私は2進数を10進数に変換する方法を2つしか知らず、両方とも加算が必要でした。したがって、バイナリで1または0の値を計算し、それを記憶されている値に追加します。これは薄い場所です。私は本当に本当に大きな数(1と64のゼロ)を持っています。変換中は、中間結果を「変数」に配置する必要があります。Cでは、「int」型があります。これは4バイトのみで、10^11以下です。
そのため、2進数から10進数に変換するときに、中間結果を保存するのに十分なメモリがありません。上で書いたように、私はその小数には興味がなく、結果を出力したいだけです。しかし、私はそれを解決する他の方法を見ていません;-(バイナリから「ただ印刷する」ための解決策はありますか?
または、中間表現にBCD(Binary Coded Decimal)のようなものを使用する必要がありますか?クロスプラットフォームではないので、私は本当にこれを使いたくありません(Intelのプロセッサには組み込みの機能がありますが、他の場合は独自の実装を作成する必要があります)。
ご意見をお聞かせいただければ幸いです。しばらくお待ちいただきますようお願いいたします。
言語:C。
algorithm - ある数値システムから別の数値システムに変換した後の桁数
主な質問: 桁数は?
説明させてください。2進法で11000000、10進法で192という数字があります。
10進数に換算すると何桁になりますか?私の例では、3桁です。しかし、それは問題ではありません。インターネットで検索したところ、整数部用のアルゴリズムと小数部用のアルゴリズムが見つかりました。私はそれらをよく理解していませんが、(私は思うに)それらは機能します。
2 進数から 8 進数への変換はより簡単です。3 ビットごとに 1 桁の 8 進数が得られます。16 進数も同様です。各 4 ビット = 1 桁の 16 進数。
しかし、私は非常に興味があります.P数字システムの数字を持っていて、それをQ数字システムに変換したい場合はどうすればよいですか? 私はそれを行う方法を知っています(私は知っていると思います:))が、まず第一に、Qシステムで何桁かかるかを知りたいです(いいえ、スペースを事前に割り当てる必要があります)。