問題タブ [base-conversion]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
java - 結果が逆に出力される原因は何ですか?
これは、この while/do-while ループのセットの最後のラボであり、本来あるべきものとは正反対に出力される結果を除いて、すべてを理解しました。
これが私の結果がどうあるべきかです:
234 底 10 は底 9 で 280
100 底 10 は底 2 で 1100100 です
これらは、最初の 2 つの値の期待される結果です (基数 9 の 234 AND バイナリの 100)
ここに私が得ているものがあります:
234 基数 10 は基数 9 で 082
100 基数 10 は基数 2 で 0010011 です
haskell - Haskellで負数進法の2進数を10進数に変換する:「..のインスタンスが必要です」
10進数を(-2)adian数値システム(-2の2進数にのみ類似)に変換する2つの関数を作成する必要があり、その逆も同様です。私はすでに小数->(-2)adianを実行することに成功しました。しかし、(-2)adian-> 10進数では問題があり、どこから始めればよいのかわかりません。あなたが私を助けることができることを願っています
常に次のようにスローされます: "negbin_deziの定義に必要な(Num [Char]、Floating Integer)のインスタンス。
なぜそれが機能しないのか誰かが考えていますか?お願いします:)
floating-point - 負の浮動小数点からバイナリへの変換
AR Drone SDK を使用してドローンをプログラムしています。ドキュメントでは、次のように述べています。
数値 -0.8 は、IEEE-754 形式に従って、値が BF4CCCCD(16) である 32 ビット ワードとしてメモリに格納されます。この 32 ビット ワードは、32 ビット整数値 -1085485875(10) を保持していると見なすことができます。したがって、送信するコマンドは AT*PCMD=xx,xx,-1085485875,xx,xx になります。
2 進数変換の 10 進数表現で -1085485875 に到達するにはどうすればよいでしょうか? それは私には意味がありません。このページの使用: http://kipirvine.com/asm/workbook/floating_tut.htmおよびこのページ: http://www.madirish.net/240およびこのページhttp://cs.furman.edu/digitaldomain/more /ch6/dec_frac_to_bin.htm、これは私が思いついたものです:
ドキュメントには、-1085485875 (10) および BF4CCCCD (16) と記載されています。
ここで何が間違っているのですか?
ありがとう。
編集:
node/js で AR DRONE アプリケーションを作成しているので、これらの node.js 関数を使用すると、次のようになります。
ドキュメントに従って正しい結果が得られます。長い手で書き出すと、自分が何を間違っているのかわかりません。何が起こっているのか理解したい。どんな助けでも本当に感謝しています。
ありがとう。
アップデート:
したがって、ビット単位の NOT 演算子を最初にバイナリに適用すると、(上記の JavaScript コードから) 正しい数値が生成されることがわかりました。私の質問は、なぜこれを適用する必要があるのですか? これを行った後、最初のビットが 1 ではなく 0 である場合、負かどうかを判断する必要があります。これのポイントは何ですか?
c++ - c ++文字列に文字が含まれているかどうか、およびバイナリ文字列を整数に変換する方法を確認します
「01001111111」のようなバイナリ文字列があります。その文字列に「0」が含まれているかどうかを知りたいです。どうやってするか ?そして、それを整数に変換したい場合、それを取得する方法は?
bash - Bash 10 進数から base 62 への変換
bash
次のコマンドで実行される操作を元に戻したい:
つまり、10 進数の 9207903953を基数 62に変換し、bash
標準を{0..9},{a..z},{A..Z}
.
を使用してこれを実行できることはわかっていますがbc
、各文字を手動で変換する必要があります。たとえば、私は現在これを行っています:
これを「ハッカー」の少ない方法で行う方法が必要です。これをより効率的に行う方法を知っていますか?
編集:bc
入力を変更しました。
delphi - 基数 10 から基数 32 への変換
私は base10 を bas32 に変換するルーチンを持っていますが、興味深いことに、オンライン変換ツールを使用していくつかの数値を再確認すると、問題があるようです。ここにいくつかの数値と私の変換の結果があります:
ただし、いくつかのオンライン ツール ( http://www.unitconversion.org/numbers/base-10-to-base-32-conversion.htmlやhttp://www.kaagaard.dk/service/など) を使用した 3 つの数字すべてconvert.htm ) 8RU4S26R8F8 を返します。数字の長さかもしれないと思ったのですが、高くしたり低くしたりすると変換が変わります。
なぜこれが必要なのですか?
c++ - 任意の基数の数値のベクトル表現へのC++変換
重複の可能性:
10進数と任意の基数の間で変換するためのc++テンプレート
unsigned int
のインスタンスをベースXのインスタンスに変換したいと思います。ここで、Xは2からanが表すことができるstd::vector<unsigned int>
最大数までの任意の数です。unsigned int
編集:私はunsigned int
10進数で言っていましたが、それは批判的なコメントを得ました、そして私はそれが正しいと思うので、混乱を避けるためにそれを削除しました。
itoa
SOには、基数16または32、あるいは少数に変換するようなものをカバーする多くの質問と回答があります(このitoa
実装ページは優れたリソースとして指摘されています)。それよりはるかに大きい塩基の良い変換を見つけることができませんでした。
注:パフォーマンスは(理由の範囲内で)問題ではありません。
c - 文字配列が%sを使用して出力されない
1. convを表示しようとすると何も表示されませんが、下付き文字を使用して1つの要素を印刷すると、内容を確認できます。
2. 10進数を2進数、8進数、16進数に変換するプログラム
python - Python でエラーが発生した場合、ユーザーに入力の再入力を求める
私は任意の基数から任意の基数に変換するための Python のプログラムに取り組んでいます。私のコードは次のとおりです
私のコードはうまく機能しますが、使用する代わりに
プログラムを終了するのではなく、基本変数の入力に戻します。私はpythonが初めてで、このようなことをする方法がわかりません。助けてください。
php - x64 アーキテクチャで dehex() 関数の動作を再現しようとしています
関数のPHP マニュアル ページの例 #2 は次のとおりです。dechex()
上記の例では、次のように出力されます。
x64 システムでその動作を再現しようとしています:
私は期待している :
しかし、私は得る:
ここで何が起こっているのですか?