問題タブ [8-bit]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
r - カラー画像から8ビットグレースケールへの変換
画像処理にRを使用しています(パッケージEBImage)
入力「jpeg」画像があり、「R」を読み取って試行するとprint(Input_Image)
、次の出力画像が得られます
ここで、このカラータイプの入力画像を8 ビット グレースケールイメージ タイプに変換したいと思います。
手動検索とインターネット検索で疲れ果てましたが、解決策が見つかりませんでした。最終結果が 8 ビットになると予想されるため、出力グレースケール イメージの最大値は 255 になります。
R EBImage ですぐに利用できる関数を使用すると、値が 0 と 1 の範囲にある double 型のグレースケール イメージしか取得できません。
java - 8ビットバイナリ電卓の作り方
そこで8ビットのバイナリ計算機を作ったのですが、以下の方法でちょっとごまかしました。
私の質問は、int を 2 進数に変換する方法と、2 つの 2 進数を加算する方法です。
postgresql - Gammu と PostgreSQL は 8 ビットの SMS を送信します
Gammu と PostgreSQL を使用して、コンピューターから SMS を送信しています。通常のテキスト SMS の送信に成功しました。
しかし、デバイスに 8 ビット (バイナリ) メッセージを送信しようとすると、問題が発生します。gammu 'outbox' テーブルにメッセージを挿入する簡単なクエリを次に示します。
ご覧02616A03776C66JF010000198C000403E800013003F200013003F30002323003F400023230
のとおり、16 進数値を使用してエンコードされた SMS テキストです。値は、送信トレイ テーブルにある間は正しいです。
しかし、メッセージが送信され、受信トレイのテーブルを見ると、テキストの値がこれに変わります02616A03776C66BF0100000D8C000203E800013103F2000131FD00 00007400650073007400
Gammuが異なるテキストを送信する理由を知っている人はいますか? 変更が発生するのを防ぐ方法は?ありがとう。
c - C. char 10 進値を配列に格納すると、8 ビット文字を読み取ったり格納したりできない
質問があります。ご協力いただければ幸いです。
周波数分析を実行するファイルから文字を読み取ろうとしています。これを行う最も簡単な方法は、インデックス 0 ~ 255 を持つ配列を用意し、char が読み取られるたびに対応するインデックスを (読み取り chars 10 進値から) 1 ずつインクリメントすることであると判断しました。私が抱えている問題は、7 ビット文字のみが保存されているように見えることです。コードについては、以下を参照してください。
私が読んでいるファイルには、次の文字が含まれています。
したがって、コードの下部にあるprintfは次のようになります。
しかし、結果は
したがって、8ビット文字の読み取りに問題があると推測しています。フォーラムを少し調べたところ、このようなバッファを使用する必要があるという比較的似た投稿がいくつか見つかりましたがfread(&buffer, 256, 1, file);
、それを実装する方法がわからない。
assembly - 8bit の Nasm 乗算
2 つの 8 ビット数を乗算する NASM プログラムを作成しようとしていますが、15 を超える答えが得られません。
ほとんどのコードは実際にコピーされています。また、NASM プログラムに関する情報はインターネット上にはあまりありません
java - Java での 8 ビット Fletcher アルゴリズムの正しい実装は何ですか?
8 ビットのフレッチャー アルゴリズムを実装しようとしています。それを行うコードを書きましたが、アルゴリズムを正しく理解しているかどうかはわかりません。これは私のコードです:
私が得ている結果は次のとおりです。ckA = 20、ckB = 308。308 は ckA と ckB の長さである 8 ビット バイナリで表すことができないため、これは正しい実装ではないと思います。
誰でもこの問題に光を当てることができますか? 任意の助けをいただければ幸いです。ありがとうございました。
vhdl - VHDL: 8 ビット ALU への演算の追加
私は VHDL に非常に慣れていないため、この ALU を追加の 8 つの操作で変更する必要があります。これ自体は関係ありませんが、GTKwave でのテストから、clk (クロック) とr (結果) が最初の後にシミュレーションを停止することがわかります。 op波形はそれらを認識しますが、8 つの操作のように見えます。ソースとテスト ベンチの両方がエラーなしで正常にコンパイルされるため、波形が正しくないように見えます。 波形/テスト
テスト ベンチ コードに戻り、'<code>exit L1 when i >10;' を変更して、これを修正しようとしました。10 から 20 (またはその他の 10 を超えるもの) にループしてから再コンパイルしましたが、これにより「バインド チェックの失敗」エラーが発生し、困惑しました。私はまた、16ビットにするために変更を変更しようとしましたが、それはコンパイルされませんでした.間違いなく私が想像する解決策ではありません.
混乱した運用コメントは無視してください。
どんな助けでも大歓迎ですが、それは非常に初心者の見落としだと思います。
http://vhdlguru.blogspot.co.uk/2011/06/vhdl-code-for-simple-alu.htmlから派生した初期コード
ソースコード
テストベンチ