多くの数値アルゴリズムは、32/64 ビット浮動小数点で実行される傾向があります。
しかし、精度の低い (そして消費電力の少ない) コプロセッサにアクセスできたらどうでしょうか? では、数値アルゴリズムでどのように利用できるでしょうか?
これらの問題に対処する優れた本/記事を知っている人はいますか?
ありがとう!
多くの数値アルゴリズムは、32/64 ビット浮動小数点で実行される傾向があります。
しかし、精度の低い (そして消費電力の少ない) コプロセッサにアクセスできたらどうでしょうか? では、数値アルゴリズムでどのように利用できるでしょうか?
これらの問題に対処する優れた本/記事を知っている人はいますか?
ありがとう!
数値解析理論では、操作が実行されているマシンに関係なく、操作の精度誤差を予測する方法が使用されます。最も高度なプロセッサ操作でも精度が失われる場合が常にあります。
それについて読むべきいくつかの本:
Accuracy and Stability of Numerical Algorithms by N.J. Higham
An Introduction to Numerical Analysis by E. Süli and D. Mayers
それらを見つけることができない場合、またはそれらを読むのが面倒な場合は、私に言ってください。いくつかのことを説明しようとします. (私はコンピューター科学者なので、この分野の専門家ではありませんが、基本的なことは説明できると思います)
私が書いたことを理解していただければ幸いです (私の英語は最高ではありません)。
あなたが見つけそうなもののほとんどは、数値自体の表現のサイズに関係なく、コンピューター上で浮動小数点演算を行うことに関するものです。fp 演算を取り巻く基本的な問題は、ビット数に関係なく適用されます。私の頭の上から、これらの基本的な問題は次のようになります。
一般に、ビット数が少ないほど問題が発生しやすくなりますが、32 ビットで有用なアルゴリズムがあるように、8 ビットで有用なアルゴリズムがあります。使用するビット数に関係なく、同じアルゴリズムが役立つ場合があります。
@Georgeが示唆したように、ハイアムの本は基本的なテキストではないと思いますが、おそらく数値解析に関する基本的なテキストから始める必要があります。
よろしく
マーク