確率計算は、1960年代にブライアン・ゲインズとヴォルフガング・ポッペルバウムによって独立に開発された、非標準的なコンピュータアーキテクチャの一つです。この手法では、連続的な電圧レベルの代わりに、ランダムなビットストリームを使用し、それらを数えることで計算を行います。この方式は、正確な電圧測定が必要なアナログ計算と比較して、ビットを数えることが容易であり、ノイズに対しても強いという利点があります。特に機械学習の文脈では、確率を表す数値が送られ、そのストリームにノイズが加わることで、確率が1を超えることなく計算が維持されます。このように、確率計算はアナログ計算のデジタル版として再評価されつつある技術であり、研究の進展に寄与しています。