>>10
AIの学習は演算回数が膨大に必要だけれど精度は低くて良いと言われている。
googleのTPUは8bitの整数演算で学習させるらしい。
一方で科学技術計算では64bit浮動小数点演算ないと使い物にならないと言われたり。
GPUのグラフィックの三次元の座標計算は16bit浮動小数点で足りるとか。
浮動小数点演算の回路は複雑でbitする増えればさらに大規模になるからそんな複雑で大規模な回路はAIの学習用には無駄になるらしい