人工知能(AI)の進展は、コンピュータアーキテクチャの革命と密接に関連しています。特にディープニューラルネットワーク(DNN)の複雑性の増加に伴い、従来のアーキテクチャの限界が試されています。本論文では、AIワークロードを加速するためのアーキテクチャの進化をレビューし、GPU、ASIC、FPGAなどの主要なアーキテクチャパラダイムを解析します。それぞれの設計哲学や特徴、性能のトレードオフを詳述し、データフロー最適化や高度なメモリ階層、スパース性、量子化といった重要な原則を検討します。また、メモリ内処理(PIM)やニューロモルフィックコンピューティングなど、将来の計算を再定義する可能性がある新興技術にも言及しています。AIとコンピュータアーキテクチャは相互に関係しており、ハードウェアとソフトウェアの共同設計が今後の計算の進展に不可欠であると結論付けています。