Google Colab で cifar10 データセット用の keras で残差ニューラル ネットワーク モデルを作成しましたが、TPU ハードウェアでの実行が非常に遅くなります。
Google colabで正常に動作する別の通常の畳み込みニューラルネットワークがあります。このモデルは keras Sequential API を使用し、残差ニューラル ネットワークは Functional API を使用しますが、それが問題かどうかはわかりません。私はすでにバッチサイズを変更しようとしましたが、それは役に立ちませんでした。私のプログラムへのリンクは以下です。
https://colab.research.google.com/github/valentinocc/Keras_cifar10/blob/master/keras_rnn_cifar10.ipynb#scrollTo=7Jc51Dbac2MC
各エポックは少なくとも 1 分以内 (通常は最大約 10 秒) で終了すると予想されますが、各ミニバッチが完了するまでに 1 分かかるようです (そして、エポックごとに多くのミニバッチがあります)。