MaruLabo x JAWS-UG AI に参加してきました

丸山さんにお声がけいただいて、チューターの雰囲気感を出しつつ、他のコミュニティの様子を覗かせていただきました。 AWSさんでの開催でしたが、利用するフレームワークMXNetではなくTensorFlowでした。ありがたやー

jawsug-ai.connpass.com

基本的な内容はTFUGと共催したものと変わらずで環境が変わるような流れでしたが、JAWS-UG AIさんではTensorFlowがインストール済みのAMIを使うのと、GPUインスタンスも使うのが異なる点でした。

環境構築

qiita.com

  • AWSには公式のDeep Learning用AMIがあってすごい便利かなぁと思います
  • が、このAMIはまだ東京リージョンにはいらっしゃいません
  • あと、CUDAが7.5のため、TensorFlowの最新バージョンのv0.12は動かないという問題もあります
  • というのはありつつも、GPUインスタンス x このAMIが、GPUでDeepLearningやってみる最適解っぽいです
  • nvidia-smiコマンドでGPUのステータス確認した時に「おおっ」と声をあげる参加者がいらっしゃったのが個人的には印象的でした。やっぱりGPUは重要なのかも。

デモアプリの動作

qiita.com

  • TFUGでやったGCPのvCPU16のインスタンスと比較しても、GPUx1のg2.xlargeインスタンスで体感速度が全然違うので、CPUと2つやるとよりGPUのありがたみが分かるのかも。

コミュニティの雰囲気の違い

最近GCP系ばかり顔を出してたのでAWSの雰囲気はオフィスやスタッフや参加する人などがちょっと違う感じでなかなかおもしろかったです。多少はお手伝いする機会があるかと思いましたが、異常なまでにサポートの人が多く、一参加者風にしてひっそりとしておきました。

JAWS-UG AIさんとの共催も再演するとのこと。また、来月にMSさんでAzure上のハンズオンもTensorFlowを使うらしいです。