AIには時間軸も、ただのもう一つの次元
Time Axis is just another Dimension for AI
行動認識をAIで実現するにはどのようにすれば良いだろうか? How motion detection can be achieved by AI?
一つ考えられるのは、時間軸を一つの次元としてニューラルネットに入力する方法だ。One way is to use time axis an an input dimension for neural net.
通常、AIでのパターン認識と言うと、画面の2次元情報からパターンを読み取るものだ。Normal AI pattern recognition is for two dimensional pattern on screen.
これを時間軸を加えた3次元に拡張すればよいが、次元が多すぎて計算量が爆発するだろう。We simply can expand this to 3 dimensional by adding time axis however, simple expansion will make calculation number explosion.
なので、2次元情報はあらかじめPoseNetなどで手、足、頭など体位の座標情報に変換し、これを時間軸でサンプリングし、その(時間、位置)情報を入力とした学習をさせることで、行動のパターン認識ができるだろう。Hence, two dimensional information may better be converted to body coordinates such as hands, legs, heads, for example, using application such as PoseNet, then sample it for each time axis to let the neural net to learn to recognize behavioral patterns.
具体的な応用としては、Concrete application can be,
- 動的な「サイン(野球のような)」認識 sign/gesture recognition like in baseball
- 防犯 security
- 災害 disaster detection
- 事故防止(踏切内事故、遊泳事故など)accident prevention(crossing, swimming, etc.)
- 酪農(家畜の特定な行動の認識)dairy(livestock behavior detection)
- 育児(幼児のモニタリング)child care(infant monitoring)
- スポーツ sports
- 姿勢制御 posture control
時間軸は可視的に見ることが出来ないが、機械学習にとっては、単にもう一つの次元に過ぎない。これを利用しない手はないだろう。Time axis cannot be seen visually but it is nothing but one additional dimension for machine learning. Why not using the axis?