2017年5月11日木曜日

半自動スタートラッカ4.3


 初期値を与えずにスキャンしてみようと、ループを回したりしています。
 かなりスカスカにして、画像から5個、カタログから50個を使ってマッチングを試すと、0°から画面中心の赤経190°あたりまで1.6秒ほどかかります。今回は赤緯に初期値を与えていますが、これがない場合は赤経1周で3秒、赤緯も動かして20回ほどスキャンするので、全天を走査するのに1分ほどかかります。大抵の場合は途中でマッチングできるでしょうが、ワースト1minは長すぎるんじゃないかな。。。
 「ほとんどの宇宙機は画像をダウンリンクして地上で解析する」とか「まず粗太陽センサでだいたいの姿勢を調べてからSTTで詳細な姿勢を調べる」ってのは、さもありなんという感じです。
 キューブサットのような、6面体ですべての面にソーラーパネルが設置してあれば、発電量の比率からかなりの精度(<30°?)で姿勢の初期値が得られるかもしれません。でもキューブサットくらいの規模ならソーラーパネルで太陽の方向を推定する程度でも充分で、STTは必要ないんだろうなぁ。Core i5なら1min程度で計算できるとしても、キューブサットなら50-200MHz程度のFPU入りマイコンがせいぜいでしょうから、単純なクロック比でも15倍位時間がかかるんじゃないでしょうか。初期捕捉で15分って、全然役に立たなそう。でもWindowsが走るCPUとマイコンってクロック比は2-3桁くらいしか違わないのか。CISCとRISCじゃ同クロックでも演算能力はぜんぜん違うんでしょうけど。


 今回のコードを書くにあたり、最初は画像解析・カタログ読み込み・マッチングの処理を分離しようと思っていました。が、結果的にはより一層複雑になってしまった感じです。ジグソーパズルをテトリスにしようと思ったら知恵の輪になった感じ。なんとかうまい落とし所を探さないと。

0 件のコメント:

コメントを投稿