2025年8月27日水曜日

小ネタ



 Delta Force | Toxik × Exusiai·Midnight Delivery Theme Song - POST GIRL (Delta Force × Arknights) - YouTube

 POSTERGIRL (Delta Force x Arknights) - YouTube

 英語チャンネルより日本語チャンネルのほうが公開が早い謎事象。6時間差ってことはUTC+3あたりだけど、どこだ? モスクワとかトルコとかのあたり? なんでェ…… DF側のこのキャラってキリル文字圏っぽいけど、だからといって。

 メロディどっかで聞いたことあるような気もするけど、おそらくオリ曲のはず。FPSゲームのくせして、他IPコラボも含めてキャラソンとかをコンスタントに作り続けててすごいな。

 日本語版は日本語歌詞字幕をつけて1080で再エンコードしてるので画質悪め。英語(歌唱言語)字幕版は4Kでめっちゃ綺麗。日本語化チームはオリジナルの素材をもらって加工してるわけじゃないんだろうか? トレーラーは日本語版も4Kだけど、やはり再エンコード分か、見比べると若干ディティールが失われている感がある(あからさまに目立つような悪化ではないけど)。

 ゲーム内のキャプチャでは撃つとき以外はちゃんと指伸ばしてるんだな。じゃあトレーラーで指掛けっぱなしなのは手付モーションの手抜きか…… よく見るとトレーラーも一番最後のシーンは指伸ばしてるんだな。イラストは指を伸ばしているから、それに合わせたのかな?



【ロケ】国立科学博物館を貸し切ってクイズ!【#にじクイ #60】 - YouTube

 月1で5年くらいやってほしい。で、5年後に第1回のコースを回ってみると展示物が更新されていてまた最初からやり直し。


 博物館をフォトグラメトリでデジタル化してVRで歩いたり、あるいは映像コンテンツのアセットとして使えるようになったら面白そうだけど、細かいディティールが拡大に耐えなきゃいけないから、部屋1個分作るだけでも大変そうだな。

 展示物のデジタル化はあちこち頑張ってるけど、展示状態のデジタル化、みたいなのってやってるところはあるんだろうか? 「この展示品はこういう並びで、こういう説明がついて展示していました」みたいな記録は、その時代の世相を反映していて面白そうな気がするけど。最近話題のスミソニアンだと「2024年時点ではこういうふうに展示していました。2025年にトランプが展示内容に口出しして、2026年にはこういうふうに変わりました」とか。政治家の横槍からどうやってデジタルデータを保護するか、というのはまた別の問題だけど。



 [4K]群馬県立自然史博物館フォトグラメトリ(Gunma Museum Of NaturalHistory Photogrammetry) - YouTube

 ぐぐったらそれっぽいのが出てきた。


 Dinosaur - Gunma Museum Of Natural History by STUDIO DUCKBILL

 Webブラウザで歩き回れるサイト。

 Vで一人称視点、Fで自由移動ができる。右クリックするとマウス移動が視点移動になる。カーソルでクリックするとその場所までまっすぐ歩く(すぐスタックする)。スペースキーでジャンプできるから、普通は入れないような場所にも入って見回せるのが面白い。一人称視点で見ると流石にディティールが荒いし、説明パネルとかは全く読めない。せめて説明文だけでも高解像度テクスチャを用意しておいてくれたら嬉しかったな。



 マイクロソフトが、PCゲーム初回起動時にやたら待たされる「シェーダーコンパイル」要らずの新技術を開発中。早く遊びたい焦れったさ、なくなるかも - AUTOMATON

 こんなシンプルな仕組みがなんで実用化されてないんだよ、とはずっと思ってる。

 プラットフォーマー側で対応しなくたって、ゲーム開発側でデバイスのハッシュ値から問い合わせてオンラインからキャッシュをダウンロードする、位の仕組みはあったっていいはずなのにな。あるいはNVIDIAとかAMDがドライバレベルでDBを作るとか。「ウチの製品を買えば、対応したゲームならシェーダコンパイルの待ち時間がほとんどありませんよ」とか、アピールポイントとしては地味ながら良さそうだけどな。あるいはゲームの運営がそのゲーム用のDBを用意して、クラウドでコンパイルしてキャッシュするとかもできるだろうに。



 理化学研究所 スーパーコンピューター「富岳」の後継機 米半導体大手エヌビディアと連携し開発へ | NHK | サイエンス

 ついに独自システムをやめるのか…… 海外のスパコンで作ったソフトウェアとかライブラリをそのまま流用できるのは利点だろうけども。


 富岳NEXTの開発は「Made with Japan」、NVIDIAが加わりアプリ性能100倍の達成へ:人工知能ニュース(1/2 ページ) - MONOist

 NVIDIAはあくまでもアクセラレータ周りであって、引き続きArmベースのプロセサも使うのかな。まあ、せっかく富岳でArm向けに最適化したライブラリは使い続けたいだろうしな。SVEからSMEへ変わって結局またライブラリ作り直しじゃねーか、みたいな恨み節はありそうだけど(SMEは検討段階とのことだけど)。



 宇宙空間に広がった史上最大級の衛星アンテナ | WIRED.jp

「今回展開されたアンテナの反射器は、直径12m、重量64kgというNASA史上最大級のものだ」

 20年くらい前に19x17mのアンテナを2個積んだ衛星を打上げた国があってね…… だから本文では単なる「史上最大級」ではなくて「NASA史上最大級」と書いてるんだろうけど。


 日本の柔軟大型展開アンテナはETS8で原型はできたけど、その次に高周波化したASTRO-Gがコケたことで潰えたんだろうな。小さいものだとQPSのアンテナが柔軟構造ではあるが、構造は全く違う。

 日本で大型の展開アンテナを使う衛星というとSAR衛星が多いけど、日本の解説記事だと「SAR衛星のアンテナは小さいほど解像度が高い」とか言われてるので、大面積化はあまり要求されていないのかも。/* ScanSAR StripSARに限れば、パッシブなら(ビームステアリングとかビームフォーミングとかをやらないなら)アンテナサイズが小さい(ビーム幅が広い)ほうがalong-trackの分解能は稼げるとしても、ALOS4みたいにアクティブにやるなら面積は関係ないというか、大面積化したほうがSNRが稼げていい気がするんだけども、どうなんだろうか */

 A-Gでは理学側から43GHzが要求されていたけど、アンテナの鏡面精度が安定せず22GHzまでしか使える見込みがなかった。それでも当初予算の超過が見込まれたのでプロジェクトを終了した。一応、開発成果としてKu帯まで使える大型アンテナを開発した、ということになっているけど、じゃあそれが通信衛星とかで応用されたかというと、使われていないはず。

 もうちょっと予算をガッツリ突っ込んで飛行用のモジュールを作ったりしていたら「せっかく作ったんだから使わないともったいないじゃん」でツケを払う的なミッションを作れた可能性もあるけど、「傷が浅いうちに手を引こう」みたいな感じで早い段階で中断しちゃったので、せっかく開発したものも捨てることになってしまった。

 最近の通信衛星だと、基本的にはフェアリングに収まる大きさのソリッドな開口を使うことが多い気がする。そういう意味ではETS8の展開アンテナは通信衛星用としては需要を見誤っていた、とも言えるのかな。将来的にはまたデカい静止衛星を打上げるみたいなコンセプトの提案はあるけど、実際はどうなるか。当面はLEOコンステが強そうだから、大型展開アンテナの需要はあんまりなさそうな気がする。月とか火星にデータ中継衛星を打上げるみたいな話になると、超大型アンテナが欲しいって話になるかもしれないけど、少なくとも日本単独では月や他の惑星にデータ中継衛星を打てるようなミッション規模はないだろうし、海外との共同ミッションにしても、日本がデータ中継衛星を担当することになる事態は考えづらいし。

 最近Blue Originが出した火星周回の中継衛星のイラストは、NISARの展開アンテナと似たような外観をしている。NISARのアンテナはAstro Aerospaceという会社が作ったものらしい。YouTubeチャンネルは10年くらい前の投稿が最後だけど、そのチャンネルによるとロッキード・マーティン系列の会社らしい(ただしLMドメインのURLは404)。Astro Aerospace(アストロエアロスペース)という社名を使っている会社は複数あって、日本にもあるらしい(大型光学素子の研磨が得意な会社だそうだ)。ぐぐるといろいろな企業の説明が出てくるので何が何やらよくわからないことになってる。直交性の高い会社名、だいじ。

 月位の距離だととりあえず電波で頑張って、そのうちレーザーで大容量通信を、みたいな流れになりそうだけど、火星くらいの距離だと電波もレーザーもちょっと厳しそうな気がする。それに火星には(当面は)人間がいないから、地球→火星リンクは探査機のコマンド程度で済むから、基本的には火星→地球リンクに最適化すればいい。ETS8は送信用と受信用で干渉しないように(大電力の送信が受信回路に回り込まないように)送受信でアンテナを分離していたけど、火星データ中継なら1枚で軽く作ったり、あるいは2枚でガッツリ絞り込んだり、いろいろ考えられる。

 LDRの開発を継続していれば、DS2000を改造して火星にデータ中継衛星を打上げるみたいなこともできただろうにな。せっかくETS8で世界最大級(少なくとも知られているものの中では世界最大)のアンテナを展開したのに、それを科学衛星の「予算超過」とか言う理由で全部捨ててしまったんだから。日本の予算規模で100億円の予算超過(+ミッションの縮小)は許容できる規模ではないだろうけど、JWSTなんて当初計画で2000億円、最終的に1.3兆円を突っ込んでるんだからな。日本と比べて3倍にも達しないような経済規模なのにアホみたいな予算の使い方をしてる。そのツケが他のサイエンスに回っているというのはあるけど、とはいえ宇宙望遠鏡の中で比類なき性能を発揮しているのは間違いないわけで。



https://www.jstage.jst.go.jp/article/jjsass/52/603/52_603_175/_pdf

 2004年。HAPSにシュードライト(PL; Pseudolite)を載せよう、みたいな提案。

 C/Aコードの数を1025個と書いている。おそらく、1023bitのm系列が2個に、それで作ったGold符号1023個をあわせて、1025個とカウントしているんだろうけども。

 送信出力は1.74mW(GPSは27W)。距離が近いのでGPSと同等以上の受信電力を得るための送信電力が少なくて済むから、送信機が小型化できる。C/Aコードで拡散するが、データは1000bpsで送る。

 1000bpsで送ってもFECを使えばSBASの250bpsと同程度の誤りになるらしい。ただ、その後のデータフォーマットの話では本当に1秒あたり1000bitの情報を送っている。どういうFECを使うつもりなんだろう? 畳み込み符号を使うなら2symbol/bitが必要だから、C/Aコードをそのまま使うなら500bpsが最大のはず。C/Aコードを前後で区切って1コード/bitで使う可能性もあるけど、さすがに既存のGPS受信機との差異が大きすぎるからありえないはず。

 メッセージの構造がかなり変わっていて、SBASとは互換性が無い。位置情報を4Hzで更新するから、空きスロットも無い。一応、最大で210bit/secの予備ビットがあるから、これでSBASと同様なメッセージを送れる、とは書いてあるが、SBASのプリアンブル・CRCを除いた218bitを1秒で送ることができない(文中ではさらにSBASのMessage Typeの6bitを捨てた212bitを実データ容量として扱っている。どうやってメッセージを識別するのかは謎)。

 あとは単独測位や相対測位での特性、特に対流圏遅延の見積もりとか、HAPS自身の位置決定や測位精度予測の話。

 HAPSの軌道決定にはキネマティックGPSとINSを使う想定。飛行機のように剛体で近似できるなら受信アンテナと送信アンテナの位置関係はINSから比較的容易に求められるが、飛行船のような柔軟構造は複雑なモデルが必要になる。

 別の軌道決定手法。逆PL法(inverted pseudolite)。PLから送信した測位信号を地上の複数地点で受信することで、送信アンテナの位置を精密に求める。PL側で測位する必要がないので、GPSのような外部システムに依存しないし、気球のような柔軟構造物のモデル化も不要(その代わり位置が既知な複数の地上局が必要になる)。各地上局から観測量を集約して軌道要素を作成し、何らかの手法(例えばHAPSでベントパイプ)でユーザーに配布する。一往復分増えるのでリアルタイム性が若干悪化し、測位性能に影響が出る可能性がある。

 まとめで、データレートを1kbpsにすることで成立することを示した、とのことだけど、そもそも1kbpsを通せる前提が間違ってる気がするんだが、どうなんだろうか。



 空港に設置するGPSのシュードライトで垂直確度が改善するのが謎だったんだけど、水平方向に1個増えるとTDOPが改善して、時刻にカップリングした高度の確度も改善する、みたいなことなのかな?



 最近またHAPSが復権してきたけど、PLを載せよう、みたいな話はあるんだろうか? 20年前に比べてコンステレーションが大幅に増えているから、わざわざPLを作る旨味は少なそうだ。

 とはいえ、昨今の(というか5年後10年後の)通信規格を考えると、時刻・時間共に測位衛星に近いような精度・安定性を持っているだろうから、測位用の信号を出すのは結構簡単そうな気がする。信号の帯域幅だってC/Aコードの2MHzより圧倒的に広い既知信号を放送しているわけだから、符号の時刻精度で言えばPコードより高いことも考えられるわけだし。その場合は複数のHAPSが見えないとだめだから使いづらそうではあるけど。

 昔のHAPSって軽航空機のイメージだけど、最近のHAPSって重航空機のイメージ。何が変わったんだろうか。太陽電池の性能(W/kgとか)が向上して軽量ガスの浮力で頑張らなくても浮かべるようになった、とか?



 別件の探し物をしていたら、IGS歴を17次で補間して使った、みたいな話が出てきた。

 IGS歴って、かなりスカスカなデータだから、他の軌道要素(特にケプラリアン)の補正値として使うものだと思ってたけど、そうではなくて、スカスカな3軸位置情報(カルテシアンですらない)だけを補間して使うものなんだな。まあ、言われてみれば、精密歴なんて数値計算で使うんだから点群の補間位はやってもいいか。


 国土地理院の速報歴

 上2個がGPS、下2個がQZSS。幅は1日、縦軸はkm単位。GPSは12時間/周なので1日2周くらいの動きが見られる。QZSSは24時間/周なので、1日周期。ただし左下のものは静止衛星なので時間軸でプロットすると直線になる。


 適当な1軸に対して計算で係数を求めて比較。とりあえず17次。

 青が読み込んだ速報歴、橙が係数から計算した値、緑がその差(右軸)。次数/2くらいの振動が見られて、振幅は数kmから最大10kmくらい。次数を増やせばある程度のところまでは誤差は減るけど、例えば21次の係数だと12時間後は4.32万秒^21で10^93位になるから、doubleで表現できる範囲を超えて急に発散する。

 計算方法の問題なのかもしれないけど、計算誤差がかなり大きい気がする。精密歴の精度がcmレベルなら補間でもその精度が欲しいわけだけど、今回の場合はその10万倍ほど悪い精度しか得られなかった。

 あるいは、スカラ(1軸単位)で計算しているのが問題なのであって、ベクトルの多項式で計算すればもっと綺麗にフィットするのかもしれないけど。しかし、慣性座標なら衛星の運動は綺麗な楕円に近づくけど、回転座標だから結構変な曲線になりそうだが。それでもスカラよりはマシなのかな? /* そもそもベクトルの多項式って結局スカラじゃね? */


 24点を9次で補間

 0.1mmくらいの精度にはなる(途中の精度は不明だけど)。ただし8次とか11次を選ぶと急に誤差が増えるので、次数のロバスト性が低い。両端部を捨てるなら15次とかにすると精度上がる感じはある。端のほうは係数で補間すると内挿というより外挿に近くなるはずだから、端部の精度が悪いのは納得できる気がする。

 1日みたいな長いアーク(アークっていうかサークルっていうかヘリックスっていうか)だと時間のn乗で桁が広すぎて精度が得られなくなるから、短い範囲だけ解析すれば、時間軸の桁数はある程度狭くて済むし、モデルの誤差も減るけど、かなり高い周期で係数を再計算しなきゃいけないのが面倒そう。

 国土地理院の歴は5分間隔で提供されるから、ある5分間の範囲を補間したい場合は、前後1時間の24点から係数を求めて、その係数から内挿して、5分毎に係数を求め直して、みたいな感じにすれば、それなりの精度は得られそう。ただ、計算コストが…… とはいっても、5分で24点から係数を求めて、それが衛星1機あたり3組、衛星数が50個として、3600点/5分程度だから、計算量としてはそれほどでもないか。


 このあたりの話はなぜかググってもほとんど見当たらない。既成のライブラリを使えば中身は気にしなくてもいいから楽だよね、みたいな話なんだろうか?



https://www2.nc-toyama.ac.jp/WEB_Profile/mkawai/study/celesmech/paper2006.pdf

 電子基準点の解析で、周期12時間(恒星時)、振幅数mの振動が検出された、プレートがこの周期で動いているのではないか(電子基準点の見かけ上の変動ではなく)、という話。

 自分の中の常識では短時間でプレートがそんなに大きく(1m/h位の速度で)動くなんてありえなくね?という気がするんだが。潮汐由来の地球の歪みが30cmとかそのくらいのはずなので、それより1桁大きい成分が見逃されていたってのは不自然な気がする。

 12時間周期を潮汐(月-地球-太陽の位置関係)でモデル化しようとしているけど、GPSの軌道周期って関係ないんだろうか? それぞれのGPSの時刻に一定のバイアスがあったりすれば、1周12時間周期で振幅が出そうだけど。解析に精密歴を使っているから軌道やクロックは十分に高い精度で得られている、という前提で除外しているっぽいけど。

 とはいえ、事の発端は別のソース(静止衛星に対する測距値のO-Cに対する12時間の振動)だから、GPS衛星(12時間周期)だけでなくて静止衛星(24時間周期)にも同じようなバイアスが出るとすると、GPS衛星側の問題とも言いづらいのよなぁ。GPS衛星と静止衛星は軌道周期が正確に12時間(恒星時)の整数倍だから、恒星時周期のバイアスが完全に除去できているかというと怪しい気もするけど。



 地球の潮汐による形状の変化、上下方向は光格子時計で重力ポテンシャルを計測して高さ変化を求めよう、みたいな話があるけど、水平方向の変動ってどうやって計測すればいいんだろうか。GPSやDORISみたいに衛星を使う方法だと、衛星に加えられた潮汐による軌道の歪みがあるから、精度としては悪そうな気がする。VLBIも視線方向の距離には感度がないはずだから、地球の広い面積が丸ごと動くような変動は見づらいはず。パルサーのタイミングの周期変動を探そうにも、1cmの精度が必要なら数十ピコ秒くらいの時間分解能が必要だから、パルサーの周波数帯域じゃ厳しそう。電離圏の影響も無視できないし。

 外惑星間空間に光格子時計を置いて超コヒーレント(数十cm/年とか?)な電波源を作って、それを使って地球や月の太陽系円盤上の位置を高精度に決定する、みたいなことはできそうだけど、それにしたって2次元しか計測できないし。基本的に公転面に垂直な方向の力は受けていないはずだから、2次元だけでも十分かもしれないけど。/* 適当にエイヤと書いた数十cm/年という数値、計算してみると-17乗くらいなので、光格子時計でちょうどいいくらいの目標だ(少なくとも地球上でメンテナンスした場合の精度に比べれば) */

 超コヒーレント光源に高性能なシンセサイザを積んで広い帯域をスイープできれば、運が良ければ太陽や内惑星の掩体観測もできるだろうけど、とはいえほとんど用途が無いから、緻密な時計を惑星間に飛ばすインセンティブは弱そう。かといって惑星探査ミッションに相乗りできるほど小型化するのは時間がかかるだろうしなぁ。探査機の軌道精度を考えると慣性飛行に近似できる短周期(数日前後?)の成分しか見えないだろうし。

 木星みたいな大質量天体に接近する軌道で光格子時計みたいな超高精度な時計を飛ばしたら理論物理側からすると面白そうな気はする。CsやRb、HM等の他のクロックもまとめて飛ばせればなお良し。けど、相乗りするには規模がデカすぎるし、単体で飛ばすには得られる物が……

 JUICEのバス機器(特に軌道決定用の無線機周り)ってどういう構成になってるんだろうか。最近の探査機ならVLBI用に広帯域化とか、高安定なクロックとか積んでそうだけど、とはいえ運用期間10年程度で木星まで行く探査機だから、なるべく冒険はしたくないし。


2025年8月20日水曜日

小ネタ



 Delta ForceのPVのおそらく手付のモーション、違和感あってあんまり好きじゃないんだけど、ライブサービス型でコンテンツ増やし続けるならいちいちモーションキャプチャで作ってもいられないんだろうなぁ。走ったりジャンプしたりする程度ならともかく、飛んだり落ちたりをキャプチャするのも大変だろうし。




 USN「宇宙軍の戦闘領域は世界最大? フンッ、たかだか地表から2万海里程度で何を言う……」

 まあ、彼ら(米海軍)は確かに(ごく一部の研究機関だけ見れば)作戦領域は広いけど、少なくともその場(100億光年程度先)で作戦を行うことを想定しているわけではないからな。米宇宙軍もその場に人が行って戦闘を行うことはないけど、少なくともリモートで戦闘を行うことは想定しているわけで。実際のところは探査機を含めれば太陽系円盤全域が作戦領域とも言えるし、将来的には月や火星に人間を送ったりもするんだろうけど。

 巨大な電波望遠鏡で天文観測した結果を人工衛星の運用に使うんだから、このあたりもUSSFに移管すりゃいいのにな。USNとしては何百年も続けてきた保時業務を簡単に手放すわけにもいかないんだろうけど。伝統とはかくも変えがたいものよ。


 しかし、ケープカナベラルが宇宙軍の施設とはいえ、こんなにも軍人が多いのか。

 めちゃくちゃ小さいドットマトリクスキャラクタディスプレイがあると思えば、ウルトラワイド曲面モニタも置いてあるし、かと思えばWindows XPも残ってるし。雑多よなぁ。機材の追加はともかく、リプレイスはよほど困らない限りはやらないだろうし、古い機材で特に問題を感じていないのであればわざわざ予算をつけて入れ替えようという話にもならないし。




 何箇所か違和感ありつつ(あと何箇所か誤字もありつつ)、全体としてはSFラノベっぽい雰囲気。もちろんゲームなのでBGMとかイラストとか色々あるけど。サイエンス周りの謎解きは結構サクサク進んだけど、文を読んで推測して選択するみたいな部分は結構手間取った。そういうのは苦手なのだ。。。

 自分の好みで言えばやはり気軽に読めるKindleみたいな文字媒体のほうがいいなーと思いつつ、ある程度の選択肢が提示されているゲームも面白いとは思いつつ、この作品はあまり分岐がないのでやっぱり小説っぽい感じがするかな。サイエンス側の謎解きは多少の前提知識を持っていたので苦労せず解けてしまったというのもあるだろうけど。

 光速が問題になるような分野の天文を布教したい、というような作品としては、ちょっと解説(作中のDocumentで読める本みたいな部分)が薄いような気もする。あまり細かく書きすぎると難しすぎるという判断なのかもしれないけど。あるいは、細かい部分は設定資料集みたいなもので突っ込むのかもしれないけど。布教用の最初の一歩としてはちょうどいいのかな?


 人間のテクノロジーみたいな領域はデモ版で読める範囲で一通り出ている気がする。新しく出てきた部分では、宇宙ベンチャーが関わるような範囲はかなり少なそう。デモ版の範囲はデモ版をプレイしたときに感じた感想をそのまま感じたので、このあたりは変えてなさそう。



【🎮 ステラーコード】宇宙の謎を解くミステリー!?🪐新作SFノベルゲームを遊ぶ!【 星見まどか 】#1 - YouTube

 ヘイルメアリーでもそうだったけど、その分野の知識があるTRPGerはすごいねぇ。



 まさかの「花王」が手がけるホラーゲーム『しずかなおそうじ』、いきなりSteamで無料配信開始 - AUTOMATON

 普通のゲームってよほど莫大な予算を入れたゲームでもない限りは商品デザインがかなり雑というか、いかにも安いアセットっぽさが拭えないから、実際に商品を売っている会社が作った広報用のゲームはそのあたりがすごいな。現代日本を舞台にしたかなり細かく作り込まれたオープンワールドゲームなのに、コンビニに入ると単色のカラフルな包装に商品名だけ書いてある飲食品が並んでいて違和感、みたいなゲームもあるわけで、そういう違和感がない。逆に実物過ぎてその他のアセットとの差が出てくる可能性はあるけど。

 色々なメーカーにお願いして許諾取って「法律や公序良俗に過度に反しない限り自由に使っていいよ」的なライセンスで比較的安価に(できれば無料で)使えるアセットストアがあっても面白そうだよな。通販サイトみたいに商品を並べておいて、製品ページを開くと2Dデータや3Dデータをダウンロードしたり、使い方の説明が書いてあったり。文字通りCOTSでゲーム開発。

 メタルギアソリッドシリーズのいくつかの作品では実在する飲食品が色々出てきてたし、ちゃんと交渉すれば使えるんだろうけど。

 ポストアポカリプス的な世界じゃマキタ製品が使えれば強そうだけど、流石にねぇ。。。

 Quixel(Epic傘下のフォトグラメトリアセットライブラリ)の最近の動画で、市街地のゴミの動画があったけど、やはりというか、ライセンスで問題になるようなロゴはまったくない無地のものが多いんだよな。アセットとして公開しようとするとそのあたりは面倒なんだろうけど、あったら面白いと思うんだけどなー。




 PEAK(ゲーム)、一番最初のテレポート画面で表示される搭乗券の2次元コードをスキャンすると公式サイトのリンクが出てくるの、芸が細かくてすこ。まあ、PDF417なので対応のスキャンアプリが必要だけど……

 ラノベの挿絵でも絵の中のコードを読むと出版社の公式サイトにリンクされていたりするけど、こういうのってどれくらい読まれてるんだろう? ゲームにしろラノベにしろ、すでにそのコンテンツを見ているということは、公式サイトに誘導したってあんまり売上には関係ない気もするし、あくまでもイースターエッグ的なものであって、コマーシャル的な用途ではないんだろうけど。ゲームの場合、実況プレイ中の画面をスキャンして公式サイトに飛んで購入する、みたいな流れも作れそうではあるけど、とはいえQRコードならまだしも、PDF417なんて表示したところで…… 

 なお、航空会社のチケットに書いてあるコード(PDF417とか)には乗客の名前等の情報が書いてあったりする(OCRで読むのは面倒だから機械可読な形で情報が入っている)。ので、チケットの写真をSNSに投稿したりするときには注意する必要がある。郵便物とかもそうだけど、基本的に人間用の文字の横に置いてある機械可読なコードは人間向けに書いてある情報は大抵入っていると考えておいたほうがいい。



 オーストラリアのYouTuberが使ってる緑の養生テープ、芯の内側にDCMと書いてあって、3つのドットのロゴが書いてあるんだけど、なんでオーストラリアでDCMのプライベートブランドの養生テープが使われてるの??? 軽くググった程度だとDCMは日本国内にしか店舗は無いはずなんだけど。



 なろう系ローファン世界観のゲームって無いかなー。探せばそれなりに出てきそうではあるが。

 チュートリアルは画面の隅に表示されたコメ欄から指示コメの形で表示されたり、緊急クエストは鳩コメの形だったり、世界観を説明する資料は掲示板の形式だったり。古典的なRPGとはまたちょっと違う世界観が作れそう。とはいえゼンゼロみたいな現代~近未来の世界に比べてそう大きく差別化できるかというと怪しい気もする。高校生あたりが主人公で日本の市街地を日常パートにしつつビルか門かに入ればダンジョンに行ける、みたいにすれば、和風ではある。

 強い敵に遭遇したらコメ欄にWikiのリンクが表示されたり、付近で強敵がポップしたらその近くのプレイヤー風NPCの配信画面のリンクがコメントされたり。リンクを踏んだら通信料が徴収されたり、指示コメとかをBANしてアシスト情報無しでクエストをクリアしたらゲーム的になにか追加の報酬が得られたり。いろいろ考えられそう。

 コメやリンクはゲーム画面内の端末で表示できるけど、スマホアプリと連携したら自分のスマホでコメントを見たりWikiを開いたりとかもできそう。10年くらい前のゲームでそういう機能があったよな。コンソールと連携したスマホアプリでミニマップを開いたり、ゲームのコマンドを叩いたり。FFXIVのアプリもそういう機能があるのかな。ある程度古いゲームだとコンパニオンアプリがあるものもありそうだけど、最近のゲームではあんまりないのかな?

 配信者向けにYouTubeやTwitchの配信リンクを設定すればリスナーのコメントがゲーム内でスパチャみたいに表示される機能とかも作れそうだが。

 世界観はシャンフロっぽくもあるけど、あれは主人公がソロプレイヤーだし。そういえばシャンフロって今のところ(コミック最新刊時点で)配信者って出てきてないような気がするな。GGCの司会が配信者だった気がするけど、自分の配信を付けてるわけでもなかったし。



 エースコンバット7がこの間のSteamセールで安くなってたので買って積んでたのを消化。F-15Cに乗ったらMODE 3/Aのコードが9750に設定されてて笑っちゃった。

 難易度ノーマルで10時間弱でストーリークリア。3桁Hr必要なAAAゲームに比べればボリュームは少ないけど、とはいえある程度は周回するゲームだしね。

 エスコンシリーズは6がかなり好きで、かなりの時間遊んでいた気がする。当時(と言っても中古で買ったのでリアルタイムではないけど)は暇だったからそればっかり遊んでたというのもあるし。おそらく最高難易度(DLC除く)で全ミッションSランクとかやってた気がする。ただ、アサルト・ホライゾンは結構苦手というか、わりと嫌いだった印象。敵にミサイルを当ててもシステム上(少なくとも見かけ上は)ダメージが入らず、かといって放置していても進まず、とにかく何回も何回も攻撃を当て続けなきゃいけないシステムが好きになれなかった。自分で自由に飛行機を飛ばして攻撃する自由度がなくて、コマンドで攻撃しているような感覚(BF3のF/A-18ミッションが嫌いなのと同じ理由。こちらはもっと直接的にプレイヤーの思考が一切介在しない、完全に指示されたボタンを押すだけのシステムだからもはやゲームとも言えないような代物だけど)。

 AC7ではそういうのはほとんど無くなって、AC6に近い感覚かな。ただ、AC7では風の影響でめちゃくちゃ流されるようになったので、渓谷とか低空を飛んでいると気がついたら地面に激突していた、ということがままある(体感で場所によって300km/hくらいの安定した風が吹いてる気がする。それでFPMがビタイチ反応しないのが謎だが)。あとは、AC6にも増して無人機が増えたから、有人機で追いかけるのがめんどくせぇ、みたいな部分は若干フラストレーション。とはいえ、ボタンをポチポチしてダメージの通らない攻撃を続けないきゃいけない、みたいなシステムに比べればだいぶ遊びやすい。終盤のミッションだと難易度HARDでミサイル20発くらい撃って疲弊させないと1発も当たらない、みたいなヤツは居るけど。……無人機相手に疲弊を待つとは? まあ、戦闘機にMRM/SRM合わせて200本以上も積んでるゲームにあれこれ言うのも野暮というものだろうけど。



 WindowsのWEBPサポートってどれくらいあるんだろう? 試しにwebpファイルを壁紙に設定したら普通に設定できちゃったので、結構基本的なところで対応してるっぽい? ただ、一旦スリープに入れて再び起動すると(画像をストレージまで取りに行かせると)真っ黒な画像が表示されるから、OSの下の方(壁紙を管理しているあたり)では非対応っぽい。設定したときに見えるのは、GUI側はWEBPのデコードに対応していて、それで取ったビットマップデータを直接OSのバッファに渡して、という挙動なのかな?


***


 このあたりでロビンソンはなかなか見かけない気がする。

 エキゾーストが左下なのでR44。R66の外観はR44とほとんど変わらないが、ジェットエンジン化してエキゾーストが中央上部にあるので、後ろから見たら条件が良ければ見分けられる。

 レジでググったらFlyTeamに同じデザインの機体の写真があって、法人所有のR44だそうだ。


 当該時刻のMode-3/A/Cログ

 Sq1200、FL14または35、Mode-S無し、といった感じ。Mode-3/Aは1200の一つしかないのに、同じタイミングで2グループのMode-Cが出ているのがちょっと不思議。FL14くらいのグループは明らかに強度が低いので、R44はFL35あたりのグループだと思う。おそらくたまたま同じタイミングでVFRの2機の信号が入ったということだと思うんだけど。


***


https://www.jstage.jst.go.jp/article/sst/5/1/5_123/_pdf

 黒電話の説明とか。黒電話のダイヤル機構って金属製だと思ってたんだけど、樹脂なんだな。それで試験で300万回も回してるのか…… 湿度90%、温度は-20℃から60℃まで、後には公衆電話用に80℃まで拡張。凄まじい耐久性だ。オリジナルは金属製だったけど、金属は摩耗して20万回程度で規格を満たせなくなるんだそうだ。プラスチックすげーな。あまりに寿命が長すぎて電話機の販売で稼ぐことができなくなった、みたいな皮肉な結果も。


 関東大震災を機に迅速な通報を目的としてダイヤル式電話機や自動交換機を普及させた。いまやスマートフォンが普及し公衆電話は数を減らした。緊急時に使用できる電話機を設置することを法的に要求されていて、公衆電話はそれに該当するから通信規制を受けない。ところが東日本大震災のときには公衆電話が少なく、通信手段に欠くことになった。みたいなことも最後に書いてある。平時のニーズや経済性だけで技術の取捨選択をしていいのか、みたいな話。


 AMラジオ廃止論とかでも似たような雰囲気があるよな。スマホで情報収集ができるからって、災害時にスマホが使えるんか? AMラジオのほうが明らかに省電力だろ? みたいな。非常用の電源もセットで準備しておけばいい、というのは理想論であって、スマホユーザーの中のどれだけが非常用の電源(少なくとも1週間程度は使えるようなもの)を持ち歩いているのか。長期化すると基地局の非常電源に燃料を運ぶ手間もあるし。AMラジオは送信所の規模がデカすぎて、アンテナが損壊する規模で被災すると復旧が大変という問題はあるけど、少なくとも過去数十年くらいではその規模の損傷は経験していないはずだし。AMラジオは一方通行でしかないという問題はあるけど、被災時はスマホの電源は切ってAMラジオで情報収集して、必要なとき(情報を送る必要があるとき)だけスマホの電源をいれる、みたいな運用をしたっていいわけだし。

 HAPSでスマホを接続するにしても、これも経済性の問題があるし。日本全国をカバーするのには常時100機程度を飛行させておく必要があるし、常時空中待機させて置けるだけの経済性があるかどうか。地上待機させておくなら発災後の10時間程度は使えないと考えるべきだし、数十年に1度使うために地上施設を複数箇所用意して、そこに駐在する人員を維持するコストもかかる。普段から稼げないなら税金を突っ込むしかないけど、10年単位で全く役に立たない設備に税金を突っ込むのは、現在の日本では無理だろう。じゃあ普段から運用して民間が稼ぐしかないけど、移動体通信網が発達した日本でHAPSが稼げるかというと、おそらく無理だろう。では機材は他の国に貸与して被災時に日本に呼び戻すかというと、そんなことは全く論外なわけで。

 理想的には平時に使うシステムを強靭化して災害時にも不足なく使えるようにするべきだけど、東日本大震災ではそうはならなかったわけで。まあ、それを教訓に通信各社も強靭化を進めているところではあるのだけど。あと10年くらいすればスマホの衛星直結が普及しているかもしれないけど、どうなることやら。


***


https://mitani.cs.tsukuba.ac.jp/lecture/old2015/cg/03/03_slides.pdf

 OpenGLの座標変換、透視投影周りの話とか。

 透視投影にFoVを指定する方法が書かれていない。


 gluPerspective — メモ庫 v1.0 documentation

 また別の透視投影の説明。さっきのPDFと説明が異なる。


 OpenGL の投影行列 | 雑記帳

 一番下の遠視法の行列表示がそれっぽいかな? 縦横比のaspectと視野角のfovy、それからfarとnearを指定して行列を得て、±1の正規化した立方体の範囲に入っているオブジェクトに対して、width/2とheight/2を掛けてスクリーン座標へ変換する。


 軽量なレンダリングエンジン(ちょっとしたワイヤーフレームの表示)を作りたいなと思って調べているわけだが、結局OpenGLを使うべきでは?って気がしてきている。あるいは、静的なデータだけ表示すればいいなら、座標類は適当なフォーマットでJSONで吐いてWebGLで描かせるほうが、C#でOpenGLを扱うより楽かもしれないけど。とはいえ、シンプルな図とはいえJSONで扱うにはちょっと大きすぎる気もするし。



 C:\Windows\System32にopengl32.dllが入っていて、dumpbin /exportsで見れば一通りの関数がそろっているし、これ叩いてどうにかならんのかな、と思って軽くググってみたりとか。画面に表示せずに画像として保存するのはスクリーンレスレンダリングというやつらしい。

 試しにC#でBitmapからGraphicsを作ってGetHdcでhdcを取ってからwglCreateContextを叩いてみたけど、ヌルポインタが帰る。GetLastWin32Errorでエラーコードを取るとCreateContextを呼ぶ前は0なのに対して呼んだあとは2000(7D0h)に変わっているから、こいつがエラーを吐いてるんだろう。

 しかし、OpenGLってググってもろくにドキュメントが出てこない。エラーコードは取れてもそれが何を意味しているのか全くわからない。

 C#やF#でOpenGLを叩いている人はいるらしいから、ちゃんと使えば.NETからOpenGLを使えるんだろうけど、気軽に使えるかどうかは怪しい気がする。自分で(ワイヤーフレーム程度とはいえ)レンダリングエンジンをつくろうとするよりは楽だろうけど。一旦使えるようになれば楽なんだろうけどなー。ドキュメントがあるならまだしも、ググって出てきた断片的な情報だけで使えるようにするのは結構面倒な気がする。



 自作レンダリングエンジンでテクスチャに対応させて、地図タイルを楕円体に貼り付ける遊び

 z=5(タイル1024枚)なら、このウインドウサイズであれば比較的軽量。z=6(タイル4096枚)はかなり厳しい。現状テクスチャ(ポリゴン)の裏表は判定していないので、その処理を追加すれば倍近くは早くなるはずだが。

 タイルは1枚256ピクセル四方だから、4096枚なら1辺は16384ピクセルで、16Kはゲーム用のテクスチャとしては巨大だけど、2Kテクスチャ64枚分と考えれば…… ちょっと多い気はするか。まともなレンダリングエンジンって触ったことないので目安がわからないけど。

 どちらにしろ、GDI+(2D用描画ライブラリ)のラッパーで3D空間(特にテクスチャ)を扱うのはちょっと荷が重いかな?


***


 GPSの観測量をコード位相だけにした場合、つまり衛星と受信機の距離に約300kmの曖昧さがあるときに、時間方向の1msのズレはどうやって求めたらいいんだろうか、という疑問。

 位置の推定値が例えば100km誤っていた場合、曖昧さ(約300km)より小さいから、吸収できる。しかし例えば300km誤っていた場合は、誤った結果が得られる。

 そう考えると、時刻も1ms間隔で曖昧さがあるわけだから、時刻推定値はこれより良い精度で与えなきゃいけないんだろうか?

 位置の誤りは冗長な衛星(5個目以上の衛星に対する観測値)があれば、擬似距離残差に大きなRMSとして出てくるから、たいていは簡単に見つけられそうな気がする。例えばS/Aが実施されていない現在では、残差が100mを超えたときは観測値が誤っている、と推定できそうだし、観測値が300kmも誤っていれば、数kmでは収まらない残差が発生するはず。

 しかし、時刻が1ms誤っていても、衛星位置では接線方向に4m程度の差でしかないし、視線方向にはそれより遥かに小さな差しか観測されないから、擬似距離残差にはほとんど現れない。100msずらしてようやく残差に20mか30m増える、程度。

 通常の擬似距離を使う場合、時計誤差の成分は全擬似距離に同じ距離が乗るから、それがW軸に出てくるわけだけど、コード位相(&受信機時刻のミリ秒未満)だけを使う場合はミリ秒以上の時計誤差に相当する成分がないから、その値が得られないのは納得できる気もする。

 ミリ秒(±0.5ミリ秒)未満の時計誤差は計測できるわけだから、受信機の時計がその精度(実際には±0.1ms程度)に収まっていれば、ロックは維持できるはず。1ppmの発振器を使っていれば100秒程度はフリーランしていても引き込める。もう少し悪くて20ppmのクロックを使っていれば5秒程度しか維持できない。データレートが1Hz程度で良くて測位精度もさほど必要ないけど、時刻精度はそこそこ欲しい、みたいな場合は1秒に1回10msくらいサンプリングして、とかはできるだろうけど、そうでない場合は厳しそう。

 そもそもスナップショットGNSSのサンプリングレートって位置間隔で言えば数十kmとかを想定しているはずだから、そういう状況なら時刻精度も1秒程度で十分なんだろうけど。



 What Is Snapshot Positioning and What Advantages Does It Offer? - Inside GNSS - Global Navigation Satellite Systems Engineering, Policy, and Design

 スナップショットGNSSの説明。擬似距離の計算方法とか。整数ミリ秒の曖昧さがあるよ、みたいなことは書いてあるが、それ以上の話は読み取れなかった。後処理でどうにかする、みたいな感じなのかな?

 やはりスナップショットGNSSで時刻が得られない(整数ミリ秒の曖昧さを除去できない)のは正しい実装なのかな?



 Snapshot GNSS receivers for low-effort, high-gain space situational awareness - ScienceDirect

 流し読み。スナップショットGNSSでLEO衛星の運動を高精度に解析して、熱圏の密度を推定する。いくつかの衛星で熱圏の密度を精度良く推定できれば、それ以外の衛星の軌道減衰の推定も改善できる。スナップショットGNSSでSSAに役に立つデータが得られる。みたいな話だと思う。

 スナップショットGNSSの宇宙実証は結構歴史が古くて、早いものでは1997年まで遡るらしい(Centaur上段に取り付け)。まあ、当時は生データを連続的に長時間記録できる宇宙用のストレージ(&伝送手段)がなかったからスナップショットで取らざるを得なかった、みたいな理由なんだろうけど。


***


 PRN137とPRN199をグラフ化する遊び。


 まずはPRN199(つまりGPSのエフェメリス)

 横軸が経度、縦軸が緯度。グリッドの間隔は同じだが縦横比は1でない点に注意。東経127.0度を中心に東西南北とも±0.1度の範囲を維持していることがわかる。


 緯度と経度を時系列で表示

 7月の4日頃と24日頃に経度が不連続になっている。摂動で西に動こうとしているのを、西端に達する前に東向きのインパルスを与えて一旦東へ送り出して、みたいなサイクルなのかな? 24日頃は緯度も不連続なので、この時は南北(軌道傾斜角)制御もやっているっぽい。


 高度の時系列

 4日頃と24日頃に高度が不連続になっているから、離心率の制御も一緒にやっていそう。まあ、ワンショットのインパルス噴射で東西制御すればそりゃ離心率も変わるだろうけど。


 PRN137(つまりSBASエフェメリス)も含めたグラフ

 LNAVとSBASから計算した位置の距離を表示している。

 LNAVとSBASのエフェメリスは同じものだと思っていたのだけど、こうしてみると10mから最大100m程度の差があるから、LNAVとSBASのエフェメリスは別のモデルで作っているらしい。軌道制御のタイミングで差は縮まるが、その付近(軌道決定前)ではピークで50km以上もずれる。


 LNAVとSBASの差をENU(LNAV基準)でグラフ化

 東西方向はかなり誤差が少なく、南北方向は最大で40m程度の差があり、上下方向は最大(定常時)で100mとか200m程度の差がある。


 LNAVとSBASのΔTsvの値

 LNAVのΔTsvはかなり小さい値で推移しているが、SBASのΔTsvはかなり大きくて、0.3usとか現在は0.7usあたりまで達している(LNAVでは約970usまで表現できるが、SBASでは約0.95us程度がリミット)。

 おそらくLNAVエフェメリスが実際の軌道情報を放送していて、SBASは軌道制御時に決定した軌道を伝播させていて、モデルと現実の差はモニタリング局で取得した擬似距離からの誤差情報をΔTsvに吸収させている感じなんだと思う。それにしても水平方向の精度がいいのに垂直方向の精度が悪いのが不思議だけど。

 LNAVのΔTsvは軌道制御のタイミングで0に戻しつつ、その前後で傾きが不連続。もしかしたら軌道制御に合わせて原子時計のバイアスも調整しているのかもしれない。

 SBASで使用しているモデル精度が悪いと視線方向の誤差をΔTsvで吸収する必要があって、あまりにもズレが大きくなると(具体的には0.95us * c = 約290mを超えると)誤差を吸収しきれなくなる。そういう場合ってどうするんだろうか。その時はその時でエフェメリスもろともリセットするのかな?


 PRN137と199は同じ原子時計を使っているだろうし、少なくとも同じ衛星から出しているんだから軌道情報はほぼ同じものが出ているはずだ、と思っていたんだけど、実際には別らしい。なんで個別に軌道推定するような面倒な運用を行っているんだろう?

 衛星(測位信号)の運用を行っている内閣府とSBASの運用を行っている国交省の縦割り行政とか? じゃあ電子基準点を運用している国交省が運用するSBASのほうが精度が高くあるべきでは? 電子基準点はone-wayだから奥行方向の情報が得られないから、とかなのかな。


 SBASではECEFの位置情報がダイレクトに放送されているから、これと比較すればケプラリアン(LNAV)の計算が正しいかどうかを簡易的に判定できるのでは、と思っていたけど、残念ながらそういう使い方はできないようだ。

 LNAVとSBASの差が実は計算ミスによるもので、実際は同じ位置が放送されている、という可能性もあるけど、その場合は上下方向の差とΔTsvが相関していることを説明できないから、おそらく正しく計算できているはず。


 衛星の上下方向を時刻で近似できなくなるような使い方、例えばMEOから斜めに見上げると問題が起きそう。とはいえ、わざわざ衛星軌道でSBASを受信する意味もないはずなので、実用上は全く問題ないんだろうけど。

 PRN199(QZSS L1 C/A LNAV)も軌道・姿勢制御時にクロックが不連続に飛ぶわけだから、なにか問題がありそうな気もするけど、100nsで30m相当なら、単独測位なら衛星受信数が多ければ最小二乗法である程度吸収するだろうし、相対測位なら衛星誤差情報が送られてくるまでの数秒間位置が少しずれる程度だろうし、それにしたって他の衛星である程度は吸収できるだろうし。搬送波を干渉するような用途の場合は、擬似距離が変化したところで搬送波はコヒーレントだろうから関係ないだろうし。実用上は問題ないからこういう運用なのかな。


***


 C#でマイナスのゼロをフォーマット付きで文字列化すると正数として処理したうえで負数記号をつけるんだな。つまり(-(0d)).ToString("+0;-0");を実行すると"-+0"が得られる。"+0;-0; 0"みたいなフォーマットを指定すると、正のゼロも負のゼロも" 0"が得られる。double.ToString(string)で正負のゼロを区別して文字列化するのってできないのかな? 今のところその必要性も感じていないので特には困ってはいないけど(強いて言えば"+0;-0"を指定したときの結果がキモいくらい)。


2025年8月13日水曜日

小ネタ


『プロジェクト・ヘイル・メアリー』ネタバレ検閲おじさん

「本文が始まる前の絵は見るな」



【📕 同時読書】完全初見で『プロジェクト・ヘイル・メアリー』を読む!【星見まどか】 - YouTube

 初見リアクションみたいなのはゲームプレイ動画は見てるけど、内容を知っている物の初見リアクションを見るのはあまりやったことがないので面白いな。特に自分が好きで何回も読んでいるような物を、自分も読みながら反応を見てると。あと、その人がある程度詳しいから読みながらの考察を聞くのも面白いし。


 一時期、近畿霊夢局の実況を漁っていたことがあったけど、期待した通りのリアクションをしてくれる人ってあんまりいなかったんだよなー。その時は企業Vばっかり漁ってたからというのもあるんだろうけど。



『宇宙のランデヴー』とかそうだけど、異星人って逆ネジ作りがちよな。ハードSFに出てくるエイリアンが作った回転機構の方向(右で締めるか左で締めるか)の統計を取ったら明らかにバイアスがありそう。


 地球人と宇宙人の差異を明示することで「凝った設定を作っている」とアピールすることはできるけど、あえて地球人と宇宙人の共通点を作ったうえで、それをうまく読者に伝える、みたいな設定があっても良さそうな気がする。ネジしかり、スペクトルしかり。

 相手が地球生物と同様の水に依存した生命体の場合、生息する環境はある程度のリミットがある。例えば温度が低すぎてはだめだから、最低でも温度が2,3℃を下回らない環境で、かつ上限は100℃より明らかに低く、体を構成する化学物質(タンパク質)まで共通なのであれば最大でも40℃程度が上限になる(温度が高い環境では化学的に壊れづらい(その環境で再利用しやすい)温度特性の化合物が使われるかもしれないけど)。同様にして、圧力(気圧)もある程度の制限がある(水面で1,2気圧程度、とか)。そういう環境でコミュニケーションを取る場合、音はだいぶ有力なはず。もし相手が声(耳)を持っていたとして、彼らが使う周波数帯は人間とそう離れたものにはならないはず。周波数が低くなると情報量が減るから使いづらい。周波数が高くなると伝搬距離が減るから使いづらい。コウモリが超音波を使うのは、彼らは遠距離でのコミュニケーションではなく、近距離(数m程度)でしか使わないため。イルカが超音波を使うのは、生息環境が違うから(媒質の違い)。

 光の場合は、パッシブなものであれば、恒星のスペクトルで赤外線から可視光あたりが使える範囲であって、人間と重ならない場合も考えられる。ただ、赤外線は熱エネルギーとしては使えるけど化学エネルギーとしては使いづらいから、高度な文明レベルに達するには可視光域の恒星だけ考えればいい、みたいな考え方もある(広く合意が得られているかは別として)。あとは、赤色矮星みたいな星はフレアが多いから生物には厳しい、みたいな説もあるらしい(そういう環境ならそういうのに強い生物が生まれるだけでは、という反論もあり得るだろうけど)。

 アクティブに光を出そうとする場合、出す方はそこまで難しくはないはず(少なくともゆっくりなモールス信号程度の情報速度であれば)。逆に、受信する側が面倒なはず。人間みたいに空間的・周波数的に分解できる視覚はエネルギーコストが悪い。それに加えて情報速度を高くするには時間分解能も稼ぐ必要がある(人間の視覚はたかだか30Hzあたりで飽和する)。コリメートして空間・周波数的に分解する必要がないもの、時間分解能だけに特化した受光器官はそれほど苦労せず作れるはずだけど、コミュニケーションを考えたときに、視野が狭いのは難しい。ただ、先に広視野角・低情報量な受光器官でハンドシェイクして(注意を引いて)、その後で情報量の高い器官に切り替える、みたいなことは考えられる。人間の場合は聴覚だけでコミュニケーションができるから基本的に必要ないけど、それでもまず声をかけて存在を認識させて、相手が視覚的に自分を捉えたと判断してからより高い情報密度で送る、みたいなことはやっているわけだし。

 生物の起源を深海に求めて、かつ海中でも地球よりも遥かに高いエネルギーが得られる状況であれば、視覚(光)に依存しない生物とかは考えられるけど、海中は生物が活動する領域として結構厳しい気がする(運動のエネルギー効率が悪い。逆に中性浮力が得やすい利点はある)。空気から直接酸素を取り出せる陸上の方は活動がしやすそう。空中は飛ぶためにエネルギーがいるし、それを減らすために色々と切り詰める必要がある。水面上は使えるかどうかちょっと怪しいな。食物連鎖だけ考えれば、気液界面を生活圏にした生態系があってもいいけど、文明を発達させようとしたときに、重元素が得られないから、植物由来の建築物以上の文明を作れない気がする。刃物程度であれば海から生体濃縮した元素(骨とか、殻とか)を使うことはできるけど、それ以上が難しい。

 惑星の形成を考えても、小さい惑星は大気(&水)が早くに失われるし、巨大な惑星を作ろうとするとガス惑星みたいになるから、生命が発生して文明を作れる大きさはある程度の範囲に収まるはずで、重力値がリミットされる以上は、そこで進化できる生物の大きさもある程度制限される。神経伝達物質の密度や応答性にもよるけど、知能を発達させるにはある程度の規模の計算リソース(脳)が必要で、それを収容できる体の大きさもある程度決まる。人間より2桁小さい異星人とか、人間より2桁大きい異星人、というのは、ちょっと厳しい気がする。大きい方はエネルギー収支次第である程度広がりそうな気もするけど。

 そういうのを考えると、異星人の視覚や聴覚、体格は人間とそう離れたものにはならなさそう。人間原理じみてきたけど、人間原理ってそういうものだし……


 個人的には体内で核分裂反応を使ってエネルギーを得るような生物とか出てこないかなーとか思ったりするわけだが。放射線で切れないような分子で体を作るのであればそれに応じて化学的に安定な分子になるだろうけど、環境温度が高くなるとその分得られるエネルギーの割合が下がるからなぁ。あとは、例えば数百億年後の宇宙を考えて重元素(ウラン等)が多い環境を考えても、結局はウラン235の半減期があるから、超新星爆発とかで元素を作ってからすぐに惑星まで作らなきゃいけない。あまりU235濃度の高い環境では自然に連鎖反応が起きて消費されるという問題もあるし。重元素(特に放射性元素)リッチな宇宙は今の宇宙よりも物質密度が低いはずだから、そういう環境で惑星系を短期間で作れるかは怪しい。そもそも星の進化を繰り返したところで放射性元素は濃縮されるわけじゃないからな。やはり鉄か…… 金属生命体か。。。

 半導体プロセスがある程度発展してきた現代を考えると無機生命体も希望がありそうだけど、とはいえ現代の最新のプロセスを使ったGPUだってクソみたいなエネルギー効率で人間より遅い思考速度程度のAIしか作れないからなぁ。ニューラルネットワークを直接実装すれば効率は良くなるとはいえ。そういう神経系をどうやって自己複製するんだって問題もあるし。



“激ヤバ納期”必至!? 初の「護衛艦輸出」への高い壁 「日本ファースト」は通用しない!(乗りものニュース) - Yahoo!ニュース

 1番艦をスライドして外国製装備(特に自衛隊が運用していない米国製ミサイル等)を搭載できるように改造して輸出する、ってのは、短期的な「日本ファースト」から考えれば欠点かもしれないけど、長期的に見れば良さそうな気がするけどねぇ。適当な理由を作って、その分の費用も多少なり外国が負担してくれて、日本が運用する気のないミサイルを運用するための改修や評価を実施できるんだから、万が一有事になったときにはその実績を元に米国から買ったり、あるいはオーストラリアが在庫しているミサイルを積むことができる。実際にやるか(できるか)は別としても、そういう能力(海外から弾薬を調達して使用できる能力)があると相手に警戒させるだけで、日本のミサイルの在庫量だけを見て「(日本が本格的にミサイルの在庫を増やす前の)今のうちにやっちまおう」みたいな短慮な判断を遅らせることができる。まあ、ミサイルを買ってきて積める能力を取得する前にとっととやっちまおう、と考えられると困るわけだが。

 後続艦で評価しても同様の結果は得られるだろうけど、1番艦を使うとその分作業が早く終るし、ハード的な改修が必要だと判明したときに、すでにある艦を改修するのはハードルが高いけど(特にすでに問題なく運用できていた場合)、1番艦でその作業をやっておけば、それ以降の日本向けを作るときに「今更新しい設計をやり直して実績もない設計に変えるの面倒ですよね。輸出用の設計でも特に問題ないのでこのまま流用しましょうよ」で能力をそのまま受け継げる可能性がある。

 使うかどうかわからないけど、というような部分だと、日本が運用する艦を、オーストラリア向けからas-isで作っていれば、イザというときに豪州まで船を持っていって修理するなり色々できる可能性も出てくる。損傷した艦を持って行くには遠いし、日本の造船所が軒並み使えない時点でもう詰んでるだろ、という状況ではあるけど。


 オーストラリアが日本案を採用するうえで、タイムゾーンとかが有利になったりすることってあるんだろうか? 「建造中(or運用中)にトラブルが起きたら、そちらの営業時間中に連絡を貰えればすぐに対応できますよ、時差が6時間もあるようなところが相手だと返事は翌営業日になりますよね」みたいな。日本と豪州西部には1時間の時差(日本が1時間進んでいる)があるけど、まあ、今どきの日本の会社なら残業を含めれば同じタイムゾーンで仕事をしているとも言えるし…… これくらいの規模のプロジェクトなら現地に技術者を駐在させるとかもあるだろうし、わざわざ本国が対応しなきゃいけない事態ってのも少なそうな気もするけど。



 教育用電波望遠鏡キット活用ワークショップ | 国立天文台(NAOJ)

 国立天文台は、簡易電波望遠鏡キットを用いて電波天文学の基礎的な理解を普及させることを目的としたワークショップを開催します。特に高校・大学の教育現場、科学館等での活用を視野に入れたものです。

 説明がこれだけしか書いてないからどういうものなのか全くわからない。ホーンアンテナを作るなら材料費を払ってね、みたいなことが書いてあるから、ホーンアンテナを作って宇宙電波を受信するようなことをやるんだろうけど。どんなものが見えるんだろうか。やっぱり太陽とか?


 SETI教材を作っている会社がVLBI学習機材を作るみたいな話もあったけど、あれもどうなったんだろうか。市販のSDR受信機を使って受信性能を大幅に向上したよ、みたいな概要は出てくるけど、細かい話は見当たらないな。数千円くらいのSDRを使うなら性能もそこそこだろうし、数十万円くらいのSDRを使うなら導入できる学校は少ないだろうし。VLBIというからには独立したクロックを使うんだろうけど、どんなクロックを使うんだろうか。それだけでも相当な価格になりそうだが。

 太陽が見えたみたいなことは書いてあるけど、学習用の教材なら基線数はそれほど多くはないだろうし、太陽表面を分解するような能力ではなくて、せいぜい「このあたりに太陽がありそうだね」程度のイメージしか得られなさそうな気がするけど。


 全国の高専に1,2m程度の電波望遠鏡を導入して、全国規模で結合すれば数百~千km規模の開口を作れる、みたいになれば面白そうだけど、とはいえ日本は国土が細長いからなぁ。UV平面がスカスカになりそう。

 そういえば高専で衛星地上局ネットワークを作る、みたいな話はどうなったんだろうか。それが構築されれば高安定クロックを追加すればVLBIとして運用したり色々使えそうだけど、昨今の小型衛星もなぁ……



 米AOLダイヤルアップ接続サービス、9月で終了 映画やドラマに登場した90年代の象徴 - CNN.co.jp


 ダイヤルアップ接続のサーバー側って作れないものかなーとちらっと考えてみたり。

 一番基礎的な接続は300bpsFSKだからデータ速度で言えば大したことはない。低ビットレートとはいえ搬送波周波数も低めだからうまいこと処理しなきゃいけないけど。しかし、全二重通信が必要なのがちょい厳しいのよなー。例えば特小トランシーバ1台(半二重)でキャリアする、みたいなことができない。あるいはATコマンドにビジーを返すとか、半二重になるように遅延させるとかで対応できるのかもしれないけど。

 YouTubeでは時々Home Labでダイヤルアップサーバーを組んでる人がいるし、日本でも同様のことをやっている人は稀によくいるらしいけど、基本的には既製品を入手して組んでるっぽい。

 オープンソースのPPPサーバーとかあったら面白そうだが。例えば上り144MHz/下り430MHzのアマチュア無線を使ってダイヤルアップ接続できるサーバー、とかがあれば、欲しがる人は一定数いそうな気がする。企業や政府に検閲されないネットワーク、みたいな売り文句で。平文でデータ飛ばして検閲もクソも無いだろ、というところではあるけど、それはまあ、E2EEで頑張るとか。キャリアはV/Uフルデュプレックス対応の無線機をそのまま流用してもいいし、アメリカとかならUV-5系の無線機を2台使うなり、受信はSDRで処理するなり、どうとでも作れる。ただ、こういう需要は最近はLoRaみたいな通信プロトコルの端末が市販されているから、そっちに吸われてるんだよなー。

 まあ、そのうちどこかのタイミングで誰かが簡易的なPPPサーバーを実装して、それに触発された人がさらに性能の良いものを作って、みたいなことが起こるんじゃないだろうか。



 DEEP DIVE Cast、以前はしょうもない誤字(人間なら常識判断で除外できるようなもの)があまりにも多い印象だったけど、ここ最近はかなりマトモになってきた気がする。今度は誤変換が増えたけど、AIでアホみたいな誤字を量産するよりはマシ。情報で商売している人たちだし、正しい情報を提供して判断に役立ててもらう、みたいな方針の人たちだし、そういう人たちが大量の誤字が入っている動画を公開するのはあまり良くない印象だった。

 今は人間が文字起こししているんだろうけど、まだ若干「この人ミリオタではないんだろうな」みたいな人格が透けて見える気がする。まあ、ああいう組織でミリオタを採用していいかというのは諸説だろうからなぁ。とにかく経験を積んで耳を慣らしていくしかないんだろう。兵器の名前や地名が聞こえたら聞き逃さないような耳に。



 Ubisoft+の契約がようやく終了。

 ACSのプレイ時間は206時間なので、この1ヶ月で49h(1.6h/d)くらいか。この1ヶ月は暑さに体が慣れたというのもあるし、涼しい日も多かったから、比較的プレイ時間が長い。

 最近のアプデで、装備を引き継いでニューゲームしたり、レベル上限が更新されたので、そのあたりを遊んでいたけど、しかしACSは周回するにはフィールドが広いな。経験値を稼ぎたいならめぼしい城を漁ってマップを1周したら転生して、を繰り返すべきか。まあ、そのあたりはまた次回。次は涼しくなってからかな。

 Steamのセールで買ったゲームとかもあるし、Ubisoft+のゴタゴタで放置していたので、そっちも手を出さないと……



 amazonの定期おトク便って、次をスキップすることはできるけど、次を直ちに(早めて)注文することはできないんだな。本当に定期的に欲しいものならいいけど、不定期かつコンスタントに欲しいものは普通に注文するほうが圧倒的に楽。定期便、意外と不便な気がする。



 気がついたらKindleで連続1年以上毎日読んでたらしい。夜中の23時頃とか1時頃とかに読んでるので、タイミングが悪いと24時間以上空いてJSTではある1日は全く読んでないみたいな扱いになっている。基本的には毎日10分とか30分とか、3年くらい続けて読んでいるのかな。



 GPSの精密歴、フォーマットをググってもほとんど情報が出てこない。なんでこんなに少ないんだ、ってくらい出てこない。

 データは直交座標系とクロックエラーを羅列している感じなのかな? カルテシアンなら6要素が必要なわけだから、このデータを使って軌道伝播させることはできない。厳密に言えば、複数時刻(例えば5分間隔)の位置情報が与えられているわけだから、その点群にフィットするカルテシアン軌道要素を求めることは可能だろうけど、現実的ではない。

 もしかして、他の軌道要素(例えばサブフレーム2/3)で求めた位置と、精密歴等で得た位置から位置誤差を求めて、それを時間方向で内挿して、元の軌道要素から求めた位置に加算する、みたいな処理をやるべきなんだろうか?


 RINEX等のフォーマットはかつてJPLが公開していたらしい。が、現在はリンク切れしている。

 Internet Archiveに残っているので、とりあえず参考程度には使える。

https://web.archive.org/web/20150320015216/https://igscb.jpl.nasa.gov/components/formats.html

 ちゃんと見てないけど、おそらく「分かっている人には分かる」系の説明文だと思う。


***


 3Dプリンタで画鋲の試作


 スライサーでオプショナルストップを追加して、造形途中に中に小さい釘を入れる(今回は1.2x19mmの釘を使用)。

 使えないことはないけど、釘が固定されていないから、あまり使いやすくない。造形後に接着剤を流して釘が動き回らないようにするとか、なにか工夫が必要。あるいは、オプショナルストップの後で隙間に樹脂を流し込むようなコードを追加してもいいけど、座標とか色々考えなきゃいけないのが面倒。

 縦に作れば釘1本分の穴を開けておけばいいからグラつきは少なくなるけど、今度は全体をどうやって浮かせるか(サポート材が無駄になる)とか、断面積が小さい方向で積層しなきゃいけないから折れやすくなりそうとか、いろいろ懸念がある。


 今回はプリンタに入れっぱなしにしていた黒のフィラメントを使ったけど、蓄光のフィラメントを使えば、蓄光の画鋲も作れる。

 作るのがそこそこ面倒なのが難点。この大きさならベッドに敷き詰めれば1回で130個造形できるけど、1個1個釘を入れる手間がな。。。オプショナルストップはXY平面で原点に移動するので、ヘッドが左側手前にある状態で作業しなきゃいけない。面倒。



 軽くググってみたところ、ノベルティのショップで画鋲を作ってくれるところが2,3あるらしい。300-1000箱が1ロットだそうだ。普通の樹脂に染料をいれるようなものだけじゃなくて、クリア系の樹脂に蓄光塗料をいれるようなものも作ってくれるんだろうか? 小さい実店舗1個のショップで1000箱の発注は厳しそうだなぁ。クラファンで集めようにも、1人10箱買って100人集めるのは大変そう。


***


 Mode-3/A/Cログ

 上が8月9日、下(後ろ)が8月8日のログ。普段は110MB/day~170MB/day程度なのに、9日は395MB/dayもある。旭川空港への離着陸がかなり増えているのかな。3(or 9)連休の初日で便数が多かったのかな?

 翌10日も250MB/dayと、かなり多かった。その後は190MB/day(11日)、160MB/day(12日)と、だんだん減ってきているかな。


***


 amazonで買ったHMC7992ボード。を、改造。

 HMC7992はアナデバのRFスイッチで、1対4を選択できる。1個のアンテナに4系統のRF回路(例えば2組の送受信機を1個ずつとか)を接続したり、1個の送受信機(無線機モジュールとか)に4個のアンテナ(指向性とかバンドとか違い)を接続したり、ということをやれる半導体スイッチ。同軸リレーみたいに嵩張らないし、機械可動部がないし、何よりソリッドステートだから安い。

 安いとは言え、チップの単価はDigiKeyで1500円を超えている。ちなみに、amazonで買ったこのボードは周辺回路付きで400円未満とか言うアホみたいな製品。どう考えてもマトモなモノじゃないけど、遊びでちょっと試しに使ってみたいだけだし…… ちなみに、メーカー純正の評価ボードは4.2万円。2桁違う。

 COMをSDRドングルに接続して、Bias TeeをLで取り出して、L経由でRF2に出力するのと、制御端子に突っ込んで、Bias TeeがOFFならRF1へ接続、ONならRF2(DC通電)へ接続、という感じにリモートでスイッチできるようにしてみた(RF3/4は未使用)。

 電源は4x Ni-MHで、Bias TeeからD経由で電池にも逆流させているので、Bias TeeがONなら電池の充電が行われる。Ni-MHならテキトーに電力突っ込んでもそう酷いことにはならんだろ、という慢心。とはいえ多少の怖さはあるので、Bias Teeから電池までL-D-Rを直列に入れて、Rは47Ωを選択。電池側が地絡していてもBias Teeからは100mA程度しか引っ張らない。逆に言えば、DoDが浅い場合はほとんど充電が行われない。どのあたりで平衡するのかがわからないけど、たぶん平衡するまでに数週間から数ヶ月かかるので、評価するのも難しい。Bias Teeのデューティー比によっても変わるしな。


 一応、Bias TeeのON/OFFでRF1とRF2が切り替えられているっぽい雰囲気は得られている。少なくとも、適当なリード線を片側につけてON/OFFしたら、それに応じてFMラジオが入ったり切れたりする。ただ、本当に欲しい帯域(Lバンド)まで通っているのかは不明。解析ソフトを書かなきゃいけないけど、それが面倒でなぁ。。。

 あとは、理想的にはこれを計3組作って、それぞれをAirSpy Miniで受信したいんだよな。ただ、ドングル1本2.5万円として3本で7.5万円、それぞれにデータ収集用のNUC的なものが必要になるし、電源とかも考えると30万円とかは行きそう。流石にそこまではできない。とはいえ、R820系だとちょっと厳しそうだよなぁ、という感もありつつ。まあ、まずはR820で大雑把に期待した通りの処理ができるか試してから、という感じかな。



 今回は片側の先にLNAがついているのでBias Teeを貫通させているけど、もちろんRF2行きのインダクタを外せばAC結合でも使える。電池及び制御ラインだけ接続すれば、単にBias TeeでRF2系統をスイッチすることもできる。ただ、通過電力は33dBm(2W、終端させるなら27dBmまで)だから、そう大きな電力は通せない。アマチュア無線とかで送信したい場合はかなり低出力じゃないと使えない。

 終端27dBmというのは、3ポート合計で1.5Wを吸えるのか、全ポート合計で0.5Wなのかは不明。データシートには底面パッドもソルダリングしろと書いてある。まあ、当然だろう。が、このボードは底面パッドは未接続っぽい(貫通ビアがるけど濡れてる感じがまったくない)。まあ、安物ボードだからね。しょうがないね。今回はもっぱら受信専用なので、吸収電力はたいしたことないはず。ベタGND取れてないから特性が悪い、みたいな可能性はありそうだけど、まだそこまで評価してない。



 うまいこと制御回路を組めば4ポートを選択できるから、例えば無指向の1本と、北向き南南東向き、南南西向き、みたいな4組を選択できるようにしたり、あるいは東西南北の4本とか、あるいは144MHzダイポール、430MHzディスコーン、1200MHzコリニア、2400MHzコリニア、を切り替える、みたいなことは考えられる。ただ、周波数を切り替えたいなら適当な混合器(BPF)を使えばいい話なのでな。

 同軸1本で制御信号を入れるのはまたちょっと面倒な気がするな。制御回路/RFスイッチ用の電源をBias Teeで送って、制御信号はさらに10kHz程度の低周波ACで送るような感じになるのかな。例えば10kHzを基準にして、11kHzが出ていればコントロールAをセット、12kHzが出ていればコントロールBをセット、とか、あるいは10kHzならClear/Clear、11kHzならSet/Clear、12kHzならClear/Set、13kHzならSet/Set、みたいに選択するとか。マイコンを使わずに完全にアナログ回路でBPFや増幅素子を使って組むこともできるだろうけど。ただ、rtl-sdr blog v3は低周波(14.4MHz以下)はダイレクトサンプリングができるから、数kHzの強い制御信号をいれるとRTL2832の耐入力を超える危険性がある。v4だとアップコンバータが入ったはずなので、こちらはミクサの耐入力がある。

 受信機側(選択信号エンコーダ側)をシンプルに作りたいのであれば、例えばBias Teeをダイヤルパルス的に使う方法もある。デコーダ側は容量の大きなキャパシタで一時的に電源を確保して、Bias TeeがOFFになった回数を数える。これなら受信側だけ作ればいいし、追加のインターフェース(RTLのGPIOとか)を使う必要もない。ただ、Bias Teeの制御周期がどれくらい確保できるかによって応答性が変わる。おそらく10Hz程度は出せるはずだから、切り替えに要する時間は1秒未満に収まるはず。短い周期で切り替えたいという場合はオーバヘッドが大きいけど、片側は連続35秒、1周期5分で切り替え、とかなら、1,2秒のオーバーヘッドはある程度許容できるはず。ダイレクトサンプリングの問題と同じで、4.5Vのパルスを連続して(大量に)入れても大丈夫なのか(アナログ回路が劣化しないか)の懸念はあるけど。


*


 アクティブGPSアンテナを直結したSDR受信機でFMラジオを受信すると、感度は悪いけど同軸で入ってきたノイズ的な電波がちゃんと受信できるけど、ローカルで受信できる84.2MHzと77.1MHzの内、77MHzはLNAのON/OFFでは変化がないが、84MHzの方はLNAをONにすると明らかに強くなる(IQのヒストグラムが広がる)。謎い。両方とも変化があるならまだしも。比で言えば1割程度は離れているわけだから、共振的な特性の違いがあるってことなのかな。


***


 適当なGUIアプリを作って、4つの点を配置して、1点とそれ以外の距離差から双曲面を書いて、交差する2点を表示。上から見ると基準点が中央、3点が周囲に約120度ずつ配置されている、みたいな状況で、基準点とそれ以外は高さが少し違う。交点は2箇所あって、下の黒丸塗り潰しと、見づらいけど上に黒丸線がある。もっと複雑な配置でもちゃんと交点らしき場所を推定できているから、計算は正しいはず。

 今回使っている計算式(Copilotに教えてもらった)だと、4点が同一平面上にあると計算が発散する。方向余弦行列?の逆行列でNaNが入る(元の行列式がゼロになる)ため。行列の計算はとりあえずそれっぽいコードをベタ書きしているけど、同じ行列をオンラインの計算機で逆行列を求めても解無しになるから、一応これで正しい動作なんだと思う。


***


 C#のSystem.NumericsのVector3, Vector4, Quaternion, Matrix4x4, あたり、doubleの実装も追加してくれないかなー。座標変換で精度が欲しいときに自前で用意しなきゃいけないのだいぶめんどい。あと、ソースリンクの中身はカリカリに最適化してあるのでどういう計算をやっているのかがわからない(自分でdoubleで実装するときに参考にできない)。

 C++のジェネリックってこういうときは羨ましいよなー。一つコードを書けば、floatとdoubleを使いまわしたりできる。まあ、それは理想論であって、三角関数の精度をどうやって分けるんだ、みたいな課題はあるんだろうけど。


2025年8月6日水曜日

小ネタ



 デジタルコックピットだからトラディショナルな計器とはだいぶ表示が違うな。あまり変なことをやろうとすると人間側が対応できなくて事故ったりしそうだけど、そのあたりはちゃんと考えているんだろう。

 モックアップにいろいろな機器が接続されているけど、主要部はこれで全部なんだろうか? ここからアクチュエータとかセンサとか、末端が色々増えるんだろうけど。そこそこ配線が多いような気もするけど、ヘリ1機まるごとでこの量はだいぶ少ない気もする。根本は太いけど、データバスをスタブにせずルーターでスター型に分配している感じなのかな。

 Attiセンサを傾けてディスプレイに表示するデモをしているけど、ちょっとレイテンシが大きそうな気がする。完全に計器だけを見て飛ぼうとすると体感のAttiと表示のAttiのタイムラグが違和感になりそうだけど、そもそもHX50はIFR用の信頼性とか認証とかを省略して安くする、みたいな方向だから、少なくともAttiの表示はプライマリではないわけで、とりあえず今の段階ではこれで問題ないということなんだろう。

 ディスプレイプロセッサはXilinxのFPGAかな? 開発用のボードは同じものが秋月に在庫があるけど、1枚20万円だそうだ。実際にレンダリングを行うのはNXPのi.MX 8かな? このボードはマシンビジョンとかいかにもそういう用途で使うためのCortex-Aチップらしい。で、i.MX 8でレンダリングした映像は液晶に表示しつつ、Zynqで読み込んでピクセルレベルで表示内容をチェックしているらしい。それで不整合が出たらなんか対策を行うようだ。メーカーから違う2つのプロセッサで同一のレンダリングを行って、比較をするみたいな設計思想なのかな。やたらと複雑だけど、デジタルコックピットで不正な表示が出たらめちゃくちゃ危険だしな。




 レイセオンの軍用機のトランスポンダのコントロールパネル。Mode 1/2/3/A/C/S/4/5あたりに対応しているらしい。TA/RAモードが有るってことはTCASもあるのかな。

 背面のGND端子がセンターを抜いたTNCコネクタっぽいのが面白い。おそらく元々はM3の丸端子とかで、それにアダプタをけて変換してるんだと思うんだけど。なんでわざわざそんなものを使うんだろうか。


 トランスポンダのモードは、少なくとも使う周波数は同じなわけだから、モード1から5まで、民間用含めて各種取り揃えても、MCUで(デジタルで)応答を作る分には大して手間ではなさそうな気がするな(PSKやPPKの変復調はちょっと面倒としても)。モード4とか5みたいにセキュアなヤツは何らかの拡散とかしているのかもしれないし、そうだとすると民間用に比べれば帯域幅が広いのは大変だろうけど、先に広帯域の無線機を作ってしまえばモード1/2/3/A/C/Sあたりは簡単に作れるだろうし。

 むしろスイッチ類が大量に増えて、人間側のほうが大変そうだ。これだけスイッチが多ければ操作ミスやヒューマンエラーも多そうだが、はたして。民間機ほどの数は飛んでないから運用面で気をつければ大丈夫、みたいなことなのかな。それにしたって直接的/間接的にトランスポンダ周りが原因の航空機事故(事件)だって古今いろいろ起きてるからな。複数のトランスポンダモードを使うとそれだけ誤ったコードを設定する確率が高くなる。1個でも間違っているとそれだけで敵機と判断される可能性が出てくる。/* 西側の軍用航空機は基本的にここ数年で全部モード5に統一してるはずだから、運用時に多数のコードを同時に扱う手間は無いはずだけど、それにしたってM-3/Aは使い続けなきゃいけないし */



「自由な形状でシンチレータを作りたい」に応える 放射線で光る3Dプリンタ材料:材料技術 - MONOist

 2.5万円/250gだから、安いPLAの50倍くらいの値段かな。まあ、構造材とかで多用するようなものではないし。

 Prusaは放射線遮蔽用のタングステン入りフィラメント(W75wt%、PETG)とかも売ってるし、マルチヘッドプリンタで普通のフィラメント(β線を透過する)と、タングステン入りのフィラメント(β線を遮蔽する)と、シンチレータフィラメント(β線で発光する)がそれぞれ入り組んだような形状を作って、複眼みたいにコリメートした検出器とか、シールドの厚さや層数を作り込んでカロリメータ的に使ったりとか、いろいろ応用できたりするんだろうか?



 横浜 みなとみらい 花火大会の会場で打ち上げの台船が炎上 花火暴発 作業員5人全員救助 1人けが | NHK | 神奈川県

 黒色火薬はそりゃコックオフ特性も悪かろうよ。


 前日にも打ち上げ花火の事故があったしな

 兵庫 淡路 花火が筒の中で暴発 花火大会中止に けが人なし|NHK 関西のニュース


 某施設が使っている圧縮空気を使った打ち上げ花火って、コックオフ特性はどうなっているんだろう? 発射薬が無い分で火災の規模は小さくなるだろうけど、それにしたって割薬やら星やら色々入ってるからなぁ。とはいえ、点火は電気的にやっているはずだから、打上げ(加速度)が無いと点火しないみたいな安全装置は入っているだろうし、しきい値の設定次第では危険なほど低い場所や高すぎる場所で破裂しないような安全装置は作れるだろうから、地上や低高度で破裂して火の玉が降ってきて他の玉に燃え移る、みたいなことは無いはずだし。

 空気圧で打って電気で点火する方式は、発射薬が無くなって火薬の消費量が減るとか、黒色火薬の煙が無くなるから自由度が高いとか、色々利点はあるけど、安全面での利点も大きそうだな。砲身の長さがどれくらいなのかわからないけど、黒色火薬みたいな強烈な衝撃が少ない(少なくとも熱応力は少ない)分で発射筒の信頼性も高いだろうし。そりゃ某大手アミューズメント施設が苦労して開発するわけだ。

 日本も全国で使う総量で言えば莫大な量の花火を打ち上げているんだから、何十年、下手したら何百年も変わらないような古いやり方を使うだけじゃなくて、根本的に安全化した打ち上げ花火を考えればいいのにな。新しい方式の安全性をどうやって保証するかとか、そもそも法令でガチガチに縛られているであろう火薬を扱う機器をどうやって開発するんだとか、色々問題があるんだろうけど。あとは空気砲(武器)としての取り扱いとか、高圧空気の問題とかもあるだろうし。日本で空気圧発射式の打ち上げ花火は難しそうだなぁ。花火はただでさえ化学エネルギーが高いモノに大きな運動エネルギーを与えて高い位置エネルギーへ打ち上げるわけだから、あちこちが法律でガチガチに縛られていそうだ。



 ウェザーニュースアプリの津波警報の発表と解除が同じ通知音なの、不便なのでやめてほしいな。いかにも心臓に悪そうな音を警報解除に使うのはちょっとどうかと思うのだが。



 蓄光の画鋲が欲しいんだけど、amazonで探しても見当たらない。モノタロウとかアスクルにも無いらしい。ググってもほとんど出てこない。

 2018年に1箱買っていて、そのときは100本入り800円弱だった。ので、少なくとも製品としてはあるはず(or かつてはあった)。なんで無くなったんだろう。画鋲を落としたときとかにUVで照らせば一発で見つかるから便利だと思うんだけどな。まあ、UV光源を常時持ち歩いている人間が日本に何人いるんだ、という話ではあるけど。それにしたってジェルネイル用とかでUV光源が手の届く範囲にある人は多いはずだし。UVで積極的に照らさなくたって、蓄光画鋲はそれなりに需要がありそうな気がするんだけど。

 蓄光のフックで鍵をぶら下げるみたいな製品はあるから、需要がそっちに吸われてるのかな。


 普通の画鋲に蓄光塗料のスプレーで表面処理するのと、蓄光のPLAフィラメントで画鋲を作るの、どっちが楽かな。3Dプリンタで画鋲を作ろうとすると色々工夫しなきゃいけないし、フィラメントの剥離とかもありそうだし、やっぱり塗るほうが簡単かな。



 PCのメインの音声出力(背面端子)が、音を出すとノイズが乗るという謎の不具合を発症。音量が低いときはノイズは無くて、聞こえるくらいの音量が出ているとノイズも出る。出力レベルを上げて外部で絞っても、出力レベルを下げて外部で増幅しても、ノイズレベルは体感で変わらない。別のオーディオデバイス(Bluetoothイヤホンとか)を使っているときは問題ない。フロント端子からも同じようにノイズが出る。おそらくマザボに乗ってるオーディオ系のトラブルだと思う。

 PC再起しないとだめかな?と思いつつ、試しにデバイスマネージャーからオーディオ処理オブジェクトのデバイスを無効化→有効化してみたら解消した。こうして再起動の機会を逃していくのだ……



 興味本位で予備(遊び用)に使っているWindows PCのNTPの設定を変えて、192.168.1.123:1234みたいに設定して、当該アドレスのPC(物理的に別のマシン)でUDPパケットを待ち受けてみたんだけど、何も来ない。

 試しにWiresharkで覗いてみると、192.168.1.123のときにはNTPパケットが出ているけど(もちろん応答はない)、192.168.1.123:1234はそもそもNTPパケットが出ていないっぽい。192.168.1.123:123でもパケットが出ないから、セミコロンでポート番号を指定する記法はだめっぽい。

 IPv6でアドレスを指定する場合、[アドレス]:1234表記ではポート指定が無視されて普通のNTPリクエスト(123宛)が出て、.や#やpで区切った場合は何も行わないらしい。

 少なくとも、WindowsのNTPクライアントは、ポートを指定した問い合わせはできないっぽい。ググってもそういう設定の説明は見当たらない。

 NTPサーバーのポートを変えて問い合わせたいみたいな需要って無いんだろうか? 昔は123番をブロックするようなルーターがあったからすでに多用されていたポートを使うような設定があったらしいけど、最近は問題になることはないだろうしなぁ。


 オフラインの場所(人里離れた野外とか)でNUCみたいなのを使ってDAQを作るときに、自分で(PCの中で)NTPサーバーを立てて、そこに問い合わせることができれば便利かな、と思ってたんだけど、ちょっと難しそうだ。そもそもそんな場所にWindowsを置くな、という話ではある。

 どうしても必要なら自分でOSの時計を書き換えるとかで保時することは可能だろうけど。



 Mode-3/A/Cのログ

 近くでガソリンエンジンがブンブン回っていた時間帯。約2.76Mspsなので時間分解能は362ns。強い信号が1サンプルしか入っていない。GHzまで来る広帯域なインパルスだからMsps程度じゃ分解できないのは当然と言えば当然だろうけど。

 PRFは高くても数Hz(5Hzとか)程度。ゲートは確か一定以上の信号が入ったらそこで開いて、一定時間で閉じて、直後からサンプリングを再開して、みたいな感じだったはずだから、高いPRFが入ればちゃんと記録されるはず。数Hz程度しか入っていないということは、ガソリンエンジンの回転数(6000rpmとして100Hz程度)に比べて圧倒的に低いから、放電ノイズはそこまで強くはないのかもしれない。数が出ればいくつかは強いやつがある、程度で。あるいはデシメーションで時間積分して消えてるのかもしれないけど。



https://www.gsc-europa.eu/sites/default/files/sites/all/files/EWSS-CAMF_v1.0.pdf

 欧州のガリレオで実装している災害情報の仕様書だと思う(読んでない)。

 おそらくQZSSのDCXと同じメッセージフォーマット。IS-QZSS-DCX-001が80ページに対してこのPDFは117ページある。多少は多く色々書いてありそう。



 マルツで買える(DigiKey経由)SiTimeの28.8MHzクロック4選

 MEMS OSC TCXO 28.800MHZ SIT5358AECFR-33N0-28.800000 SiTime製|電子部品・半導体通販のマルツ

 MEMS OSC XO 28.8000MHZ HCMOS SMD SIT8008BC-11-25S-28.800000 SiTime製|電子部品・半導体通販のマルツ

 OSC MEMS 28.8000MHZ SMD SIT8008BCE11-25S-28.800000 SiTime製|電子部品・半導体通販のマルツ

 MEMS OSC XO 28.8000MHZ LVCMOS SIT8920BM-13-33E-28.800000 SiTime製|電子部品・半導体通販のマルツ

 精度は上から50ppb、20ppm、20ppm、50ppm。値段は50ppbが2.9万円(税込み、1個)、20ppmが200円、50ppmが5000円。

 リードタイムが16週間とか26週間とか書いてあって、プログラマブルで納期が早いみたいなアピールポイントはどこにいったんだ、という感じではある。

 50ppmは精度が低くて値段が高いけど、動作温度範囲が広いので、車載みたいな高信頼用で値段が高いんだと思う。20ppmは型番が同じで商品説明も全く同じ。ざっとデータシートを見てみた感じ、出力ドライバの違いなのかな?

 20ppmは、まあ、あえて採用する理由はないわな。製品を量産するなら水晶よりMEMSのほうが信頼性が高い(製品不良率を下げられる)みたいな利点はあるかもしれないけど、一点物で改造に使うようなメリットは見いだせない。

 50ppbは魅力的だけど、いかんせん値段がな。。。


 ちなみに、SiTimeの高精度クロックには5ppbという製品もラインナップされている。ただし現在のところDigiKey(およびマルツ)には10.000000MHzしか製品が登録されていない。1個1.7万円なので、50ppbより精度10倍で値段は4割安い。デジタルプロセスの進化は凄まじいな。アナログな水晶じゃこうは行かない(水晶が普及し始めた当時はこれくらいのペースで安くなってた可能性もあるけど、当時の需要を考えるとそこまで急激ではないと思う)。



 rtl-sdr blog v3ドングルのBias Tee、適当なスイッチング素子で制御してるものだと思ってたけど、4.5V LDOが入ってるんだな。だからBias Teeが4.5Vと中途半端な電圧が明記してあるのか。

 USBの5Vをポリスイッチ経由でLDOに突っ込んで、LDOのENをGPIOで制御する。出力をCで平滑してLで結合。LDOを低インピーダンスなスイッチング素子として使うのは便利そうだな。それに電源ラインのリプルをある程度除去する効果も期待できるし。

 LDOが入っているので、USBの電圧がちょっと高めだったりしても、Bias Teeの電圧が高くなりすぎることはない。RTL2832UとかR820T2も3.3V系のLDOが入っているはずだから、rtl-sdr blog v3を使う限りは、USB電圧が少し高い程度は問題なさそう。低い方は、3.3V LODはより低ドロップアウトなものを使っているから、ほとんど3.3V付近まで動く、と言っている。もちろんBias Teeの電圧は落ちるけど。

 v4でどう変わったかはわからないけど、大して違いはないんじゃないかな?

 他のドングルだとどうなんだろうか。例えばAirSpy MiniとかもBias TeeにLDOが入っているんだろうか? ググって出てきた画像でBias Tee付近についている部品をググってみると、TIのSOT-5 LDOが2種類出てきた。SMAに近い側が4.5V、遠い側が3.3V、らしい。Bias Tee用の4.5VとR820T2/LPC4370用の3.3V、ってことなのかな? そうなのであれば、AirSpy MiniもBias Teeはちゃんと電圧リミットされるっぽいな。


 Bias Teeにぶら下がるちょっと変な回路を考えていて、USBの電源電圧変動を受けたら(特に高い方が)嫌だなぁ、と思っていたので、LDOが入っていて4.5Vでリミットされるのはありがたいな。


2025年7月30日水曜日

小ネタ



 元米軍パイロットがバードストライクしたタイフーンの写真を見ながら思い出を語ったりとか。バードストライクってそれなりにあるんだな。もっと稀なものだと思ってた。

『アポロ18号の殺人』の序盤で、バードストライクで鳥がF-4のキャノピーを貫通するシーンがあるけど、実際に起きるんだな。



 西川善司の3DGE:最新の技術やテクニックがてんこ盛りだった「アサシン クリード シャドウズ」のグラフィックスの秘密


 こういうエンジン周りとかの話結が構好きなので、CGWORLDのゲームグラフィックスとかたまに買って読んでたけど、最近売ってないのが残念。そもそもCGWORLDがCGアニメとかの話題ばっかりでゲームはあんまり特集していない気がする。と思ってバックナンバーを見てみたら、年2回くらいはゲームの特集してるのか。また売って欲しいなー。



『バトルフィールド6(Battlefield 6)』ついに映像公開。マルチプレイモードが8月1日にお披露目へ - AUTOMATON

 FPSのシリーズ作品で現代が舞台で一人でも遊べる新作ってかなり久しぶりじゃない? BFは世界大戦あたりが続いていた気がするし、CoDもブラックオプスの続編かMWのリメイクか、といった感じだった気がするし。

 しかし、BFシリーズってあんまり好きじゃないのよな。一部のシナリオもそうだし、3D酔いしやすい気がするし。とはいえ久しぶりの一人で遊べる現代戦FPSだし、興味はある。しかし、フルプライス1万円弱で販売したところで、その大部分はマルチプレイ用の開発費に吸収されて、シナリオモードは二千円分くらいの出来なんだろうなぁ。それでもインディーゲームに比べれば使えるアセット(開発体制含め)が桁違いだから、ちゃんと作ってあれば面白いんだろうけど。

 BF3はF/A-18のミッションが大嫌いでなぁ。。。BF4は遊んだけど、あんまり印象にないな。たぶんこのあたりでコンソールをあまり遊ばなくなって、それに呼応するようにXbox One Xが故障したはず(実際はXboxの電源周りが劣化して安定性が悪化して遊ばなくなった、というところだと思うけど)。BF1やBFVも同様。そういえばHLはPC版を買い直したけどほとんど遊んでないや。

 ソロとマルチで遊べるゲーム、ソロ/マルチ片方しか遊ばない人向けに片方だけのライセンスを売ってくれないかなぁ。まあ、だからこその抱き合わせ販売なんだろうけど。



 Shipping to Japan? - General Topics - Framework Community

「日本で売るには日本語のロゴを作らなくちゃいけないからコストがかかるんだよ」

「いや、日本メーカーが日本で売るときもロゴはアルファベットだから問題ないよ」

 みたいな話が出てくる。確かに富士通とか東芝もロゴは英語表記だよな。もちろん日本電気も。BIOSについても同じような議論がある(日本語化する必要がある、いや日本人も英語BIOSを使うよ)。

 むしろTESTEDチームがカタカナで「テステド」と書いてあるステッカーを売っていたりするから、日本語ロゴや日本語BIOSは英語圏のギークに若干の人気がありそうな気がする。そして、Frameworkのユーザーはそういう人たちが多そう。

 日本語化云々は置いておいて、英語のままでもいいから(せめてOSの言語は届いてからでもいいから日本語化したいけど)日本でも売って欲しいよなー。WiFi/BluetoothモジュールはIntel製のやつで技適マークも本体に貼ってあるんだから、あまり苦労せずに売れると思うんだけど。サポート体制とかの問題はあるだろうけど、わざわざFrameworkを選ぶような人はそこまでサポートを要求するとも思えんのだが。とはいえ、製品を売るとなるとそういうわけにもいかないんだろうなぁ。せめてオンラインストアで日本から注文したら日本に届けてくれるだけでもありがたいんだけど、やっぱり精密機器ともなると配送の問題もあるだろうしなぁ。



 ゆるゆる古典教室 オタクは実質、平安貴族 | 栞葉 るり, 加藤 昌嘉 |本 | 通販 | Amazon

 ロケットや衛星が好きなら古典も勉強しないとな、ということで(いや、その古典じゃない)。

 かなり読みやすかった。現代オタク向けの感じの本だから万人向けというわけではないけど。挿絵も面白いし。



 最近ゲームのやり過ぎでFr24を見てても雲がかかっていたら「マップ開放にいかなきゃ……」とか思うようになってきたのでやばい。

 天気図を見て荒天が予想される地域に足を運んで祓うみたいなのはファンタジーな世界観のゲームで作れそう。そうでなくても、情報集約を行って祓魔を行うような時代であれば、日本地図の上に確率として雲がかかったような表示はやりそう。時代が下ると自宅でポテチを食べながらパソコンをポチポチしてドローンで祓ったりするようになるんだろうな……



 万博の大屋根リング、木材の体積は2.7万m³で、オリンピックプール10.8杯分くらいなんだそうだ。ATLAS-Iが同6.1杯分くらいだから、その1.8倍近い。ATLAS-Iはファスナーも木材を樹脂で補強したような材料を使っていて、金属を使わずに建設されているけど、大屋根リングはどうなんだろう。伝統構法の貫接合を発展させた、みたいな感じらしいし、主な構造部は金属(ボルトやブラケット等)を使わず、結合も含めて木材で作ってるのかな?


***


 僕が、情報を売る本の誤りに対して厳しいスタンスでいるのは、誤字を、その本の内容がどれくらいチェックされているか、という指標にしているから。

 平均的な日本人として(というか平均的な出版社として)「このくらいの誤りは気がついて当然だよね」というようなレベルの誤字や誤植が残っていると、「この本の中身は誰もチェックしていないんじゃないか」という懸念が生まれる。たとえそれが内容には無関係な、例えば単純な変換ミスとかだったとしても、そういうのが放置されているということは、それ以外の箇所(例えば重要な数値や文脈)もおそらく同様にチェックされていないだろう、というふうに考えている。だから、極端に間違いが多い本は、情報源としての信頼性を低く設定する。無論、数字や重要な記述が間違っていれば、さらに信頼性を下げて評価する。逆に、誤りが少ない本は(誤りが多い本に比べて)それだけ信頼度を高く設定している。

 専門書の内容(ある分野(or装置等)に固有だったり、専門的なロジックだったり)に対して出版社がチェックを行うのは難しいとしても、単純な変換ミスとか、あるいは算数みたいな内容(例えば35と182は量としてどちらが大きいか、とか)くらいは出版社側でもチェックして、おかしいと思ったら著者に確認をいれるくらいはやってほしい。

 そういうふうに見ているから、「内容に関係ない間違いは見逃してやれよ」みたいな意見には賛同できない(あくまでも僕がそう考えている、というだけであって、その人がどう思おうとその人の自由だが)。


 本業の人が作ったYouTubeの解説動画とかでも、あまりにも字幕の誤字が多いと、誰も中身をチェックしないで公開してるんだろうな、というふうに考えて、その動画の信頼性は低く設定している。あるいは、動画なら字幕は読まないで発言だけを参考にする、とかもできるけど。

 某わりとちゃんとしたところ(情報で商売している人たち)が出している動画の誤字が結構多くて、コメ欄で指摘したり、それに対して「大目に見ろよ」みたいなコメがあったりしたので、自分の考え方をちょっとまとめてみた次第。



 査読を受けた論文の信頼性が高いと考えられるのは、同じ分野(その分野に詳しい)かつ利害関係のない人物が内容を確認して、リジェクトするべき重大な瑕疵は発見されなかった、ということをチェックしているからだと思う。逆に、素人が思いつきで書いたブログとか、クリックベイトで稼ぐYouTubeチャンネルは、そういうチェックが無いから、信頼性は全く無い(少なくとも信頼できると考えられる出典が明記されていない限りは)。

 市販の本が信用されるのは、査読論文ほどではないにしても、ちゃんとした内容を記載していると信じられているからのはず。これは特に出版社が校閲作業を行っているという期待によるものが大きい。しかし、実際にはでたらめな内容が多く含まれている本も市販されている。

 そういう本を「いや、間違っているのは一部だけでしょ、それ以外の部分は採用してもいいじゃん」というスタンスで採用していいのか。僕はできればこのような本(or 複数の本でそういう傾向があるなら、その著者の著作全般)は信用するべきではないと思っている。一番の理由は、採用したいその記述が正しいか間違っているかを誰が判断するのか、という問題。採用したい人間が独自に判断するのは、その本を参考文献に使う意味がだいぶ薄くなる気がする。

 極論、様々な説がある分野では、自分に都合のいい内容が書かれているものだけを参考文献に採用して好きなストーリーを作れる可能性もある。一部の分野(業界)ではそもそも最初から中立性なんて無視して作りたいストーリーを作るために文献を探す、みたいなことをやっているような場所もあるだろうけど、例えばWikipediaみたいに可能な限り中立的な記事を書きたい場合に、誤りが多い本を採用すると、そもそも事実を書いてすらいない可能性が出てくる。

 可能であれば、誤っている情報(他の本と矛盾する記述)があまりにも多いと判断した本は、参考文献から除外すべきだと思う。例えば独立した3冊の本を比較して、1冊だけ極端に矛盾していて、残り2冊は矛盾が少ないなら、その1冊は除外して、残りの2冊を使うほうが誤りは少なくできるはず。ただ、この方法を使うには独立した複数の本を入手する必要があって、ただでさえニッチな分野だと参考文献を探すことすらままならない。そしてそういう分野ででたらめな内容を書く著者がいると、マジで大迷惑するわけだ。なので、出鱈目な内容を多く書く著者(特に比較がしづらいニッチな分野で)がいる場合は、声を大にして「この人の著作は間違ってる点が多すぎるぞ!」と叫びたいわけだ(本当に叫ぶ(比喩)かどうかは別として)。


 本とかとはまた違う話だけど、法人とか非営利団体とかでも、自分たちの専門分野の領域で誤字ったり間違った解説をしていたりしてると、対外的に文章を書く人は自社の専門分野に興味がないのかなぁ、と読んでて悲しくなる。

 就活で興味の無い分野の企業しか受からなくて、興味があって入った人が研究分野みたいな領域に行って、そういう場所に行けなかった人(その会社の分野に興味のない人)が広報とかに回されているのかなぁ、とか邪推したり。


***


 先日歯医者に行ってきた。今まで行ってたところとは別の歯科医院(ネガティブな理由で変えた訳ではない)。

 予約したときに3時に来いと言われたので3時ちょうどに行ったら、受付で「遅れるな、時間通りに来い」と怒られた。なんでェ。。。5分前行動が社会人の常識とかマナー講師みたいなこと言われたら黙るしかないけど、それにしたってわざわざ病院の受付で言われるようなことかな。何回も予約に30分とか1時間とか遅れるならともかく、1回目だぜ。それに言われた通りの時間に行ったのに。


 初診なのでレントゲンを(何回も)撮られた。前に行っていた歯科医院ではレントゲンを取るときは基本的に無人か、あるいはフィルムバッジをつけた院長が保護ベスト付きで撮影室に入っていた(建物は自体は古いので「現像室」もあった)。今回行った方も基本は無人での撮影だけど、何枚か院長が部屋に入って撮影して、院長は保護ベストなし、フィルムバッジ無しで撮ってた。それやって良いんか?

 比較的新しい歯科医院だから設備が新しくて、放射線の漏れやそもそもの線量が低いから問題ない、みたいなことなのかもしれないけど。とはいえ部屋はしっかりシールドしてあって、覗き窓も鉛ガラスで「何kV対応」みたいに書いてあるから、やっぱり放射線のリークはそれなりにあるはずなんだけどなぁ。建物は機材より古いとか、フィルムバッジは見える場所につけていないとか、色々考えられるけど。

 治療する場所においてあるPC(レントゲンを見るためのもの)のマウス等が結構汚れていたのも気になる。汚れてるってことはコンタミしてるってことよね。

 自分(患者側)も今回は保護ベストなしだけど、ぐぐってみると、患者側のベストの着用については「効果は殆どないしむしろない方がいい」というような方針らしい。


 2人で作業しているときに、作業者間での会話と患者に対する問いかけが同じ口調なのがちょっと気になる。今回行ったところは顔にタオルを乗せてくれるので、こっちを向いて話しているのか別の人と話しているのかを目で見て確認することができない(前行っていたところはタオルみたいな気の聞いたものはなかったので、誰と話しているのかは視線で一目瞭然だった)。

 あとは、問診票のフォーマットも、「はい」「いいえ」と、「いいえ」「はい(状態1)」「はい(状態2)」「はい(状態3)」みたいに並んでいて、質問の内容によって「いいえ」の場所が右側と左側で別れている、みたいなのもちょっと不便。


 あと、意訳すると「歯磨きだけじゃだめだぞ、食事毎に糸ようじ使えよ、それが嫌なら寝る前だけでも毎日糸ようじ使え」的なことを言われたので、しょうがないなぁ、と思って寝る前に糸ようじやってみたら、歯の隙間からなんか薄片出てきたんだけどなにこれ…… 紫外線を当てたら自分の歯とは違う蛍光を示すから、歯じゃなくて人為的に入れたものだと思うんだけど。

 しかし、歯医者に見られたら助走付きで殴られそうなことを書くけど、糸ようじってコスパ悪くね? 1日10分とか30分とかかけて毎日やって(毎食後ならその数倍)、それで歯石が減るくらいの効率なら、歯磨きだけやって年に何回か歯医者に行って除去してもらうほうが楽じゃね?

 時々海外のMakerが3Dプリンタとかで1発ですべての隙間をフロスできるジグを作って話題になる気がするけど、「食事後毎回やれ」とか言われて、試しに1回やってみると、そういうデバイスが欲しくなるのもわかるな。超絶面倒くさい。自分の場合歯の隙間が狭いからかなり力を入れないと糸が入っていかないから、その分でより面倒ってのもあるのかもしれないけど。

 翌日もう一度フロスしてみたら、ある場所では詰めてある部分が剥がれそうになるし、というか噛み合わせが悪くなってるから事実剥がれてきてるんだろうし、別の場所は入れたら抜けなくなったし、しょうがないので糸をハサミで切って口から出したら血で真っ赤になってるし。こんなのが歯の健康にいいだって!?



https://jsomfr.sakura.ne.jp/wp-content/uploads/2019/09/apron_guideline.pdf

「歯科エックス線撮影における防護エプロン使用についての指針」(2015)


***


 ファン付きベストみたいなやつって熱の仕事みたいな考え方をすると色々な考え方ができそう。

 一番単純なのはファンで外気を取り込んで汗を蒸発させることで熱を移動する。

 別の方法だと、ペルチェ素子みたいなもので気体の温度を下げて供給する。この場合、温度を下げることで飽和水蒸気量が減るから、水分を凝固させて除去すれば、より湿度の低い空気(より汗を蒸発させやすい空気)を供給できる。ただし気温が下がれば体感温度は下がるかもしれないけど、液体を蒸発させる能力も下がるから、一旦ペルチェで冷却した空気を再び何らかの熱交換(例えばペルチェの発熱側)で加温して、低湿・高温の空気で積極的に汗を蒸発させる方法も考えられる。

 どういう構成がいいんだろうな。ファン単体の製品が多いから、それがコスパ良いんだろうけど。


 vortex tubeで低温の空気を出す製品は、コンプレッサー側で除湿したうえに、高圧空気を膨張させて熱エネルギーをさげて、しかも渦で熱エネルギーに勾配を付けて低温側の空気だけを供給するから、vortex tubeを使う冷却服はかなり効率が良さそう。外部に高圧空気が必要なのが欠点。


 Copilot曰く、空気ボンベ(25MPa、25℃、4リットル)を1気圧(101.3kPa、25℃)に膨張させると、550kJくらいの吸熱になるらしい。150W/hくらいだから、活動時間を30分とすると300Wくらいを吸熱してくれる。

 空気ボンベはボンベの頭の部分にレギュレーターがあると思うけど、これは外部の空気から熱を奪っていることになる。例えば消防士の耐火服の中から熱を奪うことができれば、その分体温を下げることができる。はず。人間は活発に動いているときは300W程度の発熱量だそうだから、外部からの入熱も考えると平衡とまではいかずとも、無いよりは遥かに効果がありそう。

 HAZMATスーツは気密服の中にボンベがあるし、外部の熱源はあまりないから、レギュの吸熱はある程度効果はありそうな気がするけど、どうなんだろうか。


***


 Mode-3/A/C

 1200と0000がかなり長い間継続的に出ていた。VFRの小型機が、Mode-C(高度応答)が壊れた状態で飛んでいるんだと思う。さすがに高度計が壊れた状態で長時間飛ぶことはないだろうから、インターフェースの不具合のはず。


 1時間くらい継続的に出ていたっぽい(未デコード応答もMode-3/A/Cの弱いやつ)。


 TCASってこういう場合どういうふうに機能するんだろう? Mode-Cの0000応答(ギルハムコード未割り当て)なら明らかに気圧センサが起動中(or未接続)だから、その場合は同じ高度プロファイル(高度・昇降率)で飛行中として処理する、みたいな例外処理が入っているのかな。


***


 PCを媒介にしてNISTのUTCとUT1のNTPサーバーの差をグラフ化

 ネットワークの安定性とかでいろいろ誤差が大きいけど、傾向は見える。2ヶ月で60msくらい動いてる。7月下旬に入ってからはちょっと落ち着いている感じもあるが、実際にそうなのか、見かけ上のものなのか。


***


 1575.42MHzのC/Aコードを逆拡散して可聴化してみた


 搬送波に位相ロックして、max(0, 実軸)でBPSKをOOK/AM化して、搬送波のドップラ+5kHzの正弦波を変調している(実軸がP信号とするとC/Aは虚軸というべきかもしれないけど)。

 最初は受信機由来の見かけ上のドップラがあるけど、SF1,2,3を受信して測位演算が始まるとクロックエラーを推定して除去できる。

 航法メッセージの構造を考えながら聴くと(見ると)面白いけど、とはいえ一度やればもう十分かな。


*


 移動経路の図を追加。3Dと、各平面に投影した図。緑色の線が衛星の方向を示している。固定受信だとDOPに応じた分散が見える。この図だと細長く伸びているだけだけど、衛星の分散が悪いとパンケーキが立ったような形になったりもする。

 一応3Dで処理しているので、マウスでドラッグすれば位置や向きを変えて見れる。その都度GDI+で描画しているのでフレームレートはかなり低いけど。

 このときの衛星の配置は南西に多いので、その方向に向いた細長い回転楕円体みたいな分布になっている。直感的には衛星が多い方向へのレンジング精度が高いわけだから、衛星が多い方向の精度が高くなるような気がするけど、実際にはその逆。ノイズが時間方向に感度が高くて衛星が多い方向へ接近・離隔するような動きに出るのかな?



 GPSの説明でよく見る図。

 左が高DOP(精度が悪い)、右が低DOP(精度が良い)、という状況。左は左右方向の拘束が弱くなる。とすると、左右方向(水平面)の精度が悪くて、上下方向には高い精度が出るはず。しかし、実際には、衛星が多い方向(径方向)の精度が悪くて、衛星に直交する方向(周方向)の精度はそれなりに高い気がする。

 GPSは水平方向の精度は高いけど高度方向の精度は低い、という話があるけど、これは衛星が上に固まっている(少なくとも水平面以下には衛星は無い)から、衛星配置の重心がある方向は精度が低いのを表していると思う。

 航空機のDMEを使ったρ-ρだと距離は往復時間で直接計測できるから上図の説明がそのまま適用できるけど、GPSのように時間方向(距離バイアス)にも自由度のある方式は、上図の説明は適用できなさそう。GPSの仕組みは測距測位だけど、処理内容的や誤差の傾向は双曲線測位に近い気がする。

 本格的に測距測位にしたいなら原子時計とかが必要になってくるんだろう。少なくとも、1秒間で1m程度の揺れに収めたいなら、光速の逆数(10^-9)オーダーのクロックが必要になるはず。CSACを研究している人たちはスマホに乗せたいとかIoTで使いたいとか色々言っているけど、少なくともあと2,3年でそういうふうに普及するかというと期待薄な気がする。まだまだ時間かかりそうだなぁ。MicrochipのCSACも3000USD弱(5k個)だから、まだまだ遊びで気軽に使えるようなものじゃない。

 衛星に対する接近・離隔はドップラや搬送波の追跡である程度正確に推定できるはずだから、キャリアスムージングみたいな処理でも平滑化できそうだし、センサに余裕があるなら慣性センサで補強することも考えられるし。CSACの普及(開発)が進まないのは、そもそも需要がないからなんだろうな。一旦普及してみれば有ったほうが良いという話になるのかもしれないし、あるいは有っても大して効果はないのかもしれないし、どちらにしろ普及してみないと判断ができない程度の差なんだろう。

 GPSくらいの用途なら例えば10^1秒で10^-10オーダー(11桁)とかの精度が欲しいわけで、10^3秒とか10^5秒とかの中長周期な安定性はあまり必要ないだろうけど、だからといってその部分がいらないから小さいクロックを作ってくれ、というのもまた難しいんだろうな。


*


 GPS衛星の軌道計算の比較

 エフェメリスから求めた位置を正解値として、1次(位置+速度、カルテシアン6要素)と2次(位置+速度+加速度、カルテシアン9要素)で近似した場合の、正解値からの距離をグラフ化している。

 1次の場合は例えば10ミリ秒後で0.01mmオーダー、1秒後で0.1mオーダーの誤差になる。

 対して2次の場合は0.1秒後までは10nmのオーダー(おそらくdoubleの精度限界。衛星位置が7桁に対して10nmが8桁、足して15桁だから、doubleの桁数に一致する)、1秒後でも10umオーダーで、1次に比べて2-4桁高い精度が得られる。


 IS-GPS-200でカルテシアン9要素の計算方法が説明してあるの、ずっと謎だったんだけど、測位演算でイテレーションするときに一々ケプラリアンから位置を計算することなく、一度カルテシアンに変換してしまえば、その前後数秒程度は単純な計算(p+v*Δt+a*Δt²/2)で衛星位置が十分な精度で計算できる、ということなのか。

 自分は観測量として擬似距離ではなく衛星時刻を使っているので、衛星の位置は1回目の計算で確定するからイテレーションの中で衛星位置を更新する必要はないけど、普通のアルゴリズムではイテレーションの中で衛星位置を更新する必要がある。都度エフェメリスから計算すると計算コストが比較的高いので(特に1980年代当時の技術水準を考えれば)、0.1秒程度ならほぼ誤差のない精度が得られるカルテシアン9要素はかなり有力な気がする。

 擬似距離を求めるための受信機時刻は、測位演算で確定する前にはある程度の誤差があるけど、これは例えば適当なGPS衛星で得たクロックに適当なオフセット(例えば75ms)を加算すれば、ほぼ正しい時刻(10msとか)程度に設定できるから、擬似距離の時刻項はその程度の大きさ(大きくても±0.1秒)に収まるから、カルテシアン6要素では多少誤差が大きいけど、9要素ならほとんど誤差の無い位置が得られる。


 ただ、「GPSのための実用プログラミング」のソースをざっと眺めてみた感じ、イテレーションループの中でエフェメリスから位置3要素を求めているらしい。この本はあくまでもGPSの基本的な説明という内容のはずだから、組み込みMCUでリアルタイムに測位演算を行う、みたいなことは想定していないはず。PCでノンリアルタイムに計算するなら都度エフェメリスから計算しても問題ないだろうし。カルテシアンの元期とかまで管理し始めたら数字が増えすぎて面倒くさいってこともあるんだろうしな。


 厳密に言えば、カルテシアン軌道要素はepochから重力モデルとか輻射モデルで軌道伝播させていくものだから、SBASの軌道9要素(やGPSで計算できるそれ)はカルテシアンとは別物なのかもしれないけど。



 GPSの観測量が時刻じゃなくて時刻の差(時間、実際には光速を乗じて距離)で出力されるの、まだ納得できないんだよなー。時刻で出しておけば観測時の衛星位置を確定できるから、イテレーションの中で処理する必要がない。擬似距離だとイテレーションの中で計算しなきゃいけないから(3次元の2次関数で計算できるとはいえ)面倒くさい気がする。

 RINEXファイルのフォーマットを見ると、擬似距離が直接書いてあるから、受信機と衛星の距離を簡単に把握できる利点はありそう。けど、その程度の利点のためにわざわざそんなフォーマット作るかなぁ。。。


***


 Google IME、0-9の数字を上付きとか下付きのUnicodeに変換してくれるのはありがたいし、+記号も上付き/下付きができるのに、なぜか-記号の上付き/下付きが変換できないのが不思議。なんでだよ、むしろ+より-のほうが必要だろ。

 各種数字やいくつかの記号はUnicode 1.0で上付きや下付きが定義されているけど、かなりバラバラな位置に入っていて謎い。


***


 C#でGUIスレッドが走り終わったことを検出するみたいなことって可能なんだろうか?

 適当なスレッド(Task)の中でBitmapに書き込んで、書き終わったことをGUIスレッドへ通知してPictureBox.Refresh()を呼んで、その後でまたTaskでBitmapへ書き込んで、みたいな処理をやっているんだけど、PictureBox.Refresh()を呼んでGUIスレッドがBitmapを読み終わる前にそのBitmapを使っているGraphicsへ書き込みを行うとInvalidOperationExceptionが出てくる。

 GUIスレッドでもちょっと重い処理を走らせているから、GUIへPictureBox.Refresh()を投げても、それが終わる前にレンダリングスレッドが走り出すと困ることになる。

 Bitmapを2枚持っておいて、Task<Bitmap>で交互に返して、Taskが正常に終わったらPictureBox.Imageへ入れる、みたいな処理にしてみたけど、これでもいまいち正常に動いていないような気がする。

 理想的には、PictureBox.Refresh()を呼んでからPictureBox.Imageに入れているインスタンスを使い終わるまでの範囲を検出したい(その間をセマフォとかでロックするイメージ)。

 int配列とかをピン留めして、それを参照する2個のBitmapを作って、読み出し用と書き込み用を分けてやれば、少なくともアクセスの競合を検出することはなくなるはずだけど、今度はRefreshを呼んだタイミングで書き換えをしていると表示がチラつくはず。


 あと、func(int arg1, int arg2, int arg3)とかfunc(params ReadOnlySpan<int> args)みたいなものに対する呼び出しでvar a = (1, 2, 3);func(a);みたいにタプルを渡せるようにならんかなー。


2025年7月23日水曜日

小ネタ



 Mode-3/A/C応答受信機おいておきましょうよ~

 ラジオのノイズってのも気になるな。AMかFMか、北海道ならAMっぽい気もするけど、じゃあAMラジオの帯域まで漏れる電波って何だよ、って話だし。リンク11とか22みたいなHF帯のデータリンクならAMラジオに漏れ出るor抑圧される可能性もあるのかな?


 こういうイベントを記録するロガーってどういう構成がいいんだろうなー。SDRドングルでMode-3/A/C/Sを記録するのに、RTL2832Uなら2本、AirSpy Miniなら1本。USBカメラで映像を記録するならカメラが1-5台。ストレージはHDD1本あれば足りるはず。SSDはコストと書き込み回数の制限があるのでHDDのほうがいい気がするけど、冬の北海道みたいな場所を想定すると回転機構は避けてSSDのほうがいいかもしれない。データのハンドリングは帯域が足りるならRasPiで行うとして、DIY的にやるなら電源を別とすれば5万円くらいあれば作れそう。とはいえ、数を置こうとするとこれを製品化する必要があって、そうすると数十万円とか下手すると数百万くらい行きそう。



 宇宙の謎を追うSFミステリー『ステラーコード』8月15日発売へ。天才義妹と共に「とんでもない謎」に挑む、『イハナシの魔女』開発チーム新作 - AUTOMATON



『ゴースト・オブ・ヨウテイ』のマップの広さは『ゴースト・オブ・ツシマ』と同程度に抑えた、“密度”が重要だから。開発者にいろいろ訊いた - AUTOMATON

 対馬の面積を700km²として、北海道でその面積の円を書いてみると、結構狭いのよな。北海道の面積が8.3万km²くらいだから、100分の1未満でしかない。この範囲をゲーム内で移動できると考えるとかなり広いマップではあるけど、じゃあ北海道を舞台にしてその範囲しか移動できないとすると……

 他のオープンワールドだと、例えばデスストはアメリカ大陸を横断するけど実際の移動距離はめちゃくちゃ短い気がするし、ACSも実際のスケールの10分の1くらいだし、実在のマップを実スケールで扱う必要はないとしても。それにしたって前作の100倍以上の土地を前作と同じくらいにシュリンクさせるということは、いくらスカスカな北海道とはいえ、ちょっと密度高すぎじゃねって気もしないでもない。


「風景を楽しむための望遠鏡・双眼鏡アイテムも新たに登場します」

 ふーん……


 その点、アサクリシリーズって結構自由度高いよな。劇中劇というか、近未来(もう過去だけど)でフルダイブVRを遊ぶプレイヤーを操作する、みたいな世界観だから、イーグルアイで索敵したり、マウス右長押しで拡大するのも「そういうスキル(ゲームシステム)です」みたいに言い張れる。まあ、記憶云々とかはどうなってんねん、という気はするけど。



 Amazon.co.jp: 工作艦明石の孤独1 (ハヤカワ文庫JA) 電子書籍: 林 譲治: Kindleストア

 ハードSFだいぶ久しぶりに読んだ気がする。

 著者の名前見たことあるなーと思ってたけど、『知能侵略』『知能侵蝕』の人か。明石は'22年、知能は'24年で、明石はまだAI一辺倒という頃ではなかった時代背景かな。それでもかなりのものだけど。

 作中のロジックは結構反論できそうな気がする。たぶん著者がサイエンスというよりエコノミーとかエコシステムとか、あるいは社会情勢というか、より"人間的"な方向に強いんだと思う。その方向は(自分が無知な分野ということもあって)特に気になる点は無い。いや、おまえサイエンスに詳しいんかって言われたらそんなことないんだけど。

 著者は太平洋戦争での兵站に関する本も書いているそうで、やはりそういう方面が得意な人なんだろうな。



 List of chronometers on HMS Beagle - Wikipedia

Voyage of the Beagle-en

 イギリス海軍のHMSビーグル号が1831-1836年の地球一周の航海で使用したクロノメーターの一覧(他の航海で使用したときのリストもある)。図は航海の経路。

 22個のクロノメーターを持ち込んで、5年後に11個が生き残り、その時の誤差は33秒だったそうだ。機械式時計のくせして、アンサンブルとはいえ0.2ppmである。この航海によって経度の基準点が地球を一周したらしい。

 また、この航海にはチャールズ・ダーウィン(当時22歳)も同乗したらしい。食費として現在の価値で6万ポンド近くを請求されたそうだ。5年間の食費が1千万円かぁ…… 1800日で割れば5000円/日くらいだから、そんなに高くはないか。なんせ世界一周船の旅だしな。当時の長期航海で出るメシがどれくらい食えたものかはわからんけど。



https://www.jstage.jst.go.jp/article/pesj/43/3/43_KJ00005908150/_pdf

 1995年。ガリレオの宗教裁判とかの話。

 最後のまとめで「前述のようにホイヘンスを持って科学はじょじょに神からの訣別をはたす。しかし現在においても科学的に神が否定されたわけではない。生死の問題や宇宙のなぞが完全解明されないかぎり、神はあくまで神として多くの人々の胸中に生きる」みたいに書いてあって、うーん、って感じ。この一文を持ってして著者は宗教側の人間っぽさが透けて見える。

 科学的に神を否定することって、可能なんだろうか? 定義からして悪魔の証明だと思うんだけど。あるいは「神の証明」と言ってもいいけど。科学が宇宙の謎を解き明かして、大統一理論とか色々完成させて、「これで宇宙の始まりから現在に至るまで完全に解明できた!」と言ったところで、宗教は「計算的にはそうかも知れないけど、実際に見てきたわけじゃないよね? あなたの計算ミスで偶然結果が合ってるように見えるだけじゃない?」とか言いそうな気がするけど。宗教がすんなり観測事実を受け入れるなら世界はこんなに混沌としていないだろ、と思うのだが。



 ボーイングの民間機は開発段階でフォーメーションフライトを行う試験手順があるらしい。おそらく同型機ではなく、適当な随伴機に対してだと思うけど。パイロットにストレスを与えて、制御ループの安定性を見るのが目的だそうだ(不適切な制御則だとPIOが起きる)。緊急事態とかでパイロットに強いストレスがかかった条件を再現したいらしい。



 簡単に設置できる対空SSRって無いんだろうか。法人とか市町村レベルで設置できるMode-3/A/Cレーダ。有人安全を期待できる信頼性/精度は必要ないけど、0.1-1km程度の位置精度はほしいところ。時間分解能はそれほど必要はないけど、開口次第なところもある。回転アンテナだと機械可動部の信頼性の問題があるし、ビームフォーミングだと計算機コストの問題があるし。ただ、一瞬で通り過ぎる機体をスポット的に受信するのであればファンビームを回すのはちょっと厳しい気もする。

 マリンレーダはそれこそ個人(たぶん漁船とかプレジャーボートって個人所有もあると思うんだけど)で使っている人もいるはずだけど、対空レーダ(特にSSR)って航空管制や自衛隊以外で使ってる例はほとんどない気がする。JAXAが種子島のSLR局付近に対空レーダをおいてたりするけど、それにしたってPSRだろうし。

 個人所有の航空機に乗っているTCAS用のインテロゲータは個人所有なわけだから、SSRの設備(航空機用に保護された帯域を使用する通信機器)を個人所有すること自体は日本の法律的にも可能だろうけど、かといってそれを地上設置するのはまた別の枠組みだろうし。

 民間が運営する空港は、そこに設置している各種設備も民間が運用しているんだから、ATC SSR等も民間企業が設置できないわけではないはず。ただ、空港と一体で運用するのが原則であって個別に設置するのはまた話が違う、みたいな可能性もありえる。

 日本でも定期的に軍用機の低空飛行とかが問題になってるんだし、軍用機でも実任務でなければMode-Cリプライは返してるだろうから、それを監視するようなシステムが商品化されても良さそうなのにな。どっかのSDR開発の受注みたいなのやってる会社で作ってくれないかな。あるいは三菱電機や東芝、NECあたりでもいいけど、大手が作ると価格も大きくなりそう。



 ACS、諜報を使って指名手配(お尋ね者)を停止できるんだから、同様に指名手配に追加する機能があってもいいのにな。アクセサリーで手配地域の数に応じて攻撃力が増える物があって、全地域で手配されると防御をある程度貫通して攻撃できるから強い。全地域で手配されるには結構手間がかかって、テンポよく手配されに行かないと途中で季節が変わってリセットされるし、全地域で手配されてもファストトラベルを使うと季節が変わってリセットされるから、実質ファストトラベル禁止縛りもつく。強さの代償がかなりデカい。


 Ubiのサポートは翌週(営業日で4-6日?)に回答があった。その後は比較的レスポンスよく返事をくれたけど、PCのいろいろな情報(ハード情報とか、走ってるプロセスの一覧とか)を要求されたので、面倒になって放置してる。そこまでして遊びたいわけでもないし。

 提案された簡単な対策を試していたらゴーストリコンフューチャーソルジャーは起動できるようになった。UbiストアのPC版は日本語化されていない。昔Xbox360版で遊んでたからどうにかなるやろ、と思って最初のミッションだけやってみたけど、さすがにどうにもならなかった。ゲームシステムはある程度覚えてると思うから読めなくても遊べはするだろうけど、それでシナリオやって楽しいかって言うと、そうじゃないだろうしな。

 アサクリの初代もPC版は日本語化されていないし、Ubiのゲームは最近のゲーム以外は日本語化されてないっぽいな。まあ、最近のStop Killing Gamesに対するスタンスとか考えても、古いゲーム(日本でPC版がそれほど売れていなかった時代)のゲームをあとになって日本語化パッチ作ったりとかはやらない企業だろうなぁ。むしろまだ売ってるだけありがたいと考えなきゃいけないレベルの方針だし。


***


 久しぶりにシンプルなレンダリングエンジンを作って遊んでる。System.NumericsのVector3で座標を持っておいて、Matrix4x4で座標変換して、奥の方から順番にGraphicsのDrawLineとかFillEllipseとかに投げるだけの、簡単なやつ。


 約1分間で取得したGPSの座標(ECEF)から、平均値を求めて、そこを原点として各座標のENUを求めて、画像化。おそらく左上が北、右上が東のENU座標。グリッド(水平面)の間隔は1mのはず。視差を設定して2回レンダリングして輝度をRed/Cyanで加算しているので、赤青メガネを使えば立体的に見える。ただ、あんまり見やすくはないかな。

 とはいえ、アナグリフは人間可読性が最低限確保された深度情報を持てる画像フォーマットとして有用な気がする。赤青メガネを使わなくても、裸眼で見ても奥行きをある程度推定できる。少なくとも、複数点を比較してどちらが手前かはそこそこ判断できる。



 サイドバイサイドで書き出して、ffmpegでメタデータをつけて、YouTubeに投げてみた


 昔のYouTubeは単に左右に(or上下に)並べただけの動画を投げて、編集画面でその旨を申告すれば3D動画として扱ってくれたはずなんだけど、最近はmp4かWebMでメタデータをつけてやらないとだめらしい。

 ffmpegで-aspect "1:1" -vcodec libx264 -x264opts "frame-packing=3"みたいなオプションを追加する。YouTubeは投げられた動画のアス比で出力するっぽいので、単純に左右に並べた動画を投げる場合は-aspectで上書きしておく必要がある(今回は元画像が正方形なので1:1を指定)。もしかしたらアス比はパッキングモードで設定すればいいのかもしれない(1がSBS、2がTAB、3がSBSハーフ、4がTABハーフ、とか?)。ただ、ググってもそのあたりの情報が見当たらない。試行錯誤するのも面倒なので、今回は場当たり的に対応した次第。

 YouTubeに投げる場合はサイドバイサイドで出力しなきゃいけないけど、デバッグとかで使うときはアナグリフに焼き込んでAPNGで出力している。数フレーム程度なら妥当な処理時間で出せるけど、さすがに360フレームとかだとそれなりに時間がかかる。


 動画にすればだいぶ立体感が得やすいけど、とはいえ描画コストがなー。動画化するならちゃんとしたエンジンを探すほうが良さそう。


***


 7個の衛星から、2重差基準用の1個と、独立な3個2組から、2種類の格子点を画像化

 緑丸の場所で格子が接近しているけど、ただの偶然のような気もする。

 サンプルを取ったときに2個のアンテナの位置関係を計測したわけじゃないから正解値がわからないけど、それでももっと高低差は少なかったはず。格子点が3組作れればもっとはっきりするんだけど、それには双方で共通の10個の衛星が見える必要がある。どうしても足りないなら別の組で衛星を共有することもできるけど、そうすると共通な平面ができるから、接近しているか否かの判定が難しい(1軸の自由度が減る)。


 こういう図にしても、マーカーが多すぎて結局わけわからん。

 映画『アイアンマン』(2008)でトニー・スタークがCADで不要な部品をまとめてジェスチャーで囲って捨てたりするシーンがあるけど、まさにあんな感じのやつがほしい。まあ、あらかじめ点群をリストに持っておいて、別グループとの距離が一定以上離れているマーカーは描画しない、みたいなロジックを組めばいいんだろうけど。


 一部のパラメータを変えたら予想と違う挙動をするし、そもそも根本的に考え方を間違えている気がする。

 あと、今思い出したけど、PLLでキャリアロックしたときにBPSKの曖昧さを除いていない(NAVはビット反転を意識せずにデコードできるし、SBASもFECはビット反転を意識する必要はない)から、そのあたりも対応する必要がある。

 まずはPLLの作り直し(フレーム同期で180度の曖昧さの除去)かな。その後で、位置関係をある程度把握した状態でアンテナを配置して受信し直して。


 北海道はしばらく暑い予定なので自室(直射日光が入る&PCの排熱がヤバい)でプログラムの改修とか、あるいは野外でのサンプリングは、やりたくないなぁ。


2025年7月16日水曜日

小ネタ





 How To Think About Radiation (Entering a Nuclear Power Plant) - Smarter Every Day 309 - YouTube

 20年近く前にナショジオが原子力発電所のタービン建屋でエピソード1本作ってたけど、YouTuberが格納容器の上(原子炉建屋)に行けるようになったのかぁ。しかし、次回予告で後ろに立ってるセキュリティチームが普通にM4持ってんのさすがアメリカって感じ。まあ、「何かやる気なら撃ち殺すけど、それでもいいなら入ってもいいよ」みたいなこともあるんだろうなぁ。日本じゃ(というか大抵の場合は)そういうわけには行かないから、関係者以外は入れない、入るなら身元が確実な人間だけ、という運用になるんだろう。

 ところで、商用原子炉で実績を積んで、その後って何か具体的に考えているんだろうか? 例えば、潜水艦にもう一度行ってみるとか。さすがにそれは無茶か。



 日本とEU、大規模衛星網の構築で協力 米国依存脱却へ首脳合意案 - 日本経済新聞

 タイトルしか読んでないけど。

 米依存を下げてEUと協力したって、EUでまたブレグジットみたいなことが起きたら意味なくね? そこまで大事じゃなくても、どこかの国が異論を出して日本との連携を縮小するみたいな話が出てきたりしたら面倒なことになる。他国のゴタゴタに巻き込まれたくないなら国際協調ではなく、自国独力で頑張るしかないと思うんだけど。そのうえで、各国独自に構築した情報を同志国が共有する協定を結ぶ、みたいに運用で頑張る感じで。

 ただ、日EUで協力する前提でコンステを作るなら、H3とアリアン6の相互運用みたいな方向性は出てきそう。片方のロケットがトラブったりキャパオーバーしたときに、もう一方に振り分けるとか。防衛関係(ある程度の冗長なコストは許容できる)で一旦H3とアリアン6の相互運用を仕様化(できれば実運用)できれば、民間分野でも指針にできる。軍事予算で作った仕様書を民間に公開してくれれば、という前提ではあるけど。H-IIAとアリアン5でもバックアップ運用(打上げ6ヶ月前までなら相互に載せ替えられる)みたいな話はあったはずだけど、実際に運用されたことはないはずだし。

 去年辺りまでは、H3やアリアン6がトラブったらファルコン9に載せ替える、みたいな議論も(性能差を除けば)現実的だったけど、昨今のアメリカ(orイーロン)のゴタゴタを見てると、「いざとなればファルコンに載せ替えよう」みたいな議論は、特に国防用途の衛星では難しいだろうからなぁ。それしか選択肢がないならともかく、それに依存した計画は立てづらいはず。



 白亜紀の海、イカだらけ 新手法で化石大量発見―北大など:時事ドットコム

https://www.hokudai.ac.jp/news/pdf/250627_pr.pdf

 岩石をマイクロメートル単位で研磨しながら各層を画像化して、そこから特徴的な構造を探して層毎に重ねて3Dモデルを作って、普通に岩を砕くと壊れるような柔らかいものを探す手法。破壊的な記録だからしっかりした化石が含まれるような岩石にそのまま適用するのはもったいないけど、とはいえ化石を掘るために割ったあとの岩石をデジタルデータ化して後から処理するみたいなこともできるだろうし。処理速度次第では岩石サンプルのデジタル保存技術として便利そう。一旦デジタル化してしまえばあとは好きに加工したり解析したりできるし。輝度分解能と色分解能、あと一番大事なのはスループットか。

 どれくらいの速度で処理できるんだろうか。撮影自体は、ステッパで駆動してモザイク状に撮影するとかでもなければ、ほとんど一瞬で終わるだろうし、研磨工程の速度次第な気もするけど、それにしたって岩をマイクロメートル程度削るくらいならすぐ終わりそうな気もする。あとはその精度を得るためにどれくらい慎重に(時間をかけて)処理をするか、とか。まあ、人間ができる作業じゃないし、スループットがほしいなら機械を並べればある程度は上げられるだろうから、サンプル量に応じて、といったところか。



『ゴースト・オブ・ヨウテイ』にはLo-Fiに浸る“サムライチャンプルーモード”搭載。高自由度な新システムや日本語リップシンクなどゲームプレイ映像どどんと披露 - AUTOMATON

 ゲームのタイトルからして羊蹄山のあたりだけ(札幌以西)かと思ってたけど、結構広い範囲に行けるのかな? これを遊んだ人が「北海道旅行しよ~」っつって2泊3日とかで北海道一周旅行の計画をポストして突っ込まれる未来がありありと浮かぶ。



 ASCII.jp:東大工学部で富野節が炸裂!ロボットの開発なんかやめましょう! (1/8)

 2008年の対談の書き起こしの抜粋。

 数年ごとにこの人のこういう発言(宇宙開発に否定的な発言とか)をタイトルにした記事が出てくるような気がする。

 何年か前の対談の書き起こし(あまり長くない記事)では本当に科学技術とか宇宙開発を否定する意図で発言しているような印象だったけど、この記事を見る限りはちゃんと方向性を持って発言しているらしいな。



 Ubisoft+、1ヶ月で解約するつもりで、6月12日に登録したから、7月11日に解約の手続きをして、解約のメールも届いたから安心してたら、翌12日に契約更新のメールが来て、ちゃんと引き落とされてた。そんなぁ。。。

 後になって6月に契約した時のメールを読み直したら、「7月11日に更新するよ」と書いてあったし、解約のメールを読み直したら「8月11日までは遊べるよ」と書いてあった。

 2回目の請求書によると次回更新は8月11日だそうだ。いや、もう解約してあるはずなんだけど。。。6月→7月が11日で、7月→8月も11日ってことは、ちゃんと翌月の同日に契約更新ってことで合ってるのかな? 開始日と更新日が1日違うのはシステム上の問題なのか、あるいは契約を管理する地域との時差の問題なのか。

 それにしても、契約を解除してから数時間後に契約更新のメールが届くのは、ちょっとアレだよなぁ。

 せっかく勝手に延長されたんだから他のゲームでも遊んでみるか、と思ったんだけど、Ubisoft+premiumで遊べるゲームってあんまり魅力的なの無いんだよな…… GRBPとかDivision/2はSteam版を買ったし。あと、2,3個インストールしようと思ったやつはアクティベーションキーを要求されて起動ができない。

 UbiはWebサイトもローカルランチャー経由のライブラリも操作感が悪いし、インストールも素直に進まないし。ゲーム販売プラットフォームとしては微妙な感じだ。やはりSteamに一日の長がある(SteamとUbi、プラットフォームとしてどっちが先なのかは知らないけど)。


 試しにUbiのサポートに「サブスク登録してるのにライセンスキーが要求されるのなんでなん?」的な質問を投げてみたんだけど、未だに返信がない。途中で土日を挟んでいるので実営業日では2,3日だし、質問フォームには「最近忙しいから返信遅れるよ」とは書いてあるけど、それにしても。買い切りライセンスなら多少遅れてもユーザーが怒るとかネガキャンを始めるとかその程度だけど、サブスクライセンスだと1日遊べない毎にユーザーにコンスタントに金銭的な損害が増えていくから、もうちょっとマトモに対応してほしいわね。特にライセンス管理なんてプラットフォーマーが真っ先に対応すべき問題点だろうし。


 なお、6月に遊び始めた当初、ACSのプレイ時間は131時間で、契約更新時点で157時間なので、29日で26時間遊んだのか。ちょうど「ゲームは1日1時間まで」位のペースだった。


***


 APS-C、910mm、トリミング無し。

 体感だいぶ低い高度を飛んでいたドクターヘリ。レジどころかスポンサーロゴまで読める。TOYOTAとHONDAが並んでるのちょっとおもしろいな。パイロットの口元が白いのはマスクかな。まあ、ドクターヘリだしな。



 当該時刻のMode-3/A/C応答

 3グループあって、上は旭川空港から離陸した民間機、中段は1200、下段はMode-C応答。

 1200の応答は13分程度継続して受信できていて、途中で途切れている。どちらともインコヒーレントだけど、パルスのタイミングによっては若干の角速度が見えることがあって、後ろの方で見えている応答は角速度が下向き、前の方では下向きと上向きが両方見えている。

 タイミング的に、ドクターヘリは上向きの角速度のグループだと思う。



 Mode-Cの拡大

 中央右寄りで上向きが旭川空港から離陸した民間機。その他に低高度を飛行している2グループが見える。


 後半グループの高度応答の拡大

 上の図はIQ軸(色付き線)、その振幅(黒線)と位相(灰点)が表示されているが、この位相が1パルス内で複数ポイント見えているところで、下向きであることを指して「下向きの角速度」と表現している。

 パルス間はインコヒーレントっぽいけど、よく見たらコヒーレントな気もする。周波数差が大きすぎてつながって見えないだけかも。


 上向きの角速度の高度応答

 強度でソートするとかなり強い信号が受信できていて、ドクターヘリを撮影した時刻に一致するから、この応答がドクターヘリからのものと考えられる。


 ドクターヘリの飛行高度がFL24として、当該時刻の旭川空港のMETARからQ1005を得て、このあたりの標高を差っ引くと、600mAGL程度を飛行したという結果が得られた。もっと低いところを飛んでいたような感覚だけど、それでも法定最低高度150mに4倍の余裕がある。

 以前この話題で書いたAH-1と、今回のBK117 C-2(テールフィンをよく見るとそう書いてある)は、全長がほぼ同じ(AHが13.41m、BKが13.03m)。AHは対角で画角からはみ出すような大きさで写っていたのに対して、BKは水平で十分に画角に収まっているから、実際の大きさが同じ程度と仮定すると、見かけ上の大きさの差は距離の差に相当する。実際の高度差は見かけ上の距離差以上に大きいけど、これは対象との位置関係の違いからある程度吸収できるはず。

 体感で結構低そうなところを飛んでいた気がするけど、実際にトランスポンダの応答を見てみると、かなり高い高度を飛んでいた。人間の目(特に素人)の距離感って相当デタラメなんだろうなぁ。


***


Gaa4-32bann-oga

 室町時代の製材の様子だそう。

 角材とか板材みたいな、製材したものって労働集約的というか、庶民が大量に消費するのって大変じゃね?って気がするんだけど、そうでもないのかな。

 少なくとも床が普及するには製材が発達する必要があるらしい。そりゃそうか。ってことは、床板が敷いてあるような建物が出てくる時代は角材とかも含めて材木(を作る製材業)はある程度発達してるんだろうな。

 丸太を削って形を整えるような方法だと1本の木から取れる木材は増えない。例えば、表面処理を行わない木をそのまま柱にするのと同じ程度の材料効率でしかない。板材として使った場合も同様。鋸で切った場合、例えば丸太を半分に切れば、木2本分の面積の平面が得られる。細かく切れば切るほど材料効率が改善するから、輸送コストの高い丸太をいかに低コストに使うか、ということを考えると、製材したほうが低コストになりそうな気もする。


***


 一般社団法人日本硝子製品工業会 | 日本のガラスのはじまり

 ビーズとか勾玉みたいな服飾品的なガラスは日本だと8世紀前半あたりから作られ始めていたらしい。ただしこの系譜は一旦途切れることになる。

 光学部品としてのガラス製品はザビエルが1549年に持ち込んだ鏡や眼鏡に端を発するようだ。


 一般社団法人東部硝子工業会のホームページ

 長崎の商人が1620年前後に海外でメガネの製法を習得した、らしい。



https://www.jstage.jst.go.jp/article/jhsj/54/274/54_53/_pdf

「江戸時代前期の日本望遠鏡」(2016年)

 日本に望遠鏡がもたらされたのは1613年で、オランダでの特許申請が行われた1608年からわずか5年後のこと。また、アジア人で最初に望遠鏡に接したのはタイ人の1608年だそうで、使節団が望遠鏡の実演に居合わせていたらしい。

 望遠鏡は遠方の目標や軍隊を見ることができるから、欧州では武器と同様の扱いをしていたそうだ。日本では戦国時代が終わって平定されたあとだから、そういう扱いは受けず、高級玩具という扱いになっていたらしい。

 あとは当時の望遠鏡をいくつか調べた結果とか、考察とか。



https://www.jstage.jst.go.jp/article/jshit/24/e/24_2401/_pdf

「機械時計初伝来の時期に関する考察 -ザビエルから大内義隆への贈り物-」(2023年)

 タイトル通りの内容。機械式時計と一緒にいくつかのアイテムが持ち込まれていて、その中には「眼鏡」「鏡」「望遠鏡」のようなものもある(ただ、本当にこれがすべて含まれているかは疑問である、と)。この資料の中では主に時計を目的としているから光学系のアイテムの話題はあまり触れていないけど。

 日本では鏡は反射する物の認識だけど、中国では透過する光学系(レンズとか)も鏡と表現することがああって、鏡というのは眼鏡の意味ではないか。望遠鏡はこの時点ではヨーロッパでも未発明だからありえないが、反射式望遠鏡は発明時期が早いとする説もあって、それが持ち込まれた可能性もある、みたいな感じで、光学系に関する考察はだいぶふわっとしている。



 1603年の北海道に望遠鏡があるのって「歴史的に正しくない」んじゃねー?と思って日本のガラスの歴史とかを軽く調べてみたんだけど、ガラスに関しては古代の服飾品的なものとか、江戸以降の器(食器)みたいなものは出てくるけど、光学部品としての話はあんまり出てこない。もう少しあとの時代になると日本で作った望遠鏡の話も結構出てくるんだけど、最初期の話はほとんど見当たらないな。

 少なくとも、定説としては1613年に献上されたものが最初らしい。その10年以上前に北海道まで持ち込まれていたと考えるのはちょっと厳しそう。

 まあ、ゲーム(フィクション)の話だしね。メインストリーに関わるわけでもないし。そもそも本人が望遠鏡を使っている描写は無くて、あくまでも視界が丸くなってズームしているだけだから、そういう超能力(集中したら遠くが見える、とか)を持っている、みたいな設定かもしれないし。


***


 Korean Positioning System - Wikipedia

 韓国も衛星測位システム(RNSS)を作るのか。数年以内には最初の1機が上がるのかな? アジア地域、日本、韓国、中国、インドと衛星測位システム(中国以外はRNSS)がたくさんあるな。それだけホットなエリアということか。。。

 韓国は対北朝鮮を考えて、北朝鮮が使うGPSジャマーに影響を受けないように、みたいなことも考えているんだろうか? だとすると、軍用(政府用)の信号は特にジャミング耐性の強い信号を使うのかな。それとは別に受信しやすい民間用も出すんだろうけど。


 KPS、南北非対称な8の字軌道に4機(or5機)、その中央と両側に静止衛星を3機、という何処かで見たことあるような配置。完全に経度だけ変えたような感じだ。非静止衛星の名前はEIGSO(Elliptically Inclined Geosynchronous Orbit)と言って、やってることはQZOと同じ。地上から見たらQZO、それを実現する軌道要素がEIGSO、という感じ。

 カバレッジはソウルを中心に半径1000kmくらいを想定しているのかな。資料によると半径1000kmの円らしいんだけど、図で表現されたサービス範囲が少しおかしい。この図を信じるなら半径は800km未満しか無い。

 図で示された範囲だと中国は北朝鮮を挟んだ2省と黄海の対岸の1省の半分程度、それとロシアの先端部、日本は九州の大部分と四国の大部分がサービス範囲内。図の「1000km」という数値を信じるなら、中国は10省の大部分が入って、北京までサービス範囲内、日本も能登半島や愛知県までが範囲内、という感じ。

 どちらにしろ、静止軌道付近に7,8機も衛星を置くにしてはサービス範囲がかなり限定的な気がする。ググっても他のページでサービス範囲の情報が出てこないから、実際は電波を受信可能な広範囲をサービスエリアにしているのかもしれないけど。

 カバレッジを限定してサービスを行う場合、電波のビームを細くするなら、静止衛星はともかく、EIGSOは地上との位置関係が変化するから、ナロービーム(スポットサイズが直径3000km弱)位を出そうとすると、ボディポインティングするなり、ビームステアリングするなり、何らかの工夫が必要になるはず。現実的なところだとボディポインティングだろうけど、ちょっと面倒くさそう。ビーム幅を地球と同じくらいの径にして、広範囲で受信可能だけど、カバー範囲(例えばソウルから半径1000km)の外で使うには自己責任で、みたいなシステムにするのかな?


*


 GPS受信アプリ

 SBAS IGPを表示したり、受信レベルや天球上の配置を表示したり、といった機能を追加。

 受信レベルはx LSBレベルで表示。例えば0.7と表示されている衛星は、キャリアの振幅が0.7LSBということを示している。はずなんだけど、あんまり自信ない。2~4倍くらいのゲインエラーがあってもおかしくはない。dB(LSB)とかで表示すれば、VGAに指示した利得(dB)と1対1で対応するようにスケールすればいいんだろうけど。本来はN0との差をdBで表示すべきなんだろうけど、dBの取得方法がいまいちよくわからん。適当なPRNから明らかにコード位相やドップラを変えて相関処理をして、振幅を求めるしかないのかな?



 ↓IGPとGPS放送値

 ↓IGPとGPS/QZSS(wide)放送値

 どちらかといえばQZSS放送値のほうがIGPに近いかな?

 IGPはMSAS, SPAN, BDS, GAGAN、あたり。もしかしたらKAASも入ってるかもしれないけど。


*


 The predefined global ionospheric grid point (IGP) grids. | Download Scientific Diagram

 SBAS IGPの図なんだけど、バンド9/10が間違っている気がする。バンド0を数えると201個で正しいけど、バンド10を数えると238個ある(本来は192個のはず)。バンド9は数えてないけど、見た感じ似ているからたぶんこっちも違う。


 SBASはそもそも公式な情報が公開されていないはずだから、仕様を調べるのが難しい。本来は秘密というか、有料で販売しているものだと思うんだけど、某国がオンラインで普通に公開しているので、これを参照している。オフィシャルな情報ではないからどれくらい信じでいいのかはわからないけど、MSAS等を含めていくつかのメッセージを復調して明らかにおかしいという結果にはなっていないから、それなりに正しい情報のはず。


 あとは、ESAのWebサイトに少し情報がある。

 The EGNOS SBAS Message Format Explained - Navipedia #Ionospheric information messages

 バンド0から8は201個(ただしバンド8は201個目が無い)、バンド9と10は192個、トータルで2192箇所、という説明(バンド9/10の一部はバンド0-8と重複)。

 なので、前述のバンド10が238個ある図は明らかに誤りのはず。


 ESAの、電離圏は低緯度のほうが活発だから低緯度は高密度に、高緯度は高密度に配置している、という説明、少し違う気がする。IGPは正距円筒図法で定義しているから、実際の球面に配置すると、密度を変えないと高緯度が密になりすぎるってのが半分じゃないだろうか。高緯度地域は経度方向だけじゃなくて緯度方向も抜いてるから、低緯度地域に比べて若干疎な配置になっているのは事実だけど。