座標系の平行移動と回転 parallel translation and rotation of the coordinate system

はじめに  CloudCompare Wiki に頼る。このサイトの検索窓にrotationを入力すると,Apply Transformation が表示される。内容は簡潔明瞭である。まずはこの情報に従って,1. 実行プロセスをまとめて,2. ぼくのcloudを使っての作業を示すことになる。ぼくにとっては,初めての試みでワクワクしている。  これによれば,transform, i.e. rotate and/or translate, とあって,座標変換 coordinate transformationとは,水平面での回転 と, 回転せずに平行移動,するということである。 手軽にできるので,基本的に調査後には実行することになるであろう。 1 Apply Transformation 座標系の回転と平行移動の手順  Apply Transformation の記述に従ってまとめると次のようになる。座標変換のためのスカラーの入力にはここでは,3種用意されているが,最も簡潔な,XY平面内(Z値は固定)での回転軸と回転角(degrees),そして平行移動(xyz3軸の筈だろう),を選択する。 次の記述は,この章より後の実行プロセスで得た内容をフィードバックした形で示すことになるだろう。 座標変換対象のcloud(ぼくの経験値ではFBXファイル)を開く。 Edit>Apply transformationメニューを選択する。 Axis, Angleタブを選び,スカラー値を入力する。 OKボタンをクリックして完了。 2 座標変換対象とするcloudの紹介  iPhone 12 Proで3Dスキャニングを実験的に初めたのは,当方のサイトの記録からすると2月9日夜に自宅のシングルソファをScaniverseで撮影した時に始まる。昨日,iPhone 12 ProからEveryPointを削除し,ScaniverseについてはLibraryを空にしたので正確な日付は不明である。スキャニバースももう不要とは思っているが。最初の撮影は2月8日の夜かも知れない。外部のcloud公開サイトにもぼくは関心が無く,アップも数回して止めた。20日間でここまできた。  対象cloudは,裸岩露頭のiPhone 12 Proを使った点群撮影 の,「7 凄腕Metascanを理解すべく:白姫大明神,Feb. 18, 2022」の図26, 27で紹介したLiDAR撮影のcloudとする。これは,二つの3Dスキャンマップを繋ぐ でマージし,CloudCompareで不要なポイント群または面群の削除 で,測量結果として使える程度にゴミ取りを実施した,Merged mesh.bin 2022/02/24 1:44 を使うことにする。  図1には,Merged meshの全体像を示している。このほぼ中央には二枚のcloudを繋ぐのに使った4枚のラベルが見える。そのズームインが図2である。赤白のターゲット1〜4が右上1,右下,左の中程,左上4にこの順で見えている。  iPhone 12 Pro撮影の3Dスキャン画像の座標を捉える では,「実際の調査の際には,光波測量などを実施することになるし,4点ほどの地標情報も得ることができる。iPhone 12 Proのすごさであるが,重心方向は瞬時に検知されていて,Z軸は重心軸と平行である。3Dスキャン点群のZ軸のゼロ点は現地での海面高を測定して潮位計算をして得ることができる。XY軸の方位軸も地標との対応関係から3Dスキャン点群を磁北または真北に回転することが可能である。それゆえ,3Dスキャン点群の座標値が得られれば,事実上,光波測量の座標系に載せることができるので,殊更,3Dスキャン点群をこのCloudcompareでtransformationする必要性は,ない。」としている。  で,残念ながら地標の実測情報が無いので,仮の作業を実施することにする。ラベル1を原点とし,ラベル4をラベル1から視準した場合の真北方向とする。磁北方向としても良いがここでは作業を単純化するために,真北方向とするのである。iPhone 12 Proによる3Dスキャン図をCloudCompareで読み込んだ場合の座標系はユークリッド座標系であるが,それをこのラベル1と4の情報から座標変換をすることになるのである。  ラベル1と4の座標値は,次のページの図8に見える。二つの3Dスキャンマップを繋ぐそれを書き出したのが次の表1である。 X Y Z ラベル1 R0 0.236343 -0.496429 -0.229579 ラベル4 R3 0.139421 0.474156 3.645772 表1 ラベル1と4のXYZ値    今後,座標変換をする際に,複数のcloudを繋ぐことは面倒なので(Metascan Proは使用制限が無い),(前もって手順を考えて)一気に全域をスキャンすることになるだろう。ラベルの座標値は,次に紹介した方法で求めることができる。iPhone 12 Pro撮影の3Dスキャン画像の座標を捉える の,4.1 Point picking,4.2 Point list picking,である。  4.1 Point pickingを実施して,ラベル1と4の座標値を確認した。図3に見えるように,ラベル1ではラベルがダブって見られる。座標値から確認したのであるが,アラインメントの際のレファランスになった方は,この図の上方のものである。図4のラベル4では幸い1枚だけが示されている。なお,図3と図4の左手のペーンの赤で囲った情報から,座標を知ることができる。 3 ”Axis, Angle”タブでの入力値を前もって求める  ラベル2枚のcloud位置情報で,ラベル1を基点とする。後の変更は簡単なので,ラベル1(X, Y) = (0, 0) とし,ラベル4はラベル1からの真北線上に載せたい。言い換えると,現地調査の際には目的によるが多数のラベルを設置する。そのうちの1ラベルを基準点とする。この場所の地球座標系の1点としてできれば確定したいのであるが,地形研究でそれほどの精度も必要ではなくて,iPhone 12 Proのgpsで得た情報でも足りるとは思う。そして,クリノコンパスを使って磁北方向を視準し,地上のまあいわば目立つ場所を覚えて,そこにもラベルを設置する。現地測量はこれで終わりである。ただ,白姫大明神裏の参道では,この作業すら実施していない。 なお,クリノコンパスを使う理由はiPhone 12 Proのコンパスの不安定性である。周辺環境の電磁波の影響を受けやすく,沖永良部島の海岸部の一画では明らかにiPhone 12 Proのコンパスは磁北を指さなかったが,従来型のメカニカルなクリノメーターは磁北を指していたという体験がある。  繰り返すが,LiDARモードや写真モードで3Dスキャンした情報には最低かつ必要十分な2枚のラベルが不可欠である。一つは測量の仮原点(地球座標系上の点)として,もう一つは仮原点からの真北または磁北の延長線上に設置されていることである。両点の距離などの測定は不要である。     図5解説: CX-CYはiPhone 12 Proで取得したcloudの座標系である。赤線のLx-Lyは地標の測量から得られた座標系である。cloud座標系を地標座標系に変換する流れを示している。図5は重力Z軸成分を外して表現している。 Apply Transformationの設定では,回転軸の座標値,回転角度(度),平行移動ベクトルを入力する。 上掲は図5や表2などの計算ができるエクセルファイル。利用者は,四角枠内の赤い数値に替わって自らの数値を入力することになる。  図5に基づいて表2の上段(2〜7行目まで)では,アークサインの計算をしている。座標の回転は,真北軸の時計回り90度,反時計回り90度,で完全に満たされるので,arccosineではなく,arcsine(エクセル関数はasin)を求めているのである。  図6では,主に表2の上段の計算に基づいて,Edit>Apply transformationメニューを選択して,”Axis, Angle”タブを選んで,スカラー値を入力している。入力時に混乱もありうるので,表2の中段(10〜14行目)で改めて,入力値の配列などを揃えて表現している。OKボタンを選んだ結果は,次の図7と図8に示している。図7は原点対応のラベル1,図8は真北視準軸上のラベル4である。  座標変換の結果を表2の下段(16〜25行) […]

Metascan写真画像測量モードの利用-2 using Apple’s photogrammetry, object capture, by iPhone app. Metascan-2

はじめに  このページは,Metascan写真画像測量モードの利用-1 から続くものである。本日Feb. 26, 2022,ヴィソラでメタスキャンの写真モードの使用法についてチェックして,およそ,理解した。その内容をここに記す。 1 Metascan Proへのアップグレード  ヴィソラのカスケードでの撮影枚数が50枚を超えたので,プロモード(有料モード)が必要になった。その際の表示が図1である。ここでは,ぼくは Pro Monthly (780円/月)を選んだ。実はこれまで一週間のトライアルをして,Metascanを実行してきた。Wed, Feb. 16に開始したので,Tue, Feb. 22の夜に終了すると考えた。実際に離脱したのはFeb. 23の午前3時前であった。メタスキャンから何の連絡もなかった。放置していたら,自動的に1年契約になるところであった。図2が図1に続く表示である。  図3は撮影後のLibrary表示である。撮影完了後,アップロードせずに放置すると,Libraryでは,DRAFT表示される。写真が表示されているのでDRAFTの中味は理解できる。再訪が簡単な場合は,Wi-Fi環境が整った場でMetascanのサーバーにアクセスし,その後iPhoneで計算過程を実施した方が早い。 2 ヴィソラの千里川右岸カスケード付近  次の図4はカスケード付近の写真である。  図5に見られる幾つかの階段に歪みは見られない。対岸から撮影したことが功を奏している。対象からは10メートルほどは離れた方がいいことがわかる。  図6では手前に右岸部分も表示されていて見にくいが,図奥手の左岸に注目してほしい。左手が上流側である。左手のコンクリート面には雲が懸かったように見えるが,これは子ども一人がウロウロしていたためであった。それゆえに複数の写真の合成ができなかったようである。右手のオレンジ色は太陽光が当たっていたところで,撮影時に太陽光の強弱があって,そのことがこのような結果を招いたようである。今回は,下流側の大橋のうち一段低いところから撮影した。その際には太陽は当たっていなかったと思われる。  図7でも,右手つまり左岸側の解像度が低くなっている。  図8は図5の左手の階段付近の撮影時の様子である。この写真も写真画像幾何学に使用されているが幸い,人や犬は写っていない。後の大橋からの写真が優先されたものかどうか。日差しも入っていて,かなり撮影環境は悪い。本日の写真はすべて,ランドスケープ(横広)で撮影した。  このヴィソラカスケード付近の撮影は,意識して,離れた場所から撮影し,視軸の平行性を意識した。右岸と左岸の繋ぎ写真は,大橋から別途撮影したものであろう。千里川の水路で重なっている部分もあり,これも貢献しているかも知れない。視軸方向をiPhone 12 Proがコンパスを使って計算しているのかどうか,わからない。 3 ヴィソラ東端の商店と集合住宅  一つの建物を全周で撮影したいと考えたがそのような撮影対象には出会えなかった。紳士服のあおやまと隣接する集合住宅を撮影した。   segmentのページ CloudCompareで不要なポイント群または面群の削除 では,☑️cofirmの意味がわからなかった。マニュアルでは,”validate the current segmentation and create two clouds: one with the selected points and one with the others”となっている。図9の左ペーンのDB Treeのmetascan 20220226-1605のMesh構造を見ると,Mesh 0.partにチェックを入れていて,この編集画面の集合住宅だけが表示されている。Mesh 0.remainingにはチェックを入れていない。これを入れると削除したcloudが現れる。ぼくがMesh 0.partをMesh 0.remainingと同階層に置いた結果である。confirmを実行すると,元々はMesh 0.remainingの一つ下の階層に作られるのである。上記英語の説明では理解できない。  この集合住宅の南側には建物が迫っていて撮影できない。次の図10には北面と,西日が当たる西面を示している。図11では北面と東面を示す。  図10と図11での日の当たらない北面と東面は肌理が粗いが,これはWindowsの液晶表示の特性を示しているようである。マウスで押し込むと汚れた肌理は無くなる。この集合住宅撮影結果については,図9のように,建物角の直角が認識されていて,ぼくとしては感心した次第である。  この集合住宅の撮影は,この直方体の面に対して視軸を垂直とはせず,むしろ対角線方向から撮影した。つまり,西面に対しては,北西から南東方向へ,東面に対しては,北東から南西方向へ。北面は結果として,その両軸から撮影される。東面の南端にもベランダが少し見えるので,この付近では東から西方向へ撮影した。基本的には一つの視軸方向で,二面を撮影するという発想であった。  もう一つは,この集合住宅と道路を挟んで立地する青山であった。図12は,あおやまの元図で,とりとめもない。  図13は最もよく捉えている像なのであるが,惨憺たるものである。店の前に駐車されている車などがこういうノイズを作る。  図14で,上段右端のごちゃごちゃは,フロアの複雑性にもかかわらず写真間隔が短すぎた故であろう。下段左手のごちゃごちゃは車が駐車されていたのであるが,それを表現するほど撮影間隔を縮めなかったためである。撮りたいものだけに注目して写真間隔を取っても,手前の邪魔なものをも表現すべく撮影間隔を縮めなければ,撮りたいものを表現できないということである。 4 花咲か公園の花壇  図15には,ヴィソラの北隣の花咲か公園のボランティア市民用の花壇が見える。不定形である。千里川右岸に位置する。  本日の最初の撮影(15:44)であった。日差しは結構強かった。対角方向を意識して撮影したが,図16のように結果はひどかった。この図の下方は南向,左手は西向き。この両面は正確に表示されたが,他の二面は崩れていた。影になっているので,壁という認識ができなかったのでは無いだろうか。撮影法が特に悪かったという印象はない。  図17は,花壇部分を残した上からの像である。花壇枠が正確に表現されている。図18は同じcloudのパースである。花壇枠は正確に再現されている。撮影方法は,図16の時と同様である。  次の撮影は,今回最も成功したものである。敢えて,花壇に向かって撮影を重ねて一周した。視軸を平行にするという意識を断ち切った撮影であった。図19はsegment実行前の元図である。このような整ったcloudはぼくには初めてであった。図20, 図21は,segment実行後のパースである。 まとめ  以上の体験から次のことが言えそうである。 1 視軸を平行にする撮影は不要。2 対象に向かって70%重ねるように撮影すれば良い。3 対象の大きさによるが,接近する撮影は良くない。4 太陽光はかなり大きな影響がある。基本的には一つの撮影対象に大きな明度の差があると,失敗する。5 動くものが入っていると像を結ぶことができない。6 撮影対象の手前に障害物がある場合,その障害物も像を結ぶように,撮影間隔を縮める必要がある。 以上,Feb. 26, 2022記。 おわりに  一晩たって,上記のまとめが,アパラントなものと感じている。70%重ねるという考えは,圧倒的に広域かつ遠方からの撮影に適用できる。デコボコが5mのものであれば,×20で距離100mから撮影すれば良い。直径10メートル程度の対象であれば,全域をカバーするように回転して撮影すれば良いという体験を上で示したが,これは要するに,対象の凹凸に対して,余裕ある視差差を確保するということである。この回転撮影のコマ間の対象の中心からの回転角や対象の中心から伸びる外延との距離は,視差差の正しい評価の上に求められるのであり,これについては実験する方が簡単であるが,幾何学的に証明できると思う。 以上,Feb. 27, 2022記。  ネット上にiPhoneを使った写真モードのロジックを探したが英語圏でも見当たらなかった。公開されていないようで,ぼくが考えても詮無いことなので,これに関する好奇心は捨てることにする。ここで述べてきた写真モードでの成功例metascan-1726を見ていて,花壇の様子がはっきりしない。これは,花壇を写すような高い位置からの撮影過程が無かったからである。この過程も組み込む手順を考えるべく,再挑戦しようと思っている。 そして,その発展形は次のページにある。 Metascanの出力からテキストファイルを得る  次は,フィールドワークで必要な座標系の平行移動と回転の過程をまとめたいと思う。それが次のページにある。 座標系の平行移動と回転 以上,Feb. 27, 2022記。 追編集 Apr. 4, 2022: てにをは,のみ修復。  

Metascan写真画像測量モードの利用-1 using Apple’s photogrammetry, object capture, by iPhone app. Metascan-1

はじめに  裸岩露頭のiPhone 12 Proを使った点群撮影 に続くページである。iPhone 12 ProにインストールしたメタスキャンをLiDARモードで使ってみて,この種のアプリのうちでは,おそらく最も優れたものであるだろうことは体感した。CloudCompareで他のソフトから得たcloudと比較したし,LiDAR走査線の飛び方も人間工学的な観点からも,おそらく最も優れていると感じている。  LiDARモードで撮影する際には,野外で,まあ舐めるように同じ場所を二回〜三回は巡って積み上げても問題はなく,むしろ,スキャンを重ねることで,より高い精度で地表を記録することができた。さて,写真モードではどうであろうか。空中写真測量では,飛行機は真っ直ぐに同じ高度を水平飛行して地上での撮影範囲が66%重なるようにコマ撮りをし,Uターンして,隣接する前回のコースでの撮影範囲を33%重ねつつ,個々の隣接するコマについては66%重なるように撮影してゆく。  さて,撮影する際の光軸は平行でなければならない,という写真測量のタブーは止揚されたのであろうか。そうしないと例えば孤立岩石などを回り込んで取り込むことが出来ない。冒頭のリンクページで紹介した写真モード撮影では平行軸を意識しつつ,少しずつ回っていったのである。 Lens Reviewから左の図を借用。光軸とはこの図の中央の水平線の軸をいう。  それを確かめるべく,本日Feb. 22夕暮れ前に箕面市萱野南にあるヴィソラに出かけて,人工水路千里川公園を撮影した。その結果,「撮影する際には光軸は平行でなければならない」というタブーは,必ずしも止揚されてはいないことを実感した。一度目は最大200枚という限界を知らず,予定の撮影は完了しなかったが,二度目は,枚数の観点からあまり丁寧にならないように意識しつつ,カスケード仕立ての場を130枚ほど撮影したあと,ふと思いついて,近接する大橋(千里川に懸かっている)の上からその場を遠望して撮影したのであるが,予測を超えて,すべての写真が合成されてはいた。  さて,自宅に戻ってmacを開くと,iCloudが5GBの限界に近づいたので容量を増やすか,というようなメッセージが出た。ここ数日の3Dスキャン撮影のファイルがiCloudに流れるのかと焦った。特にメタスキャンの写真モードでは,サーバーにアップロードされる。その際にiCloudが利用されるのではないか,と考えた。結論を言うと,ぼくのiPhoneのバックアップが自動でされているらしく(内容は不明),それで4.1GB近く圧迫していたのである。この中味を見ることはできないが,完全削除して,さっぱりと軽くなった。iCloudへのバックアップは不要である。macと共有したいものは「連絡先」など限られている。  今日撮影した350枚近い写真が削除されていないか心配したがもちろんキープされていた。iPhone 12 Proで,設定>一般>iPhoneストレージ,で見ると,使用済み: 49.5GB/256GBとなっている。アプリ使用メモリ容量は,その高いものから並んでいて,Metascan 5.21GB,ミュージック2.94GB,などと並び,ずっと下の方で,Scaniverse 291.5MB,さらにずっと下方にEveryPoint 160.6MBとなっている。後2者は捨てても問題はない。Metascanについても必要なファイルは全く無いので,現在残しているものは,実験終了後に破棄したいと考えている。 閑話休題: インターネットブラウザーとして,macのSafariはMacOS sierraゆえに古くて,Google Chromeでの本サイトの編集を本日から始めた。快調ではあったが段落の始まりの字下げがどうしてもできない。ネット上では字下げは,基本的には使用しないことになっている,という(頭おかしい)。WordPressが編集時には字下げが見えてもブラウザーでは表示されない。で,Safariに戻った。全然,問題なく,入力がそのまま反映している。最新のsafariでは実現していないのか,わからない。 以上,Feb. 22, 2022記。 1 撮影現場体験から  2例のうちの,まずは2回目の成功例から示す。136枚撮影後,upload開始して6分間ぐらいで終了。1回目のアップロードの時には,iPhone 12 Proをポケットに入れたりテーブルに置くと,進行しなくなり,スリープする。画面を開いて,スリープ解除してまた再開するというような体験を最初の撮影の際に何度か経験し現地での作業を諦めていた。この2回目は手許で観察していた。アップロードが終わると,processingになる。この時には他の画面を見ても問題ない。撮影した個々の写真の閲覧したり,録音アプリを使ってメモ録音した。終了時刻を把握できなかったが,processingに要した時間は20分ほどであった。continueをクリックすることで,次の撮影などもできる。  2回目の撮影結果のアップロードの際にはスタバに居たがスタバのWi-Fi接続をしなかった。後の自宅での1回目の撮影結果のアップロードの体験からすると,アップロードはより早くなっていた筈である。フィールドで撮影したあと,すぐにアップロードしないで,自宅や宿に戻ってWi-Fi環境でアップロードしても問題ないようである。電池の消耗などを考えるとそうするのがいいが,ただ,撮影がうまく行ったかどうかを現地で確認した方がいい場合もある。なお,processingの速度は,iPhone 12 Pro内で実施されるため,Wi-Fi環境とは関係がない。 2 iPhone 12 Proでの作業  図1と図2は何れも,1回目の200枚を撮影した際のもので,自宅に戻って実行した際のものである。processing中に,最上段のinfoボタンで図1を見ることができる。写真撮影はwide cameraが使用されていることがわかる。図2では撮影した写真のすべてをタップして拡大して見ることができる。  図3〜5は,2回目の撮影の編集の様子である。 MetascanのLibraryを開いて,当該画像をタップ。最下段のメニューのeditを選ぶと,Topの枠が現れる。Front,Right(図3)のタブでも確認して画像全部が効率よく枠内に入っているので,いずれかの表示で,画像を速めにダブルクリックすると,下段のDoneの文字がオレンジに替わる(図3)ので,Doneをクリックする。  図4のように,3D画像が表示される。野外ではこれを図5のように画像を観察して,撮り直しするかどうかを判断するのが適切ではあろう。下段に並ぶアイコンのうち,shareをクリックし,ExportのFBXを選択して,Dropboxに保存する。Wi-Fi下で,瞬時に保存される。  写真も残したい場合,ExportのうちのPhotos (Raw images captured in Photo Mode) を選ぶことになるが,ドロップボックスを圧迫するので,できるだけ早く,macなどに移動してドロップボックスから削除した方がいいだろう。  ただ,ドロップボックスにアップロードしていたら,「ファイルをアップロードできません」とのメッセージ。大きすぎた。AirDropでmacに直接アップロードすると10秒ほどでできた。その結果を示したのが図6である。ダウンロードフォルダーに入っている。ファイルを見ると,IMG-0001.heic〜0138.heicとあり,個々のファイルサイズは2.5〜5.5MBと幅が大きい。  ネット検索したら次のサイトがあった。iPhoneで撮影した「.HEIC」形式の写真を「.JPG」形式に変換する方法 2020/03/10 藤田 智美 感謝。これによると,「.HEIC」とは、HEIF(High Efficiency Image File Format)という画像ファイル形式につけられる拡張子のこと。「HEIF」はヒーフ、「.HEIC」はヘイクなどと呼ばれています。最大圧縮率がJPEGの約2倍と非常に高いことから、2017年にiOS11とmacOS High Sierraで採用され、iPhoneの写真の標準フォーマットになりました。」とある。メタスキャンが敢えて特殊なファイル形式を用意している訳ではないということ。iPhoneで写真を撮ってmacの「写真Library」にこれまで取り込んでいて全く気付かなかった。写真アプリが自動で変換してくれていたんだなあ。藤田さんによって下記が推奨されていて,アクセスしたが簡潔な手続きでjpegへの変換が可能である。ダウンロードされたzipファイルは588MBで解凍しても容量に変化は無かった。今回は不要なので,すべての写真を削除した。・HEICからJPGへのコンバーター(by Convertio)・HEIC変換フリーソフト(by Apowersoft)  メタスキャンから出力されたFBXファイルについては後に記述する。 以上,Feb. 23, 2022記。長男夫婦の男の子誕生。 3 CloudCompareでの表示例 3.1 2回目: ヴィソラ千里川沿いのカスケード付近  2022年2月22日17時13分撮影開始である。日差しはこの場では入ってこない。イオンのビルが夕陽を妨げている。日の入りは17時40分過ぎぐらいである。  このcloudについては,不要な領域を削除した。矩形削除すべく,図8のように,まずは捉えたい場所が見える形に回転などした。  左岸での,不要部分削除前の様子を図9に示している。  図10には,削除調整の後の様子を示している。  図11には,右岸も含めて,削除調整の完成形を示している。矩形セグメンテーションを2回しただけである。まだ多くのフロートが残るが放置している。   図12には,子ども達の遊び場カスケード(ぼくだけの呼称)付近を示している。編集画面上方は下流方向に向いている。  図13は,カスケードの向かい,つまり左岸側である。柵の横軸は多少波打っている。図中の二つの階段のうち,上の方の段も波打っている。  図14は千里川右岸のカスケードの部分である。水量が豊富であった。右側の階段はかなり波打っている。この階段の撮影密度は低かったと思う。カスケードと階段の石組み付近までを比較的丁寧に撮影した記憶がある。なお,動くものはこの写真画像幾何学には向いていない。カスケード直下の飛び石付近も水浸しであるので画像が揺らいでいる。  図15の編集画面の千里川下流側の階段は波打っていない。この階段部は近接で撮影せず,遠くの大橋から撮影した結果が反映されているようである。日光には遮られ,光の強度も低かったと思われるが,よく撮れていることに驚いている。写真測量は近接よりも橋の上で光軸をほぼ平行にして撮影したことでいい結果が出ているようである。この点は,写真測量をする際の注意点だろうと思う。  図16では,視点を千里川流路軸に近いものにしている。  図17では,千里川流路に対して垂直断面に近く,表示している。iPhone 12 ProのG認識能力はすごいと思う。 以上,Feb. 24, 2022記。 3.2 1回目: ヴィソラ北縁の千里川陸橋付近  次の図18は変換がバグった例。iPhone 12 ProからFBXファイル出力して,違和感のなかで触っていたが,iPhone 12 Proで見た時のものとあまりに違うので,再出力した。これは問題無かった。こういうことがあるので,exportの後,できるだけ早くCloudCompareで確認した方がいいだろう。  さて,図19は新たにFXB出力したものでtop viewである。  さて,図20は,ヴィソラ北縁の両側4車線道路の地下にあたる千里川のトンネルである。  図21の画像は何となく流れている雰囲気がある。  図22はトンネル内右岸壁と,天井も見える。紺色の部分は暗くて情報が得られなかったことを意味する。  図23ではそれなりに写っているようであるが。  図24では陸橋がほとんど見えない。細い橋のように見えるのは,下流側のトンネル入り口付近で情報が取得された場所である。トンネル内部の天井は暗いために,撮影されていないのである。  以上,千里川の陸橋部分を撮影した結果を示している。短い距離ながら,近接写真故に,トンネルを出る前に,200枚の限界に達してしまった。撮影範囲と撮影距離との関係を把握しなければならない。 4 光軸をできるだけ平行に再度撮影  自然景観では,撮影の歪みを捉えにくい。人工物は線分が多くて,歪みを認知しやすいので,敢えて,同じ場所を撮影することにした。 1回目は失敗作である。千里川右岸を右岸を歩いて2m前後の近接距離で撮影した。光軸はほぼ平行に実施していた。それと暗がり故にメタスキャンに受け容れられなかった。 2回目はそれなりに成功であったが,1回目同様,右岸を右岸を歩いて近接で撮影した。それなりに成功というのは,一つは1回目に比べると距離が大きかった。通路にも壁面にもかなり余裕があった。それと,大橋からの撮影である。 以上の経験から,撮影は此岸ではなく,対岸をターゲットにすること。そして,やはり大橋から撮影することである。まずはこの視点で実行する。さらに一つの建物を撮影したいと思うが,適当な場所が無いなあ。 以上,Feb. 25, 26, 2022記。 おわりに  長引くのでこのページはここで終わりにする。本日Feb. 26, 2022,改めてヴィソラに行って,追加的実験をして,より理解することができた。次ページに続く。 Metascan写真画像測量モードの利用-2

WordPressでアバター写真を設定する setting a custom profile image for a user using the standard WordPress media

ダッシュボードの編集画面で右上隅に見えるHowdy, koba写真が空白のままなので気になって,マウスをこの表示の上に載せると,「Edit Profile」が表示される。で,この編集ページの写真入力の行に入るとAvatarsの設定プロセスがあるが,WordPressのユーザー情報を入力しても,ぼくのユーザー名が使われているとして,それ以上,入り込めない。で,ネット検索したら,User Profile Picture プラグインがいいようだ。https://ja.wordpress.org/plugins/metronet-profile-picture/ 1 ダッシュボードで,Pluginsの新規登録を選んで,User Profile Pictureを検索して,ヒットするのでそれをダウンロードして,有効化した。2 一応,リスタートして,ダッシュボードを見ると,左のペーンの下方に Avatars (〘コンピュ〙アバター〘仮想現実世界でユーザを示す分身アイコン〙)が見えている。3 このページの見だしは One User Avatar で,下方には,Default Avatarとある。これまで指定しなかった時に現れていたアイコンは,Mystery Manと言うらしい。で,このすぐ上方にある Choose Image を選ぶ。使用する画像ファイルは100MB以下にする必要があるようだ。 4 意外と暗いのでPhotoshopで明るくして,再度実行した。なお,この際,Media Libraryのタブが見えているので,Upload filesにタブを変更してアップすると,Media Libraryタブで見ると,いまアップロードした写真は,トップに見える。それをselectすれば,すぐに反映される。5 ブラウザーで見ると右上にちっちゃな写真が見えるが,マウスを載せるとそれなりに見える。ただ,ワードプレス作成者だけの自己満足であるが。一般の閲覧者には,もちろん見えないんだもんね。 以上,Feb. 22, 2022記。

CloudCompareで不要なポイント群または面群の削除  how to delete unwanted points or faces in CloudCompare

はじめに  このページは,二つの3Dスキャンマップを繋ぐ から続く。  3Dスキャンファイルには,必ず不要な映像が映り込む。ぼくの利用目的からすると,美観を望まないが,空間を解釈する上で邪魔になるものがある。それを削除するツールは,CloudCompareでは,Interractive Segmentation Tool に具体的に画像を使って,記されている。以下,ぼくが使えそうなツールを使った様子を示したい。 以上,Feb. 20, 2022記。 1 segmentation tool 分割ツール  cloudの不要な部分を削除するツールは,図1のsegment(分割と訳されるが,ここでは削除と考えて良いだろう)ツールである。このツールは,上段トップのアイコン群の中央付近にある。Edit>Segment,でも実行でき,図2のツールバーがcloud表示画面の右上に現れる。 手順1 3Dモデルを移動したり回転しつつ,cloudsまたはmeshesから,不要な点群や面群を探す。2 最上段のメーンメニューの中央付近にある,図1segmentation toolを選択すると,編集画面の右上に,図2のtool barが現れる。3 初期設定は,ポリゴン編集モードになっている。多角形で不要なものを囲むことになる。左クリック,左クリック,左クリック,と,で不要な部分を囲む。5角形で囲みたい場合,5回左クリックして,その後,適宜右クリックするとポリゴンが閉じる。3’ 矩形編集モードrectangle edition modeもあるが,ゴミ削除のためでは無いと考えて良いだろう。矩形編集モードにするには,図2の3の↓矢印をクリックして選ぶことになる。図2にはその様子が示されている。矩形を作る場合は,矩形1頂点を左クリック(マニュアルではクリックとしているがプレスとした方が妥当)してそのままホールドして,その対角線が到達する頂点でリリースする。 iPhone 12 Proなどで3Dスキャンしたい対象は基本的には矩形領域と考えて良いだろう。それゆえ,矩形編集ツールで囲む場合,必要な部分を対象にしているので,図2の4をつかって,矩形以外の領域を削除することになるだろう。これを削除作業の最初に使用すると,その後の小さな削除作業が軽くなる。4 3または3’が終了すると,図2の4または5のポリゴンアイコンをクリックする。4を押すと,囲んだ範囲が残る。5を押すと,囲んだ範囲の外側が残る。不要な範囲を囲むのが普通だから,通常は5を押すことになる。5では多角形の内部が空白なので,内部を削除するというように考えれば良い。5 一つ実行すると,paused modeになる。この時,削除したい点群や面群がはっきりと見えるようにして,ツールバーの1の「‖」をクリックすると,paused modeからまたsegmentationモードになるので,多角形で削除する対象を囲むことになる。  以上のプロセスを繰り返して,不要部分を削除してゆく。 以上,Feb. 21, 2022記。Feb. 23 修正。  で, 削除ツール segmentation toolからすると,この機能がオフされている状態を,paused modeつまり,削除ツールの休止状態,とよぶ。この状態の時に,cloudまたはmeshの回転,移動,ズームなどができる,と考えるのである。 削除ツールの説明を次に。 図2の1の□の中に「‖」があるボタンは,paused modeとsegmentation modeのトグルになっている。paused modeではcloudを移動または回転などして,削除範囲を表示し,「‖」ボタンをクリックして,segmentation modeでの作業を実施する。 図2の6の🌀に似たボタン(clear segmentation)をクリックするのはかなり危険だ。それまで実施してきたsegmenatationがすべて失われる。 図2の☑️ボタンの機能は把握していなかった。これをクリックするとそれまで削除してきたゴミが復活したように見え,再度,ゴミ削除をしなければならなかった。上記リンクのマニュアルでは,”validate the current segmentation and create two clouds: one with the selected points and one with the others”とあるが,新たなcloudが見つからない。しかしながら,次のページで,この☑️ボタンの機能を理解できた。Metascan写真画像測量モードの利用-2 での,「3 ヴィソラ東端の商店と集合住宅」の図9とその直後のテキストを参照。 完成したと考えた時には,図2の8のボタン(ゴミ箱とその後にポリゴン)をクリックすると,これまでの作業を踏まえたcloudが作成される。File>Saveをして,当然残すことになるが,上書きするか,別ファイルにするかを選択できる。 図2の末尾の✖️ボタンをクリックすると,削除ツールの作業はキャンセルされる。escapeキーと同じ働きである。この後,再度,削除ツール segmentation toolを表示する必要がある。  さて,GrassGISしか知らないぼくにとっては驚くべき技術が次に示されている。cloudのポリゴン(矩形選択ツールは対応しない,as a (flat) 3D polyline)が他のcloud向けにエキスポートできることである。それゆえ,インポートもできる。図2の2のフロッピーディスクのアイコンが見えるボタンである。このボタンの右手の↓をクリックしていると,現在選んでいるポリゴンや直方体をエキスポートする選択アイコンが現れるのである。エキスポートしたいcloudやmeshのある領域をポリゴン作成する直前,つまり右クリックする前に,図2の2の右手の↓を選んでフロッピーディスクにすると,エキスポートの体制が出来上がる。フィギュアなどのcloudを丸ごとエキスポートもできるわけだ。ぼくには今の所,関心が無いのでこの実験はここでは行わない。  このエキスポート機能を知ると,segmentは,削除ではなく,分割と考えた方が良く,なにゆえ,deleteではなく,segmentという用語が使われたのか,理解できるのである。 以上,Feb. 22, 2022記。 2 実例:白姫大明神裏参道マージcloudに対して  図3は削除前の様子である。空中にプカプカ得たいの知れないもの(ここではフロートと仮称)が浮いている。  図4の編集画面の中央上端に,Segmentation [paused]とある。これは図3で見られたフロートを削除する過程が示されている。一つのフロートを削除する度に自動的にこのpaused modeになる。その際に作業がしやすいようにcloudを移動したり回転したりする。segmentation modeに入るためには,ツールバー左端のツールバーの1の「‖」のボタンをクリックするのである。  図5では,セグメンテーションモードに入っている。編集画面中央上端の表示が変更されている。  図6のcloud島の上方右端近くにポリゴン選択の様子が示されている。マウスを図2の5番目のアイコン上に置いているので,アイコンの説明Segment Out が現れている。これをクリックすると,ポリゴン内のフロートが削除されるのである。  図7の島の上方には,矩形枠が見えている。図2の3のアイコンが矩形となっている。この選択は失敗で,実行すると佐渡島のようなフロートの上半部が削除されるのである。  図8では,一気に複数のフロートを削除する直前である。この次に図2の5を実行することになる。なお,この図8には,図 7での佐渡島を矩形で削除した結果が見える。  図9では,島の一部もポリゴンで削除しようとしている。  図10では,島の不要部分の削除をポリゴンで指定している。  図10のポリゴンを削除して,図11ではサッパリしている。  図12では,フロートや島の削除した作業が,キャンセルされている。これは図2の7の☑️を実行してしまったからである。この7の役割が理解できない。これを実行したために,過去の作業がご破算になってしまった。  さて,試行錯誤しつつ,図13のように,セグメンテーション作業は完了した。LiDARでの撮影時に上り参道の左手斜面も入ってしまい,cloudを回転などして,上り参道の右手をズームインしたい時に,邪魔になるので,図13では,そういう島の斜面も削除されている。  完了したら,図2の8のボタンをクリックすると,セグメンテーション作業が反映したファイルを保存できる。File>Saveで,上書きか別ファイルで保存できるのである。 おわりに  以上,セグメンテーションを体験した。軽々とcloudの回転や移動ができて,削除も迅速にできる。いいツールだと思う。 Some keyboard shortcuts are available: Shortcut Description Space bar Toggle ‘pause’ mode Escape key Cancel Return […]

二つの3Dスキャンマップを繋ぐ merging two clouds using “align” command on “CloudCompare”

はじめに  本ページは,裸岩露頭のiPhone 12 Proを使った点群撮影 に続くものである。このリンクページでは,iPhone 12 Proとアプリ「メタスキャン」Metascanを使って,LiDARまたは写真を元に見事な3Dマップが得られることを確認することができた。  メタスキャンは他のアプリに比べて,広範囲のスキャンが可能であり,絵作りも非常に優れている。スキャンの際には生理的要因が大きいと思われるが,iPhone 12 Proを縦に持って前方をスキャンする性向があるが,それにメタスキャンは応えている。自分の目線よりも高いものをスキャンする場合もこの機能は大いに役立つと感じている。アップルのLiDARは5mという制限があるが,メタスキャンの仕様書では0.5〜3.0mが適当と謳っていて,他のアプリを使用しても実質3mが限界と考えた方がいいだろう。メタスキャンには,70%オーバーラップ撮影をした多数の写真をメタスキャンのサーバーにアップロードしてpoint Cloudを作成し対応づけるなどの処理をしたあとで,iPhone 12 Proで仕上げ処理をする機能がある。ファイルエキスポートの多様性もいい。OBJまたはFBXを使う。ここでは,迷うところであるが,さし当たりFBXで実験してみたい。  この作業が成功したら,光波測距儀などによる測量結果との対応付けを考えてみたい。手許から3D測量機器を失ったのでさし当たり次善の策を取る。地標a(ラベル設置)の海抜高度と経緯度(iPhone 12 Proのgps機能レベル 誤差5mほど)がわかれば,Z値の変換は容易であり,水平面での方位軸は,クリノメータを使って磁北方向の光軸上の適当な位置(例えば20mほど)に地標b(ラベル設置)を設置すれば,XY軸も決まる。つまり,この2点の地標を設置した上でiPhone 12 Proでスキャンすればいいのである。 以上,Feb. 19, 2022記。 1 マージ用の二つの3DスキャンFBXファイルを用意  マージしたい二つのクラウドを図1に表示している。LiDARスキャン2セットには,4枚のラベルを設置した重複場所がある。各セットの絵作りは同じ右手座標系である三次元ユークリッド空間で初期値が動くことなく実施されるので,投影すると重なってしまう。この図1では二枚が分離しているように見えるがそうではない。高度(Z値)幅に違いがあるためにこのような表示になっている。図1の左窓の上枠には,二つのクラウドのファイル名と,それぞれのメッシュ名が現れている。FBX(Film BoXの略)は,メッシュ系ファイル形式である。  CloudCompareのマニュアルはよく整備されていて,CloudCompare Wiki (このサイト内検索は最低,Googleで検索した方が良い)がある。このalign コマンドを使う。もちろん,ぼくには初めての実行である。macの横にmouseマシーンでCloudCompareを実行しながら,このページを書いている。このalignページのノートに,バージョン2.6から,メッシュに対応したようだから,ありがたい。現在のバージョン2.11につながる技術であったようだ。 2 alignment 実行  実行手順に沿って記述してゆく。 1 Role assignment,そして,alignment Reference(基準クラウド,つまりこのクラウドは動かさない)とaligned cloud(位置合わせしたいクラウド。レファランスの座標系に動したいクラウド)を決める。ここでは,調査地域で始めに実施した低い方の1642ファイルをレファランスとし,高い方の1653ファイルを位置合わせクラウドとする。図1でいうと,下方のクラウドに上方のクラウドを合わせることにする。 メーンメニューの左に示したアイコンか, ‘Tools > Registration > Align (point pairs picking)’ menu,を実行する。  図2では,繋ぎたいmeshを指定している。二つのcloudにはそれぞれ3meshがある。cloudを超えて,meshだけの指定はできず,シフトキーを押してcloudとともに全meshを選択することになるので,繋ぎたいcloud(mesh)は図2のように隣接させる必要がある。  そして,上記のアイコン,aligns two clouds をクリックすると,図3のように,Entry selector,が現れる。  この表のうち,アライメントする方のクラウド(山側)のメッシュすべてをシフトキーを使って選び,OK。  図4でOKすると,次の図5のように,Cloudそれぞれに対応する地標をpicking (摘み取り)することになる。図5では4点の地標のピッキングが完了している(表だけでなくマップ上にもA0〜A3のラベルが認められる)。地球の座標系を繋ぐためには,光波測量などを実施して,Cloudと地球座標系との関係を求めなければならない。その役割を担うのが地標であるが,設置しなくても,特徴的な木々の根のコブや岩の稜角などを使って,cloudを繋ぐことは可能ではある。  レファランスの方(平野側)のcloudは,アライメントする方(山側)のcloudに隠されている。そこで,この右上の表の最上部の赤く塗られた Show ‘to align’ entriesの左の☑️を外せば,アライメントする方(山側)のcloudが見えなくなって,レファランスの方(平野側)のcloudだけが見えるようになる。図6のように,レファランスcloudの全貌が自動で表示される。  で,アライメントする方(山側)のcloudと同様に,レファランスの方(平野側)のcloudについても地標をピッキングした結果が次の図7である。  レファランスの方(平野側)のcloudについても,地標4点のピッキングが終了して,右上の表の最上部の赤く塗られた Show ‘to align’ entriesの左の□に☑️すると,図8のように両cloudでピッキングした8点がすべて表示される。  そして,この表の下段にある,align キーをクリックして,更に,下段の☑️で確定すると,図9が現れて,トランスフォーメーションマトリックスと誤差情報が現れる。CloudCompareの例よりも低い誤差となっていて,ラベル設置の効果は大きいと思われた。 2 マージ merge  アライメント作業が終了しても,一つのcloudに合体はしていない。マージという作業が必要である。 CloudCompareのコマンド Merge を使う。このサイトに示されているように,cloud対象とmesh対象で微妙に違うのであるが。 図10ではシフトキーを使って,二つのcloudと三つずつのmeshを選んだ様子を示している。  次の図11はマージした結果である。左ペーン上段枠でわかるように,マージ前の二つのcloudの下方には,新たに作成されたMerged meshが見える。この新たなcloudだけを選んで表示しているのが図11の画像である。  図12には,4つの地標を設置したオーバーラップ領域付近を改めて拡大表示しているが,完全にアラインそしてマージされているのが見えるだろう。  なお,保存を忘れないようにしないといけない。CloudCompareのbinファイルとして,このマージされたマップは保存できるのである。 おわりに  これでさし当たり,したいことはほぼ終了した。これだけで何ができるのか。海岸地形の3D記録ができて,その微地形の分布から,旧汀線高度の空間分布を理解する一つの手がかりになると思われる。微地形の座標値を得ることができるので,3D地形を手許で観察し,微地形の水平分布の傾向を捉えることができるだろうと思っている。他の指標による研究も進めているので,この3Dモデルを取得できる意義は大きいと感じている。  さて,CloudCompareも多少は使えるようになったので,もう少し,小さな作業を進めようかと思う。1 スキャンした際に周辺の不要な木々などが取り込まれているので,コマンド segmentを使って,掃除したい。3Dで見ている時に,衝立のように邪魔になる部分もある。   参照:CloudCompareで不要なポイント群または面群の削除2 座標系の垂直移動をする。得られたCloudの座標Z値を海抜高度に変更する,例えば,この例での地標1と4の上を北極軸が通っていると考えて,XY平面を地標1を中心に回転するという操作である。   参照:座標系の平行移動と回転 Mar. 1, 2022追記3 例えば,海食崖沿いの微地形の垂直断面図も得たい。その手法もこのcloudを使って作成したいと思っている。垂直断面図は,Cross Section を見ることになる。そういえば,こういった操作って高校二年生にやっていたなあ。 以上,Feb. 20, 2022記。  

裸岩露頭のiPhone 12 Proを使った点群撮影 acquisition of point cloud of rock outcrops by iPhone 12 Pro

はじめに  iPhone 12 Proを使って3Dスキャンするさし当たりの目標は,海岸地形の測量ツールとして使えるかである。屋外の岩柱や室内のソファについては,EveryPointと比べると,Scaniverseの絵作りが良かった。岩柱については iPhone 12 Proで3Dスキャン 3D LiDAR scanning with iPhone に示している。で,昨日Feb. 15, 2022,亀岡市のタニハのそばの墓地造成地で切り通しのスキャンをした。その結果にガッカリした。自宅周辺でどこか適当な撮影場所は無いかと考えて,小規模ではあるが思い立って,徒歩15分ぐらいだろうか白姫神社後背の箕面山地中の勝尾寺参道に午後5時前に行き,ここで取り上げている二種のアプリを試した。そして同様の結果を得たのである。まずはその結果を簡単に示し,これまでと変わらず試行錯誤して行きたいと思う。 1 スキャニバースは広い場所は苦手:白姫神社 練習1 Feb. 16, 2022  昨日の亀岡の墓地造成地での結果はこの白姫神社後背の試行と同じなので,省略する。同様の問題点が再現したという意味で徒労ではなかった。 図1のランドマーク(径58mm)を作成した。一つの比較的長い露頭を二回に分けて撮影し,その二つの点群をCloudCompare上でマージするという実験をするべく,その重なるエリアに4カ所のランドマークを設置したのである。ランドマークの白域2カ所に地点番号を書いて,ツマヨウジ2本で土に固定する。  まあ3Dスキャンを例えば100m長の場で実行したくてもソフトウェアの点でうまく行かないかも知れない。それでスキャンを複数回に分けて実行し,CloudCompareでその複数のファイルを指定assignして一つにまとめるといった発想である。実験は極めてコンパクトな範囲で実施したが,これでさえもうまく出来なかった。測定場所の動画を次に示している。酔いそう。  まずは,Scaniverseで2分割撮影した。次の図2と図3は出力された.plyファイルである。撮影範囲は,図2で10m,図3で距離8mほどである。何れの撮影も連続的に実施したが,Scaniverseが勝手に削除しまった。撮影してすぐの画面を見ると切れ目が無いのであるが,saveを実行すると脱落する。保存様式に軽いものから重いものまで三段階あり,図2は,重いファイル(精細ファイル)として保存した。画面で見ていると保存に時間がかかり,iPhone 12 Proをポケットに入れて時々,進行具合を見るというような形を取った。図2のような断裂に遭遇したので,次に撮影する際には,精細度を中間にした。デフォルトの選択である。その結果が図3であった。図3左下のPropertiesの最下段にはPoint size 5としているのでポイントのサイズが大きくなったので,画面の密度が高くなったように見え,見かけ上,図2よりも情報密度が多いように見えるだけである。  save時に,精細度を下げると脱落度は減少するのであるが,次のように,精細度大の場合には見えたものが,精細度を中つまりデフォルトにすると見えなくなる現象を次の例から示したいと思う。  図4(図2と違い図3同様,ポイントサイズを5に拡大している)中の画面のほぼ中央に白っぽい□が見える。これは図5の陸標である。この陸標は図3ではCloudCompareのディスプレイで種々探しても,みつけることが出来なかった。デフォルトの解像度では距離1〜2mでスキャンした地上の陸標すら読み取ることができないのである。これでは3Dスキャン点群と,光波測距儀などによる測量との対応関係を付けることができず,使い物にならないのである。  結局,Scaniverseはぼくの利用目的に対応していないことがわかる。エブリポイントとは違って,地表をゆっくりスキャンして行くと,スキャンが終わったところは,iPhone 12 Proの画面で見ても映像がはっきりしていて,スキャンが終わった場所がはっきりと反映されている。赤白斜めパターンが生じないのである。操作性は凄くいいと思う。撮影して感じることは,Scaniverseの画面では,iPhone 12 Proの上縁付近から地上を検知し,少し光軸はレンズの鉛直方向よりも手前にあるようで,撮影対象物に対して上から掬い取るようなイメージである。カメラの光軸を水平より上向きにすると検知しない傾向がある。検知範囲は一応5m(3cm精度)として使っているが,2mぐらいまでしか検知しないように思うのである。とはいえ,このように注意しても生まれる点群は極めて不完全なもので,ぼくには使い物にならない!! 無料故に制限がかかっているのではと調べたがそういう情報も無いのである。 以上,Feb. 16, 2020記。  さて,スキャニバースを完全に捨て去るのは,狭い範囲ではあっても,表現力は捨てがたいものがある。図6は水平軸からの像である。この付近は結構丁寧に地上高1m余りから歩き回って撮影したものである。右下のスケールは0.5m,ポイントサイズ4での表示である。歩いた感触とこの画像を見ると,ほぼ合致している。cloud pointの欠落の理由は,スキャンの当時の丁寧さなどからは思いあたらない。 スキャニバースが使える場所は,最大2m四方ぐらい。光波測量との関係を求めるには,1カ所(または2カ所)に地表を置けば良い。もう複数の3Dスキャン点群のマージはあり得ないのである。 2 エブリポイントは地表の肌理表現力ゼロ:白姫神社 練習2 Feb. 16, 2022  さて,エブリポイントを捨てきれず,ここでもあまり期待せずに狭い範囲を実施した。もう暗かったのでいい実験ではなかった。森林のなかで日が落ちていたからである。図7のpoint sizeはデフォルト,図8は5である。この図8では,陸標ラベルを見つけることができなかった。  取得された点群では陸標のラベルを見つけることができず,使用に耐え得ないものであった。ただ,次の一手があって,本日試みる予定である。スキャニバースでは,図6のように,木の根の張りなどを画像から簡単に読み取ることができるが,エブリポイントは図8のように,木の根も岩石の一部のように見えている。画像としては全く使えない。  一応,エブリポイントの現場での使用感を次に示す。視野はスキャニバースに比べるとかなり広い。撮影対象はまずは赤〇が点点と現れる。比較的遠く(10mほどか)の木々にも赤〇が付く。黄〇から緑〇に変わって行くのは近い部分である。カメラ視野はiPhone 12 Pro上縁よりもスキャニバースと比べると広い範囲がスキャンできている。視野の水平軸よりも上方にまで拡がっており,ぼくの身長よりもかなり高い(3m?)ところまでスキャンできている。この点がエブリポイントの魅力ではある。繰り返すが,画像としては全く使えない。 3 スキャニバースの使い方は,エブリポイントはARKit,そしてメタスキャンの機能チェック:白姫神社練習 Feb. 17, 2022  本日Feb. 17,遅い昼食の後,また白姫神社に出向く。その実験予定を次に。1 スキャニバースで,ほぼ2m四方について,詳細なスキャンを実行してみる。当然,精細モードでの保存を実行する。 2 エブリポイントについては,「EveryPoint LiDAR Fusion」は,使えないことがわかった。次のページに岩間さんの3Dスキャナ比較表があって,このEveryPointの良い点として示されていることに感謝。それは,「撮影範囲が無制限のARKitモード,撮影範囲に制限はあるが,ノイズの少ないEveryPoint LiDARモード」という情報。室内のソファを撮影した際に,ノイジーな絵作りに驚いて,捨て去ったARKitモードが屋外の広い範囲の撮影に有効かも知れないということである。3D Scan 【iPhone12 Pro / iPadPro 2020】Metascan(旧Forge)を使用して3Dモデル空間を作成する  エブリポイントのARKitモードを検証する。室内での作業結果は次のページに示している。iPhone 12 Proで3Dスキャン 3D LiDAR scanning with iPhoneScan 3: ARKit Lidar Points,Scan Densityを設定,Smoothing Depth Map設定オン,confidence filterをhighとして撮影。Scan 4:ARKit Lidar Mesh,撮影時wireframeを選択。 3 メタスキャンの導入  これについては前掲のページ 3D Scan 【iPhone12 Pro / iPadPro 2020】Metascan(旧Forge)を使用して3Dモデル空間を作成する を参考にする。課金は5500円/年,780円/月,となっている。さし当たり昨晩Feb. 17,一週間の試用を選択した。アップルストアから連絡があり,ほっていたらそのまま登録状態になるようなので,Feb. 22に決断する必要がある。課金されないレベルの使用環境ではぼくには役に立たないのは確実であるが,課金されて使い物にならないのではどうしようも無い。調査に行って,当日1ヶ月分の契約をすればいいので,決して高くはない。 「Metascanは空間生成に特化しており、スキャンをすることによって生じる現実との誤差が極めて少ないとSNSでも話題になっています Color: 被写体をモノクロにし、スキャンができている被写体の範囲が彩色されていったり、逆にスキャンされた箇所を無彩色のポリゴンで表示させる機能Camera: 被写体にズームする機能Follow: ヴァーチャル空間上にスキャンされた被写体を表示していく機能Above: 地面をフォーカスし、撮影者の動きをトラッキングして撮影しやすくなる機能」 Metascan – 3D Capture このアップルストアのレビューを次に。enthuce2021/07/04広域のスキャンが得意LiDAR カメラで物体をスキャンして3Dモデルを作るAppは数ありますが、ForgeはUIが洗練されていることが特徴です。特にミニマップに上面図を表示しながらスキャンできるモードは素晴らしく、広域でも穴のないスキャンを行うことができます。 動作も今はかなり安定しており、数十メートル四方は問題なくスキャンできます(メモリが一杯に近づくと教えてくれます)。また色合いを自動調整してくれているようで、他のAppより均質で見栄えの良いテクスチャを作ってくれます。  という訳で,使ってみよう。写真測量機能もあるので,これも。 以上,before lunch, Feb. 17, 2022記。 4 スキャニバースは狭い範囲を詳細に:白姫大明神,Feb. 17, 2022  白姫神社ではなくて,白姫大明神だった。見えていなかった。祠がない。井戸と手水石のような。住所と名前が刻まれた石柱が並んで柵があるが,これを玉垣というらしい。豊中や箕面大字名とともに小豆島もある。さて,ラベルを4枚設置した。前日とはLoc. 4以外は違う場所である。ラベルは単に3Dスキャン図に見えるかどうかの確認のためだけである,今日は。  まずは,スキャニバースの確認である。広い範囲のスキャンは諦めたが絵作りがいいので捨てがたい。まあ言わば舐めるようにスキャンした。一渡りスキャンした後,出発点まで戻って確認した。  図11は外部出力前の表示である。ところが,PLY出力したものは,孔も大きく,周辺もギザギザになっている。PLY出力をすると,スキャニバースのスムージング効果?が失われるらしい。で,FBXファイル形式でも出力し,検証した。それが図12のものである。表示が回転していることに注意して欲しい。ただ,問題は無い。 […]

iPhone 12 Pro撮影の3Dスキャン画像の座標を捉える coordinates of point cloud obtained by iPhone 12 Pro in “CloudCompare”

はじめに  このページは次のページ: iPhone 12 Proで3Dスキャン から続くものである。すでに,iPhone 12 Proで,LiDAR+photogrammetry スキャニングして,その結果を点群ファイル PLYの形で出力している。無料公開されているアプリCloudCompareに,このPLYファイルを取り込んで,さて,どこまでできるか。このアプリを使って,点群の座標値が個々に見えるようにして,光波測距儀などを使って測量した地標との対応関係を取って,(x,y,z)値を変換することが一つ,次にそのモデルから改めて3Dモデルを作成し(元々のモデルと見かけ上同じものであるが),3Dモデルを我がものとしたいのである。それを踏まえて,切断面図なども出来れば作成したいのであるが,さてさて。 1 CloudCompare Windows版のインストール  出来ればmac版を使いたいがWindows版が作成された後で個人にmac版作成が任されているような印象である。macのCPUは,現在,Intel製からアップル製M1に移行している。ぼくのmacのCPUはIntel製でありmac版開発の方向性が不安なので,Windows版を使うことにした。 以上,Feb. 13, 2022記。 CloudCompare 3D point cloud and mesh processing softwareOpen Source Project http://www.danielgm.net/cc/このサイトの始めにニュースレターの定期購読の登録ウィンドウがある。登録して半時間ほど経つがまだリアクションがない。24時間経って返事が無かったら問い合わせよとあるけど面倒だな。 ヘッドメニューからDownloadをクリックして,Latest stable release 2.11.3 Anoiaのうち,CloudCompare 2.11.3 Windows 64bitsのアイコンにmouseを載せると,Installer versionとArchive versionの二択になっており,Installer versionをダブルクリックする。144MB。ファイルを開く,をダブルクリック。変更を加えることを承諾が2回だったか。Setupウィンドウが出る。C:\Program Files\CloudCompare,にインストールされ,再起動画面が出て,強制的に再起動を選ぶ。 2 CloudCompareのメニュー構造  CloudCompare Wiki : ここにいわば,凡てが説明されているのであるが,プログラム開発者によるものなので,利用者はただ利用したいだけという視点が欠落しているとも感じられる。  PointCloudデータ編集可能ソフトCloudCompare概要: point cloudの専門家の簡潔な説明がある。CloudCompareでは,「ファイルを開く」が import のことで,「保存」が export のこと,という説明(?)は目からウロコであった。CloudCompareを使っていて驚くのは複数のファイルをimportしてファイル間の算術ができることである。compareというよりcloud間のcalculationができるということである。 3 まずはCloudCompareへのPLYファイルの取り込み 3.1 ドロップボックスのFLYファイルをWindowsマシーンにコピー  iPhone 12 Proのスキャニバースで撮影したファイルをPLY形式でドロップボックスにすでに取り込んでいる。macではクラウドのデフォルトサイトで,すぐに見ることはできるが,Windowsでのドロップボックス利用がわからないので,これから調べる。 Windowsロゴキー❖ + Eで見てもDropboxは無かった。Windowsストアでdropboxを検索して,Windows(S モード)版 Dropbox アプリ(Windows 10対応 iPhoneも対応しているようだ,11には対応しないようだ)をダウンロードしてインストールし,登録している情報でログインしたら,すぐにmacで見ることができるドロップボックスの画面が出てきた。ここから,WindowsのDocuments内のmoto+documentsフォルダにドラッグアンドドロップしようとした。これがうまく行かない。 スタートメニューの左ペーンを見てもみつからなかったが,最上部の最近追加されたものにはあり,右クリックすると「スタートにピン留めする」とある。ああ,そうか。Dropboxを探したが,Sモード版Dropboxなので,Sの場所を見ないと無い訳だ。 さて,macのようにドラッグアンドドロップが効かない。種々試して,次のようにすれば4ファイルをWindowsに運べた。ドロップボックスを開いて,右上の「複数選択」を選ぶ,をクリックすると,選択□が出るので,4ファイルの頭の□に✓。最下部のアイコンのうちの,↓を選んだがダウンロードできていない。メニューの「もっと見る」をクリックするとアイコンの説明がでた。「オフラインから削除」の意味らしい。でも見かけ上,変わらず。フロッピーアイコン「名前をつけて保存」を選ぶと,ファイルエキスプローラーが,やっと,出てきた。で,ぼく用のドキュメントフォルダーmoto_documentsに入れたつもりがない。もう一度やる。「実行リボンが出て,ファイルを保存しました」と出た。確かに入っていた。しっかし,面倒だなあ。macとWindowsの共有機能を使った方が早い。ドロップボックス内も見えるし,複数のファイルのドラッグアンドドロップで,macからWindowsにコピーできた。 で,別件だけど,Adobe Photoshopの新たな体験をした。Windowsとmac間で共有してmacに移動したスクリーンショットは,「ファイルがみつからない」というメッセージが出て,開くことができない。そこでドロップボックスを使ってコピーしても駄目,メール添付しても駄目。何らかのライセンスの問題だなあ。と思ったけど,ファイルをドック内のフォトショップのアイコンにただ載せることで開くことができた。ファインダのファイルをドラッグしてフォトショップのウィンドウに載せることはできないという制限だけだった。 3.2 CloudCompareにPLYファイルを取り込み  CloudCompareを立ち上げて,File>Open>で,ファイルを格納しているmoto_documentsを選ぶが,ファイルがないというメッセージが出る。で,右下のファイル形式の選択部があるので,PLY mesh (*.ply)を柄選ぶと,用意していた2ファイルが表示される。そのうち,昨日屋外で撮影したタニハ玄関の岩 7276kB を選んで,クリックすると,下部のファイル名の窓にそのファイル名が表示される。 PLYファイルの構造が見えている。ポイント毎に,(x,y,z)座標値とpointごとにRGB値が埋め込まれていることがわかる。座標値はfloating-point unit。RGBはunsigned char *pixels,つまり,an unsigned char between 0 and 255。  そして,図1のメーンペーン右下部の”Apply”を選ぶと次の3D画像が出る。さて,これから何が見えるかだなあ。  図3は,左上ペーンのDB Treeで”Cloud”を選んで,Cloudが黄色の枠で囲まれて,左クリックで回転しているところである。右クリックでクラウド全体の移動ができて,パッド上で二本指で奥方向に押すとズームイン,手前に引くとズームアウトされる。mac対応アプリだと逆の可能性がある。この図の岩の稜線付近にシェードが付いた黄色の小球が見えるが,これが座標の原点である。Scaniverseによる撮影の際に自動で決められたものらしい。この付近から撮影を始めたことと対応しているのか。 4 3Dスキャン図を自らの陸標 landmark に合わせる  現地調査で,Scaniverseを使って,測量対象域をぼくと対象物が5m以内に入るように次から次へと移動してゆく。どんどんLiDARが取り込んでくれる。そして,3択のうち最も高い密度の情報を選ぶことになる筈である。 ただ,これが本当にできるかどうかはわからない。100mほどの距離で露頭が出ている屋外でやる必要がある。亀岡市に位置するタニハの前には特養があり,その側面と裏山にあたる場所で重機が活躍して,山林を破壊している。近所のおっさんの話では,大きな墓地ができるという。特養の社員スタッフに特養の隣に墓地はどうなんだろう,って,聞いたら,全然知らなかったって。で,まあ,この付加体丹波層群の露出したこの墓地用地を100mほど歩いて撮影してみよう。 ファイルがでかくて,最も高精細情報は保存できない可能性がある。保存できたらありがたいけど。できない場合は,粗くてもいいかと思っている。陸標landmark(6点が良いようだ,最低3点)を設置する必要があるが,退職時に全部置いてきたので,測量器具がない。どうするか? これから何回使うかを考えると,ノンプリズム光波測距儀,を購入する意味はない。レンタルだろうなあ。 まあ,さし当たり,距離100mほどの撮影だな。この墓地用地で造成中の道路はうねうねと上っていて,求める画像取得に適している。LiDAR感知距離最大値5mでやってみよう。 4.1 Point picking  CloudCompare Wikiのうちの,Tutorials and GuidelinesのPoint picking and Point list pickingのうち,Point pickingから見る。 メーンメニューの,Tools>Pointpicking,または上縁アイコン群の3番目の左のアイコンから入る。  このツールでは,表示されている3Dスキャナー画像上で,クリッククリックして座標値などを得ることができる。2点間の距離やポリゴンの面積なども求められるが,ここでは,1点の座標値を得たいと思う。  図4右上の7アイコンツール左端のpoint pickingアイコンをクリックして,図4のように,cloudの1点をクリックすると図4のように,standard label情報が現れる。ツール右端に隣接する回転矢印をクリックすると,pointの位置決めを,繰り返し,やり直すことができ,右端から3番目のフロッピーのアイコンをクリックすると現状を保存でき,さらに点群を追加して行くことが出来る。  図5はcloudをプレスアンドホールドして観察するとxyz軸の関係が見える。Xには赤,Yには緑,Zには青が使用されており,線形代数が採用している右手座標系(掌を上方にして)に対応している。この図で原点と見えた黄色の小球は,CloudCompareが3D表示のために用意したものであった。言い換えると,Scaniverseが3Dスキャンして自動設定した座標系とは異なることが判明した。  図6は,Wikipedia掲載のもの。測量分野では平面直角座標系などのように左手系であるが,LiDARや写真測量技術を使った測量では,線形代数の右手座標系が使用されている。DEMデータなどは左手系なので,取り込む際に,注意が必要である。 4.2 Point list picking  左図のようにpoint pickingアイコンの右隣のアイコンか,メーンメニューの ‘Tools > Point list […]

iPhone 12 Proで3Dスキャン 3D LiDAR scanning with iPhone

はじめに  まずは,be氏とのドローンを使った地形測量を体験して,年金生活者ゆえに機器にもお金をかけることもできず,iPhone 12 proを使って,微地形の3Dスキャンがしたいと思っただけのことである。  昨年3月,徳之島の海岸調査中,潮位計測をしていて,屈み込んだ際に,サンゴ礁のグルーブに前ポケットからiPhone 7 Plusが落下。素っ裸でグルーブに入って何とか回収。その後も問題なく?使えて,帰阪。ちょっとiPhone 12 Proを調べたら,( i 小文字が好きなアップル)LiDAR, Light Detection and Ranging●光強度方向探知ならびに測距, 機能が搭載されたとのことで,7+は次男に譲って,May 20, 2021,アップルストアに注文した。その後,全く使わず放置していたが,次回の調査は一人で行くことになりそうで,装備の点から,iPhone 12 Proの有効性,限界を知りたくて,調べ,実験することにした。 1 iPhoneで始める3Dスキャン生活 iwama2021年10月10日さんから  ネットでちょっと調べると英語圏に限定されるような印象であったが,このサイトでは実験する際の情報が優しく記されている。 a 機器構造: リンクにあったApple iPad/iPhone搭載「LiDARスキャナ」について調べてみた はぼくには難しいが,AppleのLiDARは,発光には近赤外線が使われ,モバイル装備としては,屋外に強く長距離性能に長けたdToFが採用されているとある。 b 特色: ①LiDARスキャンのレンジは5m程度,②スキャン品質はそれなり,③広域のスキャンでは高低差がある場合は苦手。 c 推奨アプリ 価格:610円(買切り)アプリのヘルプ:公式チュートリアル:https://www.trnio.com/tutorial日本語マニュアル:https://note.com/iwamah1/n/nd6fb91ea7738対応デバイス:iOS11.3以上のiPhone/iPadに対応(推奨:iPhone6S以上)出力形式:メッシュ:OBJSketchfabへのアップロード:〇アプリのリンク:https://apps.apple.com/us/app/trnio/id683053382公式サイト:https://www.trnio.com/公式Twitterアカウント:@TRNIO TrnioはiPhoneやiPadで撮影した写真をクラウドにアップロードし、それを元に3Dモデルを作成してくれるフォトグラメトリアプリです。ネットに繋がって写真が撮れるiPhoneならどの機種でもOKです(ARkitモードを使用する場合はiPhone6S以上が必要) 使用法については,iwamaさんのTwitterサイトにある。Trnio 3D Scannerを使ってみよう!iPhoneとTrnioでスキャンした3DモデルをDOOR NTTに持っていく方法を書いていくよ!ここで使用されているBlenderソフトはフリーでWindowsだけでなくMacでも対応している。【2021】Blender(ブレンダー)の使い方を日本語でわかりやすく解説 LiDARと比べるとかなり面倒ではあるが,5mの限界を超えることができる。 価格:無料アプリのヘルプ:公式チュートリアル:https://scaniverse.com/support/日本語マニュアル:https://note.com/iwamah1/n/nc8a5427157ef対応デバイス:iPhone12Pro/13Proシリーズ、iPad Pro(2020/2021)出力形式:メッシュ USDZ,FBX,OBJ,GLTF,STL/点群 PLY,LASSketchfabへのアップロード:〇アプリのリンク:https://apps.apple.com/jp/app/scaniverse-lidar-3d-scanner/id1541433223公式サイト:https://scaniverse.com/公式Twitterアカウント:@Scaniverse 使用法については,iwamaさんのTwitterサイトにある。こんな適当ムーブでも3D出来ちゃう訳なんですよシリーズScaniverse編 d 不要なデータを削除: iPhoneで3Dスキャンした場合の最終3DモデルデータはLiDARスキャンで平均15MB、最大50MB程度(最高品質で処理した場合)、フォトグラメトリだと平均nnMB、最大nnMB(最高品質処理)となります。RAWデータは結構重くてLiDARスキャンだと50~300MB、フォトグラメトリモードだと50~400MB程度となります。RAWデータを使用するのは3Dモデルを構築する段階のみなので、モデル構築に問題がない場合はRAWデータのみを削除することが可能です。そのため削除前は200MBあったデータ容量も15MB程度まで減ります。 e 撮影対象の是非: iPhone3Dスキャン全般に向いている物: ・岩や石像ざらざらとした質感のもの・痛車や壁画などの模様がはっきりしているもの・形状があまり複雑でないもの・汚れが多いもの iPhoneフォトグラメトリに向いていない物・陶器製やプラスチック製の物体など表面がつるつるしているもの・影になっている部分(環境によるので一概には言えないですが…) ← 曇りの日がいい。・白飛びしやすいもの iPhoneLiDARスキャンに向いていない物・サイズが小さい物(30㎝×30㎝以下のものは失敗することが多い)・自分より背が高い物(高い建物などは難しい)・起伏の激しい地形 ←微地形には向いていないかも? f 3Dスキャン時の安全対策: ①スキャン前に周囲の段差や人などの周辺確認②スキャン中は画面を注視しない g スキャン時の心得: 1 スキャン対象とスキャン対象の周囲の障害物の有無やスキャンルートを選定。2 同じ箇所を2回以上スキャンしない。iPhone LiDARはスキャンする毎に誤差が蓄積。3 スキャン中の移動はゆっくりとスムーズに。急な方向転換は絶対にNG。すり足でゆっくりと移動。4 蛍光灯や太陽等の非常に明るい物体にiPhoneを向けすぎるとiPhoneの自己位置推定機能にエラーが発生。5 出来る限り脇を固めてiPhoneがブレないように。6 鏡や鏡面仕上げされた金属などがスキャン範囲にある場合は出来る限り布で覆う。7 屋外でスキャンする場合は出来る限り曇りの日を狙う。薄暗い時間帯や晴天の日は上手くスキャンできないことが多い。8 連続でスキャンする場合はデバイスの温度に注意。特に直射日光下での場合は一瞬でオーバーヒート。対策としてスマホカバーを外したり日傘などで直射日光を遮る。 2 Evaluation of the Apple iPhone 12 Pro LiDAR for an Application in Geosciences Nature Scienceに掲載されたgeo-toolとしての評価があった。PDFも提供されている。 Evaluation of theApple iPhone 12 Pro LiDAR for anApplication inGeosciences Gregor Luetzenburg*, Aart Kroon & AndersA. Bjørk  Traditionally, topographic surveying in earth sciences requires high fnancial investments, elaborate logistics, complicated training of staf and extensive data processing. […]

WordPressでの動画の挿入 how to insert videos into a WordPress’s site

はじめに  iPhone 12 pro を使った3D画像の作成法を研鑽する過程をこのサイトに掲載したいと考えた。過去動画をアップしたことがないので,このページにその方法をまとめたいと思う。  WordPressの編集画面で,左上隅にあるWordPressのアイコンをクリックすると,現在使っているバージョンが現れる。5.9である。このリンクに極めて詳細なヘルプがあって,読む気がしない。ぼくは英語版を使っているが,日本語バージョンはもっと読みにくいだろう。 1 動画掲載はユーチューブで 2021.03.10 WordPressの基本と活用/WordPressへの動画の埋め込み方法!直接アップロード、YouTube動画を埋め込む方法 が簡潔で良い感じだ。 「WordPressに直接動画をアップロードして埋め込む方法」では,ただ,Postsの最上段の「+」記号をクリックして,Media/videoを選ぶだけだが,ネット上のファイルだけでなく,ローカルサイトつまり自分のmac内のファイルを選択することもできる。WordPressでアップロードできる動画形式は,Microsoftの動画形式(asfやasx、wmv、wmvなど),Appleの動画形式(mov、qt),Windowsの標準動画形式(avi),MPEG4形式(mp4、m4v),Flash動画(flash)など。Flashはソフトのアップデートがうるさいので絶対に使わない。Windowsも使いたくないので,MPEG4形式(mp4)になるけど,次の投稿で示す(これから調べる)iPhoneの3D画像のファイル形式が優先されることはもちろんである。 ユーチューブは使わない,と澄ましていたけど,次の記事のように,どうも直接ファイルをWordPressにアップするのはまずいらしい。 2019.01.08, 2022.2.2. WordPressに動画を直接アップロードするのは危ない によれば,「画像ファイルが大きくても3MB~5MBなのに対して、動画はよほど圧縮した短い動画でもない限り10MBは確実に超える。3分程度の動画なら100MBくらいはある。画像と比べると桁違いの転送量になってしまう。たとえば1つの記事に100MB程度の動画を埋め込んだ場合、100人が再生するだけで約10GBの転送量になる。そうなると一日のPV(page view ページビュー、アクセス数◆ウェブサイトの1ページがブラウザに表示される回数)が1000以下でもサイトが落ちてしまう危険性がある。レンタルサーバーの最大転送量は最近増えてきているが,月額500円のプランで大体80GB〜100GBくらい。」なお,僕が使っている「さくら」サーバーの評判は良くない。スタッフも余裕がなく,商売主体だもんな。  まあ僕のサイトはアクセスが集中するというのは考えられないが,ユーチューブを利用すればWPサイトそのものの負荷率を避けることができるので,上記の「動画埋め込み方法」の,ユーチューブ編を参考にしたい。  そうすると,ファイル形式も限定される。次のページを参考にする。2021.07.27 ワードプレスへの動画の埋め込みする2つの方法を解説次の二つのページは,宣伝が多すぎるけど。2022.01.22 WordPressに動画をアップロードしたい!できない時の対処法やおすすめプラグイン2021.05.03【2021年版】WordPressにYoutube動画を埋め込む方法 2 ツウィッターなど  ツウィッターの動画を埋め込もうと,ツウィッター上でコピペ作業を実施して,Embedしようとしてもうまく行かなかった。ヘルプが現れて,結局,関心のある動画を選んで,最上部の窓に現れているurlをコピーすれば良いとのことである。  今後,実際にやってみないと,何がいいのかわからない。一応,このページはペンディング。 以上,Feb. 9, 2022記。