ポスター発表プログラム

2024年9月10日(火) 16:30 - 19:00 ポスター&企業セッション1(Fast Forward含む)

[P1] テキスト駆動の煙シミュレーションに向けた一実験

○西原 美都 (法政大学), 市村 侑大 (法政大学), 佐藤 周平 (法政大学 / プロメテックCGリサーチ)

概要
流体シミュレーションは,リアルな表現ができる反面,ユーザの希望する結果を得ることは難しく,パラメータを試行錯誤的に調整する必要がある.これに対し長年,流体シミュレーションを制御する研究が行われてきた.従来の研究では,目標となる形状や分布を入力し,それに従う流体の流れが得られるように制御する.一方,生成AIの登場に伴い,テキスト入力によって生成結果を制御する方法が多数研究されている.そこで本研究では,テキストにより流体シミュレーションを制御することを目的とする.本発表では,その実現の第一段階として,流体シミュレーションにより生成した画像を,テキストと画像間の類似度を計算できるCLIPにより評価できるか実験を行ったので報告する.

[P2] 動的フォトニック構造体のビジュアルシミュレーションに向けた一実験

○増渕 薫乃 (法政大学), 中本 啓子 (法政大学), 佐藤 周平 (法政大学 / プロメテックCGリサーチ)

概要
動的フォトニック構造体とは,構造色を発する流体であり,温度や磁場などの影響に応じて様々な色の液体となる.本研究では,この動的フォトニック構造体のビジュアルシミュレーションを行うことを目的としている.動的フォトニック構造体では,コロイド溶液の中に構造色を発するシート状の周期構造が1%未満存在している.本手法ではこれを再現するために,シート状の構造色を発する構造を粒子として近似し,シートをDEM法,流体をFLIP法に基づいて計算する.そして,それらの間の相互作用を考慮することで,液体中のシート構造の挙動を近似的に再現することを目指す.

[P3] 3DCGアニメーション向けの実用的なスタイル転写: 映像制作のためのR&D実践

○藤堂 英樹 (拓殖大学), 小山 裕己 (株式会社グラフィニカ), 酒井 邦博 (株式会社グラフィニカ), 小宮 彬広 (株式会社グラフィニカ), 加藤 淳 (アーチ株式会社)

概要
我々は,実映像制作への応用を目的として,3DCGアニメーション向けの実用的なスタイル転写パイプラインの研究開発(R&D)に取り組んだ.本発表ではR&Dの内容,特に映像プロダクションの要求を踏まえ,映像クオリティ,アーティストによる制御,作業負荷のバランスをどのように調整したかについての知見を共有する.スタイル転写を実制作に応用する上で要件を満たす転写方式を選定し,マルチカラーマテリアルへの対応,輪郭線とシャドウの効果的な制御,時間方向ノイズの軽減のための技術拡張に取り組んだ.R&Dの成果としてスタイル転写技術によりショートフィルムを制作し,実用レベルで様々な描写スタイルを合成できるようになった.

[P4] 単眼カメラ映像によるバドミントン選手とシャトルの3次元位置推定に関する研究

○片平 悠斗 (神戸大学), 黒木 修隆 (神戸大学), 沼 昌宏 (神戸大学)

概要
本研究では単眼カメラで撮影された試合映像から選手およびシャトルの3次元再現手法を提案する。近年、スポーツへの社会的関心が高まり、ICTを活用したデータ取得によるスポーツ分析が進展している。特にバドミントンでは、試合戦略の改善、選手のパフォーマンス向上、およびスポーツ中継映像のエンターテイメント性向上に向けた映像分析技術の開発が期待されている。本研究では、AIと画像処理技術を活用し、単眼カメラ映像から選手とシャトルの3次元位置を再現する手法を開発する。この手法により、バドミントン競技の詳細な分析が可能となり、競技力向上や観戦体験の拡充に貢献することが期待される。

[P5] 設定資料閲覧を用いた、アニメ制作途中でのカット間の関連性の蓄積

○渕上正浩 (東京工業大学), 齋藤豪 (東京工業大学)

概要
近年、機械学習を含めた蓄積データの活用が進展している。しかし、日本のアニメーション制作においては、中間生成物の活用を見据えた蓄積が不十分である。夏らは原画や動画の中間生成物を蓄積するWEBシステムを提案しているが、データ活用を見据えた”カット間の関連性”の蓄積については考慮していない。 そこで本発表では、夏らのWEBシステムが持つ「制作途中にデータを蓄積する」という利点を活かし、制作過程でカット間の関連性を蓄積する手法を提案する。作画時に参照される設定資料に着目し、その閲覧履歴をもとに関連性を自動的に蓄積することを目指す。

[P6] リギングのための複数画像からの関節の3次元位置の推定

○柳谷 悠羽 (豊橋技術科学大学), 金澤 靖 (豊橋技術科学大学)

概要
本研究では,アバターのリギングのために,視体積交差法をベースとした複数画像からの関節の3次元位置の推定手法を提案する.ここでは,複数のカメラで撮影した画像から対象の姿勢推定を行い、画像上の関節位置の尤度を計算して3次元点群に投影し、投影された点群の尤度の総和から関節の3次元位置を推定する。これにより,画像上の関節位置やカメラ位置の推定位置の誤差に対し,安定して関節の3次元位置を推定できる。実際に撮影した複数の画像を用いて3次元関節位置を推定した結果,平均誤差が約5pxとなった.今後は,これらの推定した3次元関節位置からリグの生成を目指す.

[P7] 人間による例示データをもとにした背景色に合わせたアニメ調マテリアルの色指定システム

○折登 樹 (無所属)

概要
アニメの制作においては、各マテリアルの色を色彩の専門家が決定する色指定という工程がある場合がある。ゲームやアニメなどに使われるアニメ調CGのレンダリングにおいても人間による色指定を行うことはクオリティ向上につながると考えられる。本研究では、人間の背景色に対する色指定の例示データをもとに補間してトゥーン調のマテリアルの色を生成するシステムと、その色指定の例示データを効率的に作成するためのシステムの自信度合いを提示する対話的インタフェースを作成した。

[P8] (取り下げ)

取り下げになりました。

概要
取り下げになりました。

[P9] サーマルカメラを用いた外乱光の影響に頑健なリアルタイム姿勢推定

進藤 羽流 (千葉大学), 舩冨 卓哉 (奈良先端科学技術大学院大学), 前島 謙宣 (OLM Digital/IMAGICA GROUP), 品川 政太朗 (奈良先端科学技術大学院大学), 向川 康博 (奈良先端科学技術大学院大学), 久保 尋之 (千葉大学)

概要
本研究では,サーマルカメラを用いた外乱光の影響に頑健なリアルタイム姿勢推定手法を提案する.遠赤外線を検出するサーマルカメラは可視光域の外乱光に頑健である一方,不均一性補正(Non-Uniformity Correction; NUC)により撮影が一時停止するため、リアルタイムでの利用に不適である.そこで,本手法はサーマルカメラを用いて推定したNUC以前の人物の情報からNUC実行中の人物領域を予測する.予測領域を姿勢推定の対象とすることで,人物がいない位置での誤推定を防ぎ,外乱光の影響に頑健な姿勢推定を継続して行う.人物付近に映像が投影されている動画を用いて実験を行い、外乱光への頑健性を示す.

[P10] 少数の参照画を用いたアニメ線画の自動彩色

○高野 悠 (早稲田大学), 前島 謙宣 (オー・エル・エム・デジタル, IMAGICA GROUP), 山口 周悟 (早稲田大学), 森島 繁生 (早稲田大学)

概要
本研究では参照画を用いてアニメ線画の自動彩色をする。既存研究では、シーンの一部のフレームを手作業で彩色し,それを参照画として残りの線画の自動彩色を行う。既存研究の一つであるパッチベース学習は動きの大きいフレームやオクルージョンに比較的強いが、目などの細部の彩色に弱い。一方、別の手法であるインクルージョンマッチングは細部の彩色に強いが、線画に対するオプティカルフローを使用しているため,動きの大きいフレームやオクルージョンに弱い。よって本研究ではインクルージョンマッチングをベースとして,フローの代わりにパッチベース学習を使うことで動きの大きいフレーム・オクルージョン・細部に強い自動彩色を目指す。

[P11] 速度履歴に基づく検索ベースの液体効果音合成

○藤井 秀太朗 (法政大学), 佐藤 周平 (法政大学 / プロメテックCGリサーチ), 土橋 宜典 (北海道大学 / プロメテックCGリサーチ)

概要
本研究では,液体のシミュレーションに対し,データベースからそのシーンに合った効果音の検索と,その効果音をシミュレーションへ合成する手法を提案する.我々の従来の手法では,検索された効果音をシミュレーション結果に合うように手動で微調整する必要があった.これに対し,シーンを一定の区間に分割することで,音の発生するタイミングを自動で合わせる.また,効果音データの検索における,波形の類似度計算方法についても改善した.

[P12] Projection-Based Monocular Depth Prediction for 360 Images with Scale Awareness

○Qi Feng (Waseda University), Shigeo Morishima (Waseda University)

概要
Monocular depth prediction from a single 360 image can facilitate various applications such as autonomous driving. Previous methods focus on relative depth to circumvent scale ambiguity, typically requiring additional scale hints to predict absolute distances. In this work, we propose a projection-based approach that overcomes scale ambiguity, leveraging non-360 datasets to enable accurate, scale-aware depth prediction for 360 images.

[P13] Transformer-based Event Camera Relative Pose Estimation in Outdoor Scenes

Jingcheng He (The University of Tokyo), Takeshi Oishi (The University of Tokyo), Ryoichi Ishikawa (The University of Tokyo)

概要
(非公開)

[P14] 複数のシャボン玉による所望の形状への制御シミュレーションに関する一実験

○西尾 育峰 (法政大学), 佐藤 周平 (法政大学 / プロメテックCGリサーチ), 櫻井 快勢 (ギザンサ)

概要
本研究では演出的な表現のために,石鹸膜シミュレーションにおいて,所望の形状としてシャボン玉を表現することを目的としている.我々の先行研究では,単一のシャボン玉に制御力を加えることで形状を制御したが,ユーザの与えた目標形状に尖った部分等がある場合にうまく形状を近づけられないという問題があった.これに対し本手法では,複数のシャボン玉の集合として目標形状を近似することで,より多様な形状に対応することを目指す.

[P15] 部分空間における超楕円体への射影による実時間Projective Dynamics法

田中 瑞城 (早稲田大学), ○谷田川 達也 (一橋大学), 森島 繁生 (早稲田大学)

概要
本研究では、部分空間におけるProjective Dynamics (PD)法の実時間解法を紹介する。提案法は、PD法の局所ステップが、部分空間における超楕円体への投影によって近似的に分解できることを利用する。この際、各超楕円体は、拘束条件が課された要素を互いに隣接しないグループに分割することで定式化される。要素グループの数と部分空間の次元によっては、一連の部分空間における投影操作は元の観測空間における局所ステップよりも効率的に実行可能であり、局所ステップの収束を大幅に早める。これにより、数値的に頑健な実時間の弾性体シミュレーションを実現する。

2024年9月11日(水) 16:30 - 18:15 ポスター&企業セッション2(Fast Forward含む)

[P16] 空間再現ディスプレイを用いた豪雨災害における介入シミュレーションの可視化

久保 尋之 (千葉大学), 舩冨 卓哉 (奈良先端科学技術大学院大学), 平賀 優介 (東北大学), 小槻 峻司 (千葉大学)

概要
本研究では、豪雨災害の形成過程に関わる気象数値モデルの物理量の可視化手法を提案する。気象数値データは空間と時間からなる4次元ボリュームデータとして表され、シミュレーションによって得られた気象介入の有無による効果を空間再現ディスプレイを用いた可視化を行った。4次元ボリュームデータは裸眼立体視が可能であり、気象介入の効果の理解を視覚的に深めることができるようになった。

[P17] Neural Global Illumination Baking with Neural Texture Mapping on Refractive Objects

○Ziyang Zhang (Waseda University), Edgar Simo-Serra (Waseda University)

概要
Neural rendering leverages deep learning and neural networks to bake global illumination and efficiently synthesize photorealistic images without relying on path tracing. In neural rendering approaches, G-buffers from rasterization provide real-time information such as position, normal, and textures to neural networks, achieving accurate and stable rendering quality. However, due to the use of G-buffers, existing methods struggle to accurately render transparent and refraction effects, as G-buffers do not capture ray information from multiple light ray bounces. This limitation results in blurriness, distortions, and loss of detail in rendered images, particularly in objects with high-frequency textures. In this work, we utilize neural networks to encode critical rendering information, including texture coordinates from refracted rays, and reconstruct high-frequency textures in refraction areas, thereby achieving accurate refraction rendering in diverse scenes. Our results demonstrate that our method can interactively capture refraction effects with global illumination.

[P18] 輝度コントラストとblue-yellowコントラストに対する感度の比較

○北上 晃太郎 (東京工業大学), 齋藤 豪 (東京工業大学), 内川 惠二 (神奈川工科大学)

概要
輝度コントラストと色コントラストに対する感度特性は異なる。周辺視野における輝度および色コントラスト感度関数(Contrast Sensitivity Function:CSF)はFoveated Renderingなどへの応用が期待される。本研究では、左眼視野の鼻側方向および耳側方向における輝度コントラストとblue-yellowコントラストのCSFを比較した。比較の結果、輝度CSFがバンドパスの特徴を持っているのに対し、blue-yellow CSFはローパスの特徴を持つという先行研究と一致する結果が、周辺視野高偏心度まで得られた。

[P19] 線形光源下における多視点フォーカスブラケット撮影による微小標本の反射特性推定

○西田 拓央 (芝浦工業大学), 籔本 悠紀 (芝浦工業大学), 土橋 宜典 (北海道大学), 井尻 敬 (芝浦工業大学)

概要
本研究では,多視点写真計測を利用し,形状やテクスチャだけでなく,表面反射特性も復元可能なデジタルデータ化手法を提案する.具体的には,線形光源下に配置した回転台上で標本を回転させながらフォーカスブラケット撮影を行う.続いて,各視点において深度合成を実施し,得られた多視点深度合成写真群にフォトグラメトリを適用することで,3次元モデルと初期アルベドを取得する.さらに,位置合わせされた深度合成写真群から,各テクスチャ画素における線形光源の移動による色変化(反射率レスポンス関数)を取得する.最後に,この反射率レスポンス関数に基づき,DisneyBRDF反射モデルのパラメータを微分可能レンダリングを用いて最適化する.既存手法との復元結果の比較により,提案手法の有用性を確認した.

[P20] Microfacet理論に基づく複数回の散乱を考慮した偏光レンダリング

○大羽 英仁 (早稲田大学), 谷田川 達也 (一橋大学), 森島 繁生 (早稲田大学)

概要
本研究では、Microfacet理論に基づく偏光レンダリングにおいて、Microfacet上での散乱回数が一回の場合だけを考える従来法と、散乱回数が複数の場合を考慮した画像を比較し、より適切なレンダリング法を議論する。偏光状態は、4つの成分をもつStokesベクトルにより表現でき、光線追跡中、光が物体表面で反射・屈折する度に変化する。また、偏光状態の変化は16個の成分をもつMuller行列により表現される。Microfact上で複数回の散乱を考慮するに当たり、本研究では偏光を考慮しない手法で標準的に用いられるSmithモデルを仮定した。本比較の結果を基に、より物理的に忠実な偏光レンダリングについて検討する。

[P21] スペクトラルレンダリングにおける光源スペクトルと視覚特性を考慮した波長サンプリングに関する検討

○前田 陽友 (広島大学), 檜垣 徹 (広島大学), Bisser Raytchev (広島大学), 金田和文 (広島大学)

概要
スペクトラルレンダリングではより多くの波長について輝度値を求めることにより,物理的により正しいレンダリングが可能となる。しかし波長サンプリング数の増加に伴い計算時間も増えていくため,波長を効率よくサンプリングすることは重要な課題である。本研究ではレンダリングの際の波長サンプリングにおいて,より効率的な波長サンプリングを得るために光源のスペクトル分布と視覚特性の両者を考慮して波長の多重重点的サンプリングを行う方法を用いて,その効果を検証する。

[P22] Non-Dominant Hand Skill Acquisition with Inverted Visual Feedback in a Mixed Reality Environment

○Ryudai Inoue (Waseda University), Qi Feng (Waseda University), Shigeo Morishima (Waseda University)

概要
Short-term skill acquisition with the non-dominant hand is beneficial but generally challenging. In this study, we investigated the impact of inverted visual feedback provided by a traditional mirror-based method and our new mixed reality-based approach. From studies with varying demands of visual information, we gained insights regarding the effects of visual information and cognitive load. The positive impact of mixed reality on skill acquisition suggests many potential applications.

[P23] 相互反射を考慮した画像編集のための微分可能レンダリングを用いた画角外の照明推定

○西岡 佑眞 (東京工業大学), 齋藤 豪 (東京工業大学)

概要
画像内の特定領域の色を変更する際に、シーンの相互反射を保持するような自然な結果を得るのは困難である。従来のインバースレンダリング手法の照明表現ではレイトレーシングでの再レンダリングが難しく、変更した領域以外に反射の影響を正しく反映できない。本発表では、単一画像から既存手法で推定したマテリアル情報をもとに作成したシーンに対する、最適化による画角外の照明推定法を提案する。パストレーシングが可能な微分可能レンダラーであるMitsuba3でサポートされる光源である環境マップや複数のエリアライトを用いて画角外の照明を表現する。屋内シーン画像に対する編集結果を従来法と比較して、本手法の有効性を評価する。

[P24] 両眼立体視のためのMCMCレンダリングの効率化手法

○原市 喬大 (東京大学), 五十嵐 健夫 (東京大学), 楽 詠灝 (青山学院大学)

概要
(非公開)

[P25] 多人数空間共有に適した分散レンダリングにおける視点間部分画像共有手法

山田 朝陽 (東京工業大学), 齋藤 豪 (東京工業大学)

概要
多人数が同じ仮想空間を共有するアプリケーションでは, 空間上のモデルの数やユーザが使用する独自のアバタの複雑性や自由な動作によって, ユーザデバイスでのレンダリングが困難になる. 本発表では, 多数のアバタが自由に動き回る空間のレンダリング結果をクライアントが受け取ることができるサーバサイドの画像ベース分散レンダリングシステムにおけるサーバプロセスを提案する. 提案手法ではリアルタイムに生成するモデルごとの部分画像を方位が類似する視点間で共有することで部分画像の描画回数の削減を実現する. 提案する分散レンダリングシステムを実装し, その計測実験と結果を報告する.

[P26] フットオリエンテーリング向けVRトレーニングシステムとその移動用インタフェース

○高村 明拓 (大阪電気通信大学), 河合 利幸 (大阪電気通信大学)

概要
オリエンテーリングは,走力だけでなく,現在地の把握やルートの選択・維持などのナヴィゲーション技術が必要となる競技である.この競技におけるナヴィゲーション技術のトレーニングを,VRを利用して行うシステムを開発している.表示にはOculus Riftを,仮想空間内に表示した地図の操作などにはOculus Touchを用いている.今回はM5StickC Plusに内蔵された加速度センサを用いて,足踏み動作で仮想空間内を移動できるようにした.これにより,ナヴィゲーションに影響する身体的な負荷の再現を試みた.操作性やVR酔いについての調査も行った.

[P27] 知覚サイズを考慮したVR空間キャプチャ画像の自動部分拡大手法

高橋 まりな (東洋大学), ○石川 知一 (東洋大学 / プロメテックCGリサーチ)

概要
風景を撮影した写真と肉眼で見える風景を比較すると,見え方が異なることがある。 これは「大きさの恒常性」という人間の視角特性によることが知られている。 本研究ではVR空間のスクリーンキャプチャ画像において,ユーザーの印象に近い画像を生成することを目的とする。 ユーザーが注目する部分はTRACERを用いて判断し,その部分は保存するようにSeamCarvingによる非線形変換によってユーザーの印象に近づける。

[P28] ウェーブレット変換による高周波反射特性を考慮した表面法線分布推定と高さ場推定手法

○倉田 樹, 小池 崇文 (法政大学)

概要
本研究では,粗い表面形状を持つ物体に有用な,実測された反射特性からの表面形状推定手法について提案する.本研究では実測されたBRDFから,マイクロファセット理論に基づいたBRDFモデルを用いて,表面法線分布を推定する.また,法線分布関数としてウェーブレット関数を用いることにより,高周波な特性を持った磨かれた金属などの表面形状推定を目指す.法線分布関数のフィッティングには,入力とする部分的な法線分布値をウェーブレット変換し,得られた係数を線形補完した後,逆ウェーブレット変換することで行う.また,本研究では法線分布関数からの高さ場生成手法として,従来手法にKD-Treeを導入することによって生成時間の高速化を図る.

[P29] 知覚コントラストイメージングにおける色CSFの導入と輝度CSFとの比較

○吉井 碧人 (東京工業大学), 齋藤 豪 (東京工業大学)

概要
ヒトの視覚系では,周辺視領域のコントラスト感度は中心視領域に比べて大きく劣る.この特性に基いて画像からヒトが知覚できないコントラスト情報のみを削除した知覚コントラスト画像は,画像の品質評価だけでなくヒトの視覚特性の直感的な理解に役立つ.しかし,知覚コントラストイメージングの従来手法では輝度と色のコントラストは十分に分離して考慮されていなかった.本発表では,色CSFの中で特に輝度コントラスト感度と異なるblue-yellow CSFを導入し,色コントラストの知覚可能性判定に輝度CSFを適用した知覚コントラスト画像との比較を行う.

[P30] 電波遮蔽環境下におけるQZSS測位と従来のGPS測位の比較

齋藤 康之 (木更津高専)

概要
ある写真が撮影された位置に到着して適切な方位を向いたときに,その写真を提示する「汎用情報提示システム」を開発している.その写真が撮影された「まさにその位置」に訪れたことを把握する必要があるため,正確な測位が非常に重要である.しかしながら,周囲をビルや森林といった電波遮蔽物で囲まれた地点では,測位に必要な衛星数が減ることに起因して測位結果が安定しない.本研究では,そのような電波遮蔽環境下において,準天頂衛星からの時刻情報に基づくQZSSと,従来のGPSによる測位結果を比較・検討する.

2024年9月12日(木) 13:15 - 15:00 ポスター&企業セッション3(Fast Forward含む)

[P31] 物体検出を用いた後方伸身宙返りの連続写真の作成

○髙橋 洸汰 (静岡大学), 岡部 誠 (静岡大学)

概要
器械体操において連続写真は、演技の各段階を一度に確認できる点や手本演技との比較において重要な役割がある。しかし、連続写真の作成時にフレーム写真を一枚ずつトリミングするのには時間がかかる。本研究では、器械体操の後方伸身宙返りの演技動画を、物体検出を用いて連続写真にする手法を提案する。既存の物体検出モデルと伸身宙返りの動画を用いた自作のデータセットで学習したモデルを併用し、それぞれから信頼度が最も高い検出結果を出す。その後、2つのモデルが出す検出結果のうち検出面積が大きいものを採用する。採用された検出部分のトリミングを行い、連続写真の形式にする。これにより、連続写真の作成時間の短縮が可能となった。

[P32] Signed Distance Functionの最適化により3Dモデル編集

何 毅 (株式会社日立製作所 研究開発グループ)

概要
3Dモデルはエンターテインメントや産業分野の設計や開発において重要な役割を果たしている。近年、生成AIの急速な進展により、写真やテキストを用いた3Dモデル生成は大きな進展を遂げているが、3D編集を目的とした研究は少なく、テキスト入力を中心に提案されたものがほどんどである。本研究では、ユーザーのスケッチを入力として自動的に目標となる3Dモデルを編集できる手法を提案する。視覚的な情報であるスケッチを利用することで、言葉で表現しにくい複雑な形状のオブジェクトに対しても柔軟に対応できる。これにより、3Dモデルの編集のプロセスがさらに簡便化され、既存3Dモデルなどの再利用によるコスト削減も可能になる。

[P33] AIを活用したフットサル審判サポートシステム

○廣瀬 有真 (静岡大学), 岡部 誠 (静岡大学)

概要
本研究は、アマチュアフットサルにおける審判不足と公平な判断の難しさという課題に対処するため、AIを活用したフットサル審判のサポートシステムの開発を目的としている。具体的には、既存の物体検出技術の一つであるYOLOv8を用いて、ボールおよび選手を検出・追跡する。そして、取得した位置情報を基にアウトオブプレーの判定を行う。さらに、主審のジェスチャーを認識することで、第三審判とタイムキーパーの役割である累積ファウル管理、タイムアウト管理、試合時間管理も自動化する。このシステムの導入により、必要な審判の人数を減らし、誤審を防ぐことで、より公平かつ円滑な試合運営が可能になることが期待できる。

[P34] Hint-AUC: Deterministic Region-based Hint Generation for Line Art Colorization Evaluation

真殿 航輝, Yuan Mingcheng, Edgar Simo-Serra (早稲田大学)

概要
(非公開)

[P35] 植物の背丈に着目した庭園の植栽の自動配置手法の検討

○梅澤 航 (東京都立大学), 向井 智彦 (東京都立大学)

概要
植物同士の競争によって植生が決まる自然界とは異なり、庭園では景観の審美性を高めるために複数の種類の植物を組み合わせた植栽がされる。植えられる植物の種類や位置の決定基準には、植物の大きさや色、花が咲く時期などが用いられる。本発表では、その中でも花壇内における奥行きと植物の背丈の関係を考慮した自動配置手法を提案する。提案法は、各領域内で距離場をもとに植物の背丈に応じて配置する奥行きを決定する。

[P36] Robust Panoramic SLAM for Outdoor Scenes

○Yuheng Wu (The University of Tokyo), Takeshi Oishi (The University of Tokyo)

概要
This research presents an enhanced Simultaneous Localization and Mapping (SLAM) system designed for panoramic cameras in urban driving environments. Traditional vehicle localization methods such as LiDAR, GPS, or monocular cameras often fall short in complex urban scenarios. Our system leverages the 360-degree viewing range of panoramic cameras to provide comprehensive data for accurate pose estimation. We built upon an existing GPS-SLAM system based on OpenVSLAM and introduced several key improvements. These include the integration of deep learning-based feature extraction and matching methods (SuperPoint and LightGlue), the implementation of semantic segmentation for dynamic object handling, and the development of an intelligent virtual camera placement algorithm. Our enhancements significantly improve the system's real-time performance, robustness in dynamic environments, and overall pose estimation accuracy. Experimental results demonstrate the efficacy of our approach in various urban driving scenarios, including challenging conditions such as tunnels and areas with severe lens flare.

[P37] 動画解析における視線推定と瞬き検出を用いたベストショット自動選定システム

○髙橋 卓 (静岡大学), 岡部 誠 (静岡大学)

概要
私の研究では、視線推定と瞬き検出の2つの技術を活用して、動画から最適なショットを自動的に選定するシステムを開発しています。視線推定技術により、被写体がカメラに向かっているかどうかを精確に把握し、瞬き検出を通じて、被写体が目を閉じている瞬間を排除します。このアプローチにより、被写体が最も自然で魅力的な表情を見せている瞬間を効率的に見つけ出すことができます。また、この技術は、大量の動画素材から最適なシーンを迅速に抽出する際に非常に有効であり、映像編集や自動写真撮影の分野での応用が期待されます。

[P38] 所望の形状を持つ結晶の生成手法に関する一実験

○桐原 暖人 (法政大学), 佐藤 周平 (法政大学 / プロメテックCGリサーチ), 土橋 宜典 (北海道大学 / プロメテックCGリサーチ)

概要
本研究では,コンピュータグラフィックスにおいて,ユーザが所望する形状の結晶を生成できるシステムの構築を目的としている.結晶の成長に必要なパラメータであるミラー指数と成長率をユーザの入力から自動で算出し,直感的かつ簡単に所望の結晶を得る.本発表では初期実験として,結晶の頂点を2次元の格子空間に指定していくことで入力し,指定された点の位置関係からミラー指数と成長率を求める.そして,セルオートマトンにより結晶の成長を疑似的にシミュレートする.

[P39] VQ-VAE によるニューラル離散3次元破壊形状学習

○黄 宇航 (東京大学), 金井 崇 (東京大学)

概要
学習ベースの脆性破壊アニメーションにおいて、複数の形状と衝突状況に応じて、破壊形状を予測することは、これまでに取り組んでいない課題である。 本研究では、脆性破壊シミュレーションを用いてデータセットを生成し、連続的なベクトルと離散的な形状コードを入力として離散的な3次元破壊形状を出力とする生成系ネットワークを構築し、デコーダーのみを用いたVQ-VAEを採用することで、連続的な衝突情報から離散的な3次元破壊形状を予測することを可能にした。

[P40] 変分オートエンコーダを用いたゲーム音楽検索エンジンの開発

○林 龍星, 北原鉄朗 (日本大学)

概要
多くのBGMはゲームとシーンの特徴を同時に表現できるが,そのようなBGMを探すことは簡単ではない.そこで,本研究は変分オートエンコーダを用いてゲームとシーンの特徴を併せ持つBGMを検索するシステムを開発する.ユーザは同じゲームに登場する2つのシーン(Source Scene, Target Scene)とSourec Sceneに採用するBGM(Source Music)を入力する.すると,システムはSource Musicが持つゲームの特徴を維持しつつTarget Sceneの特徴を反映したBGMを検索する.本発表は,このシステムに対して実施した稼働試験と客観評価の結果を報告する.

[P41] プロソディ特徴を考慮した表情豊かな音声駆動3D発話顔生成

坂本 翔之進 (早稲田大学大学院), 森島 繁生 (早稲田大学理工学術院総合研究所)

概要
(非公開)

[P42] 福王寺仁王像の3Dデジタル化

○吉田 一稀 (広島市立大学), 馬場 雅志 (広島市立大学)

概要
(非公開)

[P43] 感性評価に基づいた化粧品容器デザイン補助手法の提案

長谷川 聖那 (東洋大学), ○石川 知一 (東洋大学 / プロメテックCGリサーチ)

概要
本研究は,化粧品容器デザインにおける印象評価を通じた,デザイン支援を目的とする。我々は最初に,化粧品容器の画像50種類から既存研究を参考に特徴量を計算し,クラスタリングを行い,印象調査を行うサンプルを決定した。アンケート調査を実施し,男女間の印象の差異を確認した。回帰分析を用いて印象から容器特徴量を求め,デザイン支援に役立つかを検討した。

[P44] LLMとユーザデータを用いたユーザの嗜好を反映したライブ配信ダイジェスト生成システム

○植野 天翔 (駒澤大学), 加藤 卓哉 (駒澤大学), 青柳 西蔵 (駒澤大学), 平井 辰典 (駒澤大学)

概要
近年,ライブ配信が人気を集めているが,長時間のライブ配信は手軽に視聴することができない.一方で,見所をまとめた「切り抜き動画」は多く視聴されているが,必ずしも視聴者の望むシーンが含まれておらず,ライブ配信特有のインタラクティブな体験も損なわれる問題がある.そこで本研究では,ライブ配信からユーザの好みに応じたシーンを自動抽出し,短い動画を提供するシステムを提案する.このシステムでは、過去のライブ配信のチャットコメントやSNS投稿を活用し,大規模言語モデルをファインチューニングして,ユーザの好みに合ったダイジェスト動画を生成する.

[P45] 生成画像から獲得された表現を活用した生成画像検出

大竹 ひな (早稲田大学), 福原 吉博 (早稲田大学), 久保谷 善記 (cvpaper.challenge), 森島 繁生 (早稲田大学理工学術院)

概要
画像生成モデルの進化に伴う生成画像の品質向上により、実画像との区別が困難になりつつある。生成画像の悪用を防ぐため、近年では基盤モデルの強力な特徴表現を使用した検出器が提案されているが、基盤モデルの種別による検出器の性能変化に関する詳細な調査はされていない。本研究では、生成画像のみで訓練された基盤モデルに着目し、実画像を用いず獲得された特徴表現であっても生成画像検出においては効果的であることを示す。実験の結果、最先端の検出手法において生成画像ベースの基盤モデルであるSynCLRをバックボーンとして使用することで、未知のGANモデルによる生成画像に対しても、広く使用されているCLIPと比較してmAPで+10.32、精度で+4.73%の改善が確認された。

ニュース

  • 2024年9月12日 Visual Computing 2024は盛況のうちに終了しました.各賞の受賞者についてはこちらをご覧ください.
  • 2024年4月15日 Visual Computing 2024のWebページを公開しました

X (Twitter)

Facebook

過去の開催

スポンサー企業

(c) Visual Computing 2024 実行委員会