ポスター発表プログラム

9月18日(月) 16:20-17:50 ポスターセッション1

[P1] 3DCGレンダリングを用いた美味しそうなアニメ調食べ物画像の生成

○春山 篤樹, 森本 有紀 (九州大学)

概要
本研究では、セルルックやイラスト調の美味しそうな食べ物の画像や動画を、3DCGのレンダリングを用いて作成する手法を提案する。食べ物を対象にした多くの手描きイラストやアニメーションにおいて、美味しそうに見せるために、誇張されたハイライトが活用される。本手法においてもハイライトの与える効果に注目し、StyleBlitの手法を応用することで、手描き風のハイライトを食べ物の3Dモデルにマッピングし、美味しそうな印象を与える食べ物の画像や動画を作成する。

[P2] 体毛のパラメータ推定を用いた動物の3DCG再現の高精度化についての研究

○福嶋 大樹, 石川 知一 (東洋大学)

概要
従来、高品質な3Dスキャニングは特別な設備が必要だったが、ニューラルネットワークにより簡易化が進んできた。NeRFや、非剛体対象に対応したnerfies、BANMoといった技術が登場したことで、3次元スキャンがより簡単に可能となった。しかし、これまでの技術では動物の体毛が巻毛の形状の場合、推定精度が低いという問題があった。この推定精度が低い問題に対して、本研究では形状の推定に加えて、動物の特徴的な部位ごとに獣毛のパラメータ推定を行い、結果の精度を確認する。

[P3] BRDFの補間による金属表面上の傷のインタラクティブなデザイン

○藤 真太郎 (富山大学), 佐藤 周平 (法政大学/プロメテックCGリサーチ), 岩崎 慶 (和歌山大学/プロメテックCGリサーチ), 土橋 宜典 (北海道大学/プロメテックCGリサーチ)

概要
本研究では,金属表面上の傷をデザインするシステムを提案する.これまでに事前に計算した2次元のBRDFを用いてリアルなひっかき傷を効率的にレンダリングする手法が提案されており,本システムではこの手法を利用する.ただし,従来手法で計算されるBRDFは,傷の断面の形状によって異なる分布となり,傷の形状を連続的に変化させるためにはパラメータを微小に変化させつつBRDFを何度も計算する必要があり計算コストが高い.そこで本研究では,事前にいくつかの傷の断面形状において計算したBRDFからそれらの間を補間することで,少数の事前計算BRDFのみでインタラクティブな傷のデザインを可能とする.

[P4] 適応的パス・トレーシング法を用いた効率的なイベント映像生成手法の検討

○真鍋 悠一郎 (千葉大学), 谷田川 達也 (一橋大学), 森島繁生 (早稲田大学), 久保尋之 (千葉大学)

概要
イベント駆動カメラは,非同期的に画素ごとの輝度の変化を検出するカメラであり,高い時間解像度やダイナミックレンジを有し,省電力性に優れるという特性をもつ.現在,イベント駆動カメラには,姿勢推定やSLAMなどの多くの応用が期待される.その多くは,深層学習に基づくが,精度を高めるには高品質のイベント映像データセットを要する.しかし,イベント映像を物理的に正確なパス・トレーシング法で作成するには膨大な計算時間を要する.パス・トレーシング法の計算時間削減については,これまで数多くのノイズ低減手法が提案されてきた.本研究では,これらのノイズ低減手法がイベント映像の生成に及ぼす影響を比較するとともに,適応的サンプリングによる効率的なイベント映像のレンダリング手法を検討する.

[P5] 3D Lighter: 発光3Dモデル学習による発光テクスチャ生成

○進矢 陽介, 米司 健一, 塚田 明宏 (デンソー), 原田 達也 (東京大学, 理化学研究所)

概要
本研究では、発光3Dモデルデータセットからの3D教師あり学習により、入力3Dモデルの発光テクスチャを自動生成する。この実現のため、発光3DモデルデータセットEmissive Objaverseと、発光テクスチャ生成手法3D Lighterを提案する。提案手法は、ニューラル場をGenerative Latent Optimizationで学習し、1つの学習済みモデルで様々な発光テクスチャの生成を可能にする。

[P6] 物理ベースレンダリングを用いた半透明物体の質感空間の可視化

○鈴木 りえる, 土橋 宜典 (北海道大学)

概要
半透明物体の正確なレンダリングでは、表面下散乱現象のシミュレーションを含める必要がある。目的の画像を得るためには、パラメータ設定を変えて、何度も画像をレンダリングしなければならず、非常に時間と手間がかかる。この問題を解決するため、我々はパラメータと画像の関係を可視化する方法を提案する。異なるパラメータ値でレンダリングした画像のデータベースを用意し、画像の補間を行う。画像の保存コスト削減と補間速度向上のため、事前計算した画像に主成分分析を適用し、低次元空間に投影する。この結果を利用して、画像をパラメータ空間に配置することで、ユーザによるインタラクティブな半透明物体の質感の探索を可能にする。

[P7] 異方性フィルタを用いたテクスチャ光源のシェーディング

○高尾秀太 (和歌山大学), 岩崎慶 (埼玉大学)

概要
本研究では,テクスチャ光源によるシェーディング手法を提案する.Heitzらの先行研究では,テクスチャのフィルタリング処理によりテクスチャ光源による輝度計算を行っており,等方性ガウシアンフィルタリングを用いているため誤差が大きいという問題がある.本研究では,テクスチャ光源による輝度計算から導出される異方性フィルタリングを用いることで,精度の向上を図る.

[P8] 摩擦熱を考慮したドリフト時のタイヤスモークのCG表現

○玉川 智也, 石川 知一 (東洋大学)

概要
近年,3DCGによる映像表現の写実性が著しく高まっている。本研究では物理シミュレーションに基づいたドリフト時のタイヤスモークのCG表現方法を提案する。これまで様々な映像作品や3DCGゲームに登場してきたタイヤスモークだが,タイヤスモークがどのように発生するかのメカニズムは完全に解明されてはいない。我々はタイヤの回転数と地面の摩擦から熱の発生と伝導を計算し,車両がドリフトをしている時の横面からの摩擦熱を考慮しタイヤスモーク発生モデルを構築した。数理モデル中のパラメータは実際の映像や観測値から設定し,タイヤスモークの現象をより精密に再現することができることを確認する。

[P9] 分散レンダリングにおける大域照明効果の実現

○Yang Wenxiang, 山田 朝陽, 齋藤 豪 (東京工業大学)

概要
多人数で同じ仮想空間を共有するアプリケーションでは,モデルの数とモデルの複雑さによりユーザデバイスでレンダリングするのが困難になる.そのため,Fangらはレンダリングパイプラインの過程中の画像バッファを転送することを基本とする分散レンダリング手法を提案した.本研究では,その手法に基き,仮想空間の現実感を高めるためにスクリーンスペースレイトレーシングを利用するレンダリング手法を提案する.これは遅延シェーディングを分散レンダリングに用いたものである.本ポスターでは提案手法を実装したグリッドサーバでの描画結果と描画速度について報告する.

[P10] 周辺視野における輝度コントラスト閾値測定と輝度コントラスト感度関数との比較

北上晃太郎, ○齋藤豪 (東京工業大学), 内川惠二 (神奈川工科大学ヒューマンメディア研究センター)

概要
周辺視野における輝度コントラスト感度関数(Contrast Sensitivity Function:CSF)はFoveated Renderingなどへの応用が期待されるが、周辺視野高偏心度までのコントラスト閾値の測定実験は少ない。本研究では、3名の被験者に対して左眼視野の鼻側方向56度、上側方向49度、耳側方向84度、下側方向63度までの輝度コントラスト閾値を測定し、過去に提案された周辺視CSFと本測定結果を比較した。その結果、輝度コントラスト感度は視野偏心方向に対して等方的でないことと、多くの周辺視CSFは特に高偏心度において本測定結果と乖離することが明らかとなった。

[P28] 顔パーツの指定によるアニメ調イラストからの3D顔モデルの半自動生成

○秋元 優希 (法政大学), 佐藤 周平 (法政大学/プロメテックCGリサーチ), 櫻井 快勢 (株式会社サイバーエージェント)

概要
本研究では,アニメ調の顔のイラストから半自動で顔の3Dモデルを生成する手法を提案する.顔の正面と側面の2枚のイラストを用意し,それぞれにおいて顔パーツが存在する矩形範囲と目の領域をユーザは指定する.それを基にして得られたパーツの領域の正面と側面の対応から3次元空間上に点を生成し,できた点群に対してボールピボットアルゴリズムを用いて面を生成する.

9月19日(火) 15:00-16:30 ポスターセッション2

[P12] CycleGANを用いた画像生成による内観シミュレーションに関する研究

○葉木 達矢, 黒木 修隆, 沼 昌宏 (神戸大学)

概要
本研究では画像生成技術の一つであるCycleGANを用いた内観シミュレーション手法を提案する.提案手法では事前に“ヴィンテージ風”や“和風”といった抽象的なインテリアの方向性を複数のCycleGANを用いて学習する.その後,CycleGANの変換器を利用して現状の室内写真を“和風”かつ“明るく”のように多次元方向に変換することで,様々なバリエーションのインテリアをユーザに提示する.提案手法の内部では元の部屋の形状を保ちつつ彩色のみが効果的に変換されるように工夫を行っている.実験ではカフェやリビングの写真に様々なインテリア変換を行った所,非常にリアリティーの高い画像が生成され,提案手法の有用性が確認できた.

[P13] パレットベースとハーモニーガイドによるベクターアイコンの着色法

○I-Chao Shen (The University of Tokyo), Miao Lin, Hsiao-Yuan Chin, Ruo-Xi Chen, Bing-Yu Robin Chen (National Taiwan University)

概要
アイコンの着色は、美的な観点と実用的な考慮をバランスさせる必要があるため、熟練したアーティストでさえ困難な課題である。これまでの研究は主にピクセルベースのアイコンの着色に焦点を当ててきたが、これは現在のベクターベースのアイコンデザインのワークフローにシームレスに統合されないと思われる。本研究では、ラスタライゼーションの必要がないベクターアイコンのためのパレットベースの着色法を提案する。我々のアルゴリズムは、ベクターアイコンと5色のパレットを入力とし、デザイナーが選択できるさまざまな色付け結果を生成する。一般的なアイコンデザインのワークフローに着想を得て、このアルゴリズムは2つのステップから構成される:色付けテンプレートの生成とパレットベースの色転送の実行である。色付けテンプレートを生成するために、MRFベースの損失と色調の調和損失を用いる新しいベクターアイコンの着色モデルを導入する。色調の調和損失は、結果として得られる色テンプレートを広く使用されている調和テンプレートに合わせるよう促す。そして、予測された色付けテンプレートをクロマのようなパレットの色にマッピングして、多様な色付け結果を得る。これにより、以前のピクセルベースのアイコンの着色法で生成された結果と比較し、質的および定量的な評価によってこのアルゴリズムの効果を検証した。本手法により、アイコンデザイナーは異なるカラーパレットを使用して単一のアイコンの多様な着色結果を探索できると同時に、一連のアイコンに対するカラーパレットの適合性を効率的に評価できる。

[P14] SiMirror Look:写真から2Dアバター用衣装を制作するシステムの提案

○坂本 夏海, 五十嵐 悠紀 (お茶の水女子大学)

概要
本研究ではユーザが撮影した服の写真を入力とし,ユーザが実際に着ている服と同じデザインのアバター用衣装を出力するシステムを提案する.入力画像から抜き出した服を元に,そのまま写真を用いた衣装,色数を減らした衣装,代表色を用いた単色の衣装の3つのデザイン案を提示する.また,ユーザ が別途用意した写真やパターンイラストからテクスチャを切り出し,ユーザの意図をより反映した服の画像を生成できるようにしたことで,再現度の高いアバター用衣装の制作を可能にした.

[P15] デジタルメイクのための流行スタイルの学習および推薦システムの実装

○佐藤禎美, 黒木修隆, 沼昌宏 (神戸大学)

概要
近年の生成系AIを利用すればユーザの顔写真からメイクアップ後の顔を生成可能である.しかし,ユーザにとってはそれを実現するための商品選択および塗り方が重要である.購入前に多くの商品の組み合わせをシミュレーションすることは難しい.そこで本研究では,所望のスタイルを入力すれば商品の色と塗り量をユーザに推薦可能なデジタルメイクシステムを実装した.本システムは事前に“ナチュラルメイク”や“ギャルメイク”等の流行りのスタイルをCNNで学習する.その後,画像生成用CNNの内部で化粧品の色とその塗り量のパラメータを最適化し,ユーザに提示する.実験では5種類の流行スタイルについて推薦画像を生成し,本システムの有用性を検証した.

[P16] 顔画像から3Dカートゥーン調画像への変換

○藤﨑 龍, 森本 有紀 (九州大学)

概要
近年、GANによって画像のスタイル変換を行う手法が提案されている。本研究では、このような手法を用いて、入力の顔画像から顔の特徴を保持した3Dカートゥーン調のキャラクターを生成することを目的とする。本手法ではStyleGANを使用し、3Dカートゥーン調のキャラクター画像を学習データとして与え、顔画像を入力としてスタイル変換を行うことを試みる。また、従来のカートゥーン調画像へのスタイル変換では、学習データの偏りによりアジア人の顔の特徴が保持されにくいという問題があった。本研究では、この課題を解決する初段階として、アジア人のキャラクターのみで構成されたデータセットを使用し、アジア人のスタイル変換が高い精度で行われるか検証する。

[P17] アニメ線画処理研究のための2.5Dモデルデータベースの検討

○福里 司 (早稲田大学), 前島 謙宣 (株式会社オー・エル・エム・デジタル / 株式会社IMAGICA GROUP), 久保 尋之 (千葉大学), 品川 政太朗, 舩冨 卓哉, 向川 康博, 中村 哲 (奈良先端科学技術大学院大学)

概要
セルアニメ向けのAIモデル構築の際,最も大きな課題は線画データベースを作成することである.特に,商用利用する場合にはライセンスの問題で利用できるデータベースが限られてしまう.更に,既存データセットは権利関係が不明である等,利用自体にリスクがあるものもある.このような背景から,実際の線画の代わりに,例えば楕円等の2Dの図形や3Dモデルを用いてデータベースを生成する手法が検討されてきた.2D図形は輪郭抽出が容易であるものの,奥行方向を含むような構図の扱いが難しい.また3Dモデルの場合,3D構図の表現は容易であるが,輪郭抽出が困難である.そこで本研究は,3D空間上に2D図形を配置する「2.5Dモデル」を応用し,上記の問題を解決するデータベースを提案する.今回は,線画自動着色のタスクを対象とし,事前学習無(2021)と2D図形を事前学習に用いた手法(2023)との比較を行った結果,提案データベースを事前学習に用いることで精度向上を実現した.

[P18] デザイン性の高い木のイラストの作成支援システム

○多々良陸, 森本有紀 (九州大学)

概要
個人によるイラスト、ゲーム制作や建築における景観図の一要素としてたくさんの木のイラストを作成する場合、少しずつ異なる木を一つ一つ描くのは負担が大きい。本研究では、ユーザによる幹や樹形の入力より木のイラストを直感的かつ半自動的に作成できるシステムを提案する。既存のイラストの調査・分類から、葉の付き方、枝分かれの仕方、形状などのイラストの木の生成ルールを構築し、偏りがなく、曲線的、直線的な枝、生き物や花などの装飾をつけるなど様々なスタイルの多様な木のイラスト生成を目指す。また、枝分かれの構造はL-systemの拡張に作成する

[P19] 日本のセルアニメーション制作におけるオンラインデータ管理と映像のバージョン比較を用いた制作支援に関する研究

○夏 威夷, 渕上 正浩, 齋藤 豪 (東京工業大学)

概要
日本のアニメーション制作手法に則ったデータ管理方法が確立されていない状況下で、長尾はそれに則ったデータ管理用データベースの設計を行った。本研究ではそのデータベースの入出力を容易にするウェブシステムを構築したので報告する。従来の制作工程で用いられるタイムシートに模したインタフェースを提供し、そこに入力されるそれぞれの絵はバージョン名と共にデータベースへ登録される。また、ユーザが様々な比較により良い絵やタイミングを見つける試行錯誤を容易にできるように、異なるバージョンのタイムシートを表示し、それらを映像化して比較する機能を有している。

[P20] 拡散モデルを用いたパッチ単位の任意スケール画像生成

○荒川 深映 (早稲田大学), Erik Härkönen (Aalto University), 綱島 秀樹 (早稲田大学), 堀田 大地 (東京大学), 森島 繁生 (早稲田大学)

概要
拡散モデルは,様々な条件付けに忠実で,多様かつ高品質な画像を生成可能な手法として注目を浴びている.一方で,生成画像に描かれる対象のスケールを制御できず,対象を拡大して詳細な表現を生成することが困難であった.そこで,我々の研究では,全体画像に対してパッチ単位のノイズ除去を適用するアプローチを提案する.全体画像に対するパッチの相対位置と,全体画像のスケールを,相互注意機構を用いて条件付け,各パッチのノイズ除去を行う.この工夫により,様々なスケールを持つ画像を生成可能にする.実験では,高解像度の画像を生成した場合に,低解像度の場合と比べ,より細かいテクスチャを表現できることを示した.

[P21] 会話音声内の笑い位置の正確な検出と笑いが可能なデジタルアバターの試作

○大嶺 太聖, 秋田 健太, 鶴野 玲治(九州大学)

概要
本研究では、適切なタイミングで自然に笑うことができるデジタルアバターを実現するためのデータ作成手法の提案、および実験者評価を行う。アバターを用いて人とコミュニケーション可能なシステムは、対話は可能でも人間らしい多様な表情表出はまだ難しい。本論では特にコミュニケーション上重要である爆笑や愛想笑い等の笑いに着目する。不自然な笑いを防ぐためには、タイミングを正確に学習することが重要と仮定し、笑いのおよその位置と正確な位置を推定する2つの手法を組み合わせることで、データの正確性を向上した。また、データを基に笑うかどうかを推定するモデルを作成し、アバターと組み合わせ、笑いの自然さや印象の変化を評価した。

9月20日(水) 12:35-14:05 ポスターセッション3

[P11] 多段超解像による季節制御可能な大規模地形テクスチャ生成

○金井 俊樹, 遠藤 結城, 金森 由博 (筑波大学)

概要
本研究では季節変化を反映した大規模な地形テクスチャの生成手法を提案する。既存手法は、1年を周期とする季節変化を再現するのは困難であり、生成できるテクスチャも地形を表現するのに十分な解像度でない。そこで、地形形状を表す高さマップと気候条件から大規模かつ連続的な季節変化を反映したテクスチャを生成する手法を提案する。提案手法は大域的に一貫したテクスチャを生成するため、高さマップと気候条件を参照しつつ、広範囲を表す低解像度なテクスチャから超解像により段階的に高解像度なテクスチャを得る。さらに潜在空間での補間により、連続的な季節変化を実現する。

[P22] 平面および空間有理Bézier 曲線の曲率単調領域の可視化

○安田光, 井上大成, 吉田典正 (日本大学), 斎藤隆文 (東京農工大学)

概要
本研究では,従来,平面多項式Bézier曲線に対して適用されていた曲率単調領域(曲率変化が単調になる制御点の領域)を,有理曲線及び空間曲線に拡張する.有理曲線では式が複雑になるため、コンパクトな形式でBernstein基底で表現する必要がある。また、空間曲線の曲率単調領域は立体的になるが、制御点を含む特定の断面で切断することにより可視化する手法を提案する.有理平面曲線を利用することにより円弧に近い場合なども曲率変化の単調性を維持して表現することが可能となる.2次元のイラストの局所的な修正の応用例も示す.

[P23] 塑性変形を考慮した位置ベース法に基づく布と液体の相互作用シミュレーション

○齋藤 大輝, 藤澤 誠, 三河 正彦 (筑波大学)

概要
コンピュータグラフィックス分野においてキャラクタの衣服を表現するために布シミュレーションが用いられる。また、キャラクタが水中を泳ぐようなシーンを表現するためには布と液体のインタラクションの考慮が重要である。しかし、従来研究では吸水、拡散、滴下などの考慮は行っているものの、布が濡れた際の塑性変形に関しては考えられていない。本研究では、布内部における結合の一つである水素結合の切断および再結合をシミュレーションすることで塑性変形を再現する。これらを高速かつ安定なシミュレーション手法である位置ベース法により実装した。

[P24] フォトグラメトリによる光沢物体の形状復元を目的とした最適な視差に関する一考察

○市原 大暉 (東海大学), 久保 尋之 (千葉大学), 柴田 隆史 (東海大学)

概要
フォトグラメトリを用いた光沢物体の復元に焦点を当てた研究を提案する.本手法のアプローチは,物体表面の光沢や周辺環境の映り込みによる特徴点のばらつきを効果的に低減するために,カメラの視差を最適化することを目的としている.これにより,機械学習に頼ることなく光沢物体の復元を可能にする.

[P25] 展示された洋服に対するプロジェクションマッピングの自動生成

○小瀧 敦也, 森本 有紀 (九州大学)

概要
本研究は、アパレル店舗のディスプレイなど固定された洋服そのものやロゴに対して汎用的に、かつ半自動的にプロジェクションマッピングを行うシステムの構築を目的とする。具体的には、洋服の領域と、プリントされたロゴなどの柄の特徴を画像処理によって抽出し、その形状に合うように位置合わせを行いテクスチャを投影している。今後の目標として、位置合わせの負担がない正確な投影を目指し、環境に左右されない洋服へのプロジェクションマッピングシステムを構築する。特に、部屋の明るさなどといった投影環境に左右されない堅牢な前景抽出と、カメラやプロジェクタといった装置の計測誤差の影響を軽減する投影位置補正に取り組んでいる。

[P26] パーティクルエフェクトのための3次元流れ場のVRスケッチデザインシステム

○井上 弦, 三武 裕玄 (明治大学), 五十嵐 悠紀 (お茶の水女子大学)

概要
パーティクルエフェクトの動きを初心者がデザインすることは,どのパラメータをどの程度変更すれば望んだ動きを得られるのかわからないため難しい.本研究では,パーティクルエフェクトの動きを決定する3次元の流れ場をVR空間中でスケッチするデザインシステムを提案する.ユーザは,周囲のベクトルを変更する特異点の配置と,コントローラを動かした軌道上のベクトルを任意の方向へ向かせるブラシを使用することで,VR空間中に存在するベクトル場を直接的に変更する.これにより,パラメータを変更することでパーティクルエフェクトの動きをデザインする従来の方法に比べ,より直観的なデザインが可能となる.

[P27] 北斎の大波風ビジュアルエフェクトの生成

○福田 慶一朗, 森本 有紀 (九州大学)

概要
既存の浮世絵風の表現を取り入れた映像作品において,北斎の「神奈川沖浪裏」のような流体表現は既存のCG手法では難しい.そこで本研究では,「神奈川沖浪裏」の作中の波のような絵画的特徴を含むビジュアルエフェクトの生成手法を提案する.絵画的特徴とは主に,波の流れを表す縞模様とかぎ爪状に誇張された泡を指す.エフェクトは,任意形状のスイープによる波部分と流体シミュレーションによる泡部分に分けて生成する.また,エフェクトを取り入れた映像作品を制作し,アニメやゲーム制作におけるスタイライズされた流体エフェクト生成への応用を目指す.

[P29] DualShape:部品生成と検索によるスケッチベース3次元形状デザイン

○杜 旭升, 張 天宇, 謝 浩然 (北陸先端科学技術大学院大学)

概要
フリーハンドのスケッチから3次元形状を作成することは、スケッチから得られる情報が疎で曖昧なため、挑戦的なタスクである。本研究では、特に自動車モデリングのために、部品生成と検索を特徴とするスケッチベースの3次元形状デザインインタフェースであるDualShapeを提案する。DualShapeは3次元形状生成タスクを2つの部分に分解する。スケッチベースの特徴マッチング手法を用いた部品検索モジュールと、陰関数表現による深層学習アプローチを用いたスケッチベースの部品生成モジュールである。さらに、取得した部品モデルを組み立てるためのアセンブリモジュールを提案し、入力スケッチからの3次元形状生成タスクを達成する。

[P30] 拡散モデルを用いたスケッチベース流体速度場の生成

○常 恒遠, 彭 以琛 (北陸先端科学技術大学院大学), 佐藤 周平 (法政大学), 謝 浩然 (北陸先端科学技術大学院大学)

概要
速度場生成と深層学習を融合させて流体シミュレーションを効率化することが広く研究されている.既存手法では,主に敵対的生成ネットワーク(GAN)を基にした生成器と識別器の訓練が不安定であるという課題がある.本研究では,拡散モデルを用いたスケッチベースの流体速度場生成フレームワークを提案する.スケッチは制約条件として活用され,エンコーダを介して潜在空間にマッピングする.そしてノイズを制御し,デコーダで速度場が生成する.この結果,提案フレームワークは,手書きのスケッチの形状に基づいて速度場を生成することができる.さらに,GANモデルとの比較実験を通じて,提案モデルの方が安定性が向上したことが確認した.

[P31] 三次元顔形状フィッティングのための多視点顔画像からのDense Landmark検出

○糸井 琢人 (早稲田大学), 武原 光, 佐藤 浩之, 岩本 尚也, 郑 波 (華為技術日本株式会社)

概要
ランドマーク検出は顔の形状分析において重要な技術であり多くの先行研究があるが、従来のランドマーク検出手法で予測されるまばらなランドマークだけではアイデンティティや詳細な表情は表現しきれない。本研究では目や唇を含む従来手法の約10倍のランドマークを予測し、より正確な三次元顔形状フィッティングを可能にした。検出精度を向上させるため、本研究では多視点画像を入力とし既知のカメラ情報をもとに機械学習を用いて各視点からの予測が三次元的一貫性を持つように工夫した。また、顔全体を予測するモデルと目などのパーツに特化した複数のモデルを組み合わせて検出することでさらに精度が向上することに加え、ランドマークによって復元される表情が違和感の少ないものになると期待される。

[P32] 時刻非同期の動画を入力としたDynamic NeRFの検討

○佐々木馨, 山口周悟, 佐藤和仁, 武田司, 森島繁生 (早稲田大学)

概要
複数視点動画から,NeRFによるDynamicシーンの新規視点画像生成を実現する手法が注目を集めている.しかし,既存手法では完全な時刻同期動画の使用が前提とされており,時刻同期された動画の撮影コストが高い.また,入力動画に存在しない時刻の生成画像には.アーティファクトが多いという課題がある.そこで本研究では,NeRFを時刻方向に拡張したモデルにおいて,時刻を意図的にずらした多視点動画を入力とするケースを検証した.その結果,時刻方向に密に情報を保持することができ,入力動画には存在しない時刻における生成画像の品質向上に繋がることが明らかとなった.

ニュース

  • 2023年11月16日 各賞の受賞者の写真を掲載いたしました.(詳細)
  • 2023年9月20日 Visual Computing 2023は盛況のうちに終了しました.各賞の受賞者についてはこちらをご覧ください.
  • 2023年8月26日 プログラムを公開いたしました
  • 2023年8月21日 参加申し込みを開始いたしました
  • 2023年8月7日 チュートリアルの詳細を公開しました
  • 2023年4月21日 発表募集の詳細を公開しました
  • 2023年3月19日 Visual Computing 2023のWebページを公開しました

X (Twitter)

Facebook

過去の開催

スポンサー企業

(c) Visual Computing 2023 実行委員会