発表時間

論文 18分
国際招待セッション 10分
SIGGRAPHセッション 15分
※ 上記は質疑の時間を含みます。

口頭発表・招待講演プログラム

2025年9月8日(月) 10:10 - 11:50 SIGGRAPH招待講演セッション1
VC2025_SIGGRAPH_01

[1] Projected Walk on Spheres: A Monte Carlo Closest Point Method for Surface PDEs

○Ryusuke Sugimoto (University of Waterloo), Nathan King (University of Waterloo), Toshiya Hachisuka (University of Waterloo), Christopher Batty (University of Waterloo)

VC2025_SIGGRAPH_02

[2] Hierarchical Light Sampling with Accurate Spherical Gaussian Lighting

○Yusuke Tokuyoshi (Advanced Micro Devices, Inc.), Sho Ikeda (Advanced Micro Devices, Inc.), Paritosh Kulkarni (Advanced Micro Devices, Inc.), Takahiro Harada (Advanced Micro Devices, Inc.)

VC2025_SIGGRAPH_03

[3] Style-NeRF2NeRF: 3D Style Transfer from Style-Aligned Multi-View Images

○Haruo Fujiwara (University of Tokyo), Yusuke Mukuta (University of Tokyo/RIKEN AIP), Tatsuya Harada (University of Tokyo/RIKEN AIP)

VC2025_SIGGRAPH_04

[4] All you need is rotation: Construction of developable strips

○Takashi Maekawa (Waseda Research Institute for Science and Engineering), Felix Scholz (Johannes Kepler University Linz)

VC2025_SIGGRAPH_05

[5] A Cubic Barrier with Elasticity-Inclusive Dynamic Stiffness

○Ryoichi Ando (ZOZO, Inc.)

2025年9月8日(月) 15:10 - 16:05 論文セッション1(シミュレーション)
VC2025_paper_06

[6] SWEAT:濡れた布の透過性のビジュアルシミュレーションモデル

○中村 佑騎(慶應義塾大学),藤代 一成(慶應義塾大学)

概要
実世界では,雨模様の天気や液体が布にかかることによって布が濡れる状況は多く,シャツなどに使われる薄い素材の布は濡れることで透過性が上昇する.CG応用においても布が濡れるシーンは多く,重要視されている.しかし,液体に濡れた布の透過性を考慮した研究は少なく,流体シミュレーションや複合BSDFといった一般的な3DCGソフトウェアで扱われるものを用いて,濡れた布の透過性を表現できるモデルはほとんど存在しない.そこで本論文では,実際の布の厚みや糸密度,含水率などの値を参考に,濡れた布の透過性をビジュアルシミュレーションするための独自のモデルとして, a Stochastic model for WEt Absorbent cloth Translucency (SWEAT) を提案する.SWEATは,流体シミュレーションと複合BSDFに簡単に組み合わせることが可能であり,さまざまな素材の濡れた布をビジュアルシミュレーションすることができる.実写画像との比較から,このモデルの妥当性を確認した.

VC2025_paper_07

[7] 位置ベース法を用いた毛髪シミュレーションにおける髪型維持のためのパラメータ最適化手法の高速化

○海老沢 航(筑波大学),藤澤 誠(筑波大学),三河 正彦(筑波大学)

概要
本論文では毛髪シミュレーションにおいて,重力により,毛髪が望ましくない変形をすることを防ぐための最適化計算の高速化手法を提案する.毛髪は本数の多い物体であるが,物理シミュレーションを用いることで,大量の毛髪の挙動を高速に求めることが可能となった.一方で,物理シミュレーションを用いると,重力などによるクリエイターが意図しない変形も発生する.髪型はキャラクター性の重要な要素であり,風などの動的な外力等がない限り,デザインされた形状が維持されることが望ましい.この問題を解決するパラメータ最適化手法が提案されているが,特に毛髪の本数が多い場合に高い計算コストがかかり,リアルタイムに新たな髪型形状を定義したい場合などに利用することは難しい.本論文では,重力による変形を防ぐ最適化計算を大幅に高速化した手法を提案する.

VC2025_paper_08

[8] 液体シミュレーションにおける疑似気泡を用いた検索ベースの効果音合成

藤井 秀太朗 (法政大学), ○佐藤 周平 (法政大学/プロメテックCGリサーチ), 土橋 宜典 (北海道大学/プロメテックCGリサーチ)

概要
本稿では,検索ベースの手法により,液体シミュレーション結果に効果音を合成する手法を提案する.従来,液体に対する効果音生成には,超高精度な物理シミュレーションに基づく方法が用いられてきたが,これらは膨大な計算コストを要するという課題があった.これに対し,水粒子の速度履歴をもとに,シーンに類似した効果音を検索する手法も提案されているが,検索された効果音の発生タイミングなどをユーザが手動で調整する必要があり,また,シーンによっては適切な効果音が検索されない場合がある.そこで本研究では,効果音波形の特徴に基づき,波形を時間方向にセグメント分割し,発生タイミングの自動調整を可能とする.また,シミュレーション内で疑似的に気泡を計算し,その圧力履歴を波形として扱い検索に用いることで,検索精度の向上も図る.複数のシーンを用いた評価実験により,提案手法によって合成された効果音の尤もらしさを検証し,その有効性を示す.

2025年9月9日(火) 9:30 - 10:35 国際招待講演セッション
VC2025_International_01

[9] DeepFracture: A Generative Approach for Predicting Brittle Fractures with Neural Discrete Representation Learning (Computer Graphics Forum)

○Yuhang Huang (The University of Tokyo), Takashi Kanai (The University of Tokyo)

VC2025_International_02

[10] A Unified Discrete Collision Framework for Triangle Primitives (Computer Graphics Forum)

○Tomoyo Kikuchi (The University of Tokyo), Takashi Kanai (The University of Tokyo)

VC2025_International_03

[11] BlendSim: Simulation on Parametric Blendshapes using Spacetime Projective Dynamics (Computer Graphics Forum)

○Wu Yuhan (The University of Tokyo), Nobuyuki Umetani (The University of Tokyo)

VC2025_International_04

[12] GreenCloud: Volumetric Gradient Filtering via Regularized Green’s Functions (Computer Graphics Forum)

○Kenji Tojo (The University of Tokyo), Nobuyuki Umetani (The University of Tokyo)

VC2025_International_05

[13] CrystalNet: Texture-Aware Neural Refraction Baking for Global Illumination (Computer Graphics Forum)

○Ziyang Zhang (Waseda University), Edgar Simo-Serra (Waseda University)

VC2025_International_06

[14] A Multi-aperture Coaxial Projector Balancing Shadow Suppression and Deblurring (IEEE Transactions on Visualization and Computer Graphics)

○Hiroki Kusuyama (Osaka University), Yuta Kageyama (Osaka University), Daisuke Iwai (Osaka University), Kosuke Sato (Osaka University)

2025年9月9日(火) 10:45 - 11:40 論文セッション2(姿勢・モーション)
VC2025_paper_15

[15] Motion Changer:量子化コードの補間学習による高速動作変換

○栗山 繁(豊橋技術科学大学/サイバーエージェント)

概要
近年提案されている動作データの変換技術の多くは,オンライン・リアルタイム処理に対応していない.本研究では,動作の時間分割と類似区間の置換に基づくスタイル転移において,計算効率向上のためベクトル量子化を導入し、トランスフォーマや拡散モデルに頼らない,高速で高精度なスタイル転移とリターゲットを同時に実現する.提案手法では,離散化により動作の滑らかさや個性が損なわれる問題に対し,量子化コードを動径基底関数で補間することで滑らかな動作再構成を可能にし,さらに補間係数の疎な分布の特徴を転移させることで,特徴の異なるデータ間の柔軟かつ頑健な照合を実現する.

VC2025_paper_16

[16] 段階的な周期特徴の統合にもとづく位相多様体を用いた人間の歩行スタイルの予測

○ジョン スンム (東京大学大学院総合文化研究科), 金井 崇 (東京大学大学院総合文化研究科)

概要
リアルタイムアニメーションシステムでは,ユーザーの操作に応じてキャラクターが自然かつスタイリッシュに動くことが求められる.しかし,リアルタイムでのモーション生成においては,未来のモーションは未知であり,あらかじめ用意されたモーションを参照することができない.このため,未知のモーションにも柔軟に対応可能な,高品質なスタイル表現が課題となっている. 末端関節に対する局所的な周期特徴を用いて歩行スタイルを予測する従来法では,末端部の周期的なモーションを高品質に表現可能である一方,他の関節におけるモーション表現が不十分となる.一方,全身におけるモーションの周期特徴を教師なしで学習する手法では,関節全体の周期的なモーションを一括して表現可能であるが,手足などの末端部の細かなスタイル表現が損なわれてしまう. 本研究では,これらの問題を解決するために,段階的な学習手法を提案する.まず,手足のような末端部のモーションから局所的な周期的特徴を学習するステップを行う.次に,それらを考慮した上で,全身の周期特徴を学習する.この二段階のアプローチにより,末端部のモーションスタイルを維持しつつ,全身においても統一感のあるスタイル表現を両立できる.提案手法は,従来手法の利点をを活かしながら,各課題を克服し,高品質で自然なモーション生成を実現する.

VC2025_paper_17

[17] A Diffusion-Based Framework for Human-Object Interaction Synthesis via Pose-Grasp Decoupling

Masaki Yoshioka (Waseda University), ○Qi Feng (Waseda Research Institute for Science and Engineering), Shugo Yamaguchi (Waseda University), Takafumi Taketomi (CyberAgent), Shigeo Morishima (Waseda Research Institute for Science and Engineering)

概要
Generating realistic, full-body interactions between humans and objects is a critical challenge in visual synthesis, particularly in achieving natural hand grasps. Existing methods often fail to jointly model the global body posture and the intricate details of hand-object contact. We propose a diffusion-based framework that addresses this limitation by decoupling the generation into two stages: global pose generation and local grasp refinement. The first stage estimates a plausible full-body pose using object geometry and learned priors. In the second stage, specialized module refines the hand-object interaction to ensure physical plausibility. To overcome data scarcity, we construct a large-scale synthetic dataset with precise 3D annotations, enhanced to photorealism using diffusion. Experiments validate our approach, showing it successfully generates diverse and physically sound human-object interactions while outperforming current state-of-the-art methods across various objects.

2025年9月9日(火) 14:10 - 14:50 論文セッション3(効率的なデータ処理と符号化)
VC2025_paper_18

[18] ビット操作に基づく学習不要かつ高セキュリティな3D Gaussian Splattingステガノグラフィ

○佐々木 馨(早稲田大学),佐藤 和仁(早稲田大学),山口 周悟(早稲田大学),田中 啓太郎(早稲田大学理工学術院総合研究所),森島 繁生(早稲田大学理工学術院総合研究所)

概要
本稿では,3D Gaussian splatting (3DGS) に対する追加学習不要かつ高セキュリティなステガノグラフィ手法を提案する.従来手法は,情報を埋め込むたびにモデルの学習が必要であり,実用性に乏しい.また,データ構造と幾何学的構造の二点で埋め込みの痕跡が検出されやすく,セキュリティ上の課題も存在する.提案手法では,3DGSの数値表現に着目し,モデルパラメータの下位ビットに対して,暗号化された別の3DGSモデルのパラメータを直接埋め込む.埋め込みに伴う品質劣化を抑制するため,ガウシアンの位置に関するパラメータを優先的に保持する埋め込み戦略を導入する.さらに,埋め込むメッセージモデルをRSA暗号化することで,復号鍵を持たない第三者による解析や改変に対する耐性を強化する.提案手法は単純なビット操作に基づくため,ガウシアンを明示的に保持する3DGSに加え,動的に生成する3DGS手法にも適用可能である.

VC2025_paper_19

[19] 大規模データセットをVGGTで扱うためのグルーピング戦略

○丸山 敦史, 内村 創(株式会社ポリフォニー・デジタル), 鈴木 健太郎(株式会社ポリフォニー・デジタル)

概要
三次元再構成技術の進展とともに、カメラパラメータが未知な複数画像からシーンの三次元属性を推定することが重要視されている。VGGTはその代表的な手法であり、入力画像の枚数に依存しないネットワーク構造を持ち、カメラパラメータ・深度・点群・ポイントトラックなどの三次元情報を直接予測可能である。しかし、画像枚数の増加に伴いGPUメモリ使用量が増大し、現実的な推論には制約が生じる。本研究では、VGGTの再構成性能を維持しつつ、大規模な画像群を処理可能とする2種類のグルーピング戦略を提案する。(1)多視点撮影された同一被写体に対するランダムグルーピング戦略、(2)広範囲な移動を含む時系列画像に対する連続的グルーピング戦略。これらの手法を導入し、各手法が全画像に対して三次元属性推定を可能とすることを示す。提案手法は推論速度とメモリ効率を向上させ、特定条件下では従来法を上回る性能を達成することを示した。

2025年9月9日(火) 15:00 - 16:15 論文セッション4(構造設計と幾何処理)
VC2025_paper_20

[20] 曲線の滑らかさの新たな指標 η

○土江 庄一(BIPROGY株式会社)

概要
曲線の滑らかさの評価のために,曲率変化に基づく新たな指標ηを提案する.さらに,本指標により曲率を制御すると,最も単純な場合に対数美的曲線が導かれることを示す.すなわち,ηを形状パラメタとし,より多様な曲率変化を許容する美的曲線のフレームワークが構築できる.本指標ηによる評価例と美的曲線の近似計算への応用例も示す.

VC2025_paper_21

[21] 外点ペナルティ関数を用いた位置ベース連続的衝突処理

○菊池 知世(東京大学),金井 崇(東京大学)

概要
本論文では,物理シミュレーションにおける,外点ペナルティ関数を用いた位置ベース連続的衝突処理を提案する. 提案手法は,数理最適化分野で用いられる外点法の考え方に基づき,点と三角形,あるいは辺と辺といった二つの衝突プリミティブ間の最近点ペアの運動軌跡から定義されるペナルティ関数を導入する. この関数は衝突時刻によりスケーリングされており,Position-Based Dynamics(PBD)の制約式として定式化することで,連続的な衝突処理を可能としている. これにより,二つの物体が高速に衝突する場面を破綻することなく処理することができる.

VC2025_paper_22

[22] 境界最遠点を正規化基準とする距離場設計による破片形状学習

○黄 宇航 (東京大学), 金井 崇 (東京大学)

概要
脆性破壊アニメーションにおいて,深層学習を用いて 3 次元分割形状を学習する手法として,符号付き距離関数に基づく距離場である GS-SDF が利用されてきた. GS-SDF は,ニューラルネットワークによる分割形状の学習を可能にする一方で,破片の数や破片間の境界の整合性を保証できないという課題がある. 本研究では,破片境界から最も遠い点を正規化基準とする新たな距離場 FFB-DF を定義し,その距離場からのメッシュ復元手法を提案する. 提案手法によって得られる距離場は,従来手法と比較してより安定的に構築可能であり,深層学習における三次元形状の表現に適していることを実験的に示す.

VC2025_paper_23

[23] 非均一関与媒質の造形に向けた物理ベース微分可能レンダリングによる構造設計

○桑名 真結香(慶應義塾大学),横田 壮真(筑波大学),鳴海 紘也(慶應義塾大学)

概要
本研究では,雲に代表される非均一関与媒質の造形に向けた構造設計手法を提案する.SLA 方式の 3D プリンタは,様々な光学特性を有する造形物の製作に優れている.この特性により,光の散乱,吸収といった複雑な光学現象を伴う非均一関与媒質を造形することが期待できるが,その設計は容易ではない.本研究では,ユーザが入力した非均一関与媒質の外観に近い構造を設計するために,物理ベース微分可能レンダリングを用いて散乱係数の最適化を行う.得られた散乱係数に基づいて,透明レジン内部に気泡を配置することで,入力した関与媒質の外観に近い構造の設計を実現する.

2025年9月10日(水) 9:30 - 10:45 論文セッション5(アニメ)
VC2025_paper_24

[24] Manu-Grid:仰俯角に対応した統合投影法及び背景画に対するその投影関数パラメータ推定のためのGUI

○秋吉 護 (東京科学大学), 佐藤 歩 (東京科学大学), 齋藤 豪 (東京科学大学)

概要
背景画に3Dモデルを投影し前景画として一貫性のある合成するためには、背景画の描画で用いられた図法に対応する投影関数が必要となる。 本稿ではまず、Yoshimuraらが提案した統合投影法を仰俯角のある図法の背景画に対応できるように拡張する。 さらに、拡張した統合投影法のパラメータをユーザが画像から対話的に推定するためのインターフェースであるManu-Gridを提案する。Manu-Gridは、画像上で消失方向・消失線・地面上の基準点を操作し調節するインターフェースであり、いずれかの操作の際に他の要素を固定して独立に動かすことができる。 実験の結果、このGUIでユーザが推定した投影関数により3Dモデルと背景画の一貫性のある合成ができることが確認された。

VC2025_paper_25

[25] 候補色を活用したセグメントマッチングによるアニメ線画の自動彩色

○高野 悠 (早稲田大学)、前島 謙宣 (オー・エル・エム・デジタル、IMAGICA GROUP)、山口 周悟 (早稲田大学)、森島 繁生 (早稲田大学)

概要
アニメ制作の効率化を目的とした線画に対する自動彩色手法がいくつか提案されている。しかしながら、セグメントマッチングを行う最新の既存手法はシンプルな線画には有効だが、小さな領域やオプティカルフロー推定に依存する点で限界がある。一方で局所的な関係を学習しセマンティックセグメンテーションを行う手法は小さな領域にある程度対応可能であるが、シンプルな線画には不向きである。本稿ではこれらの課題を解決するため、候補色を活用したセグメントマッチングを用いてアニメ線画の自動彩色を行う。この手法は、小さな領域の色付けとシンプルな線画への適用を両立し、かつオプティカルフローを使用しないためアニメ特有の非線形な動きにも比較的対応可能である。提案手法の有効性を検証するため、手作業による彩色結果と比較を行い、提案手法が他の既存研究よりも高い彩色精度である事を示す。

VC2025_paper_26

[26] Graph-based Visual Prompting for Anime Scene Generation

Bofei Huang(Japan Advanced Institute of Science and Technology), Tianyu Zhang(Japan Advanced Institute of Science and Technology), Haoran Xie(Japan Advanced Institute of Science and Technology)

概要
Creating compelling anime-style scene images often demands advanced artistic skills and a deep understanding of design principles, posing a significant challenge for non-professional users. While text-to-image generation models have lowered entry barriers, assigning complex multi-object compositions and precise spatial relationships remains difficult for novices. To address this issue, we propose an interactive system with visual prompting centered on a scene graph representation. Users intuitively construct the scene graphs, to define objects and their semantic spatial relationships and visual attributes, without needing to manipulate low-level layout details such as coordinates or bounding boxes. Our system also supports generating initial scene graphs from textual prompts. We adopt LLM to translate the structured visual input into a plausible layout that guides a diffusion model, ensuring generated images align closely with user intent. A user study verified that our approach can empower non-professional users to efficiently create complex anime-style scenes, fostering creative exploration and significantly enhancing their ability to realize their design visions.

VC2025_paper_27

[27] Stream-Guided Sketch-Based Smoke Illustration Design

○Hengyuan Chang (Japan Advanced Institute of Science and Technology), Xiaoxuan Xie (Japan Advanced Institute of Science and Technology), Syuhei Sato (Hosei University), Haoran Xie (Japan Advanced Institute of Science and Technology)

概要
Physics-aware smoke illustration remains challenging due to the intricate flow dynamics constraints, which cause amateur users to face a significant learning challenge when engaging in illustration creation. We introduce a latent diffusion model (LDM)-based framework that embeds physical control into the smoke illustration design. In the first stage, a sketch‐guided LDM yields a stream function encoding smoke flow dynamics; in the second stage, the stream function guides velocity field synthesis via LDM. The smoke simulation is performed through an integrated physics simulator. We compare with the state-of-the-arthe-art methods to demonstrate the effectiveness of our proposed method.

2025年9月10日(水) 10:55 - 11:50 論文セッション6(画像生成・編集)
VC2025_paper_28

[28] 拡散モデルに基づく単眼地形画像の再照明

○立川 駿 (法政大学), 佐藤 周平 (法政大学/プロメテックCGリサーチ)

概要
本稿では,深層学習を用いて単一の地形画像からマテリアルと深度を推定することで,ユーザが指定した時間帯や天候に合わせて地形画像を再照明する手法を提案する.既存のデータセットやGANに基づく手法では地形特有の霧や太陽光の影響により正確なアルベドや光沢マップを推定することができない.そこで我々は大規模で高品質な合成データセットを作成し,潜在拡散に基づくアルベドと光沢マップの推論モデルを提案する.本手法はこれまでの手法では困難であった霧を含む地形画像に対しても,高品質なマテリアルをワンステップで推定することを可能とする.また,最新の深度推定モデルを用いた三次元再構成に基づく再照明を行い,本手法の有効性に関して検証する.

VC2025_paper_29

[29] Animating Fluid Motion in Landscape Images with Sketch-Based Control

Hao Jin (Japan Advanced Institute of Science and Technology), Zhengyang Wang (Japan Advanced Institute of Science and Technology), Haoran Xie (Japan Advanced Institute of Science and Technology)

概要
Animating landscape images breaks the boundaries of static art, enabling the depiction of a sense of time and change, which brings the scene to life and immerses viewers in a dynamic natural environment. Fluid elements are a vital components of landscape scenes, but their motions are complex and often characterized by irregular flow patterns which pose significant challenges for animation. To address these challenges, this paper presents an innovative framework for generating landscape videos by animating fluid in static images, guided by hand-drawn sketches. First, a fine-tuned conditional latent diffusion model is adopted to generate motion field from user-provided sketches with text prompt. Subsequently, the generated motion field is integrated into a latent video diffusion model via a motion adapter to precisely control the fluid dynamic. The results verified that our framework's ability to synthesize fluids with natural dynamics from intuitive sketch inputs, both in naturalistic and anime-style landscape scenes. We showcase the advantages of our framework through qualitative and quantitative comparisons against the state-of-the-art image-to-video generation approach.

VC2025_paper_30

[30] 構造不一致な参照画像ペアに対応可能な文脈内学習画像編集

○加藤 拓朗,會澤 智大,顧 淳祉(豊橋技術科学大学),栗山 繁(豊橋技術科学大学/サイバーエージェント AI Lab)

概要
近年,視覚的な変化を示す参照画像ペアをモデルに与え,モデルを再学習することなく同様の変化を他の画像に適用する「視覚的文脈内学習」が注目を浴びている.先行研究は,自己注意機構の注意関係を操作することで,事前学習済み生成モデルを直接応用した視覚的文脈内学習画像編集を実現した.しかし,参照画像ペアに対して厳密な構造一致の制約が求められ,そのようなペアの獲得において実用性を大きく欠く.提案手法では,参照画像間の語義的対応関係に基づいて編集対象画像の自己注意機構における類似度情報を補完・転写することで,構造が一致しない参照画像ペアによる編集指示を可能とした.さらに,ユーザーが指定した編集領域に対して局所的に特徴変換を適用するためにマスク画像を導入し,自己注意の挙動を制御する手法を併用した.複数の画像処理タスクにおける比較実験により,本手法の視覚的な有効性と柔軟性を実証した.

2025年9月10日(水) 13:00 - 13:55 論文セッション7(知覚と視覚)
VC2025_paper_31

[31] CSFに基いた知覚可能な画像情報の再構成

○吉井 碧人 (東京科学大学), 伊藤 謙吾 (東京工業大学), 齋藤 豪 (東京科学大学)

概要
視覚特性の1つであるコントラスト感度関数(CSF)は,ヒトが検知可能なコントラストの閾値を表す刺激周波数の関数である.これまでに多くの研究でCSFの計測と数理モデルの提案がされている一方で,CSFに基いて知覚可能な画像情報を再構成した研究は少ない.また,これらの研究では,再構成の過程で生じるアーチファクトによって再構成画像と原画像との差異が観察者に知覚されてしまうという課題がある.この課題を解決するため,画像情報の知覚可能性判定のための周波数分解と再構成のための周波数分解を分けることで,アーチファクトを低減した再構成を実現した.再構成画像と原画像との弁別実験では,他の手法と比較して提案手法による再構成画像の弁別が最も困難であることが示された.

VC2025_paper_32

[32] AR及びLLMを用いた色覚補償のための色情報コミュニケーション支援システム

○大石 拓哉 (山梨大学), 朱 臻陽 (山梨大学), Won-Du Chang (釜慶大学校), 郷 健太郎 (山梨大学), 茅 暁陽 (山梨大学)

概要
色覚障がいは, 色の識別が困難となる視覚特性であり, 色名を含む会話において, 対象物を特定することが困難である. 従来の支援手法は, 色のコントラストを強調する色変換が主流であり, 「色の違い」は認識できても「何色か」は認識できない. 一部の手法では色名のヒントを提示できるが, ユーザーのスキルに依存する. 本研究では, ARとLLMを活用し, 色覚障がい者が色名を含む会話を理解できるよう支援する新たなシステムを提案した. Google Geminiを活用して, 会話中に含まれる色名を検出し, 対象物の位置を特定した上で, ARグラス上に対象物の情報を重畳表示する. また, 実用性を検証するための予備実験を行い, 今後の開発方針や実験計画を明確化した.

VC2025_paper_33

[33] 色振動を活用して視聴速度の変更を阻害する動画像

○北山 大起(慶應義塾大学),顾 ⼈舒(杭州電子科技大学),藤代 一成(慶應義塾大学/杭州電子科技大学)

概要
動画像の視聴速度を変更する機能は広く普及しているが,芸術的動画コンテンツの場合,速度変更はその本質的な要素を損ない,視聴体験に大きく影響する可能性がある.したがって,速度変更をあえて阻害し,本来の速度での視聴を促すことは,動画像の芸術性を保護し,メディア伝達の適正化に寄与すると考えられる.しかし,これを目的とした研究はまだ知られていない.そこで本論文では,人間の時間的色覚特性を活用し,視聴速度の変更を阻害する方法を示す.各フレームを色度だけ変化させた2枚に分割することで,通常速度時は平均色として元の色が知覚され,速度変更時は色が変化して知覚される.動画プラットフォームではなく動画像自体へ細工を施すことで,発信者が阻害を直接的に設定可能となり,視聴環境の自由度も向上する.評価実験の結果,本手法が視聴速度に応じて見えを変化させることが確認され,その有効性が示された.一方,制御パラメタ値の最適化など実際の利用に際して改善の必要性も明らかになった.

2025年9月10日(水) 15:50 - 17:30 SIGGRAPH招待講演セッション2
VC2025_SIGGRAPH_06

[34] Spherical Lighting with Spherical Harmonics Hessian

○Kei Iwasaki (Saitama University/Prometech CG Research), Yoshinori Dobashi (HokkaidoUniversity/Prometech CG Research)

VC2025_SIGGRAPH_07

[35] Stroke Transfer for Participating Media

○Naoto Shirashima (Aoyama Gakuin University), Hideki Todo (Takushoku University), Yuki Yamaoka (Aoyama Gakuin University), Shizuo Kaji (Kyushu University), Kunihiko Kobayashi (Aoyama Gakuin University), Haruna Shimotahira (Aoyama Gakuin University), Yonghao Yue (Aoyama Gakuin University)

VC2025_SIGGRAPH_08

[36] Quadtree Tall Cells for Eulerian Liquid Simulation

○Fumiya Narita (The University of Tokyo/GAME FREAK Inc.), Nimiko Ochiai (GAME FREAK Inc.), Takashi Kanai (The University of Tokyo), Ryoichi Ando (Unaffiliated)

VC2025_SIGGRAPH_09

[37] GarmentImage: Raster Encoding of Garment Sewing Patterns with Diverse Topologies

○Yuki Tatsukawa (The University of Tokyo), Anran Qi (Centre Inria d’Université Côte d’Azur/The University of Tokyo), I-Chao Shen (The University of Tokyo), Takeo Igarashi (The University of Tokyo)

VC2025_SIGGRAPH_10

[38] The Mokume Dataset and Inverse Modeling of Solid Wood Textures

Maria Larsson (The University of Tokyo), Hodaka Yamaguchi (Gifu Pref. Research Institute for Human Life Technology/Nihon University), Ehsan Pajouheshgar (École Polytechnique Féderale de Lausanne (EPFL)), I-Chao Shen (The University of Tokyo), Kenji Tojo (The University of Tokyo), Chia-Ming Chang (The University of Tokyo), Lars Hansson (Luleå University of Technology/Norwegian University of Science and Technology), Olof Broman (Luleå University of Technology), Takashi Ijiri (Shibaura Institute of Technology), Ariel Shamir (Reichman University), Wenzel Jakob (The University of Tokyo/École Polytechnique Féderale de Lausanne (EPFL)), ○Takeo Igarashi (The University of Tokyo)

スポンサー企業

(c) Visual Computing 2025 実行委員会