IEEE VCIP2024にて、相澤教授が、「Building a Realistic Virtual World from 360˚ Videos for Large Scale Urban Exploration」と題したキーノート講演を行いました。


お知らせ
- MOVIE MAP
- FOOD LOG
あなたの食事の記録をほんの少しだけお助けします.
- MANGA PROJECT
- YAMASAKI LAB
- LECTURES
学部・大学院の講義はこちらから.
- IEEE Student Branch
VCIP2024キーノート講演
2024/12
コミック工学
2024/11
コミック工学研究会にて、「Manga109からのコミック工学の歩み」と題した特別セッションを行いました。研究室関係で、相澤、白、李、幾田が講演しました。
https://sig-cc.org/?p=623
https://sig-cc.org/?p=623
CVIU論文採択
2024/11
下記論文が、Computer Vision and Image Understanding誌に採択されました.
Q.Yu, G.Irie, K.Aizawa, Open-Set Domain Adaptation with Visual-Language Foundation Models
Q.Yu, G.Irie, K.Aizawa, Open-Set Domain Adaptation with Visual-Language Foundation Models
映像情報メディア学会優秀研究発表賞
2024/11
標記の賞を受賞しました.
大隣嵩、池畑諭、相澤清晴、都市シーンにおける動く物体を除去した静的なNeRF表現の学習
大隣嵩、池畑諭、相澤清晴、都市シーンにおける動く物体を除去した静的なNeRF表現の学習
MMM2025 論文採択
2024/10
以下の論文がMultimedia Modeling 2025に採択されました。
FoodMLLM-JP: Leveraging Multimodal Large Language Models for Japanese RecipeGeneration, Y. Imajuku, Y. Yamakata, K. Aizawa
FoodMLLM-JP: Leveraging Multimodal Large Language Models for Japanese RecipeGeneration, Y. Imajuku, Y. Yamakata, K. Aizawa
NuerIPS WS 2024 採択
2024/10
以下の発表がNeurIPS WS 2024に採択されました。
- JMMMU: A Japanese Massive Multi-discipline Multimodal Understanding Benchmark, S. Onohara, A. Miyai, Y. Imajuku, K. Egashira, J. Baek, X. Yue, G. Neubig, K. Aizawa
- FlexFlood: Efficiently Updatable Learned Multi-dimensional Index, F. Hidaka, Y. Matsui
日本語MMMU (JMMMU)の公開
2024/10
マルチモーダルLLMの日本語拡張したベンチマークを作りました。既存のベンチマークであるMMMUを精査し、文化依存性の少ない24科目の日本語訳と新たに作成した文化依存性の大きな4科目の全部で1320の問い(1118画像)から構成されています。HPでは、主要なマルチモーダルLLMのベンチマークも行いました。
https://mmmu-japanese-benchmark.github.io/JMMMU/
https://mmmu-japanese-benchmark.github.io/JMMMU/