お知らせ
- MOVIE MAP
- FOOD LOG
あなたの食事の記録をほんの少しだけお助けします.
- MANGA PROJECT
- YAMASAKI LAB
- LECTURES
学部・大学院の講義はこちらから.
- IEEE Student Branch
相澤清晴教授 最終講義のご案内
2024/10
CVIU論文採択
2024/11
下記論文が、Computer Vision and Image Understanding誌に採択されました.
Q.Yu, G.Irie, K.Aizawa, Open-Set Domain Adaptation with Visual-Language Foundation Models
Q.Yu, G.Irie, K.Aizawa, Open-Set Domain Adaptation with Visual-Language Foundation Models
映像情報メディア学会優秀研究発表賞
2024/11
標記の賞を受賞しました.
大隣嵩、池畑諭、相澤清晴、都市シーンにおける動く物体を除去した静的なNeRF表現の学習
大隣嵩、池畑諭、相澤清晴、都市シーンにおける動く物体を除去した静的なNeRF表現の学習
MMM2025 論文採択
2024/10
以下の論文がMultimedia Modeling 2025に採択されました。
FoodMLLM-JP: Leveraging Multimodal Large Language Models for Japanese RecipeGeneration, Y. Imajuku, Y. Yamakata, K. Aizawa
FoodMLLM-JP: Leveraging Multimodal Large Language Models for Japanese RecipeGeneration, Y. Imajuku, Y. Yamakata, K. Aizawa
NuerIPS WS 2024 採択
2024/10
以下の発表がNeurIPS WS 2024に採択されました。
- JMMMU: A Japanese Massive Multi-discipline Multimodal Understanding Benchmark, S. Onohara, A. Miyai, Y. Imajuku, K. Egashira, J. Baek, X. Yue, G. Neubig, K. Aizawa
- FlexFlood: Efficiently Updatable Learned Multi-dimensional Index, F. Hidaka, Y. Matsui
日本語MMMU (JMMMU)の公開
2024/10
マルチモーダルLLMの日本語拡張したベンチマークを作りました。既存のベンチマークであるMMMUを精査し、文化依存性の少ない24科目の日本語訳と新たに作成した文化依存性の大きな4科目の全部で1320の問い(1118画像)から構成されています。HPでは、主要なマルチモーダルLLMのベンチマークも行いました。
https://mmmu-japanese-benchmark.github.io/JMMMU/
https://mmmu-japanese-benchmark.github.io/JMMMU/
ECシンポジウム2024 一般セッション優秀賞受賞
2024/09
エンタテインメントコンピューティングシンポジウム2024で幾田光君が辻野雄大先生(明治大)および山西良典先生(関西大)との共同研究プロジェクトの発表で一般セッション優秀賞を受賞しました。
"音楽ゲーム大会の選曲ルールに潜む最適選択についての数理的解明", 幾田 光(東大), 辻野 雄大(明大), 山西 良典(関大)
"音楽ゲーム大会の選曲ルールに潜む最適選択についての数理的解明", 幾田 光(東大), 辻野 雄大(明大), 山西 良典(関大)