日本データベース学会の皆様
愛媛大学DS研究セミナーの案内をお送りいたします。
よろしくお願いいたします。
石川勲
--
第24回愛媛大学DS研究セミナー(4/28開催)
愛媛大学データサイエンスセンター(CDSE)
愛媛大学データサイエンスセンター(CDSE)は、AI・統計解析・機械学習等の広義でのデータサイエンスと接点のある研究者、実務家、教育者を学内外から招聘し、講演していただく愛媛大学データサイエンス研究セミナー(愛媛大学DS研究セミナー)を開催していきます。
この度、下記の要領で第24回愛媛大学DS研究セミナーを開催いたします。参加を希望する方は下記にあります登録フォームよりお申し込みください。皆様のご参加をお待ち申し上げます。
【日 時】2023年4月28日(金) 16:30~18:00
【開催場所】オンライン開催(Zoom(先着300名)・Youtube同時配信)
【講演者】瀧 雅人 氏(立教大学・准教授)
【題 目】MetaFormers:Transformerによるコンピュータビジョンの変革
【概 要】
深層学習の広範な分野での成功・高い性能の秘密は、単に深いニューラルネットを使うということではなく、ネットワーク構造のデザインにより様々な帰納バイアスを柔軟に実現できる点にある。その典型的な例は、画像タスクにおける畳み込みニューラルネット(CNN)である。この10年の画像タスクにおける深層学習の大きな成功も、CNNの持つ帰納バイアスをベースにしていると言って良い。ところが2020年になり、畳み込み構造に一切依存しない深層学習Transformerによって、SOTA
CNNに匹敵する性能を実現できることが判明した。この新しいモデルはVision
Transformer(ViT)と呼ばれる。ViTは自然言語処理分野において発展したself-attentionを使うことで、非局所的なパターンも動的に抽出することが可能なアーキテクチャである。また翌年にはMLP-Mixerと呼ばれる手法で、self-attentionを使わずとも、多層パーセプトロン(MLP)をベースにしたモデルだけでも同等の性能の画像認識が可能であることが判明した。
このように、現在CNNパラダイムとは全く別の画像認識の方向性が明らかになりつつある。このViT、及びMLP-Mixerの発見は、データセットサイズがスケールアップした深層学習では、必ずしもCNNのような強い帰納バイアスは必要でなくなることを実証している。また訓練データセットがスケールしていくとやがてViTがCNNを凌駕することから、場合によっては強い帰納バイアスがモデルの性能に限界をもたらすことも具体的にわかってきた。
このようなpost-CNNコンピュータビジョンモデルは現在、MetaFormerという統一的な枠組みで研究されている。このセミナーでは、MetaFormerの現状とこれまで判明している興味深い事実、およびその欠点について議論したい。
【参加登録】事前申込制としています。
参加を希望する方は下記URLよりお申し込みください。
【登録締切】2023年4月26日(水) 12:00
※定員先着300名となっております。
同時にYouTube配信も行っております。
締め切り後に、先着300名様にはZoom参加用URLとYouTubeのURLを、301名様以降にはYouTubeのURLをメールでお送りします。メールが届かない場合は下記問い合わせ先までご連絡ください。
参加登録
https://forms.gle/x47eD2TG4K7Ve77E9
ご登録いただいた内容は、このセミナーに係る諸連絡のみに使用し、本人の同意なしに第三者に開示・提供、使用はいたしません。
問い合わせ先:
CDSE事務(石川由美・越智愛) cdse(a)stu.ehime-u.ac.jp <mailto:cdse@stu.ehime-u.ac.jp>
愛媛大学データサイエンスセンターHP
https://www.cdse.ehime-u.ac.jp/
第24回愛媛大学DS研究セミナー案内
https://www.cdse.ehime-u.ac.jp/DS_Seminar/DS_Seminar24_20230428.pdf
--
Isao Ishikawa
Center for Data Science, Ehime University
ishikawa.isao.zx(a)ehime-u.ac.jp