- 招待ポスター
- 「なぜ新聞社で NLP の研究開発に挑むのか」 石原 祥太郎 氏(日本経済新聞社)
- 「エンタメ領域で技術スタートアップを作る - Mantraの一事例」 石渡 祥之佑 氏(Mantra)
- 「理解しやすい文はどんなものかー紆余曲折のキャリアから」 磯野 真之介 氏(国立国語研究所)
- 「「逆」のすすめ」 磯沼 大 氏(国立情報学研究所 / 東北大学)
- 「Vision-Language-Action モデルと完全自動運転」 犬塚 眞太郎 氏(Turing)
- 「博士課程での研究留学という選択肢」 大羽 未悠 氏(奈良先端科学技術大学院大学)
- 「対話の研究開発で考える研究所・大企業・スタートアップの違い」 叶内 晨 氏(NLPeanuts Inc.)
- 「研究でも開発でもない“もうひとつの”技術キャリア」 鎌田 啓輔 氏(Weights & Biases )
- 「知的財産実務者の意思決定をモデル化する自然言語処理」 河野 誠也 氏(京都工芸繊維大学)
- 「深層学習による音声の合成と評価」 齋藤 佑樹 氏(東京大学)
- 「大規模言語モデル評価基盤の再考」 坂井 優介 氏(奈良先端科学技術大学院大学)
- 「強化学習は言われた指標を最大化する」 陣内 佑 氏(サイバーエージェント)
- 「言語に関する統計物理学的問いと、自然言語処理技術によるその探究」 中石 海 氏(理化学研究所)
- 「AGI/ASIに向けた研究開発」 古田 拓毅 氏(Google DeepMind)
- 「傍観者から当事者へ--目標の変遷と日本語LLM構築への参画」 水木 栄 氏(東京科学大学 / 産業技術総合研究所 / ホットリンク)
- 「私たちは「信頼できる情報空間」の構築のために何ができるのか?」 村山 太一 氏(横浜国立大学)
- 「企業研究所での働き方 (及び、自由に研究をするための道)」 森下 皓文 氏(日立製作所)
- 「埋め込み空間にみる単語分布とモデル地図」 山際 宏明 氏(京都大学)
- 「Knowledgeable AIプロジェクト: 知識を効率的に追加・編集・蓄積できるAIを作る」 山田 育矢 氏(Studio Ousia / 理化学研究所 / 名古屋大学)
招待ポスター
このセッションでは,自然言語処理分野やその周辺領域で活躍されている方々をお招きし,これまでの研究や展望についてポスター発表をしていただきます. 今年のテーマである「研究と実装をつなぐ自然言語処理」を促進するため,アカデミアや公的機関の研究所等でご活躍されている方,企業の研究組織等でご活躍されている方の双方をお招きします.ご講演では,ご自身のキャリアを振り返っていただきつつ,これまでのご研究をご紹介いただく予定です.
また,このセッションでは言語処理学会の留学支援制度で留学された方に,ご自身の留学経験をお話しいただきます. 研究の議論を交わしたい方,キャリア・進学等のご相談がある方など,多くの方のご参加をお待ちしております.
※講演者の追加・変更などありましたら,改めて告知いたします.
※掲載順は講演者名の五十音順です
「なぜ新聞社で NLP の研究開発に挑むのか」
石原 祥太郎 氏(日本経済新聞社)
概要: 日々大量のテキスト情報を処理している新聞社では,さまざまな場面で NLP が活躍しています.長年にわたり蓄積された豊富なコンテンツや行動ログを活用できる魅力もあります.本発表では具体的な事例を通じて NLP の社会実装の一端を紹介すると共に,新聞記者・編集者としての経験も踏まえ,私が新聞社で NLP の研究開発に挑む意義について議論します.
略歴: 2013 年から東京大学新聞社で記者・編集者として働き,2017 年からは日本経済新聞社に入社して法人向け情報サービスの開発やデータ分析に従事.2021 年に研究開発部門に異動し,独自の大規模言語モデルの開発を中心に,情報技術を活かした業務効率化や新機能開発に取り組んでいる.2020 年に国際ニュースメディア協会の若手表彰でアジア太平洋部門の最優秀賞を受賞.共著に『Python ではじめる Kaggle スタートブック』『Kaggle に挑む深層学習プログラミングの極意』など.
「エンタメ領域で技術スタートアップを作る - Mantraの一事例」
石渡 祥之佑 氏(Mantra)
概要: 日本のマンガは世界で広く受け入れられていますが、その海外展開には翻訳のコストと時間が大きな壁として立ちはだかっています。私たちMantraは、この課題に挑むため、NLP/CVの研究者とエンタメ翻訳の専門家でタッグを組み、マンガに特化した機械翻訳技術の開発を進めています。本発表では、マンガ翻訳特有の技術的な難しさと、それに対するMantraのアプローチをご紹介します。あわせて、私自身の経験から、博士号取得者がスタートアップを通じて研究を社会実装するキャリアの面白さやリアルについてもお伝えします。
略歴: Mantra株式会社 代表取締役。東京大学情報理工学系研究科修了。博士(情報理工学)。日本学術振興会特別研究員(DC2)、東京大学生産技術研究所特任研究員等を経て、2020年 Mantra株式会社を共同創業。
「理解しやすい文はどんなものかー紆余曲折のキャリアから」
磯野 真之介 氏(国立国語研究所)
概要: 私は「人間がどうやってリアルタイムで文を理解しているか?」という問いに、理論言語学・心理言語学・計算言語学のアプローチを併用しながら取り組んでいます。もともと法学部出身で、マスコミで記者をしていましたが、仕事の中で「どうすれば理解しやすい表現になるか?」ということに関心を持ち、思い切って大学院へ。言語学を学び、その中でも対人実験を行う心理言語学から、文法理論や自然言語処理へと関心を広げてきました。各分野の知見を組み合わせることで、人間の言語処理の実態に迫り、「理解しやすい表現」にも近づけると考えています。現在に至るまでのキャリア選択や研究についてお話しします。
略歴: 国立国語研究所次世代言語科学研究センター助教(テニュアトラック) 。博士(学術)。2015年東京大学法学部(政治コース)卒。2016年からNHK記者。岡山放送局で警察・行政・災害を主に取材。2020年に退職し、東京大学大学院総合文化研究科言語情報科学専攻に入学。理論・心理・計算言語学を学ぶ。学振DC2。2025年3月に博士号取得。同4月より現職。文法理論ベースの文理解モデリングに取り組みつつ、ニューラル言語モデルの研究者との共同研究も行う。1歳男児の父。
「「逆」のすすめ」
磯沼 大 氏(国立情報学研究所 / 東北大学)
概要: 本発表では、「逆」に考えることの面白さとその有用性について議論する。例えば機械学習における「学習」を反転させた「逆学習」は、大規模AIモデルから有害なデータを除去するための有用な手段である。また、学習データや評価データを逆学習したモデルと逆学習する前のモデルを比較することで、学習データがモデルに与える影響を調べることができる。その他にも、データから勾配を求める計算を逆にし、勾配からデータを推定する逆問題を解くことで、モデルを欺くデータを作ることもできる。本発表ではこうした「逆」に発想するアプローチでどんな面白い問題を解くことができるか議論したい。
略歴: 国立情報学研究所 大規模言語モデル研究開発センター/東北大学 言語AI研究センター 特任助教(クロスアポイントメント)。2021年東京大学 大学院工学系研究科 博士課程修了。東京大学 大学院工学系研究科 特任助教、エジンバラ大学 日本学術振興会海外特別研究員を経て2025年より現職。博士(工学)。
「Vision-Language-Action モデルと完全自動運転」
犬塚 眞太郎 氏(Turing)
概要: 完全自動運転の実現には,高性能なAIが不可欠です。本発表では,まず画像と言語を統合的に理解する Vision–Language Models (VLMs) が,自動運転における困難な状況での認識性能をどのように向上させてきたかを概観します。続いて,その機能を「行動生成」へ拡張した Vision–Language–Action (VLA) モデルを中心に取り上げ,大規模データセットの構築からモデル学習,シミュレーション環境・実車での評価に至るまでの開発パイプラインを,実例を交えながら俯瞰します。さらに企業で研究と実装を推進するエンジニアの立場から,自動運転と自然言語処理が交差する最前線の課題と展望についても紹介します。
略歴: 2019年 東京大学大学院 情報理工学系研究科 修士課程終了。2019年クックパッドにリサーチエンジニアとして新卒入社。2021年 Cookpad Ltd. (英国支社) 出向。2022年サイバーエージェントに機械学習エンジニアとして入社。ABEMAでの動画広告最適化に従事。2024年にTuringにシニアソフトウェアエンジニアとして入社。完全自動運転の実現のためのフィジカル基盤モデルの開発業務に従事。
「博士課程での研究留学という選択肢」
大羽 未悠 氏(奈良先端科学技術大学院大学)
概要: 博士課程への進学を検討している皆さん、長いようで短い3年間をどのように過ごすかについてイメージはありますか?所属大学で研究に取り組むのはもちろん、共同研究やインターンシップへの参加など、さまざまな過ごし方があります。その中のひとつとして、研究留学はいかがでしょうか。研究留学とは、海外の大学や研究機関に数ヶ月ほど滞在し、現地の研究者と共同研究を行うことです。いわゆる語学留学や交換留学と異なり、研究留学は形式が多様で、自分で準備を整える必要があります。本発表では、研究留学について「どうすれば行けるの?」「何ができるの?」といった疑問に答えながら、博士課程の過ごし方の選択肢としての研究留学を紹介します。
略歴: 2022年、南山大学外国語学部フランス学科卒業。2024年、奈良先端科学技術大学院大学情報科学領域博士前期課程修了。同年より同大学博士後期課程に在籍。2025年秋から半年間、ドイツ・ゲッティンゲン大学に研究滞在。自然言語処理および計算言語学の研究に従事。
「対話の研究開発で考える研究所・大企業・スタートアップの違い」
叶内 晨 氏(NLPeanuts Inc.)
概要: 同じ対話システムでも、所属組織が違えば求められる価値は大きく変わる。例えば研究所では「新規性と学術的インパクト」が最優先で、先端的アイデアの部分実証が評価対象となる。一方で企業ではシステム全体の安定運用を前提に、貢献額や業務効率化観点で評価される。スタートアップはこれに加えて市場適合が絶対条件で、短サイクル検証と高速改善が求められる。本発表では大学院・大企業・企業研究所・スタートアップで対話システムを研究・開発をしてきた経験を基に、複数の軸でその違いを整理し、キャリア選択のヒントを提供する。
略歴: 2017年東京都立大学大学院システムデザイン学部小町研究室にて博士前期課程修了。同年、株式会社リクルートに入社。2019年株式会社リクルートのAI研究期間であるMegagon Labsに異動し、リサーチサイエンティストとして研究開発に従事。退職後、株式会社Capexにて最高AI責任者として対話システムを統括。2022年11月NLPeanuts Inc.を創業し代表取締役。主に自然言語処理の応用分野の研究や開発に従事。
「研究でも開発でもない“もうひとつの”技術キャリア」
鎌田 啓輔 氏(Weights & Biases )
概要: 外資系AIベンダー3社で「カスタマーサクセスエンジニア」として働いてきました。お客様が求めるのはツールそのものではなく、成功という成果です。ツールが次々に現れる今、それを通したサクセスとは何か?一緒に考えてみませんか。あわせて、W&Bでの日本語LLMリーダーボード運営を通じて見えた生成AI時代の課題と、技術者としてのコミュニティ貢献についても共有します。
略歴: 因果推論からML、LLMまで扱う機械学習エンジニア。APTではビジネス施策の因果推論支援、DataRobotではヘルスケア領域のAI導入を多数リード。コロナ禍には国立国際医療研究センターと論文や厚労省向けレターを作成。現在はWeights & BiasesでAIワークフロー支援に加え、Nejumi Leaderboard構築や、創薬向けLLM「BioNeMo2」の開発などライフサイエンス分野での活動も行っている。
「知的財産実務者の意思決定をモデル化する自然言語処理」
河野 誠也 氏(京都工芸繊維大学)
概要: 特許をはじめとする知的財産の創出・権利化までの一連のプロセスには、発明者、弁理士、特許審査官など多様な実務者の認知プロセスが複雑に絡みあっている。本発表では、統合的な知財実務支援フレームワークの構築への応用を志向して、これらの知財実務者の意思決定プロセスを自然言語処理を用いて計算論的にモデル化するための取り組みを紹介する。具体的には、技術内容の理解から権利範囲の解釈までを支援する特許文書の読解支援、発明の本質を的確に表現する文書作成を支援する推敲支援、に関わる複数の研究、社会実装までを見据えた今後の展開について紹介する。
略歴: 2018年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.2021年同先端科学技術研究科博士後期課程研究指導認定退学.2021年9月同博士(工学).2020年から2021年に日本学術振興会特別研究員 (DC2).2021年から2024年に理化学研究所ガーディアンロボットプロジェクト特別研究員を経て2024年から2025年に同研究員.2023年から2025年に奈良先端科学技術大学院大学客員助教.2025年から理化学研究所ガーディアンロボットプロジェクト客員研究員.2025年から京都工芸繊維大学情報工学・人間科学系助教. 現在に至る.自然言語処理, 音声言語処理, 特許情報処理に関する研究に従事.ACL, ISCA, 人工知能学会, 日本知財学会, 言語処理学会各会員.
「深層学習による音声の合成と評価」
齋藤 佑樹 氏(東京大学)
概要: 本講演では,人間の声を合成・評価するための深層学習技術の進展を,自然言語処理における研究と関連付けて議論する.加えて,「音声の合成と評価を統一的に扱える深層学習モデル」の実現に向けて,講演者が今後取り組みたいと考えている研究計画を紹介する.
略歴: 2016年に釧路工業高等専門学校 専攻科を修了.2018年・2021年それぞれに東京大学 大学院情報理工学系研究科 修士課程・博士課程を修了.博士(情報理工学).2024年より東京大学 講師(現職).2025年より産業技術総合研究所 クロスアポイントメントフェロー(併任).音声合成変換,音声品質評価の研究に従事.
「大規模言語モデル評価基盤の再考」
坂井 優介 氏(奈良先端科学技術大学院大学)
概要: 大規模言語モデル(LLM)の評価用ベンチマーク/データセットは数多く提案されています。一方、作成したデータセットがLLMの学習データに混入してしまう可能性や、入力文の微差・回答形式によるバイアスなど、評価基盤自体に関わる課題も真剣に議論しなければなりません。本発表ではベンチマークの持続可能性に焦点を当て、汎用的で拡張性の高い評価方法の設計について、現時点での私の考えを共有します。特に、学習データに混入しても問題が生じにくい評価方法の設計や評価バイアスの考慮、LLMにとって難しいベンチマークとは何かを要素分解し、シンプルかつ強力な評価軸を検討する、といった方向性について議論できれば幸いです。
略歴: 2022年奈良先端科学技術大学院大学博士前期課程修了.2024年同博士後期課程修了.博士(工学).現在,奈良先端科学技術大学院大学先端科学技術研究科情報科学領域助教.
「強化学習は言われた指標を最大化する」
陣内 佑 氏(サイバーエージェント)
概要: 大規模言語モデル (LLM) は人間のフィードバックを用いた強化学習によって、大きく性能改善し人間にとって使いやすいシステムになるということが知られています。しかしながら、強化学習は最適化をするべき数値指標を最大化するように学習するものであり、性能改善はその「副産物」によって得られたものだと言えます。本トークでは、あまり表に出されることのない、人間が意図しない最適化をしてしまったLLMたちをご紹介いたします。
略歴: 探索アルゴリズム、プランニング、強化学習などの逐次的意思決定問題を興味の対象として研究しています。最近は特にテキスト生成問題をその一つとして興味を持っております。
「言語に関する統計物理学的問いと、自然言語処理技術によるその探究」
中石 海 氏(理化学研究所)
概要: 統計物理学の考え方で言語を理解することに興味があります。本発表では、言語の冪則と階層構造の関係をコーパス解析により検討する研究、そして、大規模言語モデルの温度パラメータを変化させることで統計物理学的な相転移が起こることを示す研究についてお話します。これらの研究はいずれも、統計物理学の目で言語を見ることで立てられた問いを、自然言語処理の技術を用いて検証する、という形でなされています。近年の自然言語処理技術の発展は、実用上の意義だけでなく、言語に関するより幅広い、ときに学際的な問いの探究を可能にするという学術的意義を有しています。本発表が、そのことを示すひとつの具体例となれば幸いです。
略歴: 2025年3月、東京大学大学院総合文化研究科博士課程修了。同年4月より理化学研究所基礎科学特別研究員として、同研究所革新知能統合研究センター自然言語理解チームに所属。
「AGI/ASIに向けた研究開発」
古田 拓毅 氏(Google DeepMind)
概要: 大規模言語モデルの進展を契機として、AGI(汎用人工知能)やASI(人工超知能)の研究開発競争が加速している。自然言語処理、コンピュータービジョン、ロボティクス、機械学習など、AI研究のあり方はここ数年で大きく変化しており、それらの変化に適応しながら重要な研究に取り組む姿勢が求められている。本講演では、AGI/ASIに向けて、今後取り組むべき研究開発の方向性について、著者のこれまでの研究とキャリアを踏まえ整理する。
略歴: Google DeepMind, Research Scientist. 2025年3月東京大学大学院工学系研究科技術経営戦略学専攻博士課程修了(指導教員: 松尾豊). 博士(工学). 専門はAIエージェント, AIアラインメント, 機構的解釈性, 深層強化学習, ロボット学習など.
「傍観者から当事者へ--目標の変遷と日本語LLM構築への参画」
水木 栄 氏(東京科学大学 / 産業技術総合研究所 / ホットリンク)
概要: BERTやGPT-3の衝撃、そしてChatGPTが具現化した未来--"ことばを理解する計算機の実現にささやかでも貢献したい"と博士課程に進んだ筆者だが、その爆発的進歩に圧倒され、気づけば傍観者となっていた。その反省を元に日本語LLM Swallowの構築へ参画し、日本語テキストを学習する意義の実証分析など、強いモデルを構築するレシピの一端を明らかにできた。本発表では、キャリア選択の原点、挑戦から得た学び、そして次に狙う課題を共有することで、急激な変化の波を乗りこなす手がかりを提供したい。
略歴: 東京科学大学非常勤研究員、産業技術総合研究所招へい研究員、株式会社ホットリンク。2018年に東京工業大学に入学、語彙意味論および分散表現について研究したのち、2023年に博士課程修了(工学)。博士課程在籍時より大規模言語モデルSwallow構築プロジェクトに参画し、修了後は非常勤として主に事後学習や性能評価の研究開発に従事。
「私たちは「信頼できる情報空間」の構築のために何ができるのか?」
村山 太一 氏(横浜国立大学)
概要: インターネットとソーシャルメディアの急速な普及により、私たちの社会には誤情報や陰謀論が蔓延しています。信頼できる情報空間、すなわち「トラスト社会」をいかに築き、維持していくか。この問いの解明には、個別の学問領域を超えた分野横断的な視点が不可欠です。本発表では、私たちが取り組んできた情報科学的アプローチによって誤情報が社会に与える影響を把握する研究に加え、社会学や社会心理学の視点を融合させた学際的な取り組みを紹介したいと思います。これらの事例を通じて、新たなアプローチの可能性などについて議論できたらと思います。
略歴: 2022年に奈良先端科学技術大学院大学博士後期課程修了。現在、横浜国立大学 助教。
「企業研究所での働き方 (及び、自由に研究をするための道)」
森下 皓文 氏(日立製作所)
概要: 企業で研究開発を行う部署は数多く存在しますが、その中でも「日系大手電機メーカーの研究所」は、とてもユニークな存在です。第一の特徴は、グループ全体の研究開発を一手に担うため、AIから材料・エネルギーまで非常に幅広い領域をカバーするという点です。第二の特徴は、その規模の大きさです。広大なオフィスに1,000名規模の研究者が集い、年間1,000億円規模の研究費が投じられます。第三の特徴は、研究所がビジネスを担う「事業部」から切り離されているため、最先端技術の開発、特許取得、論文執筆、学会発表など、純粋な研究活動に専念できるという点です。本発表では、こうした研究所の「謎」を解き明か...せるかは分かりませんが、複数の研究所で働いてきた著者の経験をもとに、研究所での働き方(及び自由に研究をするためのコツ)をご紹介したいと思います。
略歴: 日立製作所・中央研究所・先端AIイノベーションセンターの研究者(自然言語処理・機械学習・計算社会科学)です。「LLMの推論能力を高めるための、数理論理学に基づく論理推論コーパス生成技術」「アンサンブル学習の性能を決定づける要因を解明する理論の提唱」「LLMエージェントを用いた大規模経済シミュレーション」といった研究を行ってきています。それ以前は、東芝研究開発センターで音声認識の研究をしていました。大学では、東京大学大学院 理学系研究科 物理学専攻に所属し、村山斉特任教授のもとで、素粒子物理学を研究していました。「暗黒物質(ダークマター)の起源の探索(超対称性理論が予言するウィーノ粒子を候補として)」というテーマです。
「埋め込み空間にみる単語分布とモデル地図」
山際 宏明 氏(京都大学)
概要: 近年の自然言語処理では,単語や文を連続値ベクトルで表す「埋め込み表現」が広く用いられています.本発表では,単語とモデルという異なる対象に対し,埋め込みを用いて行った一連の研究を紹介します.まず,単語埋め込みに独立成分分析(ICA)を適用し,多言語に共通する意味軸を抽出することで,普遍的な分布構造を明らかにします.次に,文脈化トークン埋め込みのノルムと分散のトレードオフ関係に注目し,その分布の特性を示します.さらに,1000を超える言語モデルについて,テキストに対する対数尤度ベクトルを埋め込みとみなすことで「モデル地図」を作成し,モデル間の構造的類似性や特性を可視化します.これらの研究を通じて,埋め込みという共通の枠組みにより,単語とモデルの両者を解釈する手法の可能性を探ります.
略歴: 2025年,京都大学大学院情報学研究科博士後期課程修了.博士(情報学).同年より京都大学大学院情報学研究科助教.言語モデルの内部構造の解明,および埋め込み表現の分布特性・解釈性に関する研究に従事.
「Knowledgeable AIプロジェクト: 知識を効率的に追加・編集・蓄積できるAIを作る」
山田 育矢 氏(Studio Ousia / 理化学研究所 / 名古屋大学)
概要: 近年の言語モデルは目覚ましい性能を達成していますが、知識の扱いには依然として課題が残されています。多くの実世界のタスクでは、コーパスに頻出しない専門的な知識や、組織・集団でのみ通用するローカルな知識が必要となりますが、これらの知識を事前学習時に獲得することは困難です。さらに、世界の変化に伴い、知識は更新していく必要があります。また、知識を学習していても、特に低資源言語において十分にそれを活用できない場合があることも知られています。言語モデルに知識を組み込む手法としては、継続学習やRAGが挙げられます。しかし、継続学習には計算コストや破滅的忘却の問題があり、RAGには検索器の性能への依存や文脈長の制約の課題があります。これらの課題を解決するため、知識の追加・編集・蓄積を効率的に行える言語モデルの研究を進めています。このポスターでは、これまでの取り組みと今後の展望について紹介します。
略歴: 株式会社Studio Ousia チーフサイエンティスト、名古屋大学 客員教授、理化学研究所AIP客員研究員。2007年にStudio Ousiaを共同創業し、自然言語処理の技術開発に従事。2016年3月に慶應義塾大学大学院政策・メディア研究科博士後期課程を修了し、博士(学術)を取得。「大規模言語モデル入門」、「大規模言語モデル入門Ⅱ〜生成型LLMの実装と評価」を監修・共著。