Updated on 2024/12/22

写真a

 
NAKAHARA, Yuta
 
Affiliation
Affiliated organization, Center for Data Science
Job title
Assistant Professor(tenure-track)

Research Experience

  • 2023.04
    -
    Now

    Waseda University   Center for Data Science

  • 2019.04
    -
    2023.03

    Waseda University   Center for Data Science

  • 2015.04
    -
    2018.03

    Waseda University   Senior High School

Education Background

  • 2016.04
    -
    2019.03

    Waseda University   Graduate School of Fundamental Science and Engineering   Department of Pure and Applied Mathematics  

    Doctor Degree Program

  • 2014.04
    -
    2016.03

    Waseda University   Graduate School of Fundamental Science and Engineering   Department of Pure and Applied Mathematics  

    Master Degree Program

  • 2010.04
    -
    2014.03

    Waseda University   School of Fundamental Science and Engineering   Department of Applied Mathematics  

  • 2007.04
    -
    2010.03

    Waseda University   Senior High School  

Committee Memberships

  • 2024.10
    -
    2026.03

    電子情報通信学会  『Information Theory and Its Applications』 編集委員会 編集委員

  • 2024.04
    -
    2025.03

    The International Symposium on Information Theory and Its Applications 2024 (ISITA 2024)  TPC Member

  • 2020.04
    -
    2021.03

    誤り訂正符号のワークショップ  実行委員

Professional Memberships

  • 2022.05
    -
    Now

    The Institute of Electronics, Information and Communication Engineers

Research Areas

  • Communication and network engineering / Statistical science

Research Interests

  • Image coding

  • Machine learning

  • Data science

  • Lossless image compression

  • Error correcting codes

  • Information theory

▼display all

Awards

 

Papers

  • Variational Bayesian Methods for a Tree-Structured Stick-Breaking Process Mixture of Gaussians by Application of the Bayes Codes for Context Tree Models

    Yuta Nakahara

    2024 International Symposium on Information Theory and Its Applications     75 - 80  2024.11  [Refereed]

    Authorship:Lead author, Last author, Corresponding author

  • Bayesian Decision-Theoretic Prediction with Ensemble of Meta-Trees for Classification Problems

    Naoki Ichijo, Ryota Maniwa, Yuta Nakahara, Koshi Shimada, Toshiyasu Matsushima

    2024 International Symposium on Information Theory and Its Applications     70 - 74  2024.11  [Refereed]

  • An Algorithmic Framework for Constructing Multiple Decision Trees by Evaluating Their Combination Performance Throughout the Construction Process

    Keito Tajima, Naoki Ichijo, Yuta Nakahara, Koshi Shimada, Toshiyasu Matsushima

    2024 IEEE International Conference on Systems, Man, and Cybernetics (SMC)    2024.10  [Refereed]

  • Batch Updating of a Posterior Tree Distribution Over a Meta-Tree

    Yuta NAKAHARA, Toshiyasu MATSUSHIMA

    IEICE Transactions on Fundamentals of Electronics, Communications and Computer Sciences   E107.A ( 3 ) 523 - 525  2024.03  [Refereed]

    Authorship:Lead author, Corresponding author

    DOI

  • Tree-Structured Gaussian Mixture Models and Their Variational Inference

    Yuta Nakahara

    2023 IEEE International Conference on Systems, Man, and Cybernetics (SMC)    2023.10  [Refereed]

    Authorship:Lead author, Last author, Corresponding author

    DOI

  • Hyperparameter Learning of Bayesian Context Tree Models

    Yuta Nakahara, Shota Saito, Koshi Shimada, Toshiyasu Matsushima

    2023 IEEE International Symposium on Information Theory (ISIT)    2023.06  [Refereed]

    Authorship:Lead author, Corresponding author

    DOI

  • Two-dimensional Autoregressive Model with Time-varying Parameters and the Bayes Codes

    Yuta Nakahara, Toshiyasu Matsushima

    2022 International Symposium on Information Theory and Its Applications    2022.10  [Refereed]

    Authorship:Lead author, Corresponding author

  • Bayes Optimal Estimation and Its Approximation Algorithm for Difference with and without Treatment under URLC Model

    Taisuke Ishiwatari, Shota Saito, Yuta Nakahara, Yuji Iikubo, Toshiyasu Matsushima

    2022 International Symposium on Information Theory and Its Applications    2022.10  [Refereed]

  • Stochastic Model of Block Segmentation Based on Improper Quadtree and Optimal Code under the Bayes Criterion

    Yuta Nakahara, Toshiyasu Matsushima

    Entropy   24 ( 8 ) 1152 - 1152  2022.08  [Refereed]

    Authorship:Lead author, Corresponding author

     View Summary

    Most previous studies on lossless image compression have focused on improving preprocessing functions to reduce the redundancy of pixel values in real images. However, we assumed stochastic generative models directly on pixel values and focused on achieving the theoretical limit of the assumed models. In this study, we proposed a stochastic model based on improper quadtrees. We theoretically derive the optimal code for the proposed model under the Bayes criterion. In general, Bayes-optimal codes require an exponential order of calculation with respect to the data lengths. However, we propose an algorithm that takes a polynomial order of calculation without losing optimality by assuming a novel prior distribution.

    DOI

    Scopus

  • Probability Distribution on Rooted Trees

    Yuta Nakahara, Shota Saito, Akira Kamatsuka, Toshiyasu Matsushima

    2022 IEEE International Symposium on Information Theory (ISIT)     174 - 179  2022.06  [Refereed]

    Authorship:Lead author, Corresponding author

    DOI

  • Stochastic Model of Block Segmentation Based on Improper Quadtree and Optimal Code under the Bayes Criterion

    Yuta Nakahara, Toshiyasu Matsushima

    2022 Data Compression Conference (DCC)    2022.03  [Refereed]

    Authorship:Lead author, Corresponding author

    DOI

  • The Ratio of the Desired Parameters of Deep Neural Networks

    Yasushi ESAKI, Yuta NAKAHARA, Toshiyasu MATSUSHIMA

    IEICE Transactions on Fundamentals of Electronics, Communications and Computer Sciences   E105.A ( 3 ) 433 - 435  2022.03  [Refereed]

    DOI

  • Probability Distribution on Full Rooted Trees

    Yuta Nakahara, Shota Saito, Akira Kamatsuka, Toshiyasu Matsushima

    Entropy   24 ( 3 ) 328 - 328  2022.02  [Refereed]

    Authorship:Lead author, Corresponding author

     View Summary

    The recursive and hierarchical structure of full rooted trees is applicable to statistical models in various fields, such as data compression, image processing, and machine learning. In most of these cases, the full rooted tree is not a random variable; as such, model selection to avoid overfitting is problematic. One method to solve this problem is to assume a prior distribution on the full rooted trees. This enables the optimal model selection based on Bayes decision theory. For example, by assigning a low prior probability to a complex model, the maximum a posteriori estimator prevents the selection of the complex one. Furthermore, we can average all the models weighted by their posteriors. In this paper, we propose a probability distribution on a set of full rooted trees. Its parametric representation is suitable for calculating the properties of our distribution using recursive functions, such as the mode, expectation, and posterior distribution. Although such distributions have been proposed in previous studies, they are only applicable to specific applications. Therefore, we extract their mathematically essential components and derive new generalized methods to calculate the expectation, posterior distribution, etc.

    DOI

    Scopus

    9
    Citation
    (Scopus)
  • Hyperparameter Learning of Stochastic Image Generative Models with Bayesian Hierarchical Modeling and Its Effect on Lossless Image Coding

    Yuta Nakahara, Toshiyasu Matsushima

    2021 IEEE Information Theory Workshop (ITW)     1 - 6  2021.10  [Refereed]

    Authorship:Lead author, Corresponding author

    DOI

  • Cluster’s Number Free Bayes Prediction of General Framework on Mixture of Regression Models

    Haruka Murayama, Shota Saito, Yuji Iikubo, Yuta Nakahara, Toshiyasu Matsushima

    Journal of Statistical Theory and Applications   20 ( 3 ) 425 - 449  2021.09  [Refereed]

     View Summary

    <title>Abstract</title>Prediction based on a single linear regression model is one of the most common way in various field of studies. It enables us to understand the structure of data, but might not be suitable to express the data whose structure is complex. To express the structure of data more accurately, we make assumption that the data can be divided in clusters, and has a linear regression model in each cluster. In this case, we can assume that each explanatory variable has their own role; explaining the assignment to the clusters, explaining the regression to the target variable, or being both of them. Introducing probabilistic structure to the data generating process, we derive the optimal prediction under Bayes criterion and the algorithm which calculates it sub-optimally with variational inference method. One of the advantages of our algorithm is that it automatically weights the probabilities of being each number of clusters in the process of the algorithm, therefore it solves the concern about selection of the number of clusters. Some experiments are performed on both synthetic and real data to demonstrate the above advantages and to discover some behaviors and tendencies of the algorithm.

    DOI

    Scopus

    2
    Citation
    (Scopus)
  • A Stochastic Model for Block Segmentation of Images Based on the Quadtree and the Bayes Code for It

    Yuta Nakahara, Toshiyasu Matsushima

    Entropy   23 ( 8 ) 991 - 991  2021.07  [Refereed]

    Authorship:Lead author, Corresponding author

     View Summary

    In information theory, lossless compression of general data is based on an explicit assumption of a stochastic generative model on target data. However, in lossless image compression, researchers have mainly focused on the coding procedure that outputs the coded sequence from the input image, and the assumption of the stochastic generative model is implicit. In these studies, there is a difficulty in discussing the difference between the expected code length and the entropy of the stochastic generative model. We solve this difficulty for a class of images, in which they have non-stationarity among segments. In this paper, we propose a novel stochastic generative model of images by redefining the implicit stochastic generative model in a previous coding procedure. Our model is based on the quadtree so that it effectively represents the variable block size segmentation of images. Then, we construct the Bayes code optimal for the proposed stochastic generative model. It requires the summation of all possible quadtrees weighted by their posterior. In general, its computational cost increases exponentially for the image size. However, we introduce an efficient algorithm to calculate it in the polynomial order of the image size without loss of optimality. As a result, the derived algorithm has a better average coding rate than that of JBIG.

    DOI

    Scopus

    9
    Citation
    (Scopus)
  • Meta-Tree Random Forest: Probabilistic Data-Generative Model and Bayes Optimal Prediction

    Nao Dobashi, Shota Saito, Yuta Nakahara, Toshiyasu Matsushima

    Entropy   23 ( 6 ) 768 - 768  2021.06  [Refereed]

     View Summary

    This paper deals with a prediction problem of a new targeting variable corresponding to a new explanatory variable given a training dataset. To predict the targeting variable, we consider a model tree, which is used to represent a conditional probabilistic structure of a targeting variable given an explanatory variable, and discuss statistical optimality for prediction based on the Bayes decision theory. The optimal prediction based on the Bayes decision theory is given by weighting all the model trees in the model tree candidate set, where the model tree candidate set is a set of model trees in which the true model tree is assumed to be included. Because the number of all the model trees in the model tree candidate set increases exponentially according to the maximum depth of model trees, the computational complexity of weighting them increases exponentially according to the maximum depth of model trees. To solve this issue, we introduce a notion of meta-tree and propose an algorithm called MTRF (Meta-Tree Random Forest) by using multiple meta-trees. Theoretical and experimental analyses of the MTRF show the superiority of the MTRF to previous decision tree-based algorithms.

    DOI

    Scopus

    7
    Citation
    (Scopus)
  • Analysis of Decoding Error Probability of Spatially ``Mt. Fuji'' Coupled LDPC Codes in Waterfall Region of the BEC

    Yuta Nakahara, Toshiyasu Matsushima

    IEICE Transactions on Fundamentals of Electronics, Communications and Computer Sciences   E103-A ( 12 ) 1337 - 1346  2020.12  [Refereed]

    Authorship:Lead author, Corresponding author

    DOI

    Scopus

  • Theoretical Analysis of the Advantage of Deepening Neural Networks

    Yasushi Esaki, Yuta Nakahara, Toshiyasu Matsushima

    19th IEEE International Conference on Machine Learning and Applications     479 - 484  2020.12  [Refereed]

  • Autoregressive Image Generative Models with Normal and t-distributed Noise and the Bayes Codes for Them

    Yuta Nakahara, Toshiyasu Matsushima

    2020 International Symposium on Information Theory and Its Applications     81 - 85  2020.10  [Refereed]

    Authorship:Lead author, Corresponding author

  • Bayes code for two-dimensional auto-regressive hidden Markov model and its application to lossless image compression

    Yuta Nakahara, Toshiyasu Matsushima

    International Workshop on Advanced Imaging Technology (IWAIT) 2020   11515   330 - 335  2020.06  [Refereed]

    Authorship:Lead author, Corresponding author

    DOI

    Scopus

    3
    Citation
    (Scopus)
  • A Stochastic Model of Block Segmentation Based on the Quadtree and the Bayes Code for It

    Yuta Nakahara, Toshiyasu Matsushima

    2020 Data Compression Conference (DCC)     293 - 302  2020.03  [Refereed]

    Authorship:Lead author, Corresponding author

    DOI

  • Covariance Evolution for Spatially “Mt. Fuji” Coupled LDPC Codes

    Yuta Nakahara, Toshiyasu Matsushima

    2019 IEEE Information Theory Workshop (ITW)     1 - 5  2019.08  [Refereed]

    Authorship:Lead author, Corresponding author

     View Summary

    A spatially `Mt. Fuji&#039; coupled low-density parity check ensemble is a<br />
    modified version of the original spatially coupled low-density parity check<br />
    ensemble. It is known that it has almost the same decoding error probability as<br />
    and requires less number of iterations than the original ensemble in the<br />
    waterfall region if we appropriately choose a parameter $\alpha$. In previous<br />
    studies, a system of differential equations called covariance evolution is<br />
    derived to analyze the waterfall performance of the original ensemble. In this<br />
    paper, we modify it for the spatially `Mt. Fuji&#039; coupled low-density parity<br />
    check ensemble. Then, we analyze the waterfall performance.

    DOI

  • A Study on Generalization of Spatially Coupled LDPC Codes

    Yuta Nakahara

    Waseda University    2019.03  [Refereed]

    Authorship:Lead author, Last author, Corresponding author

  • A Note on Weight Distributions of Spatially “Mt. Fuji” Coupled LDPC Codes

    Yuta NAKAHARA, Toshiyasu MATSUSHIMA

    IEICE Transactions on Fundamentals of Electronics, Communications and Computer Sciences   E101.A ( 12 ) 2194 - 2198  2018.12  [Refereed]

    Authorship:Lead author, Corresponding author

    DOI

  • Spatially “Mt. Fuji” Coupled LDPC Codes

    Yuta NAKAHARA, Shota SAITO, Toshiyasu MATSUSHIMA

    IEICE Transactions on Fundamentals of Electronics, Communications and Computer Sciences   E100.A ( 12 ) 2594 - 2606  2017.12  [Refereed]

    Authorship:Lead author, Corresponding author

     View Summary

    <p>A new type of spatially coupled low density parity check (SCLDPC) code is proposed. This code has two benefits. (1) This code requires less number of iterations to correct the erasures occurring through the binary erasure channel in the waterfall region than that of the usual SCLDPC code. (2) This code has lower error floor than that of the usual SCLDPC code. Proposed code is constructed as a coupled chain of the underlying LDPC codes whose code lengths exponentially increase as the position where the codes exist is close to the middle of the chain. We call our code spatially "Mt. Fuji" coupled LDPC (SFCLDPC) code because the shape of the graph representing the code lengths of underlying LDPC codes at each position looks like Mt. Fuji. By this structure, when the proposed SFCLDPC code and the original SCLDPC code are constructed with the same code rate and the same code length, L (the number of the underlying LDPC codes) of the proposed SFCLDPC code becomes smaller and M (the code lengths of the underlying LDPC codes) of the proposed SFCLDPC code becomes larger than those of the SCLDPC code. These properties of L and M enables the above reduction of the number of iterations and the bit error rate in the error floor region, which are confirmed by the density evolution and computer simulations.</p>

    DOI CiNii

  • Spatially "Mt. Fuji" coupled LDPC codes.

    Yuta Nakahara, Shota Saito, Toshiyasu Matsushima

    2016 International Symposium on Information Theory and Its Applications     201 - 205  2016.10  [Refereed]

    Authorship:Lead author, Corresponding author

▼display all

Books and Other Publications

  • データ科学入門III: モデルの候補が複数あるときの意思決定

    松嶋敏泰, 早稲田大学データ科学教育チーム( Part: Joint author)

    サイエンス社  2024.04 ISBN: 4781915981

    ASIN

  • データ科学入門II: 特徴記述・構造推定・予測 ― 回帰と分類を例に (ライブラリデータ科学 2)

    松嶋敏泰, 早稲田大学データ科学教育チーム( Part: Joint author)

    サイエンス社  2023.03 ISBN: 4781915671

    ASIN

  • データ科学入門I: データに基づく意思決定の基礎

    松嶋敏泰, 早稲田大学データ科学教育チーム( Part: Joint author)

    サイエンス社  2022.04 ISBN: 478191540X

    ASIN

Works

  • BayesML 0.2.0

    Yuta Nakahara, Shota Saito, Koshi Shimada, Yuji Iikubo, Koki Kazama, Naoki Ichijo, Toshiyasu Matsushima, BayesML Developers  Software 

    2022.05
    -
    Now

     View Summary

    A machine learning library based on Bayesian statistics and Bayesian decision theory

Presentations

  • Learned Lossless Compression via an Extension of the Bayes Codes

    Yuta Nakahara, Shota Saito, Koshi Shimada, Toshiyasu Matsushima

    First 'Learn to Compress' Workshop @ ISIT 2024 

    Presentation date: 2024.07

    Event date:
    2024.07
     
     
  • Preliminary Research Results in Application of a Tree Distribution to Bayesian Offline Change Point Detection and Segmentation

    Yuta Nakahara

    2023 IMS International Conference on Statistics and Data Science (ICSDS) 

    Presentation date: 2023.12

    Event date:
    2023.12
     
     
  • Two-Dimensional Auto-Regressive Models Whose Noise Variance Depends on Neighboring Pixels and Their Bayes Codes

    Yuta Nakahara, Toshiyasu Matsushima

    The 46th Symposium on Information Theory and its Applications (SITA2023) 

    Presentation date: 2023.11

    Event date:
    2023.11
    -
    2023.12
  • 木構造で表されるメカニズムに従って生成,観測されたデータの分析手法

    中原悠太  [Invited]

    第1回早稲田大学データ科学研究交流会 

    Presentation date: 2023.09

  • Stochastic Image Generative Model with Unknown Wavelet Packet Basis and its Application to Image Recognition

    Ryohei Oka, Yuta Nakahara, Toshiyasu Matsushima

    Presentation date: 2022.12

    Event date:
    2022.12
     
     
  • データサイエンス入門+α ― 意思決定写像を用いたデータ科学体系化への試み ―

    松嶋敏泰, 小林 学, 野村 亮, 安田 豪毅, 中原 悠太  [Invited]

    第45回情報理論とその応用シンポジウム 

    Presentation date: 2022.11

    Event date:
    2022.11
    -
    2022.12
  • Markov Chain Monte Carlo Method for Meta-Trees on Decision Tree Model

    Presentation date: 2022.11

    Event date:
    2022.11
    -
    2022.12
  • ベイズ決定理論に基づく機械学習ライブラリ:BayesML 0.2.0

    中原悠太, 齋藤翔太, 島田航志, 飯窪祐二, 風間皐希, 一條尚希, 松嶋敏泰, BayesML Developers

    第25回情報論的学習理論ワークショップ(IBIS2022) 

    Presentation date: 2022.11

    Event date:
    2022.11
     
     
  • Machine Learning Library Based on Bayesian Decision Theory: BayesML 0.1.0

    Yuta Nakahara, Naoki Ichijo, Koshi Shimada, Yuji Iikubo, Shota Saito, Koki Kazama, Toshiyasu Matsushima, BayesML Code Authors

    Japanese Joint Statistical Meeting 2022 

    Presentation date: 2022.09

    Event date:
    2022.09
     
     
  • 開始終了間隔の回帰モデル化に基づく開始時点が異なる複数対象の単位期間内終了件数の予測

    香山 渉, 中原 悠太, 風間 皐希, 島田 航志, 小坂 奏平, 藤田 剛, 松嶋 敏泰

    2022年度統計関連学会連合大会 

    Presentation date: 2022.09

    Event date:
    2022.09
     
     
  • 非線形なモデルの回帰・分類3(決定木),4(集団学習)

    中原悠太

    早稲田大学データ科学連続セミナーシリーズ「Pythonで学ぶデータサイエンス入門」第8回 

    Presentation date: 2022.07

    Event date:
    2022.07
     
     
  • 時点毎に異なるパラメータを有する平面的自己回帰モデルとベイズ符号に関する一考察

    中原悠太, 松嶋敏泰

    電子情報通信学会 情報理論研究会 

    Presentation date: 2022.05

    Event date:
    2022.05
     
     
  • 潜在的分岐変数を持つ木構造からなる生成モデルと変分ベイズ法による近似推論

    一條尚希, 中原悠太, 齋藤翔太, 松嶋敏泰

    電子情報通信学会 情報論的学習理論と機械学習研究会 

    Presentation date: 2022.03

    Event date:
    2022.03
     
     
  • 銀行データを活用するための産学連携研究プラットフォームの構築

    小林学, 中原悠太, 佐藤絵里子, 高谷親信, 塚本好宏

    情報処理学会83回全国大会 

    Presentation date: 2022.03

    Event date:
    2022.03
     
     
  • 決定木モデルに対するベイズ最適な予測のメタツリーブースティング法による近似

    于文斌, 風間皐希, 中原悠太, 一條尚希, 齋藤翔太, 松嶋敏泰

    電子情報通信学会 情報理論研究会 

    Presentation date: 2022.01

    Event date:
    2022.01
     
     
  • 一般化線形モデル ―その分析,線形で大丈夫ですか?―

    中原悠太

    早稲田大学データ科学オンラインセミナー 

    Presentation date: 2021.12

    Event date:
    2021.12
     
     
  • 二次元離散ウェーブレットパケット変換の基底が未知の場合のベイズ基準のもと最適なノイズ除去アルゴリズム

    岡 凌平, 中原 悠太, 松嶋 敏泰

    第44回情報理論とその応用シンポジウム 

    Presentation date: 2021.12

    Event date:
    2021.12
     
     
  • URLモデルを仮定した下での母集団全体に対する施策の有無の差に関するベイズ最適な推定とその近似アルゴリズム

    石渡泰祐, 齋藤翔太, 中原悠太, 飯窪祐二, 松嶋敏泰

    第44回情報理論とその応用シンポジウム 

    Presentation date: 2021.12

    Event date:
    2021.12
     
     
  • URLモデルを仮定した下での新しい個体への施策の有無による反応の差に関するベイズ最適な決定とその近似アルゴリズム

    山田一翔, 中原悠太, 齋藤翔太, 飯窪祐二, 松嶋敏泰

    第44回情報理論とその応用シンポジウム 

    Presentation date: 2021.12

    Event date:
    2021.12
     
     
  • Probability Distribution on Full Rooted Trees

    Yuta Nakahara, Shota Saito, Akira Kamatsuka, Toshiyasu Matsushima

    Presentation date: 2021.12

    Event date:
    2021.12
     
     
  • マルコフ連鎖モンテカルロメタツリー法

    中原悠太, 齋藤翔太, 風間皐希, 于文斌, 一條尚希, 松嶋敏泰

    第24回情報論的学習理論ワークショップ (IBIS2021) 

    Presentation date: 2021.11

    Event date:
    2021.11
     
     
  • データ科学マインドの構造

    渡邉文枝, 中原悠太, 田和辻可昌, 若田忠之, 宮崎淳

    大学教育学会2021年度課題研究集会要旨集 

    Presentation date: 2021.11

  • データ科学教育における学習スタイルによるコンテンツ作成の提案

    若田忠之, 渡邉文枝, 中原悠太, 宮崎淳, 田和辻可昌

    日本教育工学会第39回大会講演論文集 

    Presentation date: 2021.10

  • 早稲田大学の研究・教育用データ提供プラットフォームWIRP について

    安田豪毅, 中原悠太, 野村亮, 小林学, 須子統太

    2021年日本経営工学会春季大会 

    Presentation date: 2021.05

    Event date:
    2021.05
     
     
  • サンプリングの偏りを考慮したデータ生成確率モデルの提案

    山田一翔, 鎌塚明, 中原悠太, 松嶋敏泰

    2021年日本経営工学会春季大会 

    Presentation date: 2021.05

    Event date:
    2021.05
     
     
  • 周辺画素によって異なる自己回帰係数を有する画像生成確率モデルとそのベイズ符号

    高野将大, 中原悠太, 松嶋敏泰

    電子情報通信学会 情報理論研究会 

    Presentation date: 2021.01

    Event date:
    2021.01
     
     
  • Statistical Models for Image Processing: Hierarchical Representation of Global and Local Structures of Images

    Yuta Nakahara  [Invited]

    Waseda University – Academia Sinica Data Science Workshop 

    Presentation date: 2020.12

    Event date:
    2020.12
     
     
  • マルコフ決定過程問題における学習期間の行動のベイズ決定理論に基づく最適化

    一條尚希, 中原悠太, 本村勇人, 松嶋敏泰

    電子情報通信学会 情報理論研究会 

    Presentation date: 2020.12

    Event date:
    2020.12
     
     
  • Probabilistic Data Generating Process on Tree Structure Model: Bayes Optimal Prediction and Sub-Optimal Algorithm

    Nao Dobashi, Shota Saito, Yuta Nakahara, Toshiyasu Matsushima

    Presentation date: 2020.09

    Event date:
    2020.09
     
     
  • 線形回帰モデルの混合の統一的なフレームワークにおけるベイズ最適な予測とその近似アルゴリズム

    村山 春香, 齋藤 翔太, 飯窪 祐二, 中原 悠太, 松嶋 敏泰

    2020年度統計関連学会連合大会 

    Presentation date: 2020.09

    Event date:
    2020.09
     
     
  • ニューラルネットワークの深層化の利点の理論解析: 回帰関数の表現力と勾配法の学習効率を区別した評価基準

    江崎泰志, 中原悠太, 松嶋敏泰

    2020年度統計関連学会連合大会 

    Presentation date: 2020.09

    Event date:
    2020.09
     
     
  • 脳腫瘍セグメンテーションのための階層的な隠れマルコフモデルの構築

    本多拓哉, 中原悠太, 松嶋敏泰

    電子情報通信学会 画像工学研究会 

    Presentation date: 2020.05

    Event date:
    2020.05
     
     
  • 自己回帰型の画像生成確率モデルとそれに対するベイズ符号

    中原悠太, 松嶋敏泰

    電子情報通信学会 情報理論研究会 

    Presentation date: 2020.05

    Event date:
    2020.05
     
     
  • 関数類似度の提案と基準関数との類似度が高い深層ネットワークの存在比率の近似計算

    江崎泰志, 中原悠太, 松嶋敏泰

    第42回情報理論とその応用シンポジウム(SITA2019) 

    Presentation date: 2019.11

    Event date:
    2019.11
     
     
  • Spatially Coupled Uneven LDPC Codes

    Yuta Nakahara, Toshiyasu Matsushima

    Presentation date: 2019.11

    Event date:
    2019.11
     
     
  • 対数型空間結合符号とその閾値の密度発展法による数値解析

    中原 悠太

    第8回誤り訂正符号のワークショップ 

    Presentation date: 2019.09

  • クラスター説明変数と回帰説明変数により表現された線形回帰モデルにおけるベイズ最適な予測の近似手法

    村山春香, 齋藤翔太, 中原悠太, 松嶋敏泰

    電子情報通信学会 情報理論研究会 

    Presentation date: 2019.07

    Event date:
    2019.07
     
     
  • 富士山型空間結合符号に対するCovariance Evolution

    中原悠太, 松嶋敏泰

    第41回情報理論とその応用シンポジウム 

    Presentation date: 2018.12

    Event date:
    2018.12
     
     
  • メロディの生成数理モデルを仮定した自動作曲

    西川史織, 中原悠太, 松嶋敏泰

    第41回情報理論とその応用シンポジウム 

    Presentation date: 2018.12

    Event date:
    2018.12
     
     
  • Expected Graph Evolution for Spatially “Mt. Fuji” Coupled LDPC Codes

    Yuta Nakahara, Toshiyasu Matsushima

    2018 International Symposium on Information Theory and Its Applications, Singapore 

    Presentation date: 2018.10

  • Concatenated Spatially Coupled LDPC Codes for Joint Source-Channel Coding(最新論文紹介セッション)

    中原 悠太, 松嶋 敏泰

    第7回誤り訂正符号のワークショップ 

    Presentation date: 2018.09

  • 陽に記述された画像生成モデルに対するベイズ基準のもと最適な可逆符号化

    中原 悠太

    データ科学総合研究教育センター第3回シンポジウム 

    Presentation date: 2018.07

  • 陽に記述された画像生成モデルに対するベイズ基準のもと最適な可逆符号化

    中原悠太, 松嶋敏泰

    映像情報メディア学会冬季大会 

    Presentation date: 2017.11

  • 富士山型空間結合符号の重み分布に関する一考察

    中原悠太, 松嶋敏泰

    第40回情報理論とその応用シンポジウム 

    Presentation date: 2017.11

    Event date:
    2017.11
     
     
  • 富士山型空間結合符号の重み分布

    中原 悠太

    第6回誤り訂正符号のワークショップ 

    Presentation date: 2017.09

  • 統計的決定理論に基づく2次元ウェーブレットパケットを用いた画像修復

    中原 悠太, 小板橋 和也

    第2回WIRPワークショップ 

    Presentation date: 2017.04

  • 情報理論に基づく無歪み圧縮のための画像の数理モデル化

    中原 悠太

    第2回WIRPワークショップ 

    Presentation date: 2017.04

  • BP復号における局所サイクル分布に基づく復号順序制御に関する一考察

    中原悠太, 松嶋敏泰

    第39回情報理論とその応用シンポジウム 

    Presentation date: 2016.12

    Event date:
    2016.12
     
     
  • 富士山型空間結合符号

    中原 悠太

    第5回誤り訂正符号のワークショップ 

    Presentation date: 2016.09

  • メッセージ伝搬にもとづく疎な2部グラフ上のショートサイクル数え上げ法に関する研究

    中原悠太, 齋藤翔太, 松嶋敏泰

    電子情報通信学会 情報理論研究会 

    Presentation date: 2016.01

    Event date:
    2016.01
     
     
  • 消失中継通信路上でのDecode‐and‐Forward型通信におけるパンクチャされた空間結合LDPC符号のユニバーサル性

    中原悠太, 齋藤翔太, 鎌塚明, 松嶋敏泰

    第37回情報理論とその応用シンポジウム 

    Presentation date: 2014.12

    Event date:
    2014.12
     
     

▼display all

Research Projects

  • 無歪み画像圧縮のための画像生成確率モデルの機械学習への活用(基本モデルの並列化)

    早稲田大学  特定課題研究助成費

    Project Year :

    2022.04
    -
    2023.05
     

  • データ科学の応用による生成確率モデル構築に基づく情報理論的に最適な無歪み画像圧縮

    早稲田大学  特定課題研究助成費

    Project Year :

    2021.04
    -
    2022.03
     

  • 理論限界に迫る次世代無歪み画像圧縮のための機械学習型確率モデルの構築

    早稲田大学  特定課題研究助成費

    Project Year :

    2020.07
    -
    2021.03
     

  • 理論保証付き画像処理に資する画像生成確率モデルの構築と無歪み圧縮による統一的評価

    早稲田大学  特定課題研究助成費

    Project Year :

    2020.06
    -
    2021.03
     

  • 無歪み画像圧縮に適した画像生成確率モデルの構築

    早稲田大学  特定課題研究助成費

    Project Year :

    2019.10
    -
    2020.03
     

 

Syllabus

▼display all

Teaching Experience

  • データ科学のための数学

    早稲田大学  

    2020.04
    -
    Now
     

  • 統計リテラシーα,β,γ,δ

    早稲田大学  

    2019.04
    -
    Now
     

  • データ科学入門α,β,γ,δ

    早稲田大学  

    2019.04
    -
    Now
     

  • 数学II(a),数学II(b),数学B

    早稲田大学高等学院  

    2015.04
    -
    2018.03
     

 

Social Activities

  • ベイズ決定理論に基づくデータ科学とそれを体現するPythonライブラリBayesML

    豊田中央研究所  豊田中央研究所情報交換会(社内セミナー) 

    2023.07
     
     

Sub-affiliation

  • Affiliated organization   Global Education Center

Internal Special Research Projects

  • 無歪み画像圧縮のための画像生成確率モデルの機械学習への活用(モデルの階層化)

    2023  

     View Summary

    これまで無歪み画像圧縮のために開発してきた様々な画像生成確率モデルを機械学習に応用するため,様々な観点からモデルの階層的拡張を行った.1. これまでは木構造に事前分布を仮定した確率モデルからデータ系列が生成されるという仮定のもと研究を行っていたが,木構造の事前分布のパラメータ(ハイパーパラメータ)に超事前分布を仮定することで確率モデルの階層を一つ増やす研究を行った.このモデルは直接的には離散時系列データを対象としているが,画像データにも応用可能である.この研究の成果は情報理論におけるトップカンファレンスである2023 IEEE International Symposium on Information Theory (ISIT)に採択された.2. これまでは木構造の各葉ノードにデータを生成する確率分布が割り当てられるような確率モデル上で研究を行っていたが,各葉ノードがさらに潜在変数を有するという仮定を置くことで確率モデルの階層を増やす研究を行った.このモデルは直接的には時系列データを対象としているが,画像データにも応用可能である.この成果については,2023 IMS International Conference on Statistics and Data Science (ICSDS)で報告した.3. これまで画像の生成モデルとして仮定してきた平面的自己回帰モデルでは分散パラメータを単なる未知変数として扱ってきたが,分散パラメータがより上位の未知パラメータと周辺画素の関数によって表されるという仮定を置くことでモデルの階層的拡張を行った.この成果については,第46回情報理論とその応用シンポジウム(SITA2023)で報告した.

  • ベイズ決定理論型APIを備えた機械学習ライブラリBayesMLの開発,普及促進

    2023  

     View Summary

    我々はこれまで,典型的なベイズ機械学習モデルとそれに対する高速推論アルゴリズムを合わせて実装し,オープンソースPythonライブラリBayesMLとして公開してきた.その際,単にモデルを寄せ集めて公開するのではなく,すべてのモデルを統一的なインターフェースで実装してきた.このインターフェースにはベイズ決定理論の基本構造が反映されており,事前分布からのパラメータ生成,データ生成モデルからのデータ生成,データに基づくパラメータ事後分布の更新,パラメータ事後分布を用いた予測分布の導出,損失関数の設定に応じたパラメータ推定や新規データ予測などを直感的に記述,実行できるようになっている.また,モデルの特徴を確認しやすいように可視化するための関数もすべてのモデルに対して実装されている.本年度は,決定木モデルのベイズ推論を行うアルゴリズムをこのBayesML上で実装した成果が電子情報通信学会の英文論文誌に採択された.このアルゴリズムでは,これまで逐次的に処理してきたデータを一括で処理することによって処理の高速化を図っている.このような処理は特にNumPyを利用したPythonコードでは速度の差が顕著に現れる.論文上で行ったごく小さな規模の実験でも,数倍程度の効率改善が認められている.また,これによりこれまであらかじめ決めておく必要のあった決定木の深さをデータに対して動的に決定することも可能となった.また,ライブラリ普及活動の一環として,Webサイトの修正も行った.Webサイトは https://yuta-nakahara.github.io/BayesML/ で公開されている.

  • 無歪み画像圧縮のための画像生成確率モデルの機械学習への活用(基本モデルの並列化)

    2022  

     View Summary

    昨年度まで開発していた無歪み画像圧縮のための画像生成確率モデルは,平面的自己回帰モデルなどの逐次的な画素値生成過程を表すモデルであったのに対し,本年度は画素値が同時並列的に生成される確率モデルを構築した.このモデルは,ウェーブレットパケット変換を未知確率変数として含むベイズ的なモデルとなっている.また,四分木で表現されるあらゆるウェーブレットパケット変換を事後確率に基づきベイズ最適に重みづけるアルゴリズムを提案した.このアルゴリズムの特徴は本来計算すべき量に対して一切近似を行うことなく,その計算量のみを改善していることである.この成果は,2022年12月の第37回信号処理シンポジウムで発表した.

  • データ科学の応用による生成確率モデル構築に基づく情報理論的に最適な無歪み画像圧縮

    2021  

     View Summary

    確率モデルの構築による情報理論的に最適な無歪み画像圧縮に向けて,前年度までに開発した基本確率モデルを階層ベイズモデルとして拡張した.さらにそのハイパーパラメータを変分ベイズ法によって学習するアルゴリズムを開発した.階層ベイズモデリングと変分ベイズ法を無歪み画像圧縮に適用した研究は私の知る限りこれが初めてである.その結果,圧縮率にも改善がみられた.この成果は2021年10月のInformationTheory Workshopで報告した.2019年度に得られていた四分木領域分割確率モデルに関する成果に厳密な証明と追加の実験を加えた成果が,英文論文誌に採択された.さらに,領域分割を表す四分木を非全分木に拡張した最新の成果は2022年3月のDataCompression Conferenceに採択された.

  • 理論限界に迫る次世代無歪み画像圧縮のための機械学習型確率モデルの構築

    2020  

     View Summary

    画像の領域分割パターンの生成確率モデルとして,非全四分木に基づく確率モデルを構築した.この確率モデルの理論的特性についてはISIT 2021に,無歪み画像圧縮への応用については,ICIP 2021に投稿中である.各分割領域内の画素値生成確率モデルとしては,誤差分布が非正規分布であるような自己回帰型確率モデルを構築し,ISITA 2020で発表した.また,これらの確率モデルを階層的に組み合わせた総合確率モデルを構築し,そのパラメータ学習アルゴリズムを提案した.その成果は,まずWaseda University ? Academia Sinica Data Science Workshopの招待を受けて口頭で報告した.原稿としてまとめたものはISIT 2021に投稿中である.

  • 理論保証付き画像処理に資する画像生成確率モデルの構築と無歪み圧縮による統一的評価

    2020  

     View Summary

    画像の生成を説明する最も基本的かつ今後の拡張性に富む確率モデルとして自己回帰型の確率モデルを数学的に厳密に定義した.また,それに対するベイズ符号を構築し無歪み圧縮性能という観点から確率モデルの妥当性を評価した.得られた成果は,2020年5月の電子情報通信学会情報理論研究会で報告した.さらに,本学学生との共同研究により,その確率モデルの拡張を行った.具体的には,周辺画素によって異なる回帰係数を有する自己回帰型確率モデルとそれに対するベイズ符号を構築し,無歪み圧縮性能という観点から確率モデルの妥当性を評価した.その成果は2021年1月の電子情報通信学会情報理論研究会で報告した.

  • 無歪み画像圧縮に適した画像生成確率モデルの構築

    2019  

     View Summary

    斜め方向の単一エッジが存在する画像を生成する確率モデルとして,平面的自己回帰型隠れマルコフモデルを提案し,それに対する順最適ベイズ符号を構築することで,効率的な無歪み圧縮を実現した.その成果は2020 International Workshop on Advanced Image Technologyで発表した.背景と人物など画像の位置によって異なる性質を持つ画像を生成する確率モデルとして,四分木に基づく領域分割生成モデルを提案し,それに対する最適ベイズ符号を構築することで効率的な無歪み圧縮を実現した.その成果は,2020 Data Compression Conferenceで発表した.

▼display all