2022/10/01 更新

写真a

オオヤ ジュン
大谷 淳
所属
理工学術院 創造理工学部
職名
教授

兼担

  • 理工学術院   基幹理工学部

  • 理工学術院   大学院創造理工学研究科

  • 附属機関・学校   グローバルエデュケーションセンター

学内研究所等

  • 2020年
    -
    2022年

    国際情報通信研究センター   兼任研究員

  • 2020年
    -
    2022年

    理工学術院総合研究所   兼任研究員

学歴

  •  
    -
    1979年

    東京大学   工学研究科   精密機械工学  

  •  
    -
    1977年

    東京大学   工学部   精密機械工学科  

学位

  • 東京大学   工学博士

経歴

  • 2014年
    -
    継続中

    早稲田大学理工学術院創造理工学部総合機械工学科   教授

  • 2002年
    -
    2013年

    早稲田大学大学院国際情報通信研究科 教授

  • 2005年07月
    -
    2005年09月

    ドイツ・カールスルーエ大学客員教授

  • 2000年
    -
    2002年

    早稲田大学国際情報通信研究センター 教授

  • 1996年
    -
    2000年

    ATR知能映像通信研究所研究室長

  • 1992年
    -
    1996年

    ATR通信システム研究所主幹研究員

  • 1989年
    -
    1992年

    NTTヒューマンインタフェース研究所主幹研究員

  • 1988年
    -
    1989年

    米国メリーランド大学客員研究員

  • 1979年
    -
    1988年

    NTT電気通信研究所研究員(社員、研究主任、主任研究員)

▼全件表示

所属学協会

  •  
     
     

    画像電子学会

  •  
     
     

    日本バーチャルリアリティ学会

  •  
     
     

    IEEE(Institute for Electrical and Electronics Engineers)

  •  
     
     

    情報処理学会

  •  
     
     

    電子情報通信学会

 

研究分野

  • 知能情報学

研究キーワード

  • 画像処理,コンピュータグラフィックス,バーチャルリアリティ、情報システム学(含情報図書館学)、情報通信工学、画像処理、バーチャルリアリティ、マルチメディア通信

論文

  • Estimating the 3D Cut Position of Pork Frontal Legs in RGBD Images by a Deep Learning Based Method for Achieving a Robot That Cuts Pork Legs Autonomously

    Ryo Onuki, Taiki Suzuki, Jeonghwang Hayashi, Chanjin Seo, Jun Ohya, Takaaki Ohkawauchi

    The 7th IIEEJ International Conference on Image Electronics and Visual Computing   ( 3A-4 ) 1 - 4  2021年09月  [査読有り]

  • Early Detection of Objects on the Road Using V2V and Multiple Image Streams for Supervised Deep-Learning Based Autonomous Driving

    Zelin Zhang, Jun Ohya

    The 7th IIEEJ International Conference on Image Electronics and Visual Computing   ( 3A-3 ) 1 - 4  2021年09月  [査読有り]

  • Interpreting Evaluation Criteria of Running Foot Strike Classifier Using Kinematic Model

    Chanjin Seo, Yuta Goto, Koji Tagami, Hiroyuki Ogata, Kazuyuki Kanosue, Jun Ohya

    The 7th IIEEJ International Conference on Image Electronics and Visual Computing   ( 1A-4 ) 1 - 4  2021年09月  [査読有り]

  • Movement Control with Vehicle-to-Vehicle Communication by Using End-to-End Deep Learning for Cooperative Autonomous Driving

    Zelin, Zhang, Jun OHYA

    10th International Conference on Pattern Recognition Applications and Methods     377 - 385  2021年02月  [査読有り]

  • Quantitative Method for Evaluating the Coordination between Sprinting Motions using Joint Coordinates Obtained from the Videos and Cross-correlations

    Masato Sabanai, Chanjin Seo, Hiroyuki Ogata, Jun Ohya

    10th International Conference on Pattern Recognition Applications and Methods     531 - 539  2021年02月  [査読有り]

  • 協生農法環境における RGB 画像からの圃場の優勢植生の 深層学習を用いる検出方法に関する研究

    征矢 寛汰, 青竹 峻太郎, 小方 博之, 大谷 淳, 大谷 拓也, 高西 淳夫, 舩橋 真俊

    画像電子学会年次大会予稿集   49   57 - 57  2021年

    DOI

  • 協生農法環境における RGB画像に対する Semantic Segmentation を用いた圃場の被覆状態の認識方法に関する研究

    吉崎 玲奈, 青竹 峻太郎, 小方 博之, 大谷 淳, 大谷 拓也, 高西 淳夫, 舩橋 真俊

    画像電子学会年次大会予稿集   49   59 - 59  2021年

    DOI

  • Data Collection Through Translation Network Based on End-to-End Deep Learning for Autonomous Driving

    Zelin, Zhang, Jun OHYA

    IS&T International Symposium on Electronic Imaging. (EI 2021)     115 - 121  2021年01月  [査読有り]

  • Extracting and Interpreting Unknown Factors with Classifier for Foot Strike Types in Running

    Chanjin Seo, Masato Sabanai, Yuta Goto, Koji Tagami, Hiroyuki Ogata, Kazuyuki Kanosue, Jun Ohya

    25th International Conference on Pattern Recognition (ICPR)     3217 - 3224  2021年01月  [査読有り]

  • Estimating the Orientation of 3D-Structured Switches Using the RGB-D Camera Attached to a Disaster Response Robot

    Takuya Kanda, Li Qi, Jun Ohya, Atsuo Takanishi, Hiroyuki Ogata, Kenji Hshimoto

    International Journal of Mechanical Engineering and Robotics Research   9 ( 10 ) 1432 - 1438  2020年10月  [査読有り]

  • Developing Thermal Endoscope for Endoscopic Photothermal Therapy for Peritoneal Dissemination

    Mutsuki Ohara, Sohta Sanpei, Chanjin Seo, Jun Ohya, Ken Masamune, Hiroshi Nagahashi, Yuji Morimoto, Manabu Harada

    2020 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)     3040 - 3047  2020年10月  [査読有り]

  • Automatic Estimation of the Position and Orientation of Stairs to Be Reached and Climbed by a Disaster Response Robot by Analyzing 2D Image and 3D Point Cloud

    Kazuya Miyakawa, Takuya Kanda, Jun Ohya, Hiroyuki Ogata, Kenji Hashimoto, Atsuo Takanishi

    International Journal of Mechanical Engineering and Robotics Research   9 ( 9 ) 1312 - 1321  2020年09月  [査読有り]

  • Classification of Aortic Stenosis Using ECG by Deep Learning and its Analysis Using Grad-CAM

    Erika Hata, Chanjin Seo, Masafumi Nakayama, Kiyotaka Iwasaki, Takaaki Ohkawauchi, Jun Ohya

    2020 42nd Annual International Conference of the IEEE Engineering in Medicine & Biology Society (EMBC)     1548 - 1551  2020年07月  [査読有り]

    DOI

  • Locating Mechanical Switches Using RGB-D Sensor Mounted on a Disaster Response Robot

    Takuya Kanda, Kazuya Miyakawa, Jeonghwang Hayashi, Jun Ohya, Hiroyuki Ogata, Kenji Hashimoto, Xiao Sun, Takashi Matsuzawa, Hiroshi Naito, Atsuo Takanishi

    Electronic Imaging 2020, Intelligent Robotics and Industrial Applications using Computer Vision 2020   IRIACV ( 16 ) 1 - 6  2020年01月  [査読有り]

  • Makeup Interpolation Based on Color and Shape Parametrization

    Jieun Cho, Jun Ohya, Sang Il Park

    Symmetry   11 ( 1422 ) 1 - 15  2019年11月  [査読有り]

  • Disaster Response Robot’s Autonomous Manipulation of Valves in Disaster Sites Based on Visual Analyses of RGBD Images

    Keishi Nishikawa, Asaki Imai, Kazuya Miyakawa, Takuya Kanda, Takashi Matsuzawa, Kenji Hashimoto, Atsuo Takanishi, Hiroyuki Ogata, Jun Ohya

    2019 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)     4790 - 4797  2019年11月  [査読有り]

    DOI

  • Investigating Relationship between Running Motions and Skills Acquired from Jump Trainings,

    Chanjin Seo, Masato Sabanai, Hiroyuki Ogata, Jun Ohya

    icSPORTS     198 - 203  2019年09月  [査読有り]

  • A Criterion that Evaluates the Sprinting Motion Using the Joint Coordinates Detected from the Video and Machine Learning

    Masato Sabanai, Chanjin Seo, Hiroyuki Ogata, Jun Ohya

    The 6th IIEEJ International Conference on Image Electronics and Visual Computing (IEVC 2019)   ( 3C-3 ) 1 - 4  2019年08月  [査読有り]

  • Local Branch Ensemble Network: Autonomous Driving System Using End-to-End Deep Learning

    Zelin Zhang, Jun Ohya

    The 6th IIEEJ International Conference on Image Electronics and Visual Computing (IEVC 2019)   ( 2C-3 ) 1 - 4  2019年08月  [査読有り]

  • Applying Curvatures Estimated from 3D Point Clouds to Environment Recognition in Forests Using SegNet

    Takeo Kaneko, Hiroyuki Fujimoto, Junya Morimoto, Takuya Hayashi, Junji Yamato, Jun Ohya

    The 6th IIEEJ International Conference on Image Electronics and Visual Computing (IEVC 2019)   ( 2C-4 ) 1 - 4  2019年08月  [査読有り]

  • A Method of Proposing the Tracking Suitable for Supplementing an Exerciser’s Lacking Skill in Sprint

    Chanjin Seo, Masato Sabanai, Jun Ohya, Hiroyuki Ogata

    The 6th IIEEJ International Conference on Image Electronics and Visual Computing (IEVC 2019)   ( 3C-2 ) 1 - 4  2019年08月  [査読有り]

  • Region Mining of Fetal Head in Ultrasound Image Based on Weakly Supervised Annotations and Deep Learning

    Yan LI, Rong XU, Artus KROHN-GRIMBERGHE, Jun OHYA, Hiroyasu IWATA

    IIEEJ Transactions on Image Electronics and Visual Computing   7 ( 1 ) 46 - 51  2019年06月  [査読有り]

  • Deep Learning Based Uterus Localization and Anatomical Structure Segmentation on Fetal Ultrasound Image

    Yan LI, Rong XU, Artus KROHN-GRIMBERGHE, Jun OHYA, Hiroyasu IWATA

    IIEEJ Transactions on Image Electronics and Visual Computing   7 ( 1 ) 13 - 23  2019年06月  [査読有り]

  • An Algorithm for Tracking Guitarists’ Fingertips Based on CNN-Segmentation and ROI Associated Particle Filter

    Zhao WANG, Jun OHYA

    Journal of Imaging Science and Technology   63 ( 2 ) 20506-1 - 20506-9  2019年03月  [査読有り]

  • Detecting a Fetus in Ultrasound Images using Grad CAM and Locating the Fetus in the Uterus

    Genta Ishikawa, Rong Xu, Jun Ohya, Hiroyasu Iwata

    International Conference on Pattern Recognition Application and Methods     181 - 189  2019年02月  [査読有り]

  • Understanding Sprinting Motion Skills Using Unsupervised Learning for Stepwise Skill Improvements of Running Motion

    Chanjin Seo, Masato Sabanai, Hiroyuki Ogata, Jun Ohya

    International Conference on Pattern Recognition Application and Methods     467 - 475  2019年02月  [査読有り]

  • Detecting and Tracking Surgical Tools for Recognizing Phases of the Awake Brain Tumor Removal Surgery.

    Hiroki Fujie, Keiju Hirata, Takahiro Horigome, Hiroshi Nagahashi, Jun Ohya, Manabu Tamura, Ken Masamune, Yoshihiro Muragaki

    International Conference on Pattern Recognition Application and Methods     190 - 199  2019年  [査読有り]

    DOI

  • Automatic Estimation of the Position and Orientation of the Drill to Be Grasped and Manipulated by the Disaster Response Robot Based on Analyzing Depth Camera Information

    Keishi Nishikawa, Jun Ohya, Hiroyuki Ogata, Kenji Hashimoto, Takashi Matsuzawa, Asaki Imai, Shunsuke Kimura, Atsuo Takanishi

    IS&T International Symposium on Electronic Imaging 2019, Intelligent Robotics and Industrial Applications using Computer Vision 2019   IRIACV ( 452 ) 1 - 6  2019年01月  [査読有り]

  • Pattern and Frontier-based, Efficient and Effective Exploration of Autonomous Mobile Robots in Unknown Environments

    Hiroyuki FUJIMOTO, Junya MORIMOTO, Takuya HAYASHI, Junji YAMATO, Hiroyuki ISHII, Jun OHYA, Atsuo TAKANISHI

    IS&T International Symposium on Electronic Imaging 2019, Autonomous Vehicles and Machines Conference 2019     039-1 - 039-6  2019年01月  [査読有り]

  • An Accurate and Robust Method for Detecting Fetal Heads in Ultrasound Images Based on Integrating a Voting Scheme and an Improved IRHT

    Genta Ishikawa, Rong Xu, Jun Ohya, Hiroyasu Iwata

    IIEEJ Transactions on Electronics and Visual Computing,   6 ( 2 ) 65 - 73  2018年12月  [査読有り]

  • Automatic detection of valves with disaster response robot on basis of depth camera information

    Keishi Nishikawa, Jun Ohya, Hiroyuki Ogata, Kenji Hashimoto, Takashi Matsuzawa, Atsuo Takanishi

    Digital Image Computing: Techniques and Applications (DICTA 2018)     253 - 258  2018年12月  [査読有り]

  • A 3D guitar fingering assessing system based on CNN-Hand pose estimation and SVR-Assessment

    Zhao Wang, Jun Ohya

    IS and T International Symposium on Electronic Imaging Science and Technology   Part F138660   2781 - 2785  2018年01月  [査読有り]

     概要を見る

    © 2018, Society for Imaging Science and Technology. This paper proposes a guitar fingering assessing system based on CNN (Convolutional Neural Network) hand pose estimation and SVR (Support Vector Regression) evaluation. To spur our progress, first, a CNN architecture is proposed to estimate temporal 3D position of 16 joints of hand; then, based on a DCT (Discrete Cosine Transform) feature and SVR, fingering of guitarist is scored to interpret how well guitarist played. We also release a new dataset for professional guitar playing analysis with significant advantage in total number of video, professional judgement by expert of guitarist, accurate annotation for hand pose and score of guitar performance. Experiments using videos containing multiple persons' guitar plays under different conditions demonstrate that the proposed method outperforms the current state-of-art with (1) low mean error (Euclid distance of 6,1 mm) and high computation efficiency for hand pose estimation; (2) high rank correlation (0.68) for assessing the fingering (C major scale and symmetrical excise) of guitarists.

    DOI

  • Estimating the UAVs' crash point based on optical flows' voting in the image plane

    Yusaku Hatano, Hiroshi Nagahashi, Chen Yi, Jun Ohya

    IS and T International Symposium on Electronic Imaging Science and Technology   Part F138654  2018年01月  [査読有り]

     概要を見る

    © 2018, Society for Imaging Science and Technology. Towards the actualization of an air bag system for the UAV's crash, this paper proposes a method for estimating the UAV's crash site from the video sequence acquired by the camera attached to the UAV. The crash point can be considered to correspond to the divergence point of the optical flows. In the accumulator, the cells at which the optical flows (straight lines) pass through are incremented by one. After performing this process for all the optical flows, the cell with the largest vote is obtained as the crash point (divergence point) in the image plane. Experiments using a hand held camera show that the accuracy of estimating the crash site is increased as the camera approaches the target plane. Overall, the experimental results are promising.

    DOI

  • An accurate and robust algorithm for tracking guitar neck in 3D based on modified RANSAC homography

    Zhao Wang, Jun Ohya

    IS and T International Symposium on Electronic Imaging Science and Technology   Part F138651  2018年01月  [査読有り]

     概要を見る

    © 2018 Society for Imaging Science and Technology. Towards the actualization of an automatic guitar teaching system that can supervise guitar players, this paper proposes an algorithm for accurately and robustly tracking the 3D position of the fretboard from the video of guitar plays. First, we detect the SIFT features within the guitar fretboard and then match the detected points using KD-tree searching based matching algorithm frame by frame to track the whole fretboard. However, during the guitar plays, due to movements of the guitar neck or occlusions caused by guitar players' fingers, the feature points on the fretboard cannot always be matched accurately even though applying traditional RANSAC homography. Therefore, by using our modified RANSAC algorithm to filter out the matching error of the feature points, perspective transformation matrix is obtained between the correctly matched feature points detected at the first and other frames. Consequently, the guitar neck is tracked correctly based on the perspective transformation matrix. Experiments show promising results such as high accuracy: the total mean tracking error of only 4.17 mm and variance of 1.5 for the four tracked corners of the fretboard. This indicates the proposed method outperforms related tracking works including state-of-art Fully-convolutional Network.

    DOI

  • Discriminating the presence of the cerebral aneurysm using shape features obtained from medical images of the cerebral vessel

    Kosei Kikuchi, Takanobu Yagi, Xu Rong, Jun Ohya

    IS and T International Symposium on Electronic Imaging Science and Technology   Part F138660   2831 - 2836  2018年01月  [査読有り]

     概要を見る

    © 2018, Society for Imaging Science and Technology. Towards the establishment of the preventive medical care for the cerebral aneurysm, this paper proposes an SVM based method for building a discrimination function that classifies the presence or absence of the cerebral aneurysm using the cerebral blood vessel's shape features obtained from medical images such as MR images. Using the discrimination function, this paper explores how much each feature affects the onset of the cerebral aneurysm. This paper deals with the internal carotid artery (ICA). The blood vessel (ICA)'s shape features are extracted from medical images of 18 persons without cerebral aneurysm and 13 patients with a cerebral aneurysm. From the medical image, the cross sections and centerline of the ICA are obtained. The cross sections are divided into nine sections along the centerline. Shape features such as the cross sectional area, its circularity, curvature, torsion, length of the centerline and branch angles are obtained in each section; as a total, 113 features including the mean and variance of some features in each section are used for building the SVM. As a result of conducting the experiments, the accuracy for discriminating the presence/absence of the aneurysm by the SVM is 90.3%. In the obtained discrimination function, the coefficient values of the function can be considered how much the features affect the onset of the aneurysm. The features that could significantly cause the onset of the cerebral aneurysm are clarified, and the reasons why these features are significant are discussed.

    DOI

  • An image processing based method for chewing detection using Variable-intensity template

    Atsuto Fujimoto, Takaaki Ohkawauchi, Junji Yamato, Jun Ohya

    IS and T International Symposium on Electronic Imaging Science and Technology   Part F138660   2791 - 2794  2018年01月  [査読有り]

     概要を見る

    © 2018, Society for Imaging Science and Technology. To contribute to the actualization of the care worker assistance robot, this paper proposes a method for detecting whether the care receiver is chewing from the video sequence acquired by the camera that observes that receiver. The proposed method detects the receiver's face and areas for both cheeks and chin. After applying some normalization to the areas, chewing detection that uses a variable-intensity template is performed, where the template consists of shape models, interest points and intensity distribution model. A likelihood based on the variableintensity template is computed so that the receiver is judged whether the receiver is chewing. Experiments using seven subjects are conducted. As a result, the accuracy of chewing detection by the proposed method is 83%, which is quite promising.

    DOI

  • Exploring the effectiveness of using temporal order information for the early-recognition of suture surgery's six steps based on video image analyses of surgeons' hand actions

    Miwa Tsubota, Ye Li, Jun Ohya

    RO-MAN 2017 - 26th IEEE International Symposium on Robot and Human Interactive Communication   2017-   464 - 469  2017年12月  [査読有り]

     概要を見る

    To alleviate the recent shortage problem of nurses, the actualization of RSN (Robotic Scrub Nurse) that can autonomously judge the current step of the surgery and pass the surgical instruments needed for the next step to surgeons is desired. The authors developed a computer vision based algorithm that can early-recognize only two steps of suture surgery. Based on the past work, this paper explores the effectiveness of utilizing temporal order of the six steps in suture surgery for the early-recognition. Our early-recognition algorithm consists of two modules: start point detection and hand action early-recognition. Segments of the test video that start from each quasi-start point are compared with the training data, and their probabilities are calculated. According to the calculated probabilities, hand actions could be early-recognized. To improve the early-recognition accuracy, temporal order information could be useful. This paper checks confusions of three steps' early recognition results, and if necessary, early-recognizes again after eliminating the wrong result, while for the other three steps, temporal order information is not utilized. Experimental results show our early-recognition method that utilizes the temporal order information achieves better performances.

    DOI

  • Automatic fetal body and amniotic fluid segmentation from fetal ultrasound images by encoder-decoder network with inner layers

    Yan Li, Rong Xu, Jun Ohya, Hiroyasu Iwata

    Proceedings of the Annual International Conference of the IEEE Engineering in Medicine and Biology Society, EMBS     1485 - 1488  2017年09月  [査読有り]

     概要を見る

    This paper explores the effectiveness of applying a deep learning based method to segment the amniotic fluid and fetal tissues in fetal ultrasound (US) images. The deeply learned model firstly encodes the input image into down scaled feature maps by convolution and pooling structures, then up-scale the feature maps to confidence maps by corresponded un-pooling and convolution layers. Additional convolution layers with 1×1 sized kernels are adopted to enhance the feature representations, which could be used to further improve the discriminative learning of our model. We effectively update the weights of the network by fine-tuning on part of the layers from a pre-trained model. By conducting experiments using clinical data, the feasibility of our proposed approach is compared and discussed. The result proves that this work achieves satisfied results for segmentation of specific anatomical structures from US images.

    DOI PubMed

  • Automatic, Accurate Estimation of the Position and Pose of a Ladder in 3D Point Cloud

    Keishi Nishikawa, Zhao Wang, Jun Ohya, Takashi Matsuzawa, Kenji Hashimoto, Atsuo Takanishi

    The IIEEJ Image Electronics and Visual Computing Workshop 2017   ( 5C-2 ) 1 - 6  2017年03月  [査読有り]

  • An Accurate and Robust Fetal Head Detection Algorithm Integrating a Voting Scheme and an Improved IRHT Method

    Genta Ishikawa, Rong Xu, Jun Ohya, Hiroyasu Iwata

    The IIEEJ Image Electronics and Visual Computing Workshop 2017   ( 5C-3 ) 1 - 5  2017年03月  [査読有り]

  • Pregnant Uterine Ultrasound Image Segmentation by Encoding-Decoding Convolutional Neural Network

    Yan Li, Rong Xu, Jun Ohya, Hiroyasu Iwata

    The IIEEJ Image Electronics and Visual Computing Workshop 2017   ( 1C-1 ) 1 - 4  2017年03月  [査読有り]

  • Fingertips tracking algorithm for guitarist based on temporal grouping and pattern analysis

    Zhao Wang, Jun Ohya

    Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics)   10118   212 - 226  2017年  [査読有り]

     概要を見る

    This paper proposes a temporal Grouping and pattern analysis-based algorithm that could track the fingertips of guitarists during their guitar playing towards the actualization of the automatic guitar fingering recognition system. First a machine learning-based Bayesian Pixel Classifier is used to segment the hand area on the test data. Then, the probability map of fingertip is generated on the segmentation results by counting the voting numbers of the Template Matching and Reversed Hough Transform. Furthermore, a temporal Grouping algorithm, which is a geometry analysis for consecutive frames, is applied to removal noise and group the same fingertips (index finger, middle finger, ring finger, little finger). Then, a data association algorithm is utilized to associate 4 tracked fingers (index finger, middle finger, ring finger, little finger) with their correspondent tracked results frame by frame. Finally, particles are distributed only between the associated fingertip candidates to track the fingertips of guitarist effectively. The experimental result demonstrates that this fingertip tracking algorithm is robust enough for tracking fingertips (1) without any constrains such us color marker
    (2) under the complex contexts, such us complicated background, different illumination conditions, (3) with the high tracking accuracy (mean error 3.36 pixels for four fingertips).

    DOI

  • Fingertips tracking algorithm for guitarist based on temporal grouping and pattern analysis

    Zhao Wang, Jun Ohya

    Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics)   10118   212 - 226  2017年  [査読有り]

     概要を見る

    This paper proposes a temporal Grouping and pattern analysis-based algorithm that could track the fingertips of guitarists during their guitar playing towards the actualization of the automatic guitar fingering recognition system. First a machine learning-based Bayesian Pixel Classifier is used to segment the hand area on the test data. Then, the probability map of fingertip is generated on the segmentation results by counting the voting numbers of the Template Matching and Reversed Hough Transform. Furthermore, a temporal Grouping algorithm, which is a geometry analysis for consecutive frames, is applied to removal noise and group the same fingertips (index finger, middle finger, ring finger, little finger). Then, a data association algorithm is utilized to associate 4 tracked fingers (index finger, middle finger, ring finger, little finger) with their correspondent tracked results frame by frame. Finally, particles are distributed only between the associated fingertip candidates to track the fingertips of guitarist effectively. The experimental result demonstrates that this fingertip tracking algorithm is robust enough for tracking fingertips (1) without any constrains such us color marker
    (2) under the complex contexts, such us complicated background, different illumination conditions, (3) with the high tracking accuracy (mean error 3.36 pixels for four fingertips).

    DOI

  • Subaction Based Early Recognition of Surgeons’ Hand Actions from Continuous Surgery Videos

    Ye Li, Jun Ohya, Toshio Chiba, Xu Rong, Hiromasa Yamashita

    IIEEJ Transactions on Image Electronics and Visual Computing   4 ( 2 ) 124 - 135  2016年12月  [査読有り]

    CiNii

  • Supervoxel-Based Detection and Segmentation of Moving Objects from Dynamic RGBD Images

    Naotomo Tatematsu, Jun Ohya, Larry S. Davis

    IIEEJ Transactions on Image Electronics and Visual Computing   4 ( 1 ) 32 - 42  2016年06月  [査読有り]

    CiNii

  • Computer Vision Technologies Towards the Actualization of Robotic Scrub Nurses

    LI Ye, OHYA Jun

    日本画像学会誌   55 ( 1 ) 106 - 110  2016年

     概要を見る

    Robotic Scrub Nurse (RSN) is a developing research and a challenging issue in the field of medical robotics. Audio processing, wearing-sensor and computer vision are applied to control the robot that could support surgeons during surgeries as an alternative of human nurse. On the other hand, surgeons wish that RSN should be able to decide the correct action by recognizing surgical situations autonomously just like skilled human nurses. In general, surgical situations can be discriminated by surgeons hand actions during surgeries. This article introduces and explains the authors computer vision based method for recognizing surgical hand actions of surgeons from video sequences.

    DOI CiNii

  • Tracking the guitarist’s fingers as well as recognizing pressed chords from a video sequence

    Zhao Wang, Jun Ohya

    IS and T International Symposium on Electronic Imaging Science and Technology    2016年  [査読有り]

     概要を見る

    Towards the actualization of an autonomous guitar teaching system, this paper proposes the following two video analysis based methods: (1) pressed chord recognition and (2) fingertip tracking. For (1), an algorithm that can extract finger contours and chord changes is proposed so that the chords pressed by the guitar player are recognized. For (2), an algorithm that can track the fingertips by continuously monitoring the appearance and disappearance of the regions of fingertip candidates is proposed. Experimental results demonstrate that the proposed two modules are robust enough under complex contexts such as complicated background and different illumination conditions. Promising results were obtained for accurate tracking of fingertips and for accurate recognition of pressed chords.

    DOI

  • Detecting and Tracking the Guitar Neck Towards the Actualization of a Guitar Teaching-aid System

    Zhao Wang, Jun Ohya

    6th International Conference on Advanced Mechatronics (ICAM2015)   2015   187 - 188  2015年12月  [査読有り]

     概要を見る

    Towards the actualization of an autonomous guitar teaching-aid system, this paper proposes the following two video analysis based methods: (1) guitar neck detecting and (2) guitar neck tracking. For (1), an algorithm that can extract the rectangles cut by guitar strings and fret is proposed so that we can detect guitar neck area on the first frame of the input video. For (2), a feature point based guitar neck tracking algorithm is proposed, which can cope with occlusion issue effectively by analyzing geometric relationship between each two feature points in every frame. Experimental results demonstrate that the proposed two modules are robust enough under complex contexts such as complicated background and different illumination conditions.

    DOI CiNii

  • Estimating Clean-up Robots’ Mechanical Operations of Objects Using a SLAM Based Method

    Si Gao, Naotomo Tatematsu, Jun Ohya, Zhao Wang

    6th International Conference on Advanced Mechatronics (ICAM2015)   2015   249 - 250  2015年12月  [査読有り]

     概要を見る

    To enable clean-up robots to vacuum cluttered floors, the robots should be able to return objects on the floors to the proper positions by pushing the objects. This paper proposes a computer vision based method that can detect the objects (clutter) and evaluate the result of the mechanical operation (pushing the objects). First, we construct a dense 3D map of a tidy situation of the room (after-clean-map). Next, we construct another dense 3D map of the cluttered situation of the same room (before-clean-map). Then, we construct the 3D point cloud of the cluttered situation by comparing the after-clean-map and the before-clean-map. Finally, we let a clean-up robot push the cluttered object and evaluate whether the object is successfully moved. Experimental results using real RGBD image sequences demonstrate promising results of our proposed method.

    DOI CiNii

  • Early Recognition of Surgeons' Hand Actions from Continuous Surgery Videos

    Ye Li, Jun Ohya

    Interactive Medical Image Computing (IMIC), affiliated with MICCAI2015     78 - 85  2015年10月  [査読有り]

  • Recognizing Hand Actions during Suture Surgeries from Video Sequences Based on Sliding Windows, SBoWS Feature and Neural Network

    Ye LI, Jun OHYA, Toshio CHIBA, Rong XU, Hiromasa YAMASHITA

    IIEEJ Transactions on Image Electronics and Visual Computing   3 ( 1 ) 34 - 43  2015年06月  [査読有り]

    CiNii

  • Enhancing abstract imaginations of viewers of abstract paintings by a gaze based music generation system

    Tatsuya Ogusu, Jun Ohya, Jun Kurumisawa, Shunichi Yonemura

    Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics)   9173 ( LNCS 9173 ) 457 - 464  2015年  [査読有り]

     概要を見る

    The purpose of abstract painters is to let viewers get the various images and abstract images. However, viewers who do not have enough knowledge of art, cannot easily get abstract images. The authors have proposed a music generation system that utilizes viewers’ gazes. It can be expected that the authors’ music generation system can prompt the viewer of abstract paintings to imagine abstract images, which the painter intended to express. This paper explores whether the authors’ music generation system can enhance abstract imaginations of persons who see abstract paintings, by subjective tests. Experiments using 19 subjects and eight abstract paintings were conducted for the two cases in which the subjects see the abstract paintings without hearing any music and while hearing the viewers’ gaze based music generated by the authors’ system. Experimental results imply that “hearing gaze based music” could enhance the viewers’ abstract imagination.

    DOI

  • Enhancing abstract imaginations of viewers of abstract paintings by a gaze based music generation system

    Tatsuya Ogusu, Jun Ohya, Jun Kurumisawa, Shunichi Yonemura

    Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics)   9173   457 - 464  2015年  [査読有り]

     概要を見る

    The purpose of abstract painters is to let viewers get the various images and abstract images. However, viewers who do not have enough knowledge of art, cannot easily get abstract images. The authors have proposed a music generation system that utilizes viewers’ gazes. It can be expected that the authors’ music generation system can prompt the viewer of abstract paintings to imagine abstract images, which the painter intended to express. This paper explores whether the authors’ music generation system can enhance abstract imaginations of persons who see abstract paintings, by subjective tests. Experiments using 19 subjects and eight abstract paintings were conducted for the two cases in which the subjects see the abstract paintings without hearing any music and while hearing the viewers’ gaze based music generated by the authors’ system. Experimental results imply that “hearing gaze based music” could enhance the viewers’ abstract imagination.

    DOI

  • Detection and segmentation of moving objects from dynamic RGB and depth images

    Naotomo Tatematsu, Jun Ohya, Larry Davis

    Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics)   8971   19 - 34  2015年  [査読有り]

     概要を見る

    This paper proposes a method that combines Temporal Modified-RANSAC(TMR) with a fixation-based segmentation algorithm for reconstructing the 3D structure of moving and still objects that are tracked in video and depth image sequences acquired by moving Kinect© and/or range finders First, we compute 3D optical flow of feature points. Second, TMR classifies all flows into consistent 3D flow sets for the background and each moving object
    simultaneously, the rotation matrix and the translation vector for each 3D flow set are computed. Then, an improved fixation-based segmentation method segments each object’s area. Finally, dense 3D models for the background and each moving object are constructed along with each object’s rotation matrix and translation vector in each frame. Experiments using multiple moving objects in color and depth image sequences acquired by Kinect(c) demonstrate the effectiveness of our proposed method.

    DOI

  • Automatic Neural Network Based Generation of Line Drawing Based Portraits - Study of Conditions for Accurate Portrait Generation and Representing Noses -

    Makoto ENOMOTO, Guoyong FANG, Yuzhen WU, Jun OHYA

    Fourth IIEEJ International Workshop on Image Electronics and Visual Computing   ( 2C-3 ) 1 - 4  2014年10月  [査読有り]

  • Study of Recognizing Customers’ Behaviors Based on Facial Expression Analysis by a Bayesian Network

    Luwei JIA, Jun OHYA, Takayuki HORI

    Fourth IIEEJ International Workshop on Image Electronics and Visual Computing   ( 2P-8 ) 1 - 4  2014年10月  [査読有り]

  • A Bayesian Network Based Classification of Customers’ Behaviors in Stores Using Image Processing Based Extraction of Behavior Features

    Jing Yan, Takayuki Hori, Jun Ohya

    Fourth IIEEJ International Workshop on Image Electronics and Visual Computing   ( 4A-4 ) 1 - 4  2014年10月  [査読有り]

  • Locating Fetal Facial Surface, Oral Cavity and Airways by a 3D Ultrasound Calibration Using a Novel Cones' Phantom

    Rong Xu, Jun Ohya, Yoshinobu Sato, Bo Zhang, Masakatsu G. Fujie

    IEICE TRANSACTIONS ON INFORMATION AND SYSTEMS   E97D ( 5 ) 1324 - 1335  2014年05月  [査読有り]

     概要を見る

    Toward the actualization of an automatic navigation system for fetoscopic tracheal occlusion (FETO) surgery, this paper proposes a 3D ultrasound (US) calibration-based approach that can locate the fetal facial surface, oral cavity, and airways by a registration between a 3D fetal model and 3D US images. The proposed approach consists of an offline process and online process. The offline process first reconstructs the 3D fetal model with the anatomies of the oral cavity and airways. Then, a point-based 3D US calibration system based on real-time 3D US images, an electromagnetic (EM) tracking device, and a novel cones' phantom, computes the matrix that transforms the 3D US image space into the world coordinate system. In the online process, by scanning the mother's body with a 3D US probe, 3D US images containing the fetus are obtained. The fetal facial surface extracted from the 3D US images is registered to the 3D fetal model using an ICP-based (iterative closest point) algorithm and the calibration matrices, so that the fetal facial surface as well as the oral cavity and airways are located. The results indicate that the 3D US calibration system achieves an FRE (fiducial registration error) of 1.49 +/- 0.44 mm and a TRE (target registration error) of 1.81 +/- 0.56 mm by using 24 fiducial points from two US volumes. A mean TRE of 1.55 +/- 0.46 mm is also achieved for measuring location accuracy of the 3D fetal facial surface extracted from 3D US images by 14 target markers, and mean location errors of 2.51 +/- 0.47 mm and 3.04 +/- 0.59 mm are achieved for indirectly measuring location accuracy of the pharynx and the entrance of the trachea, respectively, which satisfy the requirement of the FETO surgery.

    DOI

  • 相異なる照明光下の固定カメラ画像からの照明光色推定法

    川村春美, 八尾泰洋, 米村俊一, 大谷 淳, 小島 明

    画像電子学会誌   43 ( 2 ) 164 - 174  2014年03月  [査読有り]

    DOI J-GLOBAL

  • Recognizing Surgeon's Actions during Suture Operations from Video Sequences

    Ye Li, Jun Ohya, Toshio Chiba, Rong Xu, Hiromasa Yamashita

    MEDICAL IMAGING 2014: IMAGE PROCESSING   9034  2014年  [査読有り]

     概要を見る

    Because of the shortage of nurses in the world, the realization of a robotic nurse that can support surgeries autonomously is very important. More specifically, the robotic nurse should be able to autonomously recognize different situations of surgeries so that the robotic nurse can pass necessary surgical tools to the medical doctors in a timely manner. This paper proposes and explores methods that can classify suture and tying actions during suture operations from the video sequence that observes the surgery scene that includes the surgeon's hands.
    First, the proposed method uses skin pixel detection and foreground extraction to detect the hand area. Then, interest points are randomly chosen from the hand area so that their 3D SIFT descriptors are computed. A word vocabulary is built by applying hierarchical K-means to these descriptors, and the words' frequency histogram, which corresponds to the feature space, is computed Finally, to classify the actions, either SVM (Support Vector Machine), Nearest Neighbor rule (NN) for the feature space or a method that combines "sliding window" with NN is performed.
    We collect 53 suture videos and 53 tying videos to build the training set and to test the proposed method experimentally It turns out that the NN gives higher than 90% accuracies, which are better recognition than SVM. Negative actions, which are different from either suture or tying action, are recognized with quite good accuracies, while "Sliding window" did not show significant improvements for suture and tying and cannot recognize negative actions.

    DOI

  • Automatic Recognition of Square Notation Symbols in Western Plainchant Manuscripts

    Carolina Ramirez, Jun Ohya

    JOURNAL OF NEW MUSIC RESEARCH   43 ( 4 ) 390 - 399  2014年  [査読有り]

     概要を見る

    While the Optical Music Recognition (OMR) of printed and handwritten music scores in modern standard notation has been broadly studied, this is not the case for early music manuscripts. This is mainly due to the high variability in the sources introduced by their severe physical degradation, the lack of notation standards and, in the case of the scanned versions, by non-homogenous image-acquisition protocols. The volume of early musical manuscripts available is considerable, and therefore we believe that computational methods can be extremely useful in helping to preserve, share and analyse this information. This paper presents an approach to recognizing handwritten square musical notation in degraded western plainchant manuscripts from the XIVth to XVIth centuries. We propose the use of image processing techniques that behave robustly under high data variability and which do not require strong hypotheses regarding the condition of the sources. The main differences from traditional OMR approaches are our avoidance of the staff line removal stage and the use of grey-level images to perform primitive segmentation and feature extraction. We used 136 images from the Digital Scriptorium repository (DS, 2007), from which we were able to extract over 90% of the staves and over 88% of all symbols present. For symbol classification, we used gradient-based features and SVM classifiers, obtaining over 90% precision and recall over eight basic symbol classes.

    DOI

  • Recognizing surgeon's actions during suture operations from video sequences

    Ye Li, Jun Ohya, Toshio Chiba, Rong Xu, Hiromasa Yamashita

    Progress in Biomedical Optics and Imaging - Proceedings of SPIE   9034  2014年  [査読有り]

     概要を見る

    Because of the shortage of nurses in the world, the realization of a robotic nurse that can support surgeries autonomously is very important. More specifically, the robotic nurse should be able to autonomously recognize different situations of surgeries so that the robotic nurse can pass necessary surgical tools to the medical doctors in a timely manner. This paper proposes and explores methods that can classify suture and tying actions during suture operations from the video sequence that observes the surgery scene that includes the surgeon's hands. First, the proposed method uses skin pixel detection and foreground extraction to detect the hand area. Then, interest points are randomly chosen from the hand area so that their 3D SIFT descriptors are computed. A word vocabulary is built by applying hierarchical K-means to these descriptors, and the words frequency histogram, which corresponds to the feature space, is computed. Finally, to classify the actions, either SVM (Support Vector Machine), Nearest Neighbor rule (NN) for the feature space or a method that combines sliding window with NN is performed. We collect 53 suture videos and 53 tying videos to build the training set and to test the proposed method experimentally. It turns out that the NN gives higher than 90% accuracies, which are better recognition than SVM. Negative actions, which are different from either suture or tying action, are recognized with quite good accuracies, while Sliding window did not show significant improvements for suture and tying and cannot recognize negative actions. © 2014 SPIE.

    DOI

  • Inspiring Viewers of Abstract Painting by a Gaze Based Music Generation

    Tatsuya Ogusu, Jun Ohya, Jun Kurumisawa, Shunichi Yonemura

    Communications in Computer and Information Science   434   213 - 217  2014年  [査読有り]

     概要を見る

    This paper explores the effectiveness of prompting abstract paintings' viewers' inspiration and imagination by the authors' gaze based music generation system. The authors' music generation system detects the viewer's gaze by a gaze detection equipment. At each of the gaze staying positions in the painting, the color of that point is converted to the sound so that as the gaze moves, music that consists of the converted time series sounds is generated. Experiments using six subjects and six abstract paintings were conducted for the three cases in which the subjects see the abstract paintings without hearing any music, while hearing pre-selected music and while hearing the viewers' gaze based music generated by the authors' system. The experimental results imply that "hearing gaze based music" could stimulate the viewers' inspiration and imagination best, "hearing pre-selected music" second best, and "without music" third best. © Springer International Publishing Switzerland 2014.

    DOI

  • Locating fetal facial surface, oral cavity and airways by a 3D ultrasound calibration using a novel cones' phantom

    Rong Xu, Jun Ohya, Yoshinobu Sato, Bo Zhang, Masakatsu G. Fujie

    IEICE Transactions on Information and Systems   E96-D ( 5 ) 1324 - 1335  2014年  [査読有り]

     概要を見る

    Toward the actualization of an automatic navigation system for fetoscopic tracheal occlusion (FETO) surgery, this paper proposes a 3D ultrasound (US) calibration-based approach that can locate the fetal facial surface, oral cavity, and airways by a registration between a 3D fetal model and 3D US images. The proposed approach consists of an offline process and online process. The offline process first reconstructs the 3D fetal model with the anatomies of the oral cavity and airways. Then, a point-based 3D US calibration system based on real-time 3D US images, an electromagnetic (EM) tracking device, and a novel cones' phantom, computes the matrix that transforms the 3D US image space into the world coordinate system. In the online process, by scanning the mother's body with a 3D US probe, 3D US images containing the fetus are obtained. The fetal facial surface extracted from the 3D US images is registered to the 3D fetal model using an ICP-based (iterative closest point) algorithm and the calibration matrices, so that the fetal facial surface as well as the oral cavity and airways are located. The results indicate that the 3D US calibration system achieves an FRE (fiducial registration error) of 1.49±0.44mm and a TRE (target registration error) of 1.81±0.56mm by using 24 fiducial points from two US volumes. A mean TRE of 1.55±0.46 mm is also achieved for measuring location accuracy of the 3D fetal facial surface extracted from 3D US images by 14 target markers, and mean location errors of 2.51±0.47 mm and 3.04±0.59 mm are achieved for indirectly measuring location accuracy of the pharynx and the entrance of the trachea, respectively, which satisfy the requirement of the FETO surgery. © 2014 The Institute of Electronics, Information and Communication Engineers.

    DOI

  • Automatic Lip Reading by Using Multimodal Visual Features

    Shohei Takahashi, Jun Ohya

    INTELLIGENT ROBOTS AND COMPUTER VISION XXXI: ALGORITHMS AND TECHNIQUES   9025  2014年  [査読有り]

     概要を見る

    Since long time ago, speech recognition has been researched, though it does not work well in noisy places such as in the car or in the train. In addition, people with hearing-impaired or difficulties in hearing cannot receive benefits from speech recognition. To recognize the speech automatically, visual information is also important. People understand speeches from not only audio information, but also visual information such as temporal changes in the lip shape. A vision based speech recognition method could work well in noisy places, and could be useful also for people with hearing disabilities.
    In this paper, we propose an automatic lip-reading method for recognizing the speech by using multimodal visual information without using any audio information such as speech recognition. First, the ASM (Active Shape Model) is used to track and detect the face and lip in a video sequence. Second, the shape, optical flow and spatial frequencies of the lip features are extracted from the lip detected by ASM. Next, the extracted multimodal features are ordered chronologically so that Support Vector Machine is performed in order to learn and classify the spoken words. Experiments for classifying several words show promising results of this proposed method.

    DOI

  • Quasi Random Scheme Based Improved Iterative Randomized Hough Transform (IRHT) for Detection of Partial Ellipses in Medical Images

    Rong XU, Jun Ohya, Bo Zhang, Yoshinobu Sato, Masakatsu G. Fujie

    IIEEJ Transactions on Image Electronics and Visual Computing   1 ( 1 ) 97 - 106  2013年12月  [査読有り]

    CiNii

  • 高彩度・低彩度gamut と反対色特性を利用した灰色仮説ベースの照明光色推定法

    川村春美, 米村俊一, 大谷 淳, 小島 明

    電子情報通信学会論文誌   J96-D ( 12 ) 3079 - 3089  2013年12月  [査読有り]

     概要を見る

    カラー画像から照明光色若しくは物体色を推定することは画像処理において重要な技術である.従来,照明光色を推定する手法として,色ガマットを利用する手法や照明光・物体に関する物理的な特性等を利用した手法が提案されている.我々は以前より,シーン中の物体の色の平均が灰色であるとする灰色仮説に基づく照明光色推定手法を提案した.この手法は,画像中の色から似た色をクラスタリングし代表色のみを利用し,更に,類似の色相に分割した上で反対色の関係を満たすように色を選択することによって,従来の灰色仮説を利用した手法に比較し,シーン中の物体の色が特定の色に偏っている場合であっても精度よく照明光色を推定できるという結果を得ている.しかしながら,シーン中に含まれる色が極端に少なく,かつ,色空間内で偏在している場合には,反対色の関係を満たす色の組み合わせを得ることができなくなるため,照明光色を推定できないという課題があった.そこで,本論文では,我々の提案した灰色仮説ベースの照明光色推定手法に対し,色ガマットの範囲内で仮想的に色を追加することで上述の課題を解決する手法を提案する.実画像を用いた実験を行い,従来手法に比較して精度よく照明光色を推定できることを示す.

    CiNii

  • Towards Recognizing Surgeon's Action during Suture Surgery from the Video Sequence

    Ye Li, Jun Ohya, Toshio Chiba, Rong Xu, Hiromasa Yamashita

    The 9th Asian Conference on Computer Aided Surgery     66 - 67  2013年09月  [査読有り]

  • Automatic Real-time Tracking of Fetal Mouth in Fetoscopic Video Sequence for Supporting Fetal Surgeries

    Rong Xu, Tianliang Xie, Jun Ohya, Bo Zhang, Yoshinobu Sato, Masakatsu G. Fujie

    MEDICAL IMAGING 2013: IMAGE-GUIDED PROCEDURES, ROBOTIC INTERVENTIONS, AND MODELING   8671   1 - 7  2013年  [査読有り]

     概要を見る

    Recently, a minimally invasive surgery (MIS) called fetoscopic tracheal occlusion (FETO) was developed to treat severe congenital diaphragmatic hernia (CDH) via fetoscopy, by which a detachable balloon is placed into the fetal trachea for preventing pulmonary hypoplasia through increasing the pressure of the chest cavity. This surgery is so dangerous that a supporting system for navigating surgeries is deemed necessary. In this paper, to guide a surgical tool to be inserted into the fetal trachea, an automatic approach is proposed to detect and track the fetal face and mouth via fetoscopic video sequencing. More specifically, the AdaBoost algorithm is utilized as a classifier to detect the fetal face based on Haar-like features, which calculate the difference between the sums of the pixel intensities in each adjacent region at a specific location in a detection window. Then, the CamShift algorithm based on an iterative search in a color histogram is applied to track the fetal face, and the fetal mouth is fitted by an ellipse detected via an improved iterative randomized Hough transform approach. The experimental results demonstrate that the proposed automatic approach can accurately detect and track the fetal face and mouth in real-time in a fetoscopic video sequence, as well as provide an effective and timely feedback to the robot control system of the surgical tool for FETO surgeries.

    DOI

  • Gray-world-assumption-based illuminant color estimation using color gamuts with high and low chroma

    Harumi Kawamura, Shunichi Yonemura, Jun Ohya, Akira Kojima

    Proceedings of SPIE - The International Society for Optical Engineering   8652 ( 86520C ) 1 - 8  2013年  [査読有り]

     概要を見る

    A new approach is proposed for estimating illuminant colors from color images under an unknown scene illuminant. The approach is based on a combination of a gray-world-assumption-based illuminant color estimation method and a method using color gamuts. The former method, which is one we had previously proposed, improved on the original method that hypothesizes that the average of all the object colors in a scene is achromatic. Since the original method estimates scene illuminant colors by calculating the average of all the image pixel values, its estimations are incorrect when certain image colors are dominant. Our previous method improves on it by choosing several colors on the basis of an opponent-color property, which is that the average color of opponent colors is achromatic, instead of using all colors. However, it cannot estimate illuminant colors when there are only a few image colors or when the image colors are unevenly distributed in local areas in the color space. The approach we propose in this paper combines our previous method and one using high chroma and low chroma gamuts, which makes it possible to find colors that satisfy the gray world assumption. High chroma gamuts are used for adding appropriate colors to the original image and low chroma gamuts are used for narrowing down illuminant color possibilities. Experimental results obtained using actual images show that even if the image colors are localized in a certain area in the color space, the illuminant colors are accurately estimated, with smaller estimation error average than that generated in the conventional method. © 2013 SPIE.

    DOI

  • A flexible surgical tool localization using a 3D ultrasound calibration system for fetoscopic tracheal occlusion (FETO)

    Rong Xu, Jun Ohya, Bo Zhang, Yoshinobu Sato, Masakatsu G. Fujie

    Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics)   7761   17 - 24  2013年  [査読有り]

     概要を見る

    In fetoscopic tracheal occlusion (FETO) surgery, the localization of a flexible tool has an important role in easing high demands for surgeons. In this paper, a point-based 3D ultrasound (US) calibration system is proposed for localizing the surgical tool, based on real-time 3D US images, an electromagnetic (EM) tracking device, and a novel cones' phantom. A 3D US probe attached with an EM sensor is used to acquire the 3D US images of the surgical tool
    meanwhile, an EM transmitter is fixed at a certain point in the environment as the origin of the world coordinate system. From these 3D US images, the skeleton of the surgical tool is extracted, and 15 labeled points along the surgical tool are then distinguished, whose coordinates in the world coordinate system are calculated by the proposed 3D US calibration system. The results demonstrate that our proposed approach achieves high localization accuracy, i.e. the average TRE of 1.99 ± 0.49 mm and the maximum TRE of 2.61 ± 0.49 mm, which satisfy the requirement of the FETO surgery: less than 3.85 mm. © Springer-Verlag 2013.

    DOI

  • Automatic Fetal Face Detection By Locating Fetal Facial Features From 3D Ultrasound Images For Navigating Fetoscopic Tracheal Occlusion Surgeries

    Rong Xu, Jun Ohya, Bo Zhang, Masakatsu G. Fujie, Yoshinobu Sato

    2013 10TH IEEE INTERNATIONAL CONFERENCE AND WORKSHOPS ON AUTOMATIC FACE AND GESTURE RECOGNITION (FG)   ( 104 ) 1 - 6  2013年  [査読有り]

     概要を見る

    With the wide clinical application of 3D ultrasound (US) imaging, automatic location of fetal facial features from US volumes for navigating fetoscopic tracheal occlusion (FETO) surgeries becomes possible, which plays an important role in reducing surgical risk. In this paper, we propose a feature-based method to automatically detect 3D fetal face and accurately locate key facial features without any priori knowledge or training data. The candidates of the key facial features, such as the nose, eyes, nose upper bridge and upper lip are detected by analyzing the mean and Gaussian curvatures of the facial surface. Each feature is gradually identified from the candidates by a boosting traversal scheme based on the spatial relations between each feature. In experiments, all key feature points are detected for each case, and thus a detection success rate of 100% is achieved by using 72 3D US images from a test database of 6 fetal faces in the frontal view and any pose within 15 degrees from the frontal view, and the location error 3.18 +/- 0.91 inn of the detected upper lip for all test data is obtained, which can be tolerated by the FETO surgery. Moreover, this system has a high efficiency and can detect all key facial features in about 625 ms on a quadcore 2.60 GHz computer.

  • An investigation into encouraging higher user self-disclosure during text-based computer mediated communication: A case study of prompter communication system

    Li Jen Chen, Mutsumi Suganuma, Shigekazu Sakai, Jun Ohya, Shunichi Yonemura, Yukio Tokunaga

    Journal of the Institute of Image Electronics Engineers of Japan   42 ( 1 ) 89 - 101  2013年01月  [査読有り]

     概要を見る

    An investigation into encouraging higher user self-disclosure during text-based Computer Mediated Communication (CMC) system known as the Prompter Communication system (PCS), proposed by Yonemura et al. in previous studies, in which 1 to 3 black circular prompter images ("•") are embedded onto the background of a text-field canvas as stimuli and as an embryonic basis for conversation, have been investigated and evaluated. The effects on supporting the projection or reflection of generated mental representations onto messages with the "•" prompter image as part of the representations within the message contents have also been examined. During the investigation, the concepts and features of the Geneplore cognitive creative thinking process model, together with self-projections, were integrated into the proposed system. Based on these concepts and features, the PCS aims to encourage users to express their mental representations by projecting or reflecting them onto the messages in combination with the provided "•" prompter image as part of the message contents. Communication experiments using the prototype PCS system have been conducted, where a Normal Communication System, NCS which uses only a plain text-field canvas without the "•" prompter image, is compared with the PCS. The experimental results indicate that communication conducted using the PCS results in an increased number of messages with the "•" prompter image(s) involved as part of the message contents than as background images. Further analysis into the self-disclosure level of the message contents and the relationships between the degree of self-disclosure and the representations of the "•" prompter image(s) within the messages have indicated that the degrees of self-disclosure increases when the "•" prompter image(s) are used to represent the participant him/herself, or the participant's thoughts and emotions, and decreases when the "•" prompter image(s) are used to represent animals or objects, or when the "•" prompter image(s) presented within the messages have been ignored. Investigations into the differences in self-disclosure level between message contents from both the PCS and the NCS have shown that using the PCS results in a generally higher degree in the average frequency of the appearance of high self-disclosure information than when using the NCS. During the conversation, these messages contain information with a high level of self-disclosure, which, consequently, may further lead to the development of intimate and deep interpersonal relationships.

    DOI

  • A flexible surgical tool localization using a 3D ultrasound calibration system for fetoscopic tracheal occlusion (FETO)

    Rong Xu, Jun Ohya, Bo Zhang, Yoshinobu Sato, Masakatsu G. Fujie

    Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics)   7761   17 - 24  2013年  [査読有り]

     概要を見る

    In fetoscopic tracheal occlusion (FETO) surgery, the localization of a flexible tool has an important role in easing high demands for surgeons. In this paper, a point-based 3D ultrasound (US) calibration system is proposed for localizing the surgical tool, based on real-time 3D US images, an electromagnetic (EM) tracking device, and a novel cones' phantom. A 3D US probe attached with an EM sensor is used to acquire the 3D US images of the surgical tool
    meanwhile, an EM transmitter is fixed at a certain point in the environment as the origin of the world coordinate system. From these 3D US images, the skeleton of the surgical tool is extracted, and 15 labeled points along the surgical tool are then distinguished, whose coordinates in the world coordinate system are calculated by the proposed 3D US calibration system. The results demonstrate that our proposed approach achieves high localization accuracy, i.e. the average TRE of 1.99 ± 0.49 mm and the maximum TRE of 2.61 ± 0.49 mm, which satisfy the requirement of the FETO surgery: less than 3.85 mm. © Springer-Verlag 2013.

    DOI

  • Gray-world-assumption-based illuminant color estimation using color gamuts with high and low chroma

    Harumi Kawamura, Shunichi Yonemura, Jun Ohya, Akira Kojima

    Proceedings of SPIE - The International Society for Optical Engineering   8652  2013年  [査読有り]

     概要を見る

    A new approach is proposed for estimating illuminant colors from color images under an unknown scene illuminant. The approach is based on a combination of a gray-world-assumption-based illuminant color estimation method and a method using color gamuts. The former method, which is one we had previously proposed, improved on the original method that hypothesizes that the average of all the object colors in a scene is achromatic. Since the original method estimates scene illuminant colors by calculating the average of all the image pixel values, its estimations are incorrect when certain image colors are dominant. Our previous method improves on it by choosing several colors on the basis of an opponent-color property, which is that the average color of opponent colors is achromatic, instead of using all colors. However, it cannot estimate illuminant colors when there are only a few image colors or when the image colors are unevenly distributed in local areas in the color space. The approach we propose in this paper combines our previous method and one using high chroma and low chroma gamuts, which makes it possible to find colors that satisfy the gray world assumption. High chroma gamuts are used for adding appropriate colors to the original image and low chroma gamuts are used for narrowing down illuminant color possibilities. Experimental results obtained using actual images show that even if the image colors are localized in a certain area in the color space, the illuminant colors are accurately estimated, with smaller estimation error average than that generated in the conventional method. © 2013 SPIE.

    DOI

  • Automatic Real-time Tracking of Fetal Mouth in Fetoscopic Video Sequence for Supporting Fetal Surgeries

    Rong Xu, Tianliang Xie, Jun Ohya, Bo Zhang, Yoshinobu Sato, Masakatsu G. Fujie

    MEDICAL IMAGING 2013: IMAGE-GUIDED PROCEDURES, ROBOTIC INTERVENTIONS, AND MODELING   8671  2013年  [査読有り]

     概要を見る

    Recently, a minimally invasive surgery (MIS) called fetoscopic tracheal occlusion (FETO) was developed to treat severe congenital diaphragmatic hernia (CDH) via fetoscopy, by which a detachable balloon is placed into the fetal trachea for preventing pulmonary hypoplasia through increasing the pressure of the chest cavity. This surgery is so dangerous that a supporting system for navigating surgeries is deemed necessary. In this paper, to guide a surgical tool to be inserted into the fetal trachea, an automatic approach is proposed to detect and track the fetal face and mouth via fetoscopic video sequencing. More specifically, the AdaBoost algorithm is utilized as a classifier to detect the fetal face based on Haar-like features, which calculate the difference between the sums of the pixel intensities in each adjacent region at a specific location in a detection window. Then, the CamShift algorithm based on an iterative search in a color histogram is applied to track the fetal face, and the fetal mouth is fitted by an ellipse detected via an improved iterative randomized Hough transform approach. The experimental results demonstrate that the proposed automatic approach can accurately detect and track the fetal face and mouth in real-time in a fetoscopic video sequence, as well as provide an effective and timely feedback to the robot control system of the surgical tool for FETO surgeries.

    DOI

  • Automatic Fetal Face Detection By Locating Fetal Facial Features From 3D Ultrasound Images For Navigating Fetoscopic Tracheal Occlusion Surgeries

    Rong Xu, Jun Ohya, Bo Zhang, Masakatsu G. Fujie, Yoshinobu Sato

    2013 10TH IEEE INTERNATIONAL CONFERENCE AND WORKSHOPS ON AUTOMATIC FACE AND GESTURE RECOGNITION (FG)    2013年  [査読有り]

     概要を見る

    With the wide clinical application of 3D ultrasound (US) imaging, automatic location of fetal facial features from US volumes for navigating fetoscopic tracheal occlusion (FETO) surgeries becomes possible, which plays an important role in reducing surgical risk. In this paper, we propose a feature-based method to automatically detect 3D fetal face and accurately locate key facial features without any priori knowledge or training data. The candidates of the key facial features, such as the nose, eyes, nose upper bridge and upper lip are detected by analyzing the mean and Gaussian curvatures of the facial surface. Each feature is gradually identified from the candidates by a boosting traversal scheme based on the spatial relations between each feature. In experiments, all key feature points are detected for each case, and thus a detection success rate of 100% is achieved by using 72 3D US images from a test database of 6 fetal faces in the frontal view and any pose within 15 degrees from the frontal view, and the location error 3.18 +/- 0.91 inn of the detected upper lip for all test data is obtained, which can be tolerated by the FETO surgery. Moreover, this system has a high efficiency and can detect all key facial features in about 625 ms on a quadcore 2.60 GHz computer.

    DOI

  • 3D Surface Reconstruction Based on Image Stitching from Gastric Endoscopic Video Sequence

    Mengyao Duan, Rong Xu, Jun Ohya

    APPLICATIONS OF DIGITAL IMAGE PROCESSING XXXVI   8856  2013年  [査読有り]

     概要を見る

    This paper proposes a method for reconstructing 3D detailed structures of internal organs such as gastric wall from endoscopic video sequences. The proposed method consists of the four major steps: Feature-point-based 3D reconstruction, 3D point cloud stitching, dense point cloud creation and Poisson surface reconstruction. Before the first step, we partition one video sequence into groups, where each group consists of two successive frames (image pairs), and each pair in each group contains one overlapping part, which is used as a stitching region. Fist, the 3D point cloud of each group is reconstructed by utilizing structure from motion (SFM). Secondly, a scheme based on SIFT features registers and stitches the obtained 3D point clouds, by estimating the transformation matrix of the overlapping part between different groups with high accuracy and efficiency. Thirdly, we select the most robust SIFT feature points as the seed points, and then obtain the dense point cloud from sparse point cloud via a depth testing method presented by Furukawa. Finally, by utilizing Poisson surface reconstruction, polygonal patches for the internal organs are obtained. Experimental results demonstrate that the proposed method achieves a high accuracy and efficiency for 3D reconstruction of gastric surface from an endoscopic video sequence.

    DOI

  • e-learning 用講義ビデオにおける 学習者の学習行動を利用した主観的難易度の把握方法の基礎的検討

    大川内隆朗, 大谷淳, 米村俊一, 徳永幸生

    日本教育工学会論文誌   36 ( 3 ) 193 - 203  2012年12月  [査読有り]

    DOI J-GLOBAL

  • Study of a teacher support method for improving lectures for e-learning on demand

    Takaaki Ohkawauchi, Jun Ohya, Shunichi Yonemura, Yukio Tokunaga

    IEVC (IIEEJ 3rd Image Electronics and Visual Computing Workshop) 2012   ( 2A-4 ) 1 - 4  2012年11月  [査読有り]

  • Study of generating portraits using neural networks - Portraits that consist of facial contour, eyebrows, eyes and mouth ?

    Makoto Enomoto, Akira Takano, Jun Ohya

    IEVC (IIEEJ 3rd Image Electronics and Visual Computing Workshop) 2012   ( 4A-4 ) 1 - 4  2012年11月  [査読有り]

  • Proposed Prompter Communication System for Supporting Non-verbal Expressions in order to Encourage Development of Deep and Intimate Interpersonal Relationships

    Chen Li Jen, Mutsumi Suganuma, Shigekazu Sakai, Shunichi Yonemura, Jun Ohya, Yukio Tokunaga

    早稲田大学GITS/GITI紀要2011-2012     20 - 30  2012年10月  [査読有り]

    CiNii

  • e-learning用講義コンテンツにおける教員の講義改善活動を支援するシステムの提案と評価

    大川内隆朗, 大谷淳, 米村俊一, 徳永幸生

    早稲田大学GITS/GITI紀要   2011-2012   11 - 19  2012年10月  [査読有り]

    J-GLOBAL

  • Detection and Segmentation of Moving Objects from Dynamic RGB and Depth Images

    Naotomo Tatematsu, Jun Ohya, Larry Davis

    3D Camera Workshop in conjunction with International Conference on Virtual Reality and Visualization     1 - 8  2012年09月  [査読有り]

  • Estimating object colors in outdoor scenes with same object region but different illuminants

    Harumi Kawamura, Yasuhiro Yao, Shunichi Yonemura, Jun Ohya, Akira Kojima

    AIC (The International Colour Association) 2012 Interim Meeting     582 - 585  2012年09月  [査読有り]

  • Generating Various Face Makeup Styles based on a Small Set of Examples

    Jieun Cho, Minje Park, Sang Il Park, Jun Ohya

    CGI (Computer Graphics International) 2012   ( 222 ) 1 - 4  2012年06月  [査読有り]

  • Segmentation of Brain MRI

    Rong Xu, Limin Luo, Jun Ohya

    Advances in Brain Imaging     143 - 170  2012年02月

  • Tracking White Road Line by Particle Filter from the Video Sequence Acquired by the Camera Attached to a Walking Human Body

    Shohei Takahashi, Jun Ohya

    IMAGE PROCESSING: ALGORITHMS AND SYSTEMS X AND PARALLEL PROCESSING FOR IMAGING APPLICATIONS II   8295   82950 - 82959  2012年  [査読有り]

     概要を見る

    This paper proposes a method for tracking and recognizing the white line marked in the surface of the road from the video sequence acquired by the camera attached to a walking human, towards the actualization of an automatic navigation system for the visually handicapped. Our proposed method consists of two main modules: (1) Particle Filter based module for tracking the white line, and (2) CLAFIC Method based module for classifying whether the tracked object is the white line. In (1), each particle is a rectangle, and is described by its centroid's coordinates and its orientation. The likelihood of a particle is computed based on the number of white pixels in the rectangle. In (2), in order to obtain the ranges (to be used for the recognition) for the white line's length and width, Principal Component Analysis is applied to the covariance matrix obtained from valid sample particles. At each frame, PCA is applied to the covariance matrix constructed from particles with high likelihood, and if the obtained length and width are within the above-mentioned ranges, it is recognized as the white line. Experimental results using real video sequences show the validity of the proposed method.

    DOI

  • Accurate, Dense 3D Reconstruction of Moving and Still Objects from Dynamic Stereo Sequences Based on Temporal Modified-RANSAC and Feature-Cut

    Naotomo Tatematsu, Jun Ohya

    INTELLIGENT ROBOTS AND COMPUTER VISION XXIX: ALGORITHMS AND TECHNIQUES   8301   830105 - 830115  2012年  [査読有り]

     概要を見る

    This paper improves the authors' conventional method for reconstructing the 3D structure of moving and still objects that are tracked in the video and/or depth image sequences acquired by moving cameras and/or range finder. The authors proposed a Temporal Modified-RANSAC based method [1] that (1) can discriminate each moving object from the still background in color image and depth image sequences acquired by moving stereo cameras or moving range finder, (2) can compute the stereo cameras' egomotion, (3) can compute the motion of each moving object, and (4) can reconstruct the 3D structure of each moving object and the background. However, the TMR based method has the following two problems concerning the 3D reconstruction: lack of accuracy of segmenting into each object's region and sparse 3D reconstructed points in each object's region. To solve these problems of our conventional method, this paper proposes a new 3D segmentation method that utilizes Graph-cut, which is frequently used for segmentation tasks. First, the proposed method tracks feature points in the color and depth image sequences so that 3D optical flows of the feature points in every N frames are obtained. Then, TMR classifies all the obtained 3D optical flows into regions (3D flow set) for the background and each moving object; simultaneously, the rotation matrix and the translation vector for each 3D flow set are computed. Next, Graph-Cut using the energy function that consists of color probability, structure probability and a-priori probability is performed so that pixels in each frame are segmented into object regions and the background region. Finally, 3D point clouds are obtained from the segmentation result image and depth image, and then the point clouds are merged using the rotation and translation from the N-th frame prior to the current frame so that 3D models for the background and each moving object are constructed with dense 3D point data.

    DOI

  • Human Gesture Analysis using Multimodal features

    Luo Dan, Hazim Kemal Ekenel, Ohya Jun

    2012 IEEE INTERNATIONAL CONFERENCE ON MULTIMEDIA AND EXPO WORKSHOPS (ICMEW)     471 - 476  2012年  [査読有り]

     概要を見る

    Human gesture as a natural interface plays an utmost important role for achieving intelligent Human Computer Interaction (HCI). Human gestures include different components of visual actions such as motion of hands, facial expression, and torso, to convey meaning. So far, in the field of gesture recognition, most previous works have focused on the manual component of gestures. In this paper, we present an appearance-based multimodal gesture recognition framework, which combines the different groups of features such as facial expression features and hand motion features which are extracted from image frames captured by a single web camera. We refer 12 classes of human gestures with facial expression including neutral, negative and positive meanings from American Sign Languages (ASL). We combine the features in two levels by employing two fusion strategies. At the feature level, an early feature combination can be performed by concatenating and weighting different feature groups, and PLS is used to choose the most discriminative elements by projecting the feature on a discriminative expression space. The second strategy is applied on decision level. Weighted decisions from single modalities are fused in a later stage. A condensation-based algorithm is adopted for classification. We collected a data set with three to seven recording sessions and conducted experiments with the combination techniques. Experimental results showed that facial analysis improve hand gesture recognition, decision level fusion performs better than feature level fusion.

    DOI

  • Human Gesture Analysis using Multimodal features

    Luo Dan, Hazim Kemal Ekenel, Ohya Jun

    2012 IEEE INTERNATIONAL CONFERENCE ON MULTIMEDIA AND EXPO WORKSHOPS (ICMEW)     471 - 476  2012年  [査読有り]

     概要を見る

    Human gesture as a natural interface plays an utmost important role for achieving intelligent Human Computer Interaction (HCI). Human gestures include different components of visual actions such as motion of hands, facial expression, and torso, to convey meaning. So far, in the field of gesture recognition, most previous works have focused on the manual component of gestures. In this paper, we present an appearance-based multimodal gesture recognition framework, which combines the different groups of features such as facial expression features and hand motion features which are extracted from image frames captured by a single web camera. We refer 12 classes of human gestures with facial expression including neutral, negative and positive meanings from American Sign Languages (ASL). We combine the features in two levels by employing two fusion strategies. At the feature level, an early feature combination can be performed by concatenating and weighting different feature groups, and PLS is used to choose the most discriminative elements by projecting the feature on a discriminative expression space. The second strategy is applied on decision level. Weighted decisions from single modalities are fused in a later stage. A condensation-based algorithm is adopted for classification. We collected a data set with three to seven recording sessions and conducted experiments with the combination techniques. Experimental results showed that facial analysis improve hand gesture recognition, decision level fusion performs better than feature level fusion.

    DOI

  • Automatic Fetal Head Detection on Ultrasound Images by An Improved Iterative Randomized Hough Transform

    Rong Xu, Jun Ohya, Bo Zhang, Yoshinobu Sato, Masakatsu G. Fujie

    Proceedings of 26th International Conference of Image and Vision Computing New Zealand (IVCNZ’ 2011)     288 - 292  2011年11月  [査読有り]

  • Visualizing Large Procedural Volumetric Terrains Using Nested Clip-Boxes

    Sven Forstmann, Jun Ohya

    GITS/GITI 紀要     51 - 61  2011年10月  [査読有り]

    CiNii

  • 反対色の特性を利用した色選択による灰色仮説判定に基づくカラー画像からの照明光推定法

    川村春美, 米村俊一, 大谷 淳, 松浦宣彦

    電子情報通信学会論文誌 D   J94-D ( 8 ) 1346 - 1358  2011年08月  [査読有り]

    J-GLOBAL

  • Facial Analysis Aided Human Gesture Recognition for Human Computer Interaction

    Dan Luo, Hua Gao, Hazim Kemal Ekenel, Jun Ohya

    Proceedings of MVA2011 (IAPR Conference on Machine Vision Applications)     446 - 449  2011年06月  [査読有り]

  • 線画映像コミュニケーションにおける対話ストラテジーと対話特性

    米村俊一, 花田 研, 徳永幸生, 嶌田 聡, 鈴木 章, 大谷 淳

    映像情報メディア学会誌   65 ( 4 ) 515 - 522  2011年04月  [査読有り]

    DOI

  • Illuminant Color Estimation by Hue Categorization Based on Gray World Assumption

    Harumi Kawamura, Shunichi Yonemura, Jun Ohya, Norihiko Matsuura

    COMPUTATIONAL IMAGING IX   7873 ( 787312 ) 1 - 12  2011年  [査読有り]

     概要を見る

    This paper proposes a gray world assumption based method for estimating an illuminant color from an image by hue categorization. The gray world assumption hypothesizes that the average color of all the objects in a scene is gray. However, it is difficult to estimate an illuminant color correctly if the colors of the objects in a scene are dominated by certain colors. To solve this problem, our method uses the opponent color properties that the average of a pair of opponent colors is gray. Thus our method roughly categorizes the colors derived from the image based on hue and selects them one by one from the hue categories until selected colors satisfy the gray world assumption. In our experiments, we used three kinds of illuminants (i.e., CIE standard illuminants A and D-65, and a fluorescent light) and two kinds of data sets. One data set satisfies the gray world assumption, and the other does not. Experiment results show that estimated illuminants are closer to the correct ones than those obtained with the conventional method and the estimation error for both using CIE standard illuminants A and D-65 by our method are within the barely noticeable difference in human color perception.

    DOI

  • OMR of Early Plainchant Manuscripts in Square Notation: a Two-stage System

    Carolina Ramirez, Jun Ohya

    DOCUMENT RECOGNITION AND RETRIEVAL XVIII   7874 ( 787417 ) 1 - 8  2011年  [査読有り]

     概要を見る

    While Optical Music Recognition (OMR) of modern printed and handwritten documents is considered a solved problem, with many commercial systems available today, the OMR of ancient musical manuscripts still remains an open problem. In this paper we present a system for the OMR of degraded western plainchant manuscripts in square notation from the XIV to XVI centuries. The system has two main blocks, the first one deals with symbol extraction and recognition, while the second one acts as an error detection stage for the first block outputs. For symbol extraction we use widely known image-processing techniques, such as Sobel filtering and Hough Transform, and SVM for classification. The error detection stage is implemented with a hidden Markov model (HMM), which takes advantage of a priori knowledge for this specific kind of music.

    DOI

  • Appearance-based Human Gesture Recognition using Multimodal Features for Human Computer Interaction

    Dan Luo, Hua Gao, Hazim Kemal Ekenel, Jun Ohya

    HUMAN VISION AND ELECTRONIC IMAGING XVI   7865 ( 786509 ) 1 - 6  2011年  [査読有り]

     概要を見る

    The use of gesture as a natural interface plays an utmost important role for achieving intelligent Human Computer Interaction (HCI). Human gestures include different components of visual actions such as motion of hands, facial expression, and torso, to convey meaning. So far, in the field of gesture recognition, most previous works have focused on the manual component of gestures. In this paper, we present an appearance-based multimodal gesture recognition framework, which combines the different groups of features such as facial expression features and hand motion features which are extracted from image frames captured by a single web camera. We refer 12 classes of human gestures with facial expression including neutral, negative and positive meanings from American Sign Languages (ASL). We combine the features in two levels by employing two fusion strategies. At the feature level, an early feature combination can be performed by concatenating and weighting different feature groups, and LDA is used to choose the most discriminative elements by projecting the feature on a discriminative expression space. The second strategy is applied on decision level. Weighted decisions from single modalities are fused in a later stage. A condensation-based algorithm is adopted for classification. We collected a data set with three to seven recording sessions and conducted experiments with the combination techniques. Experimental results showed that facial analysis improve hand gesture recognition, decision level fusion performs better than feature level fusion.

    DOI

  • Study of Recognizing Human Motion Observed from an Arbitrary Viewpoint Based on Decomposition of a Tensor Containing Multiple View Motions

    Takayuki Hori, Jun Ohya, Jun Kurumisawa

    COMPUTATIONAL IMAGING IX   7873 ( 787310 ) 1 - 10  2011年  [査読有り]

     概要を見る

    We propose a Tensor Decomposition based algorithm that recognizes the observed action performed by an unknown person and unknown viewpoint not included in the database. Our previous research aimed motion recognition from one single viewpoint. In this paper, we extend our approach for human motion recognition from an arbitrary viewpoint. To achieve this issue, we set tensor database which are multi-dimensional vectors with dimensions corresponding to human models, viewpoint angles, and action classes. The value of a tensor for a given combination of human silhouette model, viewpoint angle, and action class is the series of mesh feature vectors calculated each frame sequence. To recognize human motion, the actions of one of the persons in the tensor are replaced by the synthesized actions. Then, the core tensor for the replaced tensor is computed. This process is repeated for each combination of action, person, and viewpoint. For each iteration, the difference between the replaced and original core tensors is computed. The assumption that gives the minimal difference is the action recognition result. The recognition results show the validity of our proposed method, the method is experimentally compared with Nearest Neighbor rule. Our proposed method is very stable as each action was recognized with over 75% accuracy.

    DOI

  • Study of Temporal Modified-RANSAC Based Method for the Extraction and 3D Shape Reconstruction of Moving Objects from Dynamic Stereo Images and for Estimating the Camera Pose

    Naotomo Tatematsu, Jun Ohya

    INTELLIGENT ROBOTS AND COMPUTER VISION XXVIII: ALGORITHMS AND TECHNIQUES   7878 ( 78780E ) 1 - 13  2011年  [査読有り]

     概要を見る

    This paper proposes a Temporal Modified-RANSAC based method that can discriminate each moving object from the still background in the stereo video sequences acquired by moving stereo cameras, can compute the stereo cameras' egomotion, and can reconstruct the 3D structure of each moving object and the background. We compute 3D optical flows from the depth map and results of tracking feature points. We define "3D flow region" as a set of connected pixels whose 3D optical flows have a common rotation matrix and translation vector. Our Temporal Modified-RANSAC segments the detected 3D optical flows into 3D flow regions and computes the rotation matrix and translation vector for each 3D flow region. As opposed to the conventional Modified-RANSAC for only two frames, The Temporal Modified-RANSAC can handle temporal images with arbitrary length by performing the Modified-RANSAC to the set of a 3D flow region that classified in the latest frame and new 3D optical flows detected in the current frame iteratively. Finally, the 3D points computed from the depth map in all the frames are registered using each 3D flow region's matrix to the initial positions in the initial frame so that the 3D structures of the moving objects and still background are reconstructed. Experiments using multiple moving objects and real stereo sequences demonstrate promising results of our proposed method.

    DOI

  • Efficient, High-Quality, GPU-Based Visualization of Voxelized Surface Data with Fine and Complicated Structures

    Sven Forstmann, Jun Ohya

    IEICE TRANSACTIONS ON INFORMATION AND SYSTEMS   E93D ( 11 ) 3088 - 3099  2010年11月  [査読有り]

     概要を見る

    This paper proposes a GPU based method that can visualize voxelized surface data with fine and complicated features has high rendering quality at interactive frame rates and provides low memory consumption The surface data is compressed using run length encoding (RLE) for each level of detail (LOD) Then the loop for the rendering process is performed on the GPU for the position of the viewpoint at each time instant The scene is raycasted in planes where each plane is perpendicular to the horizontal plane in the world coordinate system and passes through the viewpoint For each plane one ray is cast to rasterize all RLE elements intersecting this plane starting from the viewpoint and ranging up to the maximum view distance This rasteritization process projects each RLE element passing the occlusion test onto the screen at a LOD that decreases with the distance of the RLE element from the viewpoint Finally the smoothing of voxels in screen space and full screen anti aliasing is performed To provide lighting calculations without storing the normal vector inside the RLE data structure our algorithm recovers the normal vectors from the rendered scene s depth butter After the viewpoint changes the same process is re executed for the new viewpoint Experiments using different scenes have shown that the proposed algorithm is faster than the equivalent CPU implementation and other related methods Our experiments further prove that this method is memory efficient and achieves high quality results.

    DOI

  • Studies on Enterprises’ Adaptive Strategy to Economic Responsibility under EPR

    Yiping Zhao, Jun Ohya

    Proceedings of 2nd International Conference on Sustainable Enterprises of the Future     254 - 257  2010年09月  [査読有り]

  • 色相に着目した灰色仮説に基づく照明光推定法の一提案

    川村春美, 米村俊一, 大谷淳, 松浦宣彦

    情報処理学会研究報告   2010-AVM-70 ( 6 ) 1 - 6  2010年08月

    J-GLOBAL

  • Symbol Classification Approach for OMR of Square Notation Manuscripts

    Carolina Ramirez, Jun Ohya

    Proceedings of the 11th International Society for Music Information Retrieval Conference (ISMIR 2010)     549 - 554  2010年08月  [査読有り]

  • Study on Adaptive Management Model and Key Factors under Extended Producer Responsibility

    Yiping Zhao, Jun Ohya

    GITS/GITI 紀要 2009-2010 (早稲田大学大学院国際情報通信研究科 国際情報通信研究センター), 査読論文   2009   136 - 144  2010年07月  [査読有り]

    CiNii

  • Elliptical Object Detection by a Modified RANSAC with Sampling Constraint from Boundary Curves’ Clustering

    Yingdi Xie, Jun Ohya

    IEICE Trans. INF. & SYST.   E93D ( 3 ) 611 - 623  2010年03月  [査読有り]

    DOI

  • Study of Recognizing Multiple Persons' Complicated Hand Gestures from the Video Sequence Acquired by a Moving Camera

    Luo Dan, Jun Ohya

    HUMAN VISION AND ELECTRONIC IMAGING XV   7527  2010年  [査読有り]

     概要を見る

    Recognizing hand gestures from the video sequence acquired by a dynamic camera could be a useful interface between humans and mobile robots. We develop a state based approach to extract and recognize hand gestures from moving camera images. We improved Human-Following Local Coordinate (HFLC) System, a very simple and stable method for extracting hand motion trajectories, which is obtained from the located human face, body part and hand blob changing factor. Condensation algorithm and PCA-based algorithm was performed to recognize extracted hand trajectories. In last research, this Condensation Algorithm based method only applied for one person's hand gestures. In this paper, we propose a principal component analysis (PCA) based approach to improve the recognition accuracy. For further improvement, temporal changes in the observed hand area changing factor are utilized as new image features to be stored in the database after being analyzed by PCA. Every hand gesture trajectory in the database is classified into either one hand gesture categories, two hand gesture categories, or temporal changes in hand blob changes. We demonstrate the effectiveness of the proposed method by conducting experiments on 45 kinds of sign language based Japanese and American Sign Language gestures obtained from 5 people. Our experimental recognition results show better performance is obtained by PCA based approach than the Condensation algorithm based method.

    DOI

  • Study on Incentive Management of the End-of-life Products Collection and Recycling under EPR

    Yiping Zhao, Jun Ohya

    PROCEEDINGS OF 2010 INTERNATIONAL CONFERENCE ON ENVIRONMENTAL SCIENCE AND DEVELOPMENT     157 - 162  2010年  [査読有り]

     概要を見る

    In this paper, the end-of-life products (ELPs) collecting and recycling system is studied under the application of extended producer responsibility (EPR) programs. Economic performance is evaluated based on the decomposition and analysis of major cost and revenues components during the recycling process. We identified two problematic scenarios where EPR programs cannot run smoothly. The according prosperous incentive management strategies are discussed as the corresponding solution.

  • Integrated System for End-of-life Products Collecting and Recycling under Extended Producer Responsibility

    Yiping Zhao, Jun Ohya

    The Sixth International Conference on Technology, Knowledge and Society, Berlin     1 - 7  2010年01月  [査読有り]

  • PCA-based Method for Recognizing Multiple Persons’ Hand Gestures from the Video Sequence Acquired by a Moving Camera

    Luo Dan, Jun Ohya

    SPIE-IS&T, Electronic Imaging2010   7527   75271N  2010年01月  [査読有り]

  • Identifying a Walking Human by a Tensor Decomposition Based Approach and Tracking the Human across Discontinuous Fields of Views of Multiple Cameras

    Takayuki Hori, Jun Ohya, Jun Kurumisawa

    COMPUTATIONAL IMAGING VIII   7533   75330X  2010年  [査読有り]

     概要を見る

    This paper proposes a method that identifies and tracks a walking human across discontinuous fields of views of multiple cameras for the purpose of video surveillance. A typical video surveillance system has multiple cameras, but there are several spaces within the surveillance area that are not within any of the camera's field of view. Also, there are discontinuities between the fields of views of adjacent cameras. In such a system, humans need to be tracked across discontinuous fields of views of multiple cameras. Our proposed model addresses this issue using the concepts of gait pattern, gait model, and motion signature. Each human's gait pattern is constructed and stored in a database. This gait pattern spans a tensor space that consists of three dimensions: person, image feature, and spatio-temporal data. A human's gait model can be constructed from the gait pattern using the "tensor decomposition based approach" described in this paper. When human(s) appears in one of the camera's field of a view (which is often discontinuous from the other camera's field of views), the human's motion signature is calculated and compared to each person in the database's gait model. The person with the gait model that is most similar to the motion signature is identified as same person. After the person is identified, the person is tracked within the field of view of the camera using the mean-shift algorithm based on color parameters. We conducted two experiments; the first experiment was identifying and tracking humans in a single video sequence, and experiments, the percentage of subjects that were correctly identified and tracked was better than that of two currently widely-used methods, PCA and nearest-neighbor. In the second experiment was the same as the first experiment but consisted of multiple-cameras with discontinuous views. The second experiment (human tracking across discontinuous images), shows the potential validity of the proposed method in a typical surveillance system.

    DOI

  • A Method for Detecting Multiple Independently Moving Objects from the Sequences Acquired by Active Stereo Cameras and Estimating the Cameras’ Egomotion

    Yingdi Xid, Jun Ohya

    The Journal of the IIEEJ   39 ( 2 ) 163 - 174  2010年  [査読有り]

    DOI

  • An improved Kernel-based fuzzy C-means algorithm with spatial information for brain MR image segmentation

    Rong Xu, Jun Ohya

    International Conference Image and Vision Computing New Zealand   173   1 - 7  2010年  [査読有り]

     概要を見る

    In this paper, we propose an improved Kernel-based Fuzzy C-means Algorithm (iKFCM) with spatial information to reduce the effect of noise for brain MR image segmentation. We use k-nearest neighbour model and a neighbourhood controlling factor by estimating image contextual constraints to optimize the objective function of conventional KFCM method. Conventional KFCM algorithms classify each pixel in image only by its own gray value, but the proposed method classifies by the gray values of its neighbourhood system. For this reason, the proposed iKFCM has a strong robustness for image noise in image segmentation. In experiments, some synthetic grayscale images and simulated brain MR images are used to assess the performance of iKFCM in comparison with other fuzzy clustering methods. The experimental results show that the proposed iKFCM method achieves a better segmentation performance than other fuzzy clustering methods. © 2010 IEEE.

    DOI

  • Feasibility of using machine vision based cash register system in a University Cafeteria

    Khanh N. Do, Jun Ohya, Davar Pishva, G. G D Nishantha

    Proceedings - 2010 3rd International Congress on Image and Signal Processing, CISP 2010   6   2554 - 2558  2010年  [査読有り]

     概要を見る

    This paper explores the feasibility of using machined vision based cash register system in a university cafeteria and automatically determine price of the food items that are contained on a cafeteria food tray. The idea is to take an image of the food tray, identify all the food items on the tray, and display the total food cost. A fully automated version of the system is envisioned to use a standard biometric technology for customer identification and for automatic debit process of the food cost from the customer's pre-registered account. The analysis method uses shape and size analysis to identify food items that are served on distinct type dishes and color analysis for those items that are served in similar type dishes. The paper explains prototype of a developed system and experimental results for 10 types of meals served at Ritsumeikan Asia Pacific University Cafeteria to justify the validity of this approach. ©2010 IEEE.

    DOI

  • Application of extended producer responsibility in Chinese WEEE management

    Yiping Zhao, Jun Ohya

    ICCCE 2010 - 2010 International Conference on Chemistry and Chemical Engineering, Proceedings     272 - 275  2010年  [査読有り]

     概要を見る

    In this paper, the administration-driven WEEE management system in Europe and the market-driven end-of-life automobile management system in the US are studied first in this paper. Successful experiences and deficiencies of each system are investigated and compared. Then the potentials for integrating these two systems under each single-instrument-dominant scenario are identified followed by the discussion on key factors for soundly building an integrated system under various scenarios in general. Based on these achievements, the WEEE management system in China is taken as an example to demonstrate how to practically set up an integrated system in such a specific conditions, so that the application of EPR principle could be better promoted in a more economic efficient and ecological effective manner. © 2010 IEEE.

    DOI

  • STUDY ON HUMAN GESTURE RECOGNITION FROM MOVING CAMERA IMAGES

    Dan Luo, Jun Ohya

    2010 IEEE INTERNATIONAL CONFERENCE ON MULTIMEDIA AND EXPO (ICME 2010)     274 - 279  2010年  [査読有り]

     概要を見る

    We develop a framework based approach to extract and recognize hand gestures from the video sequence acquired by a dynamic camera, which could be a useful interface between humans and mobile robots. We use Human-Following Local Coordinate (HFLC) System, a very simple and stable method for extracting hand motion trajectories, which is obtained from the located human face and body part. Hand trajectory motion models (HTMM) are constructed by HFLC and hand blob changing factor. In this paper, we apply a principal component analysis (PCA) based approach to improve the recognition accuracy. For further improvement, temporal changes in the observed hand area changing factor are utilized as new image features to be stored in the database after being analyzed by PCA. Each HTMM in the database is classified into gesture categories, or temporal changes in hand blob changes. We demonstrate the effectiveness of the proposed method by conducting experiments on 51 kinds of sign language based Japanese and American Sign Language gestures obtained from 7 people. Our experimental recognition results show better performance is obtained by PCA based approach than the Condensation algorithm based method.

    DOI

  • 線画映像を用いてプライバシー保護に配慮したビジュアルサポートシステム

    米村俊一, 徳永幸生, 大谷 淳, 筒口 拳, 嶌田 聡, 鈴木 章

    画像電子学会誌   39 ( 4 ) 481 - 489  2010年  [査読有り]

    DOI

  • テキストによるインフォーマルなコミュニケーションを触発する“●”メディアの提案

    米村俊一, Chen Li Jen, 大谷 淳, 徳永幸生, 嶌田 聡

    画像電子学会誌   39 ( 4 ) 442 - 450  2010年  [査読有り]

    DOI

  • 中国麦積山石窟のデジタルアーカイブとVRコンテンツ

    阿部信明, 河合隆史, 大谷 淳, 査 紅彬, 安藤 真

    日本バーチャルリアリティ学会論文誌   14 ( 3 ) 275 - 282  2009年09月  [査読有り]

     概要を見る

    Recently, activities about the 3D digital archive of cultural heritages become very popular. The development of this technology aims at satisfying the competing ideals of preserving cultural heritage while at the same time making it available to the public. Rich expression by the stereoscopic 3D is suitable for the viewing of 3D data saved culture heritages. In this paper, we report on the work of archiving heritage of Chinese Maijishan Grotto and the developing of stereoscopic VR content for it. In our content, viewers can experience the precious cultural heritage which can't be usually watched. Representation of cultural heritage can be more lifelike by presenting stereoscopic images and interactions. In addition, the results of the subjective evaluation confirmed VR content's reality and 3D effects.

    DOI CiNii

  • Elliptical Shaped Object Recognition via a Modified RANSAC with Edge Orientation Curve’s Segmentation-Merge

    Yingdi Xie, Jun Ohya

    Proc. Visualization, Imaging, and Image Processing   652-028   33 - 40  2009年07月  [査読有り]

  • Company-Level Adaptive Management Model under Extended Producer Responsibility

    Yiping Zhao, Yingdi Xie, Jun Ohya

    Proceeding of The 24th International Conference on Solid Waste Technology and Management   24   804 - 813  2009年03月  [査読有り]

  • Efficient Detection of Ellipses from an Image by a Guided Modified RANSAC

    Yingdi Xie, Jun Ohya

    IMAGE PROCESSING: ALGORITHMS AND SYSTEMS VII   7245   72450W  2009年  [査読有り]

     概要を見る

    In this paper, we propose a novel ellipse detection method which is based on a modified RANSAC, with automatic sampling guidance from the edge orientation difference curve. Hough Transform family is one of the most popular and methods for shape detection, but the Standard Hough Transform loses its computation efficiency if the dimension of the parameter space gets high. Randomized Hough Transform, an improved version of Standard Hough Transform has difficulty in detecting shapes from complicated, cluttered scenes because of its random sampling process. As a pre-process for random selection of five pixels to be used to build the ellipse's equation, we propose a two-step algorithm: (1) region segmentation and contour detection by mean shift algorithm (2) contour splitting based on the edge orientation difference curve obtained from the contour of each region. In each contour segment obtained by step (2), 5 pixels are randomly selected and the modified RANSAC is applied to the 5 pixels so that an accurate ellipse model is obtained. Experimental result show that the proposed method can achieve high accuracies and low computation cost in detecting multiple ellipses from an image.

    DOI

  • Comparative Study of Methods for Recognition an Unknown Person's Action from a Video Sequence

    Takayuki Hori, Jun Ohya, Jun Kurumisawa

    IMAGE PROCESSING: ALGORITHMS AND SYSTEMS VII   7245   72450V  2009年  [査読有り]

     概要を見る

    This paper proposes a Tensor Decomposition Based method that can recognize an unknown person's action from a video sequence, where the unknown person is not included in the database (tensor) used for the recognition. The tensor consists of persons, actions and time-series image features. For the observed unknown person's action, one of the actions stored in the tensor is assumed. Using the motion signature obtained from the assumption, the unknown person's actions are synthesized. The actions of one of the persons in the tensor are replaced by the synthesized actions. Then, the core tensor for the replaced tensor is computed. This process is repeated for the actions and persons. For each iteration, the difference between the replaced and original core tensors is computed. The assumption that gives the minimal difference is the action recognition result. For the time-series image features to be stored in the tensor and to be extracted from the observed video sequence, the human body silhouette's contour shape based feature is used. To show the validity of our proposed method, our proposed method is experimentally compared with Nearest Neighbor rule and Principal Component analysis based method. Experiments using 33 persons' seven kinds of action show that our proposed method achieves better recognition accuracies for the seven actions than the other methods.

    DOI

  • Hand-gesture extraction and recognition from the video sequence acquired by a dynamic camera using condensation algorithm

    Luo Dan, Jun Ohya

    Proceedings of SPIE - The International Society for Optical Engineering   7252   72520S  2009年  [査読有り]

     概要を見る

    To achieve environments in which humans and mobile robots co-exist, technologies for recognizing hand gestures from the video sequence acquired by a dynamic camera could be useful for human-to-robot interface systems. Most of conventional hand gesture technologies deal with only still camera images. This paper proposes a very simple and stable method for extracting hand motion trajectories based on the Human-Following Local Coordinate System (HFLC System), which is obtained from the located human face and both hands. Then, we apply Condensation Algorithm to the extracted hand trajectories so that the hand motion is recognized. We demonstrate the effectiveness of the proposed method by conducting experiments on 35 kinds of sign language based hand gestures. © 2009 SPIE-IS&amp
    T.

    DOI

  • Prompter “●” Based Creating Thinking Support Communication System That Allows Hand-Drawing

    Li Jen Chen, Jun Ohya, Shunichi Yonemura, Sven Forstmann, Yukio Tokunaga

    Proceedings of the 13th International Conference on Human-Computer Interaction. PartII: Novel Interaction Methods and Techniques   5611   783 - +  2009年  [査読有り]

    DOI

  • 3D Sensation Enhancement of 3D Digitized Models for 2D Displays Using Local Gray-level Contrast and Range Information

    Xiao Ding, Jun Ohya

    2008KJPR(Third Korea-Japan Joint Workshop on Pattern Recognition)     55 - 56  2008年11月  [査読有り]

  • Contrast Enhancement of Color Images based on PCA of Luminance and Saturation

    Xiao Ding, Jun Ohya

    2008KJPR(Third Korea-Japan Joint Workshop on Pattern Recognition)     9 - 10  2008年11月  [査読有り]

  • Development and Evaluation of the System for Educational Method Using Students’ Understanding Degree

    Takaaki Ohkawauchi, Jun Ohya, Yoshikazu Tateno

    ICoME 2008“Enhancing ICT in Education for Global Society”     266 - 273  2008年08月  [査読有り]

  • Body-part Segmentation for a Real Human Wearing Multiple-Colored Suit by a Mean Shift Based Algorithm

    Huimin Guo, Jun Okazaki, Dong-Wan Kang, Jun Ohya

    2007KJPR (Second Korea-Japan Joint Workshop)    2007年10月  [査読有り]

  • Accurate, Real-time 3D Reconstruction of Human Postures from Orthogonal Images Based on Neural Networks

    Dong-Wan Kang, Zhongze Chen, Jun Ohya

    2007KJPR (Second Korea-Japan Joint Workshop)     111 - 116  2007年10月  [査読有り]

  • ACCESSIBLE INFORMATION PRESENTATION METHOD IN PUBLIC SPACE

    Shunichi Yonemura Shinichiro Eitoku Kenichiro Shimokura, Jun Ohya

    Proceedings of Workshop on Tactic and Haptic Interaction     70 - 75  2007年05月  [査読有り]

  • MULTIMODAL COMMUNICATION ON VISUAL SUPPORT SYSTEM

    Shunichi Yonemura, Tohru Yoshida, Yukio Tokunaga, Jun Ohya

    Proceedings of Workshop on Tactic and Haptic Interaction     64 - 69  2007年05月  [査読有り]

  • A STUDY OF A COMPUTER MEDIATED COMMUNICATION VIA THE “●” PROMPT SYSTEM - Introducting the affects on the stimulation of thought processes and the inspiration of creative ideas -,

    Li Jen Chen, Jun Ohya, Shunichi Yonemura, Nobuyuki, Harada,Yukio Tokunaga

    Proceedings of Workshop on Tactic and Haptic Interaction     50 - 55  2007年05月  [査読有り]

  • 逆S字型変換による濃淡画像のコントラスト強調手法

    小林裕一, 加藤俊一, 大谷 淳

    電子情報通信学会論文誌 D   Vol. J90-D ( No. 5 ) 1263 - 1274  2007年05月  [査読有り]

  • 境界要素法に基づく3次元多関節弾性物体の効率的かつ頑健な挙動シミュレーション

    渡辺隆史, 大谷 淳

    日本バーチャルリアリティ学会論文誌   12 ( 1 ) 85 - 94  2007年03月  [査読有り]

     概要を見る

    This paper proposes a new efficient, robust, BEM (Boundary Element Method) based method for simulating articulated 3D elastic objects' behaviors. The articulated elastic object consists of bones, elastic object primitives and joining surfaces. After transforming the bones by inverse kinematics, the elastic object primitives are deformed basically by the BEM. To reduce the computation cost and memory usage and to achieve robust deformations, this paper improves the BEM based module of the conventional method: more specifically, a new method for computing the displacements of the vertices in the joining surfaces. Experimental results show that the proposed model can be simulated 10 times as fast as the conventional model or faster, and that real time performances such as 60fps can be achieved even for models with 20,000 vertices. High quality simulations of different deformations including expansions and contractions are achieved using character type models.

    DOI CiNii

  • Efficient multiple independent motion segmentation from an active platform by utilizing modified RANSAC

    Yingdi Xie, Jun Ohya

    PROCEEDINGS OF THE IASTED INTERNATIONAL CONFERENCE ON GRAPHICS AND VISUALIZATION IN ENGINEERING     31 - +  2007年  [査読有り]

     概要を見る

    hi this paper, an efficient approach to segmentation of different independent motion areas from a moving platform is described. This approach is implemented on a stereo vision system, depth information could be computed by matching feature points between stereo images. For two consecutive frames, ego-motion is estimated from the optical flows, including depth information belonging to the background, which has a larger space distribution comparing to those of independent moving objects. In order to distinguish different motion areas, we proposed a modified version of RANSAC mechanism, which could handle the problem of multiple model extraction in a noisy environment.

  • Contrast enhancement of color images based on wavelet transform and human visual system

    Ding Xiao, Jun Ohya

    PROCEEDINGS OF THE IASTED INTERNATIONAL CONFERENCE ON GRAPHICS AND VISUALIZATION IN ENGINEERING     58 - +  2007年  [査読有り]

     概要を見る

    This paper proposes a new method for enhancing the contrast of color images based on Wavelet Transform and human visual system. The RGB (red, green, and blue) values of each pixel in a color image are converted to HSV (hue, saturation and value) values. To the V (luminance value) components of the color image, Wavelet Transform is applied so that the V components are decomposed into the approximate components and detail components. The obtained coefficients of the approximate components are converted by a grey-level contrast enhancement technique based on human visual system. Then, inverse Wavelet transform is performed for the converted coefficients so that the enhanced V values are obtained. The S components are enhanced by histogram equalization. The H components are not changed, because changes in the H components could degrade the color balance between the HSV components. The enhanced S and V together with H are converted back to RGB values. The effectiveness of the proposed method is demonstrated experimentally.

  • Efficient, robust, bem (boundary element method) based method for simulating articulated 3d elastic object models

    Takafumi Watanabe, Jun Ohya

    PROCEEDINGS OF THE IASTED INTERNATIONAL CONFERENCE ON GRAPHICS AND VISUALIZATION IN ENGINEERING     7 - +  2007年  [査読有り]

     概要を見る

    This paper proposes an efficient and effective computation method for simulating articulated 3D elastic objects. The articulated elastic object consists of bones, elastic object primitives and joining surfaces. After transforming the bones by inverse kinematics, the elastic object primitives are deformed basically by the BEM (Boundary Element Method). To reduce the computation cost and memory usage and to achieve robust deformations, this paper improves the BEM based module of the conventional method: more specifically, a new method for computing the displacements of the vertices in the joining surfaces. Experimental results show that the proposed model can be simulated 10 times as fast as the conventional model or faster, and that real-time performances such as 60fps can be achieved even for models with 20,000 vertices. High quality simulations of different deformations including expansions and contractions are achieved using character type models.

  • Deformation Styles for Spline-based Skeletal Animation

    Sven Forstmann, Jun Ohya, Artus Krohn-Grimberghe, Ryan McDougall

    SYMPOSIUM ON COMPUTER ANIMATION 2007: ACM SIGGRAPH/ EUROGRAPHICS SYMPOSIUM PROCEEDINGS     141 - 150  2007年  [査読有り]

     概要を見る

    We present a novel skinned skeletal animation system based on spline-aligned deformations for providing high quality and fully designable deformations in real-time. Our ambition is to allow artists the easy creation of abstract, pose-dependent deformation behaviors that might directly be assigned to a large variety of target objects simultaneously To achieve this goal, we introduce the usage of deformation styles and demonstrate their applicability by our animation system. We therefore enhance spline-skinned skeletal animation with two sweep-based free-form-deformation (FFD) variants. The two FFD variants are pose-dependent, driven by three textures and three curves, which can be designed by the artist. As the three textures are similar to height-maps, their creation is very intuitive. Once designed, the deformation styles can be directly applied to any number of targets for imitating material behaviors of cloth, metal or even muscles. Our GPU based implementation shows promising results for real-time usage, as about 30 Million vertices per second can be animated. The basic spline-skinning even reaches more than twice the speed and gets close to the performance of skeletal subspace deformation (SSD). Furthermore, our method can easily be combined along with other existing deformation techniques as pose space deformation or SSD.

  • Communication analysis of visual support system that uses line drawing expression

    Shunichi Yonemura, Tohru Yoshida, Yukio Tokunaga, Jun Ohya

    HUMAN INTERFACE AND THE MANAGEMENT OF INFORMATION: METHODS, TECHNIQUES AND TOOLS IN INFORMATION DESIGN, PT 1, PROCEEDINGS   4557   359 - 365  2007年  [査読有り]

     概要を見る

    This paper proposes a system that automatically deforms the images transmitted in both directions so as to achieve two goals: easing the concerns of users and ensuring well enough support. We examine here the effect of visual information quality on the effectiveness and impression of collaboration between a novice user and an operator.

  • A study of a computer mediated communication via the “●” prompt system - Analysis of the affects on the stimulation of thought processes and the inspiration of creative ideas

    Li Jen Chen, Nobuyuki Harada, Shunichi Yonemura, Jun Ohya, Yukio Tokunaga

    ICME2007 (IEEE International Conference on Multimedia and Expo)     1119 - +  2007年  [査読有り]

  • A study of Computer Mediated communication via the "●" prompt system - Analysis of the affects on the stimulation of thought processes and the inspiration of creative ideas

    Li Jen Chen, Yonemura Shunichi, Jun Ohya, Yukio Tokunaga

    IADIS Interfaces and Human Computer Interaction     1119 - +  2007年  [査読有り]

  • 伸縮を含む対話的変形操作が可能な多関節三次元弾性物体モデル

    渡辺隆史, 大谷 淳, 楜沢 順, 徳永幸生

    電子情報通信学会論文誌D   J89-D ( 10 ) 2145 - 2154  2006年10月  [査読有り]

  • やわらかさ・かたさの判別に係る視覚的要因に関する一考察

    小林裕一, 大谷 淳

    GITS/GITI紀要、早稲田大学大学院国際情報通信研究科/国際情報通信研究センター     178 - 187  2006年07月  [査読有り]

  • VISUAL BLENDING USING 2D MORPHING

    S.K. Semwal, J. Ohya, I. Semwal, B Bikker

    Proceedings of the 24th IASTED International Multi-Conference Signal Processing, Pattern Recognition, and Applications     316 - 321  2006年02月  [査読有り]

  • Fast Skeletal Animation by skinned Arc-Spline based Deformation

    Sven Forstmann, Jun Ohya

    EUROGRAPHICS 2006: SHORT PAPERS     1 - 4  2006年  [査読有り]

     概要を見る

    Presented is a novel skeletal animation system for providing high quality geometric deformations in real-time. Each bone of the skeleton is therefore represented by a spline, rather than using conventional matrix rotation. In our approach, each vertex of the animated character can be influenced by a maximum of three spline-curves, which is sufficient for skinned animation. One spline is parameterized by three control points and a possible twist. As opposed to conventional Bezier curves does our arc-spline rely on trigonometric functions for providing better curvatures. The optimized implementation using the OpenGL-shading language shows very promising results for real-time character animation, as even about 1 Million vertices were able to be transformed at interactive 43 frames per second on a GeForce 7800 GTX graphics card.

  • EM-in-M: Analyze and synthesize emotion in motion

    Yuichi Kobayashi, Jun Ohya

    ADVANCES IN MACHINE VISION, IMAGE PROCESSING, AND PATTERN ANALYSIS   4153   135 - 143  2006年  [査読有り]

     概要を見る

    We have been researching the relationship between human motion and emotion. In this paper, our purpose is to extract motion features specific to each emotion. We propose a new approach for motion data analysis, which applies the higher order Singular Value Decomposition(HOSVD) direct to the motion data and the wavelet analysis to the synthesized data with SVD. The HOSVD models the mapping between persons and emotions. The model can synthesize a complete data acting with each emotion for a given new person. The wavelet analysis extracts each motion feature from the synthesized data for each emotion. Some experimental results using motion capture data for "gait" action and 6 emotions - "angry, joy, sad and so on" show that our method can synthesize novel gait motions for a person by using the extracted motion elements and can extract some features specific to each emotion.

  • 2段階境界要素法を用いる三次元弾性物体の変形と移動の実時間アニメーション法

    渡辺隆史, 大谷 淳, 楜沢 順, 徳永幸生

    電子情報通信学会論文誌 D-Ⅱ   J88-D-Ⅱ ( 9 ) 1876 - 1888  2005年09月  [査読有り]

  • Visualization of large iso-surfaces based on nested clip-boxes

    Sven Forstmann, Jun Ohya

    ACM SIGGRAPH 2005 Posters, SIGGRAPH 2005   Conference Select CD-ROM Disc   126  2005年07月  [査読有り]

    DOI

  • 顔面筋動作に基づく形状変形とテクスチャの張替えによる三次元人物顔画像の再構築

    佐藤一, 大谷 淳, 寺島信義

    電子情報通信学会論文誌 D-Ⅱ   J88-D-Ⅱ ( 7 ) 1126 - 1142  2005年07月  [査読有り]

  • Visual-dimension interact system (VIS)

    A Onda, T Oku, E Yu, Y Lee, Choh, I, PY Chiu, J Ohya

    IEICE TRANSACTIONS ON INFORMATION AND SYSTEMS   E88D ( 5 ) 947 - 953  2005年05月  [査読有り]

     概要を見る

    In this paper we describe a mixed reality-supported interactive viewing enhancement museum display system: Visual-dimension Interact System (VIS). With a transparent interactive inter-face, the museum visitor is able to see, manipulate, and interact with the physical exhibit and its virtual information, which are overlapped on one other. Furthermore, this system provides the possibility for visitor to experience the creation process in an environment as close as possible to the real process. This has the function of assisting the viewer in understanding the exhibit and most importantly, gaining a so-to-speak hands-on experience of the creation process itself leading to a deeper understanding of it.

    DOI

  • Analysis of expressing audiences in a cyber-theater

    K DongWan, K Huang, J Ohya

    2005 IEEE International Conference on Multimedia and Expo (ICME), Vols 1 and 2   CD-ROM Proceedings, 4 pages   727 - 730  2005年  [査読有り]

     概要を見る

    This paper studies how audiences should be expressed in a Cyber-theater, in which remotely located persons can direct plays as directors, perform as performers and/or see the performances as audiences through a networked virtual environment. It is noted that the audience effect has been widely acknowledged in the real-world theater: that is, the audience reaction has a significant effect on the acting of player and performance of the play itself. However, only a few works relevant to audiences in the Cyber Theater can be seen. This paper studies whether the audience effect exists also in the Cyber-theater. By constructing a system in which two actors are displayed a remotely located audience's avatar in which the audience can display his/her emotional actions, we clarified that interactions between the actors and audience are effective.

    DOI

  • A study of synthesizing new human motions from sampled motions using tensor decomposition

    R Kalanov, J Cho, J Ohya

    2005 IEEE International Conference on Multimedia and Expo (ICME), Vols 1 and 2   CD-ROM Proceedings, 4 pages   1327 - 1330  2005年  [査読有り]

     概要を見る

    This paper applies an algorithm, based on Tensor Decomposition, to a new synthesis application: by using sampled motions of people of different ages under different emotional states, new motions for other people are synthesized Human motion is the composite consequence of multiple elements, including the action performed and a motion signature that captures the distinctive pattern of movement of a particular individual. By performing decomposition, based on N-mode SVD (singular value decomposition), the algorithm analyzes motion data spanning multiple subjects performing different actions to extract these motion elements. The analysis yields a generative motion model that can synthesize new motions in the distinctive styles of these individuals. The effectiveness of applying the tensor decomposition approach to our purpose was confirmed by synthesizing novel walking motions for a person by using the extracted signature.

    DOI

  • 画像データ削減を考慮した人物顔データのネットワーク伝送と三次元再構築に関する検討

    佐藤一, 大谷 淳, 寺島信義

    画像電子学会誌   34 ( 5 ) 539 - 547  2005年  [査読有り]

    DOI

  • Editorial - Special section on multimodal interfaces and applications

    J Ohya, R Reilly, CS Li

    IEEE TRANSACTIONS ON MULTIMEDIA   6 ( 3 ) 397 - 397  2004年06月

    DOI

  • 強化現実技術を応用した立体ディスプレイシステムの開発

    盛川浩志, 川口真実, 河合隆史, 大谷淳

    日本人間工学会誌   第40巻特別号   372 - 373  2004年06月

    DOI CiNii

  • Human motion tracking using nonsynchronous multiple observations

    H Mori, A Utsumi, J Ohya, M Yachida, R Nakatsu

    ELECTRONICS AND COMMUNICATIONS IN JAPAN PART III-FUNDAMENTAL ELECTRONIC SCIENCE   87 ( 12 ) 84 - 93  2004年  [査読有り]

     概要を見る

    This paper proposes a method of tracking a human object by using nonsynchronous multiple-viewpoint images. The proposed method tracks human forms efficiently by using a Kalman filter to integrate observed information which is obtained nonsynchronously from multiple viewpoints. The experimental system is composed of multiple observation nodes, which operate nonsynchronously to process the multiviewpoint images, a tracking node, which tracks the human figure, and the discovering node, which finds the human figure. The image features are matched to the tracking model in the observation node based on the prediction of the observed value which is sent from the tracking node. The image features matched to the model are sent to the tracking node, and the tracking model is updated. The image features which are not matched are sent to the discovering node to find a new human figure. With the proposed approach, it is possible to construct a large-scale tracking system while reducing the deterioration of processing efficiency and the redundancy among observations that occur in synchronous systems. The effectiveness of the proposed method is demonstrated by an experiment using real images. (C) 2004 Wiley Periodicals, Inc.

    DOI

  • Visual-dimension interact system (VIS) - Exhibiting creative process for museum visitor experience

    A Onda, T Oku, PY Chiu, E Yu, M Yokoi, Choh, I, J Ohya

    2004 INTERNATIONAL CONFERENCE ON CYBERWORLDS, PROCEEDINGS     278 - 285  2004年  [査読有り]

     概要を見る

    In this paper we describe a mixed reality supported interactive viewing enhancement museum display system. With a transparent interactive interface, the museum visitor is able to see, manipulate, and interact with the physical exhibit and its virtual information, which are overlapped on one other. Furthermore, this system provides the possibility for the visitor to experience the creation process in an environment as close as possible to the real process. This has the function of assisting the viewer in understanding the exhibit and most importantly, gaining a so-to-speak hands-on experience of the creation process itself leading to a deeper understanding of it.

  • Softness perceptive texture method

    Y Kobayashi, M Suzuki, J Ohya

    HUMAN VISION AND ELECTRONIC IMAGING IX   5292   322 - 329  2004年  [査読有り]

     概要を見る

    We have been studying about people's visual impression and image features for texture images in order to clarify the human subjective interpretation mechanism for images[1]. In corresponding image features of human impressions for the images, we found that the impressions for material were bottle-necked. We have studied a new analysis method which gives the impression for material from texture images. Especially, we mainly focused on the properties of visual targets which people can feel tactile sense. In this paper, we propose a new texture analysis method which is based on frequency analysis with 3D texture which is designed for photorealistic rendering. We found that our new method can estimate not only the surface roughness but also the surface softness.

  • Development of a stereoscopic 3D display system to observe restored heritage

    H Morikawa, M Kawaguchi, T Kawai, J Ohya

    STEREOSCOPIC DISPLAYS AND VIRTUAL REALITY SYSTEMS XI   5291   415 - 422  2004年  [査読有り]

     概要を見る

    The authors have developed a binocular-type display system that allows digital archives of cultural assets to be viewed in their actual environment. The system is designed for installation in locations where such cultural assets were originally present. The viewer sees buildings and other heritage items as they existed historically by looking through the binoculars. Images of the cultural assets are reproduced by stereoscopic 3D CG in cyberspace, and the images are superimposed on actual images in real-time. This system consists of stereoscopic CCD cameras that capture a stereo view of the landscape and LCDs for presentation to the viewer. Virtual cameras. used to render CG images from digital archives. move in synchrony with the actual cameras, so the relative position of the CG images and the landscape on which they are superimposed is always fixed. The system has manual controls for digital zoom. Furthermore, the transparency of the CG images can be altered by the viewer. As a case study for the effectiveness of this system, the authors chose the Heijyoukyou ruins in Nara, Japan. The authors evaluate the sense of immersion, stereoscopic effect, and usability of the system.

    DOI

  • Real-time stereo by using dynamic programming

    Sven Forstmann, Yutaka Kanou, Jun Ohya, Sven Thuering, Alfred Schmitt

    IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops   2004- ( January )  2004年  [査読有り]

     概要を見る

    A Dynamic Programming (DP) based algorithm that achieves real-time, high quality stereo-matching is presented. A special coarse to fine approach as well as the MMX based assembler implementation mainly contribute to the reached computation speed. A novel vertical smoothing approach by re-integrating paths inside the DP matching allows the avoidance of noisy horizontal strokes, so that high quality stereo-matching is achieved. The current implementation capable of running at about 30 FPS on an 2.2GHz PC, which is sufficient for the utilization in real-time applications.

    DOI

  • Exploiting the cognitive synergy between different media modalities in multimodal information retrieval

    ZF Zhang, RF Zhang, J Ohya

    2004 IEEE INTERNATIONAL CONFERENCE ON MULTIMEDIA AND EXP (ICME), VOLS 1-3   CD-ROM proceedings (4 pages)   2227 - 2230  2004年  [査読有り]

     概要を見る

    This is a position paper reporting an on-going collaboration project between SUNY Binghamton, USA, and Waseda University, Japan, on multimodal information retrieval through exploiting the cognitive synergy across the different modalities of the information to facilitate an effective retrieval. Specifically we focus on image retrieval in the applications where imagery data appear along with collateral text. It is noted that these applications are ubiquitous. We have proposed the Synergistic Indexing Scheme (SIS) to explicitly exploit the synergy between the information of imagery and text modalities. Since the synergy we have exploited between the information of imagery and text modalities is subjective and depends on specific cognitive context, we call this type of synergy as cognitive synergy. We have reported part of the empirical evaluation and are in the process to fully implement the SIS prototype for an extensive evaluation.

  • Cognitive bridge between haptic impressions and texture images for subjective image retrieval

    Y Kobayashi, J Ohya, ZF Zhang

    2004 IEEE INTERNATIONAL CONFERENCE ON MULTIMEDIA AND EXP (ICME), VOLS 1-3   CD-ROM proceedings (4 pages)   2239 - 2242  2004年  [査読有り]

     概要を見る

    As a step towards subjective image retrieval, this paper reports an on-going collaboration project between Waseda University and SUNY Binghamton, on relating texture images to haptic impressions. To grasp the surface height variations, texture images are taken under different illuminations and viewing conditions. Our method applies a new frequency analysis method to the texture images. We evaluate the performances of our feature and other typical conventional features by checking whether texture images are correctly classified into "soft" or "hard" by the SVM (support vector machine) method, where the training data for the SVM are collected by subjective tests. Experimental results show that our texture feature can classify "soft" or "hard" better than the other features.

  • Computer vision based analysis of the botanical tree's dynamical behaviors for the reproduction in virtual space

    LC Lu, J Ohya

    2004 IEEE INTERNATIONAL CONFERENCE ON MULTIMEDIA AND EXP (ICME), VOLS 1-3   CD-ROM proceedings (4 pages)   839 - 842  2004年  [査読有り]

     概要を見る

    This paper deals with a method that analyzes a botanical tree's behaviors in real space by a computer vision approach so as to reproduce the analyzed behaviors in virtual space. Instead of applying unstable local tracking to the tree in a video sequence, we estimate the direction and strength of the wind that shakes the tree by a learning based method that classifies the input video sequence into one of the stored winds with different directions and strengths. In the learning phase, sample video sequences are used for constructing the Eigenspace and Fisherspace, which is obtained from Fisher discriminant analysis. In the classification phase, the input video sequence is compared with each of the stored sample sequences so that the direction and strength of the wind are estimated. An interpolation method improves the estimation accuracy. Experimental results demonstrate the effectiveness of the proposed method.

  • Realistic 3D facial animation using parameter-based deformation and texture remapping

    H Sato, J Ohya, N Terashima

    SIXTH IEEE INTERNATIONAL CONFERENCE ON AUTOMATIC FACE AND GESTURE RECOGNITION, PROCEEDINGS     735 - 742  2004年  [査読有り]

     概要を見る

    A method for constructing 3D human facial images which maintains the chararcteristics of video input image is proposed. First, a personalized 3D polygonal facial model is constructed from two orthogonal facial images. Video input frames are modified, and the vertices composing the 3D polygons are altered according to the contraction rule of facial muscles. Moreover, the modified input frame is texture mapped directly onto to the forementioned model to improve the quality of the reconstructed image. This method was implemented onto an ordinary PC, and an experiment using five persons' face data showed the effectiveness of the method both quantitatively and subjectively.

    DOI

  • Estimating complicated and overlapped human body postures by wearing a multiple-colored suit using color information processing

    DW Kang, Y Onuma, J Ohya

    SIXTH IEEE INTERNATIONAL CONFERENCE ON AUTOMATIC FACE AND GESTURE RECOGNITION, PROCEEDINGS     687 - 692  2004年  [査読有り]

     概要を見る

    This paper suggested an image processing method using a multiple-colored suit for estimating complicated postures of a human body. One of the major problems on the posture estimation when using the silhouette image analysis is the overlap of the body parts' silhouettes. In order to solve this problem, the human wears the multiple-colored suit so that each body part has a different color from the other body parts. Experimental results show the effectiveness of the proposed method. It has confirmed that the complicated overlapped postures can be analyzed through the contour of the human's silhouette and the color information from the body segments that are taken using three directional cameras which are located at the front, left, and right side of the subject.

    DOI

  • Real-time Method for Animating Elastic Objects' Behaviors Including Collisions

    The 13th International Conference on Artificial Reality and Telexistence     270 - 277  2003年12月  [査読有り]

  • The Study of Communicability of Verbal and Non-Verbal expressions in Haiku and Haiga

    Proceedings of The 4th Japan-Korea International Symposium on Kansei Engineering     313 - 314  2003年10月  [査読有り]

  • Computer vision based recognition of interactions between human body and object

    Masumi Kobana, Jun Ohya

    IFIP Advances in Information and Communication Technology   112   173 - 180  2003年  [査読有り]

     概要を見る

    This paper proposes a computer vision based method that recognizes interactions between human body and object. In two successive frames in a video sequence, our function based contour analysis method checks whether the silhouettes of the human body and object overlap. If they do not overlap, our method judges that the human body and object does not interact. If the two silhouettes overlap, our method checks whether the motion vectors obtained from the areas for the human body and object coincide. If they coincide, our method judges that the human body and object are interacting. Some experimental results show the effectiveness of the proposed method. © 2003 by Springer Science+Business Media New York.

    DOI

  • Estimating postures of a human wearing a multiple-colored suit based on color information processing

    DW Kang, J Ohya

    2003 INTERNATIONAL CONFERENCE ON MULTIMEDIA AND EXPO, VOL I, PROCEEDINGS   Ⅰ   261 - 264  2003年  [査読有り]

     概要を見る

    This paper proposes a non-contact type method for estimating human body postures. One of the major problems on the posture estimation using the silhouette image analysis is the overlapping of the body parts' silhouettes. In order to solve this problem, this paper proposes a method for estimating the posture of a human wearing a multiple-colored suit based on color information processing. By analyzing the contour of the human's silhouette, the method judges whether feature points are occluded by another body parts. If the occlusions occurs, color region segmentation is performed in order to know which region is frontal. The feature point in the frontal region is located in the skeleton of the region. Experimental results show the effectiveness of the proposed method.

    DOI

  • Efficient, realistic method for animating dynamic behaviors of 3D botanical trees

    H Kanda, J Ohya

    2003 INTERNATIONAL CONFERENCE ON MULTIMEDIA AND EXPO, VOL II, PROCEEDINGS   Ⅱ   89 - 92  2003年  [査読有り]

     概要を見る

    This paper proposes anew efficient method that can animate botanical trees in 3D realistically. In this paper, a 3D botanical tree model consists of a set of branch segments, to which leaf models are attached. To reduce the amount of computation, instead of calculating the motions of all the branch segments, only the representative segment in each branch is numerically analyzed. The numerical analysis is constrained to a 2D plane so that 3D numerical analysis need not be performed. Concerning the leaf model, a set of four leaves is systematically attached to each branch segment. Experimental results clarify the conditions for real-time, realistic animations of dynamic behaviors of trees.

    DOI

  • Construction of realistic three dimensional facial images using video images

    H Sato, J Ohya, N Terashima

    SEVENTH INTERNATIONAL SYMPOSIUM ON SIGNAL PROCESSING AND ITS APPLICATIONS, VOL 2, PROCEEDINGS     227 - 230  2003年  [査読有り]

     概要を見る

    A method for constructing 3D human facial images which maintains the chararcteristics of video input image is proposed. First, a personalized 3D polygonal facial model is constructed from two orthogonal facial images. Video input frames are modified, and the movements of facial feature points are tracked and measured based on the the contraction rule of facial muscles. The vertices of the 3D polygons are altered accordingly, and the modified input frame is texture mapped directly onto to the forementioned model. This method was implemented using an ordinary CCD camera and computer, and an experiment using one person's data showed that realistic facial images could be reconstructed with high speed and precision.

    DOI

  • 周波数解析に基づいた、テクスチャ画像の材質感解析手法の検討(感性情報処理および一般)

    小林 裕一, 大谷 淳, 蓼沼 眞

    映像情報メディア学会技術報告   26   17 - 20  2002年

     概要を見る

    素材画像の画像特徴に対し印象を対応付ける際に,素材の材質に対する印象がボトルネックとなる.そこで我々は素材テクスチャ画像から素材の材質感を抽出する手法について検討している.本報告では,幾何条件の異なる複数のテクスチャ画像を利用することによって,周波数解析により表面性状の差違を分析する手法について報告する.

    DOI CiNii

  • Analyzing Video Sequences of Multiple Humans - Tracking, Posture Estimation and Behavior Recognition.

    Jun Ohya, Akira Utsumi, Junji Yamato

      3   i-xxii, 1-138  2002年  [査読有り]

    DOI

  • Face posture estimation using eigen analysis on an IBR (image based rendered) database

    Kuntal Sengupta, Philip Lee, Jun Ohya

    Pattern Recognition   35 ( 1 ) 103 - 117  2002年01月  [査読有り]

     概要を見る

    In this paper, we present a novel representation of the human face for estimating the orientation of the human head in a two dimensional intensity image. The method combines the use of the much familiar eigenvalue based dissimilarity measure with image based rendering. There are two main components of the algorith described here: The offline hierarchical image database generation and organization, and the online pose estimation stage. The synthetic images of the subject's face are automatically generated offline, for a large set of pose parameter values, using an affine coordinate based image reprojection technique. The resulting database is formally called as the IBR (or image based rendered) database. This is followed by the hierarchical organization of the database, which is driven by the eigenvalue based dissimilarity measure between any two synthetic image pair. This hierarchically organized database is a detailed, yet structured, representation of the subject's face. During the pose estimation of a subject in an image, the eigenvalue based measure is invoked again to search the synthetic (IBR) image closest to the real image. This approach provides a relatively easy first step to narrow down the search space for complex feature detection and tracking algorithms in potential applications like virtual reality and video-teleconferencing applications. © 2001 Pattern Recognition Society. Published by Elsevier Science Ltd. All rights reserved.

    DOI

  • Construction of facial expressions using a muscle-based feature model

    YC Liu, H Sato, N Terashima, J Ohya

    IEEE INTERNATIONAL CONFERENCE ON MULTIMEDIA AND EXPO, VOL I AND II, PROCEEDINGS   CD-Rom Proceedings 4 pages   469 - 472  2002年  [査読有り]

     概要を見る

    An efficient method for constructing facial images for use in telecommunication applications is proposed. This method uses a simple 3D feature model, which consists of polygons, which describe the shape of the face, and elastic linear springs, which simulate the natural movements of facial muscles. This method requires only two orthogonal facial images, and could easily be implemented on a relatively low-spec PC. Experimental results showed good results that various facial expressions could be synthesized and displayed from arbitrary directions.

  • Analysis of human behaviors by computer vision based approaches

    J Ohya

    IEEE INTERNATIONAL CONFERENCE ON MULTIMEDIA AND EXPO, VOL I AND II, PROCEEDINGS   CD-Rom Proceedings 4 pages   913 - 916  2002年  [査読有り]

     概要を見る

    This paper describes the author's recent activities related to computer vision based methods for analyzing human behaviors: more specifically, posture estimation and recognizing interactions between a human body and object. For estimating postures in 3D from multiple camera images, the authors developed a heuristic based method and non-heuristic method. The heuristic based method heuristically analyzes the contour of a human silhouette so that significant points of a human body can be located in each image. The non-heuristic method utilizes a function for analyzing contours without using heuristic rules. Recognizing the interactions exploits the function based contour analysis and motion vector based analysis so that the system can judge whether the human body interacts with the object.

  • Spatial filtering using the active-space indexing method

    SK Semwal, J Ohya

    GRAPHICAL MODELS   63 ( 3 ) 135 - 150  2001年05月  [査読有り]

     概要を見る

    Traditionally most camera-based position estimation systems use only a few points to calibrate cameras. In this paper, we investigate a novel and alternate approach for 3D position estimation by using a larger number of points arranged in a 3D grid. We present an implementation of the active-space indexing mechanism which uses three cameras. Given the corresponding points in camera images, a precise estimation of the position can be obtained. The active-space indexing method can be also used as a spatial filter to eliminate the large number of possible corresponding pairs from consideration. This capability, unique only to the active-space indexing method, provides a tractable algorithm to the otherwise intractable situation. (C) 2001 Academic Press.

    DOI

  • User-Guided Composition Effects For Art-Based Rendering

    2001 ACM Symposium on Interactive 3D Graphics, ACM SIGGRAPH     99 - 102  2001年03月  [査読有り]

  • 非同期多視点画像による人物追跡システムの構築

    電子情報通信学会論文誌D-II   Vol. J84-D-II ( No.1 ) 102 - 110  2001年01月  [査読有り]

  • Computer vision based analysis of non-verbal information in HCI

    Jun Ohya

    Proceedings - IEEE International Conference on Multimedia and Expo     869 - 872  2001年  [査読有り]

     概要を見る

    This paper overviews our research activities on computer vision based non-verbal information analysis that can be applied to virtual communication environments and human computer interactions. In virtual communication environments, a user's facial expressions and body motions are estimated by computer vision approaches, and the estimated non-verbal information is reproduced in the user's avatar. For human computer interfaces, hand gestures are recognized as pre-defined commands by analyzing multiple camera images that observe the hand. In addition, facial expressions and body gestures are recognized from a time-sequential images by HMM (Hidden Markov Models).

    DOI

  • Remarks on a real-time, noncontact, nonwear, 3D human body posture estimation method

    Kazuhiko Takahashi, Tatsumi Sakaguchi, Jun Ohya

    Systems and Computers in Japan   31 ( 14 ) 1 - 10  2000年12月  [査読有り]

     概要を見る

    This paper proposes a new real-time method of estimating human postures in three dimensions from trinocular images. The proposed method extracts feature points of the human body by analyzing contours of human silhouettes. The feature points are extracted by using the subtraction images when self-occlusions occur in the silhouette images. Dynamic compensation is carried out with a Kalman filter so that all feature points are tracked. The 3D coordinates of the feature points are reconstructed by considering the geometrical relationship between the three cameras. Experimental results confirm both the feasibility and the effectiveness of the proposed method.

    DOI

  • Computer Vision Based Analysis of Non-verbal Information

    Jun Ohya

    Sixth International Conference on Control, Automation, Robotics and VIsion   CD-ROM Proceedings 6 pages  2000年12月  [査読有り]

  • Virtual Environments for Human-to-Human Communication

    Jun Ohya

    IEEE International Conference on Multimedia and Expo   Tutorial 4B Notes  2000年07月  [査読有り]

  • Bunshin: A Believable Avatar Surrogate for Both Scripted and On-the-Fly Pen-Based Control in a Presentation Environment

    Sketches & Applications, SIGGRAPH2000 Conference Abstracts and Applications     187  2000年07月  [査読有り]

  • Remarks on Real-Time Human Body Posture Estimation Using Neural Networks

    6th International Conference on Engineering Applications of Neural Networks     229 - 236  2000年07月  [査読有り]

  • Epipolar constraint from 2D affine lines, and its application in face image rendering

    K Sengupta, J Ohya

    IEICE TRANSACTIONS ON INFORMATION AND SYSTEMS   E83D ( 7 ) 1567 - 1573  2000年07月  [査読有り]

     概要を見る

    This paper has two parts. In the first part of the paper, we note the property that under the para perspective camera projection model of a camera, the set of 2D images produced by a 3D point can be optimally represented by two lines in the affine space (alpha - beta space). The slope of these two lines are same, and we observe that this constraint is exactly the same as the epipolar line constraint. Using this constraint, the equation of the epipolar line can be derived. In the second part of the paper, we use the "same slope" property of the lines in the alpha - beta space to derive the affine structure of the human face. The input to the algorithm is not limited to an image sequence of a human head under rigid motion. It can be snapshots of the human face taken by the same or different cameras, over different periods of time. Since the depth variation of the human face is not very large, we use the para perspective camera projection model. Using this property, we reformulate the (human) face structure reconstruction problem in terms of the much familiar multiple baseline stereo matching problem. Apart from the face modeling aspect. we also show how we use the results for reprojecting human faces in identification tasks.

  • 実時間非接触非装着三次元人物姿勢推定方法に関する一考察

    高橋和彦, 坂口竜己, 大谷 淳

    電子情報通信学会論文誌 D-Ⅱ   J83-D-Ⅱ ( 5 ) 1305 - 1314  2000年05月  [査読有り]

  • 人物像の実時間認識・生成

    システム制御情報学会誌 システム/制御/情報   Vol.44 ( No.3 ) 135 - 140  2000年03月  [査読有り]

  • 342 A Wavelet-Transform Based Asker Identification System for Smart Multi-point Tele-conferences

    TANG Jinshan, NAKATSU Ryohei, KAWATO Shinjiro, OHYA Jun

    可視化情報学会誌   20 ( 1 ) 303 - 306  2000年

     概要を見る

    This paper proposes a wavelet-based asker identification system for smart multi-point tele-conferences. Our system is composed of three processors. The first processor is called an "ask" action detector, which is used to decide whether an "ask" action is occurring. If an "ask" action is detected, the input image is sent to the face detector that detects the human face from the complex background. The detected face is fed to a wavelet-based face identification processor to recognize the asker.

    DOI CiNii

  • Two-step approach for real-time eye tracking with a new filtering technique

    S Kawato, J Ohya

    SMC 2000 CONFERENCE PROCEEDINGS: 2000 IEEE INTERNATIONAL CONFERENCE ON SYSTEMS, MAN & CYBERNETICS, VOL 1-5     1366 - 1371  2000年  [査読有り]

     概要を見る

    Head and face detection and eye tracking in realtime are the first steps for head gesture recognition and/or face expression recognition for a human-computer interaction interface. We propose a two-step approach for eye tracking in video streams.
    First, we detect or track a point between the eyes. For this task, we apply a special filter rye proposed before. Once we detect the point between the eyes, it is fairly easy to locate the eyes, which are the two small darkest parts on each side of this point. Because defecting the point between the eves is easier and more stable than directly detecting the eyes, the system can robustly track the eyes
    We implement the system on a SGI O2,workstation. The video image size is 320x240 pixels. The system processes images at seven frames per second in the detection mode, and 13 frames per second in the tracking mode without arty special hardware.

  • Locating human face in a complex background including non-face skin colors

    JS Tang, S Kawato, J Ohya, R Nakatsu

    CISST'2000: PROCEEDINGS OF THE INTERNATIONAL CONFERENCE ON IMAGING SCIENCE, SYSTEMS, AND TECHNOLOGY, VOLS I AND II     117 - 122  2000年  [査読有り]

     概要を見る

    This paper proposes a skin color information based face location algorithm that can locate the human face in a complex background including non-face skin color regions, such as hands. Our algorithm is divided into three steps. The first step is to use color components of the input image to segment the skin colors from the complex background. The second step is to detect a curve, which is called the division curve, between the hair region and face region. The last step is to use the division curve to estimate the face location. Our algorithm can be applied to some gesture analysis and understanding systems that combine the gestures of the head and hands.

  • Automatic skin-color distribution extraction for face detection and tracking

    S Kawato, J Ohya

    2000 5TH INTERNATIONAL CONFERENCE ON SIGNAL PROCESSING PROCEEDINGS, VOLS I-III     1415 - 1418  2000年  [査読有り]

     概要を見る

    For face detection and tracking in a video sequence, many systems are now applying a technique to extract skin-color areas effaces. In these systems, the skin-color model should be built beforehand. However skin-color changes when the lighting condition varies when an input video camera is changed, when the white-balance of the camera is readjusted, etc.
    In this paper we describe a method to build a skin-color model for operation while a face detection system is running. When it has no skin-color model, it uses the differences between adjacent frames to extract moving objects. Once the system recognizes that the moving object is a face, it analyses the color histograms of the moving urea and extract skin-color distribution
    We applied this method to our face detection and tracking system. Experiments showed good results.

  • Adaptive human motion tracking using non-synchronous multiple viewpoint observations

    A Utsumi, H Yang, J Ohya

    15TH INTERNATIONAL CONFERENCE ON PATTERN RECOGNITION, VOL 4, PROCEEDINGS     607 - 610  2000年  [査読有り]

     概要を見る

    In this paper, we propose and adaptive human tracking system with non-synchronous multiple observations. Our system consists of three types of processes, discovering node for detecting newly appeared person, tracking node for tracking each target person, and observation node for processing one viewpoint (camera) images. We have multiple observation nodes and each node works fully independently. The tracking node integrates observed information based on reliability evaluation. Both observation conditions (number of cameras), relative distance between a human and cameras, extent of occlusion, etc.) and human motion states (walking, standing, sitting) are considered in the evaluation. Matching between tracking models and observed image features are performed in each observation node based on the position, size and color similarities of each 2D image. Due to the non-synchronous property, this system is highly scalable for increasing the detection area and number of observing nodes. Experimental results for some indoor scenes are also described.

    DOI

  • Human body postures from trinocular camera images

    Shoichiro Iwasawa, Jun Ohya, Kazuhiko Takahashi, Tatsumi Sakaguchi, Kazuyuki Ebihara, Shigeo Morishima

    Proceedings - 4th IEEE International Conference on Automatic Face and Gesture Recognition, FG 2000     326 - 331  2000年  [査読有り]

     概要を見る

    This paper proposes a new real-time method for estimating human postures in 3D from trinocular images. In this method, an upper body orientation detection and a heuristic contour analysis are performed on the human silhouettes extracted from the trinocular images so that representative points such as the top of the head can be located. The major joint positions are estimated based on a genetic algorithm-based learning procedure. 3D coordinates of the representative points and joints are then obtained from the two views by evaluating the appropriateness of the three views. The proposed method implemented on a personal computer runs in real-time. Experimental results show high estimation accuracies and the effectiveness of the view selection process. © 2000 IEEE.

    DOI

  • Real-time Detection of Nodding and Head-shaking by Directly Detecting and Tracking the “Between-eyes"

    IEEE Int. Conf. on Automatic Face and Gesture Recognition(FG2000)     40 - 45  2000年  [査読有り]

    DOI

  • Multiple-Camera-Based Human Tracking using Non-synchronous Observations

    Fourth Asian Conference on Computer Vision     1034 - 1039  2000年01月  [査読有り]

  • Neural-network-based real-time human body posture estimation

    K Takahashi, T Uemura, J Ohya

    NEURAL NETWORKS FOR SIGNAL PROCESSING X, VOLS 1 AND 2, PROCEEDINGS     477 - 486  2000年  [査読有り]

     概要を見る

    This paper proposes a real-time human body posture estimation method using ANNs. The network is composed of three ANNs and a decision logic unit. The ANNs' input is the result of a function analysis on a human silhouette's contour extracted from camera images and the ANNs' output indicates the feature points' positions on the contour. The decision logic unit synthesizes each of the ANNs' output vectors and then the 2D coordinates of the human body's feature points are calculated. The proposed method is implemented on a personal computer and runs in real-time (17-20 frames/sec). Experimental results confirm both the feasibility and the effectiveness of the proposed method for estimating human body postures.

  • Remarks on a real-time 3D human body posture estimation method using trinocular images

    K Takahashi, T Sakaguchi, J Ohya

    15TH INTERNATIONAL CONFERENCE ON PATTERN RECOGNITION, VOL 4, PROCEEDINGS   Vol. 4   693 - 697  2000年  [査読有り]

     概要を見る

    This paper proposes a new real-time method of estimating human postures in 3D from trinocular images. The proposed method extracts feature points Of the human body by applying a type of function analysis to contours of human silhouettes. To overcome self-occlusion problems, dynamic compensation is carried out using the Kalman filter and all feature points are tracked. The 3D coordinates of the feature points are reconstructed by considering the geometrical relationship between the three cameras. Experimental results confirm both the feasibility and the effectiveness of the proposed method, and an application example of the 3D human body posture estimation to a motion recognition system is presented.

  • Virtual Me: A virtual communication method that enables simultaneous multiple existence as an avatar and/or agents

    J Ohya, R Nakatsu, S Kawato, T Sakaguchi

    2000 IEEE INTERNATIONAL CONFERENCE ON MULTIMEDIA AND EXPO, PROCEEDINGS VOLS I-III     1657 - 1660  2000年  [査読有り]

     概要を見る

    This paper proposes a new communication method, called "Virtual Me", that enables a user to simultaneously participate in multiple Events such as meetings or lectures as a virtual-metamorphosed avatar controlled by the user and/or as a computer-controlled autonomous agents. By interpreting non-verbal data generated by the other participants at each event, the system determines when to switch between using virtual metamorphosis or employing agents. We demonstrate the effectiveness of this method in a prototype of the Virtual Me system. It is our hope that this technology may be in the interest not only of time efficiency but also of enriched human communication.

  • Modeling and Animation of Botanical Tree for Interactive Virtual Environments

    Symposium on Virtual Reality Software and Technology 1999    1999年12月  [査読有り]

  • Indexing method for three-dimensional position estimation

    Fermin, I, S Semwal, J Ohya

    IEICE TRANSACTIONS ON INFORMATION AND SYSTEMS   E82D ( 12 ) 1597 - 1604  1999年12月  [査読有り]

     概要を見る

    Indexing techniques usually are used in model-based object recognition and ray tracing algorithms. In this paper we present a new method for estimating the three-dimensional position of a subject (resp. object) in a circumscribed space based on an indexing method. We construct two and three-dimensional indices of a space, which are used to estimate the three-dimensional position by an interpolation technique. There are two processes in estimating the three-dimensional position of a subject (resp. object): preprocessing and three-dimensional position estimation. We have implemented this idea using stereo camera, and tested by using two different sizes of a grid pattern. Promising results for preprocessing and 3D position estimation are presented. Moreover, we show that this approach can also be extended for multiple cameras.

  • A Face Recognition System Based on Wavelet Transform and Neural Network

    International conference on wavelet analysis and its applications    1999年11月  [査読有り]

  • A New Size-Limited Filter Bank for Finite-signal Subband Processing

    International conference on wavelet analysis and its applications    1999年11月  [査読有り]

  • Face Detection from a Complex Background

    International Workshop on Very Low Bitrate Video Coding    1999年10月  [査読有り]

  • Real-time computer vision based technologies for capturing human motions

    14th International Symposium on Computer and Information Sciences    1999年10月  [査読有り]

  • Virtual Metamorphosis Systems

    1999 IEEE International Conference on Systems, Man, and Cybernetics    1999年10月  [査読有り]

  • Comparison of Neural-Network-Based Pattern Classification Methods with Application to Human Motion Recognition

    Fifth International Conference on Engineering Applications of Neural Networks (EANN '99)    1999年09月  [査読有り]

  • 実写映像に基づいた3次元樹木モデルの生成(共著)

    坂口竜己, 大谷 淳, 中津良平

    電子情報通信学会論文誌   J82-D-Ⅱ ( 9 ) 1469 - 1477  1999年09月  [査読有り]

  • Towards the realization of non-verbal communication

    HCI'99 (Human-Computer Interaction)   Vol.2  1999年08月  [査読有り]

  • 多数カメラを用いた両手手振りの検出

    情報処理学会論文誌   Vol.40, No.8  1999年08月  [査読有り]

  • Multiple-Hand-Gesture-Tracking using Multiple Cameras

    IEEE Computer Society Conference on Computer Vision and Pattern Recogntion (CVPR99)    1999年06月  [査読有り]

  • Real-time 3-D facial image reconstruction for virtual space teleconferencing

    K Ebihara, N Suzuki, J Ohya, F Kishino

    ELECTRONICS AND COMMUNICATIONS IN JAPAN PART III-FUNDAMENTAL ELECTRONIC SCIENCE   82 ( 5 ) 80 - 90  1999年05月  [査読有り]

     概要を見る

    In this paper, a new method was proposed for implementing 3-D facial image models designed to allow faithful reconstruction of facial images in virtual space teleconferencing by using 3-D measurement while detecting various facial expressions. In the method proposed, first many dots are painted on the face. Then, for a variety of facial expressions (eight expressions in this study) selected with regard to the action of the major facial muscles, 3-D displacement vectors for the normal (neutral) face are measured at each dot and recorded in the facial image plane as reference vectors. When the facial image is reconstructed, 2-D displacement vectors are detected by tracking markers that were previously placed on the face and are represented as the sum of two enclosing reference vectors. Based on these data, the vertices of a 3-D wireframe face model (WFM) are moved appropriately, and the facial expression is reconstructed. (C) 1999 Scripta Technica.

  • Virtual metamorphosis

    J Ohya, J Kurumisawa, R Nakatsu, K Ebihara, S Iwasawa, D Harwood, T Horprasert

    IEEE MULTIMEDIA   6 ( 2 ) 29 - 39  1999年04月  [査読有り]

     概要を見る

    The virtual metamorphosis system lets people change their forms into any other form in a virtual scene. To realize these changes, a computer Vision system estimates facial expressions and body postures and reproduces them in a computer graphics avatar in real time. We introduce three systems in order of their development: the Virtual Kabuki system, Networked Theater, and "Shall We Dance?".

    DOI

  • 多数カメラを用いた手形状認識法とその仮想空間インタフェースへの応用

    内海 章, 大谷 淳, 中津良平

    情報処理学会論文誌   40 ( 2 ) 585 - 593  1999年02月  [査読有り]

  • Virtual reality technologies for multimedia communications

    J Ohya, T Miyasato, R Nakatsu

    MIXED REALITY     285 - 300  1999年  [査読有り]

  • Extracting facial motion parameters by tracking feature points

    T Otsuka, J Ohya

    ADVANCED MULTIMEDIA CONTENT PROCESSING   1554   433 - 444  1999年  [査読有り]

     概要を見る

    A method for extracting facial motion parameters is proposed. The method consists of three steps. First, the feature points of the face, selected automatically in the first frame, are tracked in successive frames. Then, the feature points are connected with Delaunay triangulation so that the motion of each point relative to the surrounding points can be computed. Finally, muscle motions are estimated based on motions of the feature points placed near each muscle. The experiments showed that the proposed method can extract facial motion parameters accurately. In addition, the facial motion parameters are used to render a facial animation sequence.

  • Real-time estimation of human body postures using Kalman filter

    K Takahashi, T Sakaguchi, J Ohya

    RO-MAN'99: 8TH IEEE INTERNATIONAL WORKSHOP ON ROBOT AND HUMAN INTERACTION     189 - 194  1999年  [査読有り]

     概要を見る

    This paper presents a hybrid estimation method of human body postures from CCD camera images. In the hybrid estimation method, the feature points of the human body (top of the head, tips of the hands, and feet, and elbow joints) are obtained from the results of heuristic contour analyses of human silhouettes or those of a time subtraction image depending on the reliability of the silhouette information. A dynamic compensation is then carried out by tracking all feature points using the AR model in order to obtain their optimal position and to overcome self-occlusion problems. The AR model's parameters are estimated through on-line processing by the Kalman filter. The proposed method is implemented on a personal computer and the process runs in real-time. Experimental results show high estimation accuracy and the feasibility of the proposed method.

  • Real-time, 3D estimation of human body postures from trinocular images

    Shoichiro Iwasawa, Jun Ohya, Kazuhiko Takahashi, Tatsumi Sakaguchi, Sinjiro Kawato, Kazuyuki Ebihara, Sigeo Morishima

    Proceedings - IEEE International Workshop on Modelling People, MPeople 1999     3 - 10  1999年  [査読有り]

     概要を見る

    This paper proposes a new real-time method for estimating human postures in 3D from trinocular images. In this method, an upper body orientation detection and a heuristic contour analysis are performed on the human silhouettes extracted from the trinocular images so that representative points such as the top of the head can be located. The major joint positions are estimated based on a genetic algorithm based learning procedure. 3D coordinates of the representative points and joints are then obtained from the two views by evaluating the appropriateness of the three views. The proposed method implemented on a personal computer runs in real-time (30 frames/second). Experimental results show high estimation accuracies and the effectiveness of the view selection process.

    DOI

  • A real-time surveillance and evaluation system of the audience's reaction for meeting sessions

    JS Tang, J Ohya

    INTELLIGENT ROBOTS AND COMPUTER VISION XVIII: ALGORITHMS, TECHNIQUES, AND ACTIVE VISION   3837   45 - 57  1999年  [査読有り]

     概要を見る

    In this paper, we describe a visual surveillance system for evaluating the audience's reaction in meeting sessions. The system, which works in real-time, can recognize and evaluate the reaction of the audience. It is mainly composed of three subsystems. The first subsystem is a face detection and head motion segmentation system which is used to detect the face from complex background and segment the head motion into different units, with each unit including different information about the audience's reaction. The second subsystem is a gesture and pose recognition system which can recognize the gestures and the poses of human head. The third subsystem is an evaluation system which is used to evaluate the reaction of the audience by using the recognition results in the second system. Our system has been tested for determining the concentration of the audience in meeting sessions and the experimental results are good.

  • Artistic anatomy based, real-time reproduction of facial expressions in 3D face models

    J Ohya, K Ebihara, J Kurumisawa

    IEEE INTERNATIONAL CONFERENCE ON MULTIMEDIA COMPUTING AND SYSTEMS, PROCEEDINGS VOL 2   Vol.2   684 - 689  1999年  [査読有り]

     概要を見る

    This paper proposes a new real-time method for reproducing facial expressions in 3D face models realistically based on anatomy for artists. To reproduce facial expressions in a face model, the detected expressions need to be converted to the data for deforming the face model. In the proposed method, an artist who has learned anatomy for artists creates arbitrary facial expressions in the 3D face model by mixing the reference expressions chosen by the artist so that the synthesized expressions realistically represent the respective expressions displayed by real persons. The parameters obtained by this manual operations are used to construct the equations that convert the expression features obtained by the detection module to the displacement vectors of the vertices of the face model. During human communications through face models, the equations are used to reproduce the detected expressions in real-time. The effectiveness and robustness of the proposed method were demonstrated by experimental results and demonstration systems.

  • Novel scene generation, merging and stitching views using the 2D affine space

    K Sengupta, J Ohya

    SIGNAL PROCESSING-IMAGE COMMUNICATION   14 ( 1-2 ) 39 - 53  1998年11月  [査読有り]

     概要を見る

    In this paper we present a unified theoretical framework for novel scene synthesis, merging real and virtual worlds, and view stitching. To start with, we have a set of real images from weakly calibrated cameras, for which we compute the dense point match correspondences. For applications like novel view synthesis, one may first solve the 3D scene reconstruction problem, followed by a view rendering process. However, errors in 3D scene reconstruction usually gets reflected in the quality of the new scene generated, so we seek. a more direct method. In this paper, we use the knowledge of dense point matches and their affine coordinate values to estimate the corresponding affine coordinate values in the new scene. Our technique of reprojection is extended for other applications like merging real and synthetic worlds, and view stitching. (C) 1998 Elsevier Science B.V. All rights reserved.

    DOI

  • Face/gesture analysis/synthesis telchnologies for humanto-human communications through virtual environments

    Jun Ohya

    Proceedings of the 6th ACM International Conference on Multimedia: Face/Gesture Recognition and their Applications, MULTIMEDIA 1998     12 - 19  1998年09月  [査読有り]

     概要を見る

    This paper describes the vutual metamorphosis system, whtch was originally proposed by ATR Media Integratton &amp
    Communicattons Research Laboratories, Kyoto, Japan. In the vntual metamorphosis system, people can change their forms mto any other form in a vutual scene. To realize. this changes, facial expressions and body postures are estimated by computer vision and reproduced m a computer graphics avatar m real-ume. We developed computer vision based technologies for automatic face trackmg, estimatmg deformations of factal components,and estimatmg body postures in real-time. We also developed real-time facial expresston reproduction method based on "Anatomy for artists". Usmg these technologies, prototyping systems for virtual metamorpho-SIS were constructed. This paper introduces two systems in order of their development: the Virtual Kabuki system and the "Shall We Dance" system.

    DOI

  • 画素値分布の推定による時系列画像からの動物体領域抽出

    内海 章, 大谷 淳, 中津良平

    電子情報通信学会論文誌 D-II   J81-D-II ( 8 ) 1768 - 1775  1998年08月  [査読有り]

  • 美術解剖学に基づいた仮想変身システムのための実時間人物表情再現(共著)

    海老原一之, 楜沢 順, 大谷 淳, 中津良平, 岸野文郎

    電子情報通信学会論文誌   J81-D-Ⅱ ( 5 ) 841 - 849  1998年05月  [査読有り]

     概要を見る

    筆者らが検討を進めている仮想変身システムでは, 変身しようとする人物の表情や動きを非接触で検出した動きに基づき, あらかじめ作成した3次元顔モデルにおいて実時間でリアルに再現する必要がある.本論文では, 人物の表情を非接触で検出し, リアリティのある表情を再現するために, 美術界で古くから用いられている「美術解剖学」を用いた表情再現を提案する.まず, 15世紀から発達している美術解剖学を用いて作られた作品とデフォルメの関連について述べる.次に, 実際に美術解剖学を用いた歌舞伎役者モデルを用いた仮想変身システムを作成し, その有効性を確認する.最後に, 従来のその手法を用いて実際の人間のモデルを作成し, 歌舞伎役者等の特殊な場合のみにかかわらず, 一般の表情再現においても有効であることを確認し, 従来の手法との比較を行い提案案法の有効性を示す.

    CiNii

  • 複雑な輪郭の自動抽出・追跡法

    畑幸一, 大谷 淳, 岸野文郎, 中津良平

    電子情報通信学会論文誌 D-II   .J81-D-II ( 4 ) 706 - 715  1998年04月  [査読有り]

  • A new robust real-time method for extracting human silhouettes from color images

    Masanori Yamada, Kazuyuki Ebihara, Jun Ohya

    Proceedings - 3rd IEEE International Conference on Automatic Face and Gesture Recognition, FG 1998     528 - 533  1998年  [査読有り]

     概要を見る

    A new method for extracting human silhouettes from color images in real-time regardless of changes in lighting conditions and backgrounds is proposed. In the method, RGB values of each pixel in color images acquired by a CCD camera are converted to YIQ values. Before extracting human silhouettes, the mean YIQ values of each pixel and the threshold values for the Y, I, Q components are obtained in advance from the image sequence acquired by the camera that observed the background. Based on the mean values and the threshold values, each pixel is judged whether it belongs to the human silhouette or not. The proposed method was used with the virtual metamorphosis system, in which anyone can change his or her form to any other form, and the robustness and real-time-ness were confirmed. © 1998 IEEE.

    DOI

  • Spotting segments displaying facial expression from image sequences using HMM

    Takahiro Otsuka, Jun Ohya

    Proceedings - 3rd IEEE International Conference on Automatic Face and Gesture Recognition, FG 1998     442 - 447  1998年  [査読有り]

     概要を見る

    A method that can be used for spotting segments that display facial expression is proposed. The motion of the face is modeled by HMM in such a way that each state corresponds to the conditions of facial muscles, e.g., relaxed, contracting, apex and relaxing. The probability assigned to each state is updated iteratively as the feature vector is obtained from image processing. A spotted segment is placed into a certain category when the probability of that category exceeds a threshold value. Experiments show that the segments for the six basic expressions can be spotted accurately in near real time. © 1998 IEEE.

    DOI

  • A new camera projection model and its application in reprojection

    K Sengupta, J Ohya

    FOURTEENTH INTERNATIONAL CONFERENCE ON PATTERN RECOGNITION, VOLS 1 AND 2     59 - 63  1998年  [査読有り]

     概要を見る

    In this paper we present a new camera projection model, which is intermediate between the affine camera mode and the pin hole projection model. It is modeled as a perspective projection of 3D points into an arbitrary plane, followed by an affine transform of these projected points. We observe that the reprojection of a point into a navel image can be achieved uniquely provided that we have located a set of Jive reference points over four images (of which three are input images, and the fourth is the novel image). Also, the reprojection, theory; does not assume that the input images are captured from cameras with identical internal calibration parameters. Thus, we apply our technique two different domain: (a) generation of novel images from a stereo pair (b) generation of virtual walkthrough sequence with a monocular image sequence as input.

  • Geometric-imprints: A significant points extraction method for the scan & track virtual environment

    SK Semwal, J Ohya

    AUTOMATIC FACE AND GESTURE RECOGNITION - THIRD IEEE INTERNATIONAL CONFERENCE PROCEEDINGS     480 - 485  1998年  [査読有り]

     概要を見る

    We have implemented a new algorithm, called the geometric-imprints method for extracting key-features of a given contour. Series of points on the curve are used to find a geometric-imprint set of the contour. The algorithm is based upon the assumption that an articulated human and other figures have mostly cylindrical body-parts. The algorithm recursively partitions the contour based upon the cylindrical nature of human-silhouettes, and a starting point. Similar topological contours are expected to produce similar geometric-imprints. Thus the correspondence problem is somewhat simplified. Results of our implementation are presented.

  • Human face structure estimation from multiple images using the 2D affine space

    K Sengupta, J Ohya

    AUTOMATIC FACE AND GESTURE RECOGNITION - THIRD IEEE INTERNATIONAL CONFERENCE PROCEEDINGS     106 - 111  1998年  [査読有り]

     概要を見る

    In this paper we present an algorithm to estimate the human face structure. The input to the algorithm is not limited to an image sequence of a human head under rigid motion. It can be snapshots of the human face taken by the same or different cameras, over different periods of time. Since the depth variation of the human face is not very large, we use the affine camera projection model. Under this assumption, it can be shown that the set of 2D images produced by a 3D point feature of a rigid object can be optimally represented by two lines in the affine space. Using this property, we reformulate the (human) face structure reconstruction problem in terms of the much familiar multiple baseline stereo matching problem [8]. Apart from the face modeling aspect, we also show how we use the results for reprojecting human faces in identification tasks.

  • Generating virtual environments for human communications - Virtual metamorphosis system and novel view generation

    J Ohya, K Sengupta

    COMPUTER VISION FOR VIRTUAL REALITY BASED HUMAN COMMUNICATIONS - 1998 IEEE AND ATR WORKSHOP PROCEEDINGS     43 - 50  1998年  [査読有り]

     概要を見る

    At ATR Media Integration & Communications Research Laboratories, our research group is aiming at realizing virtual communication environments in which the users at remote sites can feel that they are virtually co-located. This paper presents the ongoing research in two subareas chosen to address this problem: (a) Generating human images in virtual scenes (b) Act image based approach for generation of (background) scenes. In the virtual metamorphosis system, 3D models of characters are created in advance. For metamorphosis, the facial expressions and body posture of a person are detected in real-time fr om the face images and monocular thermal images of the person, respectively. The detected expressions and body movements are reproduced by deforming the 3D models. Demonstrations using SD models of a Kabuki actor and a dinosaur show good performance. for novel view generation, we use as affine coordinate based re-projection scheme, which is also extended to merging real and synthetic objects.

  • Real-time human posture estimation using monocular thermal images

    S Iwasawa, K Ebihara, J Ohya, S Morishima

    AUTOMATIC FACE AND GESTURE RECOGNITION - THIRD IEEE INTERNATIONAL CONFERENCE PROCEEDINGS     492 - 497  1998年  [査読有り]

     概要を見る

    This paper introduces a new real-lime method to estimate the posture of a human from thermal images acquired by an infrared camera regardless of the background and lighting conditions. Distance transformation is performed for the human body area extracted from the thresholded thermal image for the calculation of the center of gravity. After the orientation of the zipper half of the body is obtained by calculating the moment of inertia, significant points such as the top of the head, the tips oft he hands and foot are heuristically located. In addition, the elbow and knee positions are estimated from the detected (significant) points using a genetic algorithm based learning procedure.
    The experimental results demonstrate the robustness of the proposed algorithm and real-time (faster than 20 frames per second) performance.

  • Multiple-view-based tracking of multiple humans.

    Akira Utsumi, Hiroki Mori, Jun Ohya, Masahiko Yachida

    Fourteenth International Conference on Pattern Recognition, ICPR 1998, Brisbane, Australia, 16-20 August, 1998     597 - 601  1998年  [査読有り]

    DOI CiNii

  • Direct Manipulation Interface Using Multiple Cameras for Hand Gesture Recognition.

    Akira Utsumi, Jun Ohya

    IEEE International Conference on Multimedia Computing and Systems, ICMCS 1998, Austin, Texas, USA, June 28 - July 1, 1998     264 - 267  1998年  [査読有り]

    DOI

  • Image segmentation for human tracking using sequential-image-based hierarchical adaptation

    Akira Utsumi, Jun Ohya

    Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition     911 - 916  1998年  [査読有り]

     概要を見る

    We propose a novel method of extracting a moving object region from each frame in a series of images regardless of complex, changing background using statistical knowledge about the target. In vision systems for 'real worlds' like a human motion tracker, a priori knowledge about the target and environment is often limited (e.g., only the approximate size of the target is known) and is insufficient for extracting the target motion directly. In our approach, information about both target object and environment is extracted with a small amount of given knowledge about the target object. Pixel value (color, intensity, etc.) distributions for both the target object and background region are adaptively estimated from the input image sequence based on the knowledge. Then, the probability of each pixel being associated with the target object is calculated. The target motion can be extracted from the calculated stochastic image. We confirmed the stability of this approach through experiments.

    DOI

  • Multiple Camera Based Human Motion Estimation.

    Akira Utsumi, Hiroki Mori, Jun Ohya, Masahiko Yachida

    Computer Vision - ACCV'98, Third Asian Conference on Computer Vision, Hong Kong, China, January 8-10, 1998, Proceedings, Volume II     655 - 662  1998年  [査読有り]

    DOI

  • 距離変換処理を用いた多視点画像による手姿勢推定法(共著)

    内海 章, 宮里 勉, 岸野文郎, 大谷 淳, 中津良平

    映像情報メディア学会誌   51 ( 12 ) 2116 - 2125  1997年12月  [査読有り]

     概要を見る

    We describe a method for detecting hand position, posture, and finger bendings using multiple camera images. Stable detection can be achieved using distance transformed images. We detect the maximum point in each distance transformed image as the center of gravity (COG) point of the hand region and calculate its 3D position by stereo matching. The distance value of a COG point varies according to the angle between the camera axis and normal axis of the hand plane. Hand rotation angle can be determined in maximum likelihood estimation from the distance values in all camera images. Using the detected position and posture, the best camera for hand shape detection can be selected. This camera selection makes the hand shape detection simple and stable. This system can be used as a user interface device in a virtual environment, replacing glove-type devices and overcoming most of the disadvantages of contact-type devices.

    DOI CiNii

  • 遺伝的アルゴリズムを用いた顔画像からの表情と顔の姿勢の推定

    大谷 淳

    電子情報通信学会論文誌   J80-D-Ⅱ ( 8 ) 2152 - 2160  1997年08月  [査読有り]

  • 連続出力確率密度分布を用いたHMMによる動画像からの複数人物の表情認識

    大塚尚宏, 大谷 淳, 中津良平

    電子情報通信学会論文誌   J80-D-Ⅱ ( 8 ) 2129 - 2137  1997年08月  [査読有り]

  • 実時間人物全身像動き検出手法

    山田 正紀, 海老原 一之, 大谷 淳

    映像情報メディア学会技術報告   21 ( 42 ) 61 - 66  1997年07月

     概要を見る

    In our "Virtual KABUKI System", to estimate human body postures, a human silhouette must be segmented from a background image. We had used an infrared camera to segment it. But clothes which are hard to have a heat, such as a skirt and a jacket, obstruct a detection of a complete human silhouette. To solve this problem, we developed the new method which uses a difference between a current image and a background image. This paper introduce a new real-time method to estimate human body postures from color images acquired by a normal CCD camera.

    DOI CiNii

  • バーチャル歌舞伎システム

    海老原 一之, 楜沢 順, 岩澤 昭一郎, 大谷 淳

    映像情報メディア学会技術報告   21 ( 6 ) 61 - 68  1997年02月

     概要を見る

    本報告では, 誰もが歌舞伎役者に変身可能な「バーチャル歌舞伎システム」について述べる.本システムは, 仮想空間に3次元歌舞伎役者モデルをコンピュータグラフィックにより作成し, 演技者の全身の動きと表情を実時間で非接触な形式で検出し, 歌舞伎役者の動きとして再現するものであり, 誰もが歌舞伎役者に変身が可能である.さらに, このシステムは3次元モデルを変更することにより, 任意のキャラクタに変身することが可能であり, 自分を任意に変身させてコミュニケーションを行えるだけでなく, インターラクテイブな映画作成等に使用できる見通しを得た.

    DOI CiNii

  • Real-time estimation of human body posture from monocular thermal images

    S Iwasawa, K Ebihara, J Ohya, S Morishima

    1997 IEEE COMPUTER SOCIETY CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION, PROCEEDINGS     15 - 20  1997年  [査読有り]

     概要を見る

    This paper introduces a new;real-time method to estimate the posture of a human from thermal images acquired by an infrared camera regardless of the background and lighting conditions. Distance transformation is performed for the human body area extracted from the thresholded thermal image for the calculation of the center of gravity. After the orientation of the upper half of the body is obtained by calculating the moment of inertia, significant points such as the top of the head, the tips of the hands and foot are heuristically located. In addition, the elbow and knee positions are estimated from the detected (significant) points using a genetic algorithm based learning procedure.
    The experimental results demonstrate the robustness of the proposed algorithm and rear-time (faster than 20 frames per second) performance.

    DOI

  • 30-3 オプティカルフローを用いた実時間表情認識に関する検討

    大塚 尚宏, 大谷 淳

    映像情報メディア学会年次大会講演予稿集   1997   375 - 376  1997年

     概要を見る

    A method for recognizing facial expressions in which a feature vector is obtained from Fiourier transform coefficients of velocity vector on a face while an expressions is displayed. As the feature vector is computed from the gradient based optical flow algorithm without time-consuming iteration, the method makes a real-time processing possible.

    DOI CiNii

  • An affine coordinate based algorithm for reprojecting the human face for identification tasks

    K Sengupta, J Ohya

    INTERNATIONAL CONFERENCE ON IMAGE PROCESSING - PROCEEDINGS, VOL III     340 - 343  1997年  [査読有り]

     概要を見る

    In this paper we present an algorithm to generate new views of a human face, starting with at least two other views of the face. In a typical face recognition system, the task of comparison becomes easier if the faces have similar orientation with respect to the camera. The affine coordinate based reprojection algorithm presented in the paper enables us to do that. Dense point matches between the two input faces of the same individual are computed using an affine coordinate based reprojection framework. This is followed by the reprojection of one of these to faces to the target face once the user has matched four feature points across two input face images and the target face image.

  • Novel scene generation, merging and stitching views using the 2D affine space

    K Sengupta, J Ohya

    IEEE INTERNATIONAL CONFERENCE ON MULTIMEDIA COMPUTING AND SYSTEMS '97, PROCEEDINGS     602 - 603  1997年  [査読有り]

     概要を見る

    In this paper we present an algorithm to generate new views of a scene, starting from stereo images. Errors in 3D scene reconstruction usually get reflected in the quality of the new scene generated, so we seek a direct method for reprojection. In this paper, we use the knowledge of dense point matches and their affine coordinate values to estimate the corresponding affine coordinate values in the new scene.

  • Hand Image Segmentation Using Sequential-Image-Based Hierarchical Adaptation.

    Akira Utsumi, Jun Ohya

    Proceedings 1997 International Conference on Image Processing, ICIP '97, Santa Barbara, California, USA, October 26-29, 1997     208 - 211  1997年  [査読有り]

    DOI

  • 熱画像を用いた人物全身像の実時間姿勢推定(共著)

    岩澤昭一郎, 海老原一之, 大谷 淳, 中津良平, 森島繁生

    映像情報メディア学会誌   51 ( 8 ) 1270 - 1277  1997年  [査読有り]

    DOI

  • 遺伝的アルゴリズムを用いた多眼画像からの人物の姿勢のモデルベース推定

    大谷 淳, 岸野文郎

    映像情報メディア学会誌   51 ( 12 ) 2107 - 2115  1997年  [査読有り]

    DOI

  • 臨場感通信会議のための実時間表情検出

    海老原一之, 大谷 淳, 岸野文郎

    テレビジョン学会誌   50 ( 10 ) 1497 - 1506  1996年10月  [査読有り]

     概要を見る

    筆者らが検討を進めている臨場感通信会議システムでは, 送信側で会議参加者の表情を検出し, 受信側の3次元顔モデルにおいて, 実時間で再現する必要がある.本論文では, 従来システムにおいて実時間処理の実現のために, 顔に貼付したマーカの顔画像中での追跡によって表情検出を行っていた手法にかわり, 顔画像を周波数領域に変換することにより, 周波数成分の特徴量を抽出し, 周波数成分の変化とマーカの移動量の関係を学習し, 周波数成分の変化から仮想的なマーカの位置を算出する手法を提案する.提案する手法を用いて実際にシステムを構築し, 実際に顔に貼付したマーカと周波数成分の変化を用いて求めた, 仮想マーカの位置精度, ロバスト性の検討を行った結果, 位置精度は, 実際のマーカ位置に極めて近い値が得られ, ロバスト性も従来のシステム以上に優れていることが明らかになった.また, 良好な実時間表情検出が, 24(フレーム/秒)の速度で行えることを確認した.

    DOI CiNii

  • 形状の面対称性に基づく能動的観測による3次元物体形状の復元および色彩情報の再現

    吉田和憲, 大谷 淳, 岸野文郎, 田中弘美

    テレビジョン学会誌   50 ( 10 ) 1536 - 1542  1996年10月  [査読有り]

     概要を見る

    本論文では, 物体の面対称性を用いて, 再帰的かつ能動的に3次元物体形状復元するとともに, 物体のオリジナルの色彩情報を推定する効率的な方法を提案する.3次元物体形状の復元のために, 各視点からの物体のシルエット像に基づき, オクトツリーを操作し, ポリゴンデータに変換して形状を再現する.色彩再現のために, 事前にカラーサンプルを用いて求めておいた変換式を用いて, 3次元物体形状復元手法によって得られた, 物体形状を構成するポリゴン, およびその法線情報と観測時に得られた画像から, 各ポリゴンの拡散反射成分を推定する.実験では, 実存の物体を観測して, 形状の復元および色彩情報の再現を行った結果が示されており, 本手法によって, 少ないデータ量で効率的に物体のリアリティの高い3次元物体の再現が可能となることを示す.

    DOI CiNii

  • 臨場感通信会議のための実時間3次元表情再現

    海老原一之, 鈴木紀子, 大谷 淳, 岸野文郎

    電子情報通信学会論文誌A   J79-A ( 2 ) 527 - 536  1996年02月  [査読有り]

  • Detecting facial expressions from face images using a genetic algorithm

    Jun Ohya, Fumio Kishino

    Proceedings - International Conference on Pattern Recognition   3   649 - 653  1996年  [査読有り]

     概要を見る

    A new method to detect deformations of facial parts from a face image regardless of changes in the position and orientation of a face using the genetic algorithm is proposed. Facial expression parameters that are used to deform and position a 3D face model are assigned to the genes of an individual in a population. The face model is deformed and positioned according to the gene values of each individual and is observed by a virtual camera, and a face image is synthesized. The fitness which evaluates to what extent the real and synthesized face images are similar to each other is calculated. After this process is repeated for sufficient generations, the parameter estimation is obtained from the genes of the individual with the best fitness. Experimental results demonstrate the effectiveness of the method. © 1996 IEEE.

    DOI

  • Automatic extraction and tracking of contours

    Koichi Hata, Jun Ohya, Fumio Kishino, Ryohei Nakatsu

    Proceedings - International Conference on Pattern Recognition   1   441 - 445  1996年  [査読有り]

     概要を見る

    This paper considers the problem of extracting and tracking complex contours without user interaction. We assume that a complex contour consists of contour segments whose spatial coordinates and intensity gradient vary smoothly in the direction normal to themselves. In our algorithm, digital curves that could correspond to contour segments are extracted by connecting edge pixels using a B-spline based contour segment model. The extracted curves trace the contour segments at the next frame by using the active contour model technique. Experimental results show even occluded contours can be tracked automatically. © 1996 IEEE.

    DOI

  • Real-time facial expression detection based on frequency domain transform

    K Ebihara, J Ohya, F Kishino

    VISUAL COMMUNICATIONS AND IMAGE PROCESSING '96   2727   916 - 926  1996年  [査読有り]

  • Virtual Kabuki Theater: Towards the realization of human metamorphosis systems

    J Ohya, K Ebihara, J Kurumisawa, R Nakatsu

    RO-MAN '96 - 5TH IEEE INTERNATIONAL WORKSHOP ON ROBOT AND HUMAN COMMUNICATION, PROCEEDINGS     416 - 421  1996年  [査読有り]

     概要を見る

    This paper describes the Virtual Kabuki Theater the authors have recently developed. In the Virtual Kabuki Theater, people at different locations can be Kabuki actors in a Kabuki scene. In our system, Kabuki actors' SD models are created in advance. Facial expressions of a person are detected an real-tame in the face images from the small camera fixed to the helmet worn by the person. Body movements of the person are estimated in real-time from the thermal images acquired by the infrared camera that observes the person. The detected expressions and body movements are reproduced in. the Kabuki actor's model. Our implementation shows good performance. The Virtual Kabuki Theater is a first step towards human metamorphosis systems, in which anyone can change (metamorphose) his/her form into any other characters.

  • Pose estimation of human body part using multiple cameras

    K Sengupta, J Ohya

    RO-MAN '96 - 5TH IEEE INTERNATIONAL WORKSHOP ON ROBOT AND HUMAN COMMUNICATION, PROCEEDINGS     146 - 151  1996年  [査読有り]

     概要を見る

    In this paper, we present a method of obtaining the approximate transformation parameter values as a starting point in estimating the pose of rigid 3D free form objects using multiple 2D images. We back project the edge silhouettes in the images, and obtain the approximate volume in the 3D space containing the object. Next, for a point selected in the volume, we hypothesize a set of points within the 3D CAD model of the object it can possibly correspond to, using the spatial extent function introduced in this paper. This is repeated for three arbitrarily chosen point in the volume. The hypothesized (match point) lists of these three points are next used to derive the pose parameter by enforcing the conditions of rigidity. Our initial experiments demonstrate the potential of this idea, and the pose parameters estimated using this method can be refined using the standard methods available in the literature.

  • 臨場感通信会議のための人物動作のリアルな実時間再現

    成山桂一, カランシャー シン, 大谷 淳, 岸野文郎

    テレビジョン学会誌   50 ( 9 ) 1352 - 1362  1996年  [査読有り]

    DOI

  • 隠れマルコフモデルによる顔動画像からの表情認識

    坂口竜己, 大谷 淳, 岸野文郎

    テレビジョン学会誌   49 ( 8 ) 1060 - 1067  1995年08月  [査読有り]

     概要を見る

    従来の人物顔表情認識では, 静止画像の複雑な処理が必要であった.これに対し, 静止画像内の特徴と, 時系列の特徴を統合して認識率を向上させる検討を行った.画像内特徴には, 雑音や撮影環境に比較的ロバストな周波数特性として, ウェーブレット変換により得られる帯域内平均電力を用いている.時系列処理には, 信号系列を時間的変化の特徴によってカテゴリー分類する際に有用な隠れマルコフモデル(HMM)を採用し, 学習による認識を行っている.また特徴量の量子化には, 表情のように認識対象カテゴリー間の類似度が高い場合に, 有効なカテゴリー別VQとカテゴリー外コードワード選択追加によるコードブックの作成を提案する.これにより, 特定被験者の4表情の認識実験では, 平均93.7%の正答率が得られた.

    DOI CiNii

  • VIRTUAL SPACE TELECONFERENCING - REAL-TIME REPRODUCTION OF 3D HUMAN IMAGES

    J OHYA, Y KITAMURA, F KISHINO, N TERASHIMA, H TAKEMURA, H ISHII

    JOURNAL OF VISUAL COMMUNICATION AND IMAGE REPRESENTATION   6 ( 1 ) 1 - 25  1995年03月  [査読有り]

     概要を見る

    Real-time reproduction of 3D human images is realized by an experimental system recently built as a prototype for virtual space teleconferencing, in which participants at different sites can feel as if they are colocated and can work cooperatively, At each sending and receiving site of the teleconferencing system, a 3D model of each participant is constructed from a wire frame model mapped by color texture and is rendered on a 3D display, In the current experimental system, real-time detection of facial features at the sending site is achieved by visually tracking tape marks pasted to the participant's face. Movements of the head, body, hands, and fingers are detected in real time using magnetic sensors and data gloves. At the receiving site, the detected motion parameters are used to move nodes in the wire frame model to reproduce the movements of the participants at each sending site. Realistic facial expressions are reproduced through the-use of simple motion rules applied to the tape mark tracking information, Through experimental evaluation, the optimal number of nodes for best quality has been obtained. Reproduction of facial expressions and synthesis of arm movements are examined, The reproduction speed using the optimal human model is approximately 6 frames/s. Examples of cooperative work by participants using the experimental system illustrate the effectiveness of virtual space teleconferencing. (C) 1995 Academic Press, Inc.

    DOI

  • 7-4 周波数領域変換を用いた実時間顔表情検出

    海老原 一之, 大谷 淳, 岸野 文郎

    テレビジョン学会映像メディア部門冬季大会講演予稿集   1995   82 - 82  1995年

    DOI CiNii

  • A study of real time facial expression detection for virtual space teleconferencing

    K Ebihara, J Ohya, F Kishino

    RO-MAN'95 TOKYO: 4TH IEEE INTERNATIONAL WORKSHOP ON ROBOT AND HUMAN COMMUNICATION, PROCEEDINGS     247 - 252  1995年  [査読有り]

  • Realistic 3D facial animation in virtual space teleconferencing

    L Moubaraki, J Ohya, F Kishino

    RO-MAN'95 TOKYO: 4TH IEEE INTERNATIONAL WORKSHOP ON ROBOT AND HUMAN COMMUNICATION, PROCEEDINGS     253 - 258  1995年  [査読有り]

  • Active 3D modeling by recursive viewpoint selection based on symmetry

    K Yoshida, HT Tanaka, J Ohya, F Kishino

    INTELLIGENT ROBOTS AND COMPUTER VISION XIV: ALGORITHMS, TECHNIQUES, ACTIVE VISION, AND MATERIALS HANDLING   2588   326 - 336  1995年  [査読有り]

  • RECOGNIZING CHARACTERS IN SCENE IMAGES

    J OHYA, A SHIO, S AKAMATSU

    IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE   16 ( 2 ) 214 - 220  1994年02月  [査読有り]

     概要を見る

    An effective algorithm for character recognition in scene images is studied. Scene images are segmented into regions by an image segmentation method based on adaptive thresholding. Character candidate regions are detected by observing gray-level differences between adjacent regions. To ensure extraction of multisegment characters as well as single-segment characters, character pattern candidates are obtained by associating the detected regions according to their positions and gray levels. A character recognition process selects patterns with high similarities by calculating the similarities between character pattern candidates and the standard patterns in a dictionary and then comparing the similarities to the thresholds. A relaxational approach to determine character patterns updates the similarities by evaluating the interactions between categories of patterns, and finally character patterns and their recognition results are obtained. Highly promising experimental results have been obtained using the method on 100 images involving characters of different sizes and formats under uncontrolled lighting.

    DOI

  • DENSE, TIME-VARYING RANGE DATA-ACQUISITION FROM STEREO PAIRS OF THERMAL AND INTENSITY IMAGES

    J OHYA, F KISHINO

    1994 IEEE COMPUTER SOCIETY CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION, PROCEEDINGS     860 - 865  1994年  [査読有り]

  • HUMAN POSTURE ESTIMATION FROM MULTIPLE IMAGES USING GENETIC ALGORITHM

    J OHYA, F KISHINO

    PROCEEDINGS OF THE 12TH IAPR INTERNATIONAL CONFERENCE ON PATTERN RECOGNITION - CONFERENCE A: COMPUTER VISION & IMAGE PROCESSING     750 - 753  1994年  [査読有り]

  • 隠れマルコフモデルを用いた動画像からの人物の行動認識(共著)

    大和淳司, 大谷 淳, 石井健一郎

    電子情報通信学会論文誌   J76-D-Ⅱ ( 12 ) 2556 - 2563  1993年12月  [査読有り]

     概要を見る

    本論文では,画像によるモニタリングの自動化を目的として,動画像中の人物像の行動を認識する方法を提案している.実画像に対してもロバストな認識系を構築するために,幾何学的なモデルに基づくモデルフィッティングによらず,特徴量ベースのボトムアップな学習によるアプローチをとる.このために隠れマルコフモデル(HMM)を適用した時系列パターン認識を行った.HMMは音声認識で広く応用されているが,動画像への適用はほとんど例がない.本手法では,画像中の人物領域のメッシュ特徴をベクトル量子化によりシンボルに変換し,このシンボル列をHMMで学習,認識する.これにより,教師付き学習による,所与の動作カテゴリーの認識が実現できる.テニスの動作を列に,複数の被験者の動作認識実験を行い,90%以上の認識率を得た.また,不特定多数の人物動作認識を目的として,学習に用いなかった被験者を認識対象とした場合についても検討を行った.この場合,認識率の低下が起こるが,学習に用いる被験者数を増やすことにより認識率が向上することを確認した.

    CiNii

  • 3次元形状の軸表現:Smoothed Local Generalized Cones

    佐藤嘉伸, 大谷 淳, 石井健一郎

    電子情報通信学会論文誌D-II   J76-D-II ( 8 ) 1612 - 1623  1993年08月  [査読有り]

  • 距離画像からの3次元形状の階層的パーツ構造の復元

    佐藤嘉伸, 大谷 淳, 石井健一郎

    電子情報通信学会論文誌D-II   J76-D-II ( 8 ) 1624 - 1636  1993年08月  [査読有り]

  • 知覚的運動幾何学 : ロボットマニピュレータの視覚に基づく制御 : 高精細画像と一般 : 放送方式 : 映像表現 : 画像処理・コンピュータビジョン : 画像通信システム : 画像応用

    クッカ ピーター, 大谷 淳, 岸野 文郎

    テレビジョン学会技術報告   17 ( 76 ) 29 - 36  1993年

     概要を見る

    ロボットマニピュレータを視覚情報によって制御する新しい方法を提案する。即ち、ロボットマニピュレータの手先にテレビカメラを搭載し、外界の情報をテレビカメラより取得してマニピュレータを制御したり、固定カメラからマニピュレータを観測して制御することにより必要な作業を行う方式のための、新しい視覚フィードバック法である。本手法では、ロボットマニピュレータの力学的な挙動に関する事前知識が事実上何も無いことを前提としており、多くの従来法において必要であった計算コストおよび時間のかかるキャリブレーションを行う必要がない。これは、本手法が連続的なセンサーフィードバック、即ち視覚情報と力学情報を統合することにより得られるPKM(Perceptual Kinematic Map:知覚的運動幾何学マップ)と呼ばれるロボットの関節角度空間から画像特徴空間への写像を用いるため可能となる。PKMの原理を利用して、マニピュレータの実時間制御実験をシミュレーションにより行い、本手法の有効性が検証された。

    DOI CiNii

  • ホモトピーに基づいた三次元顔画像の表情生成の一検討 : 視聴覚,画像処理・コンピュータビジョン・マルチメディアおよび一般 : 視聴覚技術 : 画像処理・コンピュータビジョン

    梶原 創一, 田中 弘美, 大谷 淳, 岸野 文郎

    テレビジョン学会技術報告   17 ( 58 ) 37 - 42  1993年

     概要を見る

    A homotopy describes the transformation of one arbitrary curve into another that shares the same endpoints. In this paper, we propose a deformable cylinder model, based on homotopy, in which an arbitrary surface interpolated between two contours via a blending function is transformed into another surface over time. We then show how this homotopic deformation can be applied to the realistic animation of human faces in a virtual space teleconferencing system. Specifically, we show that facial expressions such as wrinkling of the forehead and opening and closing of the mouth can be synthesized and animated in real time through 3D homotopic deformations.

    DOI CiNii

  • A NEW METHOD FOR ACQUIRING TIME-SEQUENTIAL RANGE IMAGES BY INTEGRATING STEREO PAIRS OF THERMAL AND INTENSITY IMAGES

    J OHYA, F KISHINO

    1993 IEEE COMPUTER SOCIETY CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION : PROCEEDINGS     730 - 731  1993年  [査読有り]

  • VIRTUAL SPACE TELECONFERENCING SYSTEM - REAL-TIME DETECTION AND REPRODUCTION OF 3-D HUMAN IMAGES

    F KISHINO, J OHYA, H TAKEMURA, N TERASHIMA

    HUMAN-COMPUTER INTERACTION, VOL 2   19   669 - 674  1993年  [査読有り]

  • REAL-TIME REPRODUCTION OF 3D HUMAN IMAGES IN VIRTUAL SPACE TELECONFERENCING

    J OHYA, Y KITAMURA, H TAKEMURA, F KISHINO, N TERASHIMA

    IEEE VIRTUAL REALITY ANNUAL INTERNATIONAL SYMPOSIUM     408 - 414  1993年  [査読有り]

  • TIME-VARYING HOMOTOPY AND THE ANIMATION OF FACIAL EXPRESSIONS FOR 3D VIRTUAL SPACE TELECONFERENCING

    S KAJIWARA, HT TANAKA, Y KITAMURA, J OHYA, F KISHINO

    VISUAL COMMUNICATIONS AND IMAGE PROCESSING 93, PTS 1-3   2094   37 - 48  1993年  [査読有り]

  • 多次元心理空間を用いる類似画像検索法

    田邊勝義, 大谷 淳, 石井健一郎

    電子情報通信学会論文誌D-II   J75-D-II ( 11 ) 1856 - 1865  1992年11月  [査読有り]

    CiNii

  • FACIAL IMAGE SYNTHESIS BY HIERARCHICAL WIRE FRAME MODEL

    Y KITAMURA, Y NAGASHIMA, J OHYA, F KISHINO

    VISUAL COMMUNICATIONS AND IMAGE PROCESSING 92, PTS 1-3   1818   1358 - 1365  1992年  [査読有り]

  • 情景画像からの文字パターンの抽出と認識

    大谷 淳, 塩 昭夫

    電子情報通信学会論文誌D   J71-D ( 6 ) 1037 - 1047  1988年06月  [査読有り]

  • リングパターン法を用いるロボット用物体認識センサ

    大谷 淳

    電子通信学会論文誌D   J69-D ( 3 ) 269 - 278  1986年03月  [査読有り]

  • GRAY-SCALE PRINTING ON PLAIN PAPER USING THERMAL INK-TRANSFER IMAGING

    J OHYA, Y TOKUNAGA

    JOURNAL OF IMAGING TECHNOLOGY   10 ( 2 ) 57 - 63  1984年  [査読有り]

  • COLOR THERMAL INK-TRANSFER IMAGING

    J OHYA, Y TOKUNAGA

    IEEE TRANSACTIONS ON ELECTRON DEVICES   31 ( 9 ) 1258 - 1263  1984年  [査読有り]

    DOI

  • NEW GRAY-SCALE PRINTING METHOD USING A THERMAL PRINTER

    Y TOKUNAGA, K KUBOTA, J OHYA

    IEEE TRANSACTIONS ON ELECTRON DEVICES   30 ( 8 ) 898 - 904  1983年  [査読有り]

    DOI

  • 3-L法を用いた普通紙への階調画像記録

    徳永 幸生, 大谷 淳, 久保田 一成

    テレビジョン学会技術報告   5 ( 15 ) 45 - 52  1981年

    DOI CiNii

▼全件表示

書籍等出版物

  • Analyzing video sequences of multiple humans: Tracking, posture estimation and behavior recognition

    Kluwer Academic Publishers  2002年03月

Misc

  • 人共存型自律移動ロボットにおけるステレオカメラと機械学習を用いた周辺人物の状態認識および行動予測

    林正晃, 大谷淳, 大和淳司, 亀崎允啓, 斎藤恭介, 濱田太郎, 櫻井絵梨子, 菅野重樹

    電子情報通信学会技術研究報告(Web)   121 ( 420(IMQ2021 10-69) )  2022年

    J-GLOBAL

  • 深層学習を用いた心電図からの大動脈弁狭窄症の識別法の提案とGrad-CAMを用いた分析

    秦絵里香, 瀬尾燦振, 中山雅文, 岩崎清隆, 大川内隆朗, 大谷淳

    電子情報通信学会技術研究報告   119 ( 399(MI2019 65-123)(Web) )  2020年

    J-GLOBAL

  • 森林環境モニタリングロボットにおけるSLAMと深層学習を用いた領域推定に基づく経路計画法の検討

    森本純矢, 林拓哉, 藤本裕之, 石井裕之, 大谷淳, 大和淳司, 高西淳夫

    画像電子学会年次大会予稿集(CD-ROM)   46th   ROMBUNNO.S1‐3  2018年06月

    J-GLOBAL

  • 脳動脈瘤の有無と脳動脈血管形状特徴との関係の解析に関する研究 (ヘルスケア・医療情報通信技術)

    菊地 功成, 八木 高伸, 徐 栄, 大谷 淳

    電子情報通信学会技術研究報告 = IEICE technical report : 信学技報   117 ( 280 ) 59 - 64  2017年11月

    CiNii

  • 環境モニタリングロボットの視覚情報処理を用いた森林における起点への帰還法の検討

    藤本裕之, 石井裕之, 大谷淳, 大和淳司, 高西淳夫

    画像電子学会年次大会予稿集(CD-ROM)   45th   ROMBUNNO.S‐2  2017年06月

    J-GLOBAL

  • 縫合手術を構成する6つの段階の動画像中の手術者の手の動きに基づき予測する方法 (ITS)

    坪田 実和, 李 イエ, 大谷 淳

    電子情報通信学会技術研究報告 = IEICE technical report : 信学技報   116 ( 463 ) 257 - 262  2017年02月

    CiNii

  • H-012 超音波画像中の胎児の組織抽出のためのSuperVoxelに基づくセグメンテーション法の検討(H分野:画像認識・メディア理解,一般論文)

    王 元晨, 立松 直倫, 大谷 淳, 徐 栄, 石川 牧子, 岩田 浩康

    情報科学技術フォーラム講演論文集   14 ( 3 ) 149 - 150  2015年08月

    CiNii

  • H-008 SLAMに基づく片づけロボットによる物体の力学的操作結果の確認方法に関する検討(H分野:画像認識・メディア理解,一般論文)

    高 斯, 立松 直倫, 大谷 淳

    情報科学技術フォーラム講演論文集   14 ( 3 ) 135 - 136  2015年08月

    CiNii

  • H-030 A Method for Tracking Guitar Neck and Fingertips: Necking Tracking Robust against Occlusions Based on Geometry Analysis and Fingertips Tracking Based on Temporal Probability Map

    Zhao Wang, Ohya Jun

    情報科学技術フォーラム講演論文集   14 ( 3 ) 195 - 196  2015年08月

    CiNii

  • I-015 ニューラルネットワークを利用する顔画像からの似顔絵自動生成の検討 : 主観評価に基づく比較検討(I分野:グラフィクス・画像,一般論文)

    郭 帥, 榎本 誠, 川村 春美, 大谷 淳

    情報科学技術フォーラム講演論文集   14 ( 3 ) 231 - 232  2015年08月

    CiNii

  • I-009 少数特徴点追跡に基づく動画像からの樹木全体の動き追跡の検討(I分野:グラフィクス・画像,一般論文)

    シン エンチョウ, 大谷 淳

    情報科学技術フォーラム講演論文集   14 ( 3 ) 217 - 218  2015年08月

    CiNii

  • 人物の関節の三次元データを用いた動作の予測の検討 : リー群での相対位置に基づくSkeltonの特徴とMax-Margin Early Event Detectorsを用いた手法 (バイオメトリクス)

    立松 直倫, 大谷 淳, Davis Larry S.

    電子情報通信学会技術研究報告 = IEICE technical report : 信学技報   114 ( 520 ) 229 - 234  2015年03月

     概要を見る

    移動ロボットにより、移動物体(人間)を検出し、その挙動を予測する方法の実現がセキュリティ、福祉(老人ホームの老人監視)などのいくつかの応用で重要になっている。筆者らは,特定のアクションをKinect[○!C]等で撮像することにより獲得される人体の関節の三次元位置の情報から,アクションの予測を行う手法の検討を行っている。本稿では、Vemulapalliらが提案したSkeltonの特徴と,Max-Margin Early Event Detectorsを用いた手法を組み合わせた方法を提案する.実画像で構成された既存のデータセットを用いて実験を行い,本手法の有効性を確認した.

    CiNii

  • D-16-12 Fundamental Study of Early Recognition of Surgeon's Action during Suture Surgery from Video Sequences

    Li Ye, Ohya Jun, Chiba Toshio, Xu Rong, Yamashita Hiromasa

    電子情報通信学会総合大会講演論文集   2015 ( 2 ) 152 - 152  2015年02月

    CiNii

  • D-11-38 ピアノ練習の自動教師システムを目指したRGBD動画像中の手指追跡の基礎的検討(D-11.画像工学,一般セッション)

    邱 東, 大谷 淳

    電子情報通信学会総合大会講演論文集   2015 ( 2 ) 38 - 38  2015年02月

    CiNii

  • D-12-53 リー群での人物の関節の相対位置に基づくSkeltonの特徴とMax-Margin Early Event Detectorsを用いた動作の早期認識の検討(D-12.パターン認識・メディア理解B(コンピュータビジョンとコンピュータグラフィックス),一般セッション)

    立松 直倫, 大谷 淳, Davis Larry S.

    電子情報通信学会総合大会講演論文集   2015 ( 2 ) 105 - 105  2015年02月

    CiNii

  • D-11-12 Study of a Vision Based Method for Checking the Position of Each Finger of Guitar Players : Towards the Actualization of an Autonomous Guitar Chord Teaching System

    WANG Zhao, OHYA Jun

    電子情報通信学会総合大会講演論文集   2015 ( 2 ) 12 - 12  2015年02月

    CiNii

  • 抽象絵画における鑑賞者の視線行動を利用した音楽生成システムの研究-鑑賞者の発話内容の重複と発想の広がりとの関連に関する検討-

    小楠竜也, 大谷淳, 楜沢順, 米村俊一

    電子情報通信学会大会講演論文集(CD-ROM)   2015  2015年

    J-GLOBAL

  • 抽象絵画における鑑賞者の注視情報を利用した音楽生成システム-抽象絵画の特徴が鑑賞者の抽象的な発想の変化に及ぼす影響-

    小楠竜也, 大谷淳, 楜沢順, 米村俊一

    情報科学技術フォーラム講演論文集   14th  2015年

    J-GLOBAL

  • 店舗内の消費者の購買行動の動画像処理とベイジアンネットワークによる認識法の検討 (パターン認識・メディア理解)

    エン セイ, 堀 隆之, 大谷 淳

    電子情報通信学会技術研究報告 = IEICE technical report : 信学技報   114 ( 197 ) 101 - 106  2014年09月

     概要を見る

    既存のPOS(Point of Sale)システムが収集できない消費者が買い物する過程での心理状態および購買行動を認識する研究の一環として,本稿では店舗内に設置された監視カメラのビデオ画像から,顧客の購買行動と因果関係を持つ10個の行動特徴量の自動抽出方法を提案し,顧客の購買行動の中で店舗のビジネスにとって重要度の高い「迷い」の有無と,「購入」の有無を認識することに着目する.具体的には,顧客追跡処理や行動特徴量の自動抽出処理,ベイジアンネットワークなどを用いて認識する方法の検討を行う.認識実験の結果,48個のテストデータに対して,平均認識率が89.6%に達し,提案手法の有効性を示す結果と言える.

    CiNii

  • 店舗内の消費者の購買行動の動画像処理とベイジアンネットワークによる認識法の検討

    エン セイ, 堀 隆之, 大谷 淳

    研究報告コンピュータビジョンとイメージメディア(CVIM)   2014 ( 17 ) 1 - 6  2014年08月

     概要を見る

    既存のPOS (Point of Sale) システムが収集できない消費者が買い物する過程での心理状態および購買行動を認識する研究の一環として,本稿では店舗内に設置された監視カメラのビデオ画像から,顧客の購買行動と因果関係を持つ 10 個の行動特徴量の自動抽出方法を提案し,顧客の購買行動の中で店舗のビジネスにとって重要度の高い 「迷い」 の有無と,「購入」 の有無を認識することに着目する.具体的には,顧客追跡処理や行動特徴量の自動抽出処理,ベイジアンネットワークなどを用いて認識する方法の検討を行う.認識実験の結果,48 個のテストデータに対して,平均認識率が 89.6%に達し,提案手法の有効性を示す結果と言える.This paper explores the validity of embedding the image processing based extraction of 10 image features that could describe customers' shopping behaviors to a Bayesian Network based classification method that can recognize the four categories: combinations of with/without hesitation and bought/not bought. By constructing a system that consists of the three modules for tracking customers, extracting the image features and classifying the customers' behaviors, recognition tests using 48 video data were conducted. As a result of the experiments, a recognition accuracy of higher than 89% is achieved, which is promising.

    CiNii

  • I-036 顔画像からの線画ベースの似顔絵自動生成システムにおける主観識別に関する検討(I分野:グラフィクス・画像,一般論文)

    呉 玉珍, 榎本 誠, 大谷 淳

    情報科学技術フォーラム講演論文集   13 ( 3 ) 247 - 248  2014年08月

    CiNii

  • H-027 ベイジアンネットワークを用いた店舗内の顧客の購買行動認識法における画像特徴に関する検討(H分野:画像認識・メディア理解,一般論文)

    エン セイ, 堀 隆之, 大谷 淳

    情報科学技術フォーラム講演論文集   13 ( 3 ) 121 - 122  2014年08月

    CiNii

  • I-035 仮想化粧システムに関する基礎的検討 : 顔形状の類似度に基づく化粧顔の検索法の検討(I分野:グラフィクス・画像,一般論文)

    張 琳, 大谷 淳

    情報科学技術フォーラム講演論文集   13 ( 3 ) 245 - 246  2014年08月

    CiNii

  • 顔画像からの似顔絵自動生成システムにおける似顔絵の類似度に関する検討 (メディア工学 コンシューマエレクトロニクス)

    呉 玉珍, 榎本 誠, 大谷 淳

    映像情報メディア学会技術報告 = ITE technical report   38 ( 31 ) 1 - 6  2014年08月

    CiNii

  • 顔画像からの似顔絵自動生成システムにおける似顔絵の類似度に関する検討 (画像工学)

    呉 玉珍, 榎本 誠, 大谷 淳

    電子情報通信学会技術研究報告 = IEICE technical report : 信学技報   114 ( 172 ) 1 - 6  2014年08月

     概要を見る

    本稿では,Active Shape Modelにより顔画像から取得された顔徴量を入力,イラストレータが描いた似顔絵を教師信号として,ニューラルネットワークを学習させることによって,任意の顔写真から似顔絵を自動的に生成する方法の検討を行う.筆者らの従来の研究では,似顔絵の主観的な類似性が低い,鼻の有効性が明らかでない,似顔絵生成の主観的評価が行われていない,という問題点があった.本稿では,主観的な類似性を高めるため,新しい似顔絵描画方法を提案した.新描画方法により,主観的な類似性が向上できる見通しを得た.さらに,似顔絵生成品質評価の尺度の一つとして,似顔絵の主観的識別の実験を行った.新描画方法は旧描画方法より主観的識別率が高く,新描画方法による鼻有りの場合が最高の識別率を与えることがわかった.

    CiNii

  • 移動RGB-Dカメラ画像中からの移動物体の特徴点のクラスタリングの検討 : Supervoxelとマルチラベルのグラフカットを用いた手法の提案 (パターン認識・メディア理解)

    立松 直倫, 大谷 淳, Davis Larry S.

    電子情報通信学会技術研究報告 = IEICE technical report : 信学技報   113 ( 493 ) 127 - 132  2014年03月

     概要を見る

    筆者らは,複数の移動物体を含むシーンを移動ステレオカメラやKinect[○!C]等のRGBDカメラにより撮像することにより獲得されるカラー画像と距離画像から,移動物体を物体毎に識別し,識別した物体毎の三次元構造の復元と,ステレオカメラの姿勢推定が可能な手法の検討を進めている.本稿では,Supervoxelとマルチラベルのグラフカットを用いた特徴点のクラスタリング手法を提案する.本手法を複数の移動物体を含むカラー画像と距離画像の時系列画像に対し適用する実験を行い,本手法の有効性の見通しを確認した.

    CiNii

  • Study of Recognizing Hand Actions from Video Sequences during Suture Surgeries Based on Temporally-Sectioned SIFT and Sliding Window Based Neural Networks (パターン認識・メディア理解)

    Li Ye, Ohya Jun, Chiba Toshio, Xu Rong, Yamashita Hiromasa

    電子情報通信学会技術研究報告 = IEICE technical report : 信学技報   113 ( 493 ) 151 - 156  2014年03月

     概要を見る

    Towards the realization of a robotic nurse that can support surgeries autonomously by recognizing surgical situations only using video informations, this paper proposes an improved method by using sectioned-SIFT and sliding window based neural network that can recognize surgeon's hand actions: suture and tying. Hand area is detected by using color information and then the video sequence is partitioned into sections. Sectioned-SIFT descriptors are computed in each section and built a word vocabulary. Histogram feature of the action is spliced by using word's frequency in each section. Finally, sliding window and neural network is used to recognize the significant actions: suture and tying. The proposed method has achieved the 100% recognition rate for manually extracted actions and 90% recognition rate for whole surgery video sequences.

    CiNii

  • 顔表情解析に基づく顧客の購買行動認識の基本的検討 : ASMによる表情特徴量の取得とベイジアンネットワークのモデルの構築手法 (パターン認識・メディア理解)

    賈 璐維, 大谷 淳, 堀 隆之

    電子情報通信学会技術研究報告 = IEICE technical report : 信学技報   113 ( 493 ) 157 - 162  2014年03月

     概要を見る

    本稿では、消費者の購買行動の原因となる心理状態を認識する方法の実現を目指し、顧客の顔表情の解析に基づき、購買行動を認識する方法を提案する.まず、動画像中の各フレームにおいて、ASM(Active Shape Model)を用いて顔特徴点を抽出し、眉毛の特徴点と口元の特徴点を用いて特徴量を求める.次に、各特徴量をノードとして、学習データを用いてベイジアンネットワーク構築する.認識時に動画像を入力すると、ベイジアンネットワークモデルから行動認識結果を得ることができる.実験により本提案手法の有効性を示す.

    CiNii

  • 動的輪郭モデルとテクスチャ解析に基づく舌体検出と舌形分類法の検討 (パターン認識・メディア理解)

    田 明, 羅 丹, 大谷 淳

    電子情報通信学会技術研究報告 = IEICE technical report : 信学技報   113 ( 493 ) 133 - 138  2014年03月

     概要を見る

    本稿では、東洋医学における舌診の自動化を目指す。分水嶺分割に基づく動的輪郭モデルを用いた舌体領域を自動的に抽出・分割方法を提案する。そのあと、舌の輪郭から診断される歯痕舌、舌表面のテクスチャ特徴で診断される裂紋舌や舌苔、舌の面積から診断される胖大舌と痩小舌をグループ化して、どちらのグループに所属するべきかを自動的に判断する。そのために、どの特徴量が有効かを調べ、特徴ベクトルを構成し、認識実験を行い、識別精度を評価する。最後に、実験により提案手法の有効性を検討した結果について述べる。

    CiNii

  • ニューラルネットを利用する顔画像からの似顔絵自動生成における最適な特徴点の場所と数の検討 (マルチメディア・仮想環境基礎)

    方 国勇, 榎本 誠, 大谷 淳

    電子情報通信学会技術研究報告 = IEICE technical report : 信学技報   113 ( 470 ) 145 - 150  2014年03月

     概要を見る

    Active Shape Modelにより顔画像から取得された顔特徴量を入力,イラストレータが描いた似顔絵を教師として,階層型ニューラルネットワークに誤差逆伝搬法を用いて学習させることによって,似顔絵画家の個性を取り込み,かつ,トレース画の変形によらない似顔絵を自動的に生成するシステムを検討する.顔画像から抽出される特徴点の場所や数は,生成される似顔絵の品質に影響を与えると考えられる.本報告では,本研究室で従来から研究されている,顔画像から線画ベースの似顔絵を自動的に生成する方法に関する新たな研究成果を述べる.即ち,従来明らかでなかった,顔画像から検出すべき特徴点の場所と数等の各種パラメータを検討し,最も良好な品質の似顔絵を生成する条件を明らかにする.

    CiNii

  • D-12-76 画像処理とベイジアンネットワークを用いた店舗内における顧客の全身像からの購買行動認識に関する基礎的検討(D-12.パターン認識・メディア理解B(コンピュータビジョンとコンピュータグラフィックス),一般セッション)

    エン セイ, 堀 隆之, 大谷 淳

    電子情報通信学会総合大会講演論文集   2014 ( 2 ) 151 - 151  2014年03月

    CiNii

  • D-16-5 Study of Recognizing Surgeon's Action during Suture Surgery by Using Sectioned-SIFT

    Li Ye, Ohya Jun, Chiba Toshio, Xu Rong, Yamashita Hiromasa

    電子情報通信学会総合大会講演論文集   2014 ( 2 ) 169 - 169  2014年03月

    CiNii

  • D-12-68 オプティカルフロー特徴と形状特徴に離散コサイン変換特徴を組み合わせる動画像からの読唇法の検討(D-12.パターン認識・メディア理解B(コンピュータビジョンとコンピュータグラフィックス),一般セッション)

    高橋 昌平, 大谷 淳

    電子情報通信学会総合大会講演論文集   2014 ( 2 ) 143 - 143  2014年03月

    CiNii

  • D-12-45 舌診における舌体検出と舌形分類法の検討(D-12.パターン認識・メディア理解B(コンピュータビジョンとコンピュータグラフィックス),一般セッション)

    田 明, 羅 丹, 大谷 淳

    電子情報通信学会総合大会講演論文集   2014 ( 2 ) 120 - 120  2014年03月

    CiNii

  • D-12-65 Supervoxelとマルチラベルのグラフカットを用いた移動物体の特徴点のクラスタリングの検討(D-12.パターン認識・メディア理解B(コンピュータビジョンとコンピュータグラフィックス),一般セッション)

    立松 直倫, 大谷 淳, Davis Larry S.

    電子情報通信学会総合大会講演論文集   2014 ( 2 ) 140 - 140  2014年03月

    CiNii

  • D-12-75 表情解析とベイジアンネットに基づく顧客の購買行動認識に関する検討(D-12.パターン認識・メディア理解B(コンピュータビジョンとコンピュータグラフィックス),一般セッション)

    賈 〓維, 大谷 淳, 堀 隆之

    電子情報通信学会総合大会講演論文集   2014 ( 2 ) 150 - 150  2014年03月

    CiNii

  • D-11-5 ニューラルネットワークを用いた顔画像からの線画ベースの似顔絵自動生成システムの検討 : 鼻の描画法の検討(D-11.画像工学,一般セッション)

    呉 玉珍, 榎本 誠, 大谷 淳

    電子情報通信学会総合大会講演論文集   2014 ( 2 ) 5 - 5  2014年03月

    CiNii

  • D-11-6 ニューラルネットを利用する似顔絵自動生成に関する基礎的検討 : 顔特徴点と生成された似顔絵との物理的誤差に基づく最適な特徴点数の検討(D-11.画像工学,一般セッション)

    方 国勇, 榎本 誠, 大谷 淳

    電子情報通信学会総合大会講演論文集   2014 ( 2 ) 6 - 6  2014年03月

    CiNii

  • 複数画像特徴量を用いた読唇システム―オプテイカルフロー特徴・形状特徴・離散コサイン変換特徴の統合の検討―

    高橋 昌平, 大谷 淳

    研究報告コンピュータビジョンとイメージメディア(CVIM)   2014 ( 7 ) 1 - 7  2014年02月

     概要を見る

    本論文では,動画像から唇の情報を読み取り画像特徴のみを用いて会話の内容を認識する手法を述べる.画像による会話認識では、ノイズの影響が大きい車の中や,聴覚,視覚障碍者にも有益である.提案手法では,初めに顔と唇を含んだ動画像に Active Shape Model を適用し顔と唇領域の追跡を行う.追跡された唇から,オプティカルフロー,形状、離散コサイン変換といった唇の特徴を抽出する.抽出された特徴は階層型 SVM の中間層の SVM によって学習認識され,認識結果が最下層の SVM によって統合され最終認識結果となる.複数の画像特徴を用いることによって,認識結果が向上することが実験結果で示された.In the paper, we present a lip-reading method that can recognize speech by using only visual features. Lip-reading can work well in noisy places such as in the car or in the train. In addition people with hearing-impaired or difficulties in hearing can be benefited. First, the Active Shape Model (ASM) is applied to track and detect the face and lip in a video sequence. Second, three visual features, the shape, optical flow and Discreet cosine transformation of the lip are obtained from the lip area detected by ASM. The extracted features are ordered chronologically so that Support Vector Machine (SVM) is performed so as to learn and classify the spoken words. Hierarchical SVMs are used to recognize the words. Each visual feature is trained by the respective middle-layer SVM, and those outputs of SVM's are integrated by the final SVM. Experimental results show that the integration of these features improves the recognition accuracy.

    CiNii

  • 抽象絵画の鑑賞者の視線行動に基づく音楽生成システムの予備的検討-音楽の有無が抽象絵画鑑賞者の発想の多寡に与える影響-

    小楠竜也, 大谷淳, 楜沢順, 米村俊一

    電子情報通信学会大会講演論文集(CD-ROM)   2014  2014年

    J-GLOBAL

  • 抽象絵画における鑑賞者の視線行動を利用した音楽生成システムの予備的検討-提案システムが抽象絵画鑑賞者の発想の多寡に与える影響-

    小楠竜也, 大谷淳, 楜沢順, 米村俊一

    電子情報通信学会技術研究報告   113 ( 501(HIP2013 78-105) )  2014年

    J-GLOBAL

  • 抽象絵画における鑑賞者の視線行動を利用した音楽生成システムの研究-鑑賞者の発想を膨らませる音楽の自動生成システムに関する予備的検討-

    小楠竜也, 大谷淳, 楜沢順, 米村俊一

    情報科学技術フォーラム講演論文集   13th  2014年

    J-GLOBAL

  • Study of Structure-from-motion Based 3D Reconstruction and Surface Mosaic (情報論的学習理論と機械学習)

    Duan Mengyao, Xu Rong, Ohya Jun

    電子情報通信学会技術研究報告 = IEICE technical report : 信学技報   113 ( 197 ) 113 - 118  2013年09月

     概要を見る

    Structure-from-motion (SFM) is a significant issue of 3D reconstruction for many applications. However, some image collector like endoscopy only provides a narrow view angle and 2D structures of the internal organs. In order to expand the view angle and describe the details of 3D structures, we propose an approach to reconstruct 3D surface based on image stitching from a video sequence. There are four major steps of the proposed method: 3D reconstruction, 3D point cloud stitching, dense point cloud generation and Poisson surface reconstruction. Experimental results demonstrate that the proposed method achieves a satisfied accuracy and efficiency for 3D reconstruction, and promise a large view angle.

    CiNii

  • Study of Recognizing Spontaneous Facial Expressions of a Person who Watches Web News Based on ASM and Bayesian Network (情報論的学習理論と機械学習)

    XU Chao, OHYA Jun

    電子情報通信学会技術研究報告 = IEICE technical report : 信学技報   113 ( 197 ) 7 - 12  2013年09月

     概要を見る

    To achieve a comment system that can automatically estimate emotions of a person who watches web news, this paper proposes a computer vision based method that can recognize facial expressions generated in response to Web news. During the learning session, first, ASM (Active Shape Model) is applied to the face so that some feature points are located. From the located feature points, some features such as distances between feature points are obtained. The features collected from sample data are used for nodes of Bayesian Networks. During facial expression estimation session, the features that are computed from the input facial video sequence by the same procedure as the learning session are input to the Bayesian Networks so that the recognition result is obtained as the facial expression category that maximizes the a-posteriori probability. Experimental results demonstrate the effectiveness of the proposed method.

    CiNii

  • Study of Recognizing Spontaneous Facial Expressions of a Person who Watches Web News Based on ASM and Bayesian Network (パターン認識・メディア理解)

    XU Chao, OHYA Jun

    電子情報通信学会技術研究報告 = IEICE technical report : 信学技報   113 ( 196 ) 7 - 12  2013年09月

     概要を見る

    To achieve a comment system that can automatically estimate emotions of a person who watches web news, this paper proposes a computer vision based method that can recognize facial expressions generated in response to Web news. During the learning session, first, ASM (Active Shape Model) is applied to the face so that some feature points are located. From the located feature points, some features such as distances between feature points are obtained. The features collected from sample data are used for nodes of Bayesian Networks. During facial expression estimation session, the features that are computed from the input facial video sequence by the same procedure as the learning session are input to the Bayesian Networks so that the recognition result is obtained as the facial expression category that maximizes the a-posteriori probability. Experimental results demonstrate the effectiveness of the proposed method.

    CiNii

  • Study of Structure-from-motion Based 3D Reconstruction and Surface Mosaic (パターン認識・メディア理解)

    Duan Mengyao, Xu Rong, Ohya Jun

    電子情報通信学会技術研究報告 = IEICE technical report : 信学技報   113 ( 196 ) 113 - 118  2013年09月

     概要を見る

    Structure-from-motion (SFM) is a significant issue of 3D reconstruction for many applications. However, some image collector like endoscopy only provides a narrow view angle and 2D structures of the internal organs. In order to expand the view angle and describe the details of 3D structures, we propose an approach to reconstruct 3D surface based on image stitching from a video sequence. There are four major steps of the proposed method: 3D reconstruction, 3D point cloud stitching, dense point cloud generation and Poisson surface reconstruction. Experimental results demonstrate that the proposed method achieves a satisfied accuracy and efficiency for 3D reconstruction, and promise a large view angle.

    CiNii

  • Study of Structure-from-motion Based 3D Reconstruction and Surface Mosaic

    Mengyao Duan, Rong Xu, Jun Ohya

    研究報告コンピュータビジョンとイメージメディア(CVIM)   2013 ( 18 ) 1 - 6  2013年08月

     概要を見る

    Structure-from-motion (SFM) is a significant issue of 3D reconstruction for many applications. However, some image collector like endoscopy only provides a narrow view angle and 2D structures of the internal organs. In order to expand the view angle and describe the details of 3D structures, we propose an approach to reconstruct 3D surface based on image stitching from a video sequence. There are four major steps of the proposed method: 3D reconstruction, 3D point cloud stitching, dense point cloud generation and Poisson surface reconstruction. Experimental results demonstrate that the proposed method achieves a satisfied accuracy and efficiency for 3D reconstruction, and promise a large view angle.Structure-from-motion (SFM) is a significant issue of 3D reconstruction for many applications. However, some image collector like endoscopy only provides a narrow view angle and 2D structures of the internal organs. In order to expand the view angle and describe the details of 3D structures, we propose an approach to reconstruct 3D surface based on image stitching from a video sequence. There are four major steps of the proposed method: 3D reconstruction, 3D point cloud stitching, dense point cloud generation and Poisson surface reconstruction. Experimental results demonstrate that the proposed method achieves a satisfied accuracy and efficiency for 3D reconstruction, and promise a large view angle.

    CiNii

  • I-046 ニューラルネットを利用する似顔絵自動生成に関する基礎的検討 : ASMにより検出される顔特徴と生成された似顔絵の品質との関係の検討(I分野:グラフィクス・画像,一般論文)

    方 国勇, 榎本 誠, 大谷 淳

    情報科学技術フォーラム講演論文集   12 ( 3 ) 347 - 348  2013年08月

    CiNii

  • H-034 画像処理とベイジアンネットワークを用いた店舗内における顧客の全身像からの購買行動認識の基礎的検討(H分野:画像認識・メディア理解,一般論文)

    Yan Jing, 堀 隆之, 大谷 淳

    情報科学技術フォーラム講演論文集   12 ( 3 ) 169 - 170  2013年08月

    CiNii

  • H-013 移動Kinect画像中からの移動物体の抽出と三次元形状のセグメンテーションに関する検討 : Probabilistic Boundary Edge MapとSupervoxelを組み合わせた手法の提案(H分野:画像認識・メディア理解,一般論文)

    立松 直倫, 大谷 淳, Davis Larry

    情報科学技術フォーラム講演論文集   12 ( 3 ) 119 - 120  2013年08月

    CiNii

  • H-008 Improving a Bayesian Network Based Recognition of Spontaneous Facial Expressions of a Person who Watches Web News : Utilizing Image Features for Blinks

    許 超, 大谷 淳

    情報科学技術フォーラム講演論文集   12 ( 3 ) 109 - 110  2013年08月

     概要を見る

    Recently reading news through web news media is becoming popular. Most of web news is delivered together with a comment system, which asks the user to rate items such as "the news let you think", and "boring". However, many users do not like manual operations for rating; therefore, not many users actually input the rates. One solution for this issue is to utilize results of recognizing facial expressions from the video sequence acquired by the camera that observes the user. So far, there are very many works on recognizing six fundamental expressions such as sad, surprise and happy, for example, by HMM (Hidden Markov Models). However, not many works dealt with recognizing expressions that could appear when the user watches web news; main difficulty in recognizing these expressions could be caused by the fact that these expressions are spontaneously generated. It is difficult to recognize the spontaneous expressions, which come with tiny movements hard to be detected. This paper proposes a method that aims at recognizing spontaneous expressions.

    CiNii

  • H-007 Visual-based Human Gesture Recognition Using Multi-modal Features

    羅 丹, 大谷 淳

    情報科学技術フォーラム講演論文集   12 ( 3 ) 107 - 108  2013年08月

    CiNii

  • H-038 Fundamental Study of Recognizing the Surgeon's Action during Suture Surgery from the Video Sequence

    李 イエ, 大谷 淳, 千葉 敏雄, 徐 栄, 山下 紘正

    情報科学技術フォーラム講演論文集   12 ( 3 ) 179 - 180  2013年08月

    CiNii

  • H-012 舌診における舌体検出と特徴抽出法の検討(H分野:画像認識・メディア理解,一般論文)

    田 明, 羅 丹, 大谷 淳

    情報科学技術フォーラム講演論文集   12 ( 3 ) 117 - 118  2013年08月

    CiNii

  • H-019 Fundamental Study of Particle Filter based Motorbike Tracking for a Violator Detection System

    ド カイン, 大谷 淳

    情報科学技術フォーラム講演論文集   12 ( 3 ) 135 - 136  2013年08月

    CiNii

  • H-047 Endoscope based gastric 3D reconstruction and surface mosaic

    Duan Mengyao, Xu Rong, Ohya Jun

    情報科学技術フォーラム講演論文集   12 ( 3 ) 197 - 198  2013年08月

    CiNii

  • K-055 オプティカルフローの方向特徴履歴とサポートベクトルマシンを用いた読唇の基礎的検討(K分野:教育工学・福祉工学・マルチメディア応用,一般論文)

    高橋 昌平, 大谷 淳

    情報科学技術フォーラム講演論文集   12 ( 3 ) 681 - 682  2013年08月

    CiNii

  • E-024 抽象絵画における鑑賞者の視線行動を利用した自動作曲に関する研究 : 視線行動パターンから和声的な音楽の生成方法に関する基礎的検討(E分野:自然言語・音声・音楽)

    小楠 竜也, 大谷 淳, 楜沢 順

    情報科学技術フォーラム講演論文集   12 ( 2 ) 237 - 238  2013年08月

    CiNii

  • Study of Robust Facial Feature Localization by Modified Active Shape Model (パターン認識・メディア理解)

    Yan Li, Dan Luo, Ohya Jun

    電子情報通信学会技術研究報告 : 信学技報   112 ( 495 ) 129 - 134  2013年03月

     概要を見る

    This paper proposes a modified Active Shape Model (ASM), which is featured by the following two modules: (1)A flexible method that automatically generates training set and does not require time-consuming manual operations, which are required by the conventional ASM; (2)Two-step fitting that consists of the initial global (rough)fitting for the entire face and the subsequent local (precise)fitting for each facial component, where both fittings are based on ASM. Experiments demonstrate that more accurate location results were obtained by the proposed method than the conventional ASM.

    CiNii

  • 映像合成のためのRGB画像からの3次元復元結果とDepth画像との比較による光源方向推定法に関する研究 (マルチメディア・仮想環境基礎)

    林田 智樹, 高橋 昌平, 奥屋 武志, 大谷 淳, 川村 春美

    電子情報通信学会技術研究報告 : 信学技報   112 ( 474 ) 145 - 150  2013年03月

     概要を見る

    本論文は、撮像対象シーンの光源方向の推定を,Kinectセンサー等により獲得されるRGB画像とDepth画像から行う方法を提案する。本提案手法は、RGB画像から得られる濃淡画像を、Deep is dark paradigmに基づくKhanらの式を利用して距離画像に変換し、その距離画像に含まれる物体が光源方向に歪む性質を利用する。即ち、前述のようにして得られた距離画像とDepth画像とを画素ごとに比較して差分値を求めるとともに、その画素の法線ベクトルの方向をDepth画像より計算する。法線ベクトルの方向を表す2つの角度パラメータにより張られる2次元パラメータ平面において、各画素の法線ベクトルの方向に対応するcellに、その画素の差分値を加算する。全画素についてこの処理を行った後、パラメータ平面のピーク値に基づき光源を推定する。数種類の物体を対象に光源位置を変えて実験を行った結果、良好な光源推定が行える見通しを得た。

    CiNii

  • ベイジアンネットワークを用いた店舗内における消費者の行動認識に関する研究 (マルチメディア・仮想環境基礎)

    鄭 曜, 大谷 淳

    電子情報通信学会技術研究報告 : 信学技報   112 ( 474 ) 51 - 56  2013年03月

     概要を見る

    スーパーやコンビニなどの店舗にとって、マーケティング調査は重要な課題であり、特にPOSシステムに記録が残らない顧客の購買時の迷いの有無は重要性が高い。本稿では、顧客が「迷わず購入した」、「迷って購入した」、「迷わず購入しなかった」、「迷って購入しなかった」の4つの行動を認識する方法を検討した。このような顧客の行動は個人や場合により大きく変動するため、ペイジアンネットワークによる認識が有効と考えられる。店舗内のビデオ映像から得られると考えられる画像特徴を手動で抽出し、ペイジアンネットワークを用いる方法の有効性の検討を行い、有効性の見通しを得た。

    CiNii

  • サポートベクターマシンを用いたDepth動画像からの寝返り判定に関する基礎的検討 (マルチメディア・仮想環境基礎)

    峰崎 雄大, 大谷 淳

    電子情報通信学会技術研究報告 : 信学技報   112 ( 474 ) 107 - 112  2013年03月

     概要を見る

    近年、高齢者を介護する人々にとって寝返りの補助は大きな負担となっており、特に自動的な寝返りの有無判定が望まれている。そこで本論文では被介護者の寝返りの有無の判定を、被介護者を撮像するKinectセンサーの距離画像を利用して行う方法を提案する。即ち、距離画像から被介護者の特徴量を抽出し、サポートベクターマシン(SVM)で寝返りの有無を判定する。寝返りの有無の識別に使う特徴量として「左右の肩と腰のxyz座標値の差」と「ベッド範囲をwXh分割した、各区域の深さ(Depth)の平均値」の2つの特徴の時系列データを対象に、認識率を検討した。その結果、前者は約99. 5%、後者は約89.5%の認識率となった。前者の方が認識率は高かったものの、使用できる状況が限定されており、後者の方が汎用性が高く、使い勝手が良い。

    CiNii

  • 複数の視点固定型パン・チルト・ズームカメラを用いた不審者検出法に関する研究 (マルチメディア・仮想環境基礎)

    溝口 慶範, 大谷 淳

    電子情報通信学会技術研究報告 : 信学技報   112 ( 474 ) 45 - 50  2013年03月

     概要を見る

    本研究では,被験者がカメラに近づくことなく,カメラがズームして被験者を撮像することにより高解像度の顔画像を入手する手法を提案した.通常の防犯カメラと同様の設置位置(斜め上方から撮像)を想定し,人物の顔が解像度が低くて顔認識ができない場合でも,前景領域に対する肌色抽出を行い,推定した顔位置にズームすることで対応する.顔画像はDCTで特徴量ベクトル化し,SVMによって侵入者か否かを判定する.提案システムでは複数カメラが互いの画像情報を共有し,連続フレーム間で移動する人物の3次元座標を参考に各フレーム中でズームするカメラを1台に限定することで「実時間上での広域監視と認証機能の統合」の実現を目指す.実験による評価を行ない,有効性を見通しを得た.

    CiNii

  • D-12-76 複数の視点固定型パン・チルト・ズームカメラを用いた不審者検出法に関する研究(D-12.パターン認識・メディア理解B(コンピュータビジョンとコンピュータグラフィックス))

    溝口 慶範, 大谷 淳

    電子情報通信学会総合大会講演論文集   2013 ( 2 ) 169 - 169  2013年03月

    CiNii

  • D-16-5 A Robust ICP Algorithm for Automatic Registration of 3D Fetal Facial Surface

    Xu Rong, Ohya Jun, Zhang Bo, Sato Yoshinobu, Fujie Masakatsu

    電子情報通信学会総合大会講演論文集   2013 ( 2 ) 196 - 196  2013年03月

    CiNii

  • D-12-72 サポートベクターマシンを用いたRGBD動画像からの寝返り判定に関する基礎的検討(D-12.パターン認識・メディア理解B(コンピュータビジョンとコンピュータグラフィックス))

    峰崎 雄大, 大谷 淳

    電子情報通信学会総合大会講演論文集   2013 ( 2 ) 165 - 165  2013年03月

    CiNii

  • D-12-80 Temporal Modified-RANSACとSupervoxelベースのグラフカットを用いた移動RBGDカメラからの移動物体領域のセグメンテーションの検討(D-12.パターン認識・メディア理解B(コンピュータビジョンとコンピュータグラフィックス))

    立松 直倫, 大谷 淳, Davis Larry's.

    電子情報通信学会総合大会講演論文集   2013 ( 2 ) 173 - 173  2013年03月

    CiNii

  • D-11-20 ポリゴンモデルにおける法線ベクトルを用いた曲率の高速計算(D-11.画像工学)

    奥屋 武志, 藪野 健, 大谷 淳, 高橋 信之

    電子情報通信学会総合大会講演論文集   2013 ( 2 ) 20 - 20  2013年03月

    CiNii

  • D-12-12 店舗内における消費者の行動認識のためのベイジアンネットワークモデル構築に関する研究(D-12.パターン認識・メディア理解A(パターンメディアの認識・理解・生成))

    鄭 曜, 大谷 淳

    電子情報通信学会総合大会講演論文集   2013 ( 2 ) 105 - 105  2013年03月

    CiNii

  • D-12-11 Study of Recognizing Spontaneous Facial Behaviors Generated by Persons Watching Web News by Combining ASM and Bayesian Network

    Xu Chao, Ohya Jun

    電子情報通信学会総合大会講演論文集   2013 ( 2 ) 104 - 104  2013年03月

    CiNii

  • D-12-10 Face Recognition Using Sparse Representation and Moments

    Li Ye, Shu Huazhong, Ohya Jun

    電子情報通信学会総合大会講演論文集   2013 ( 2 ) 103 - 103  2013年03月

    CiNii

  • D-12-21 Robust Lip Contour Localization by Modified Active Shape Model

    Yan Li, Dan Luo, Ohya Jun

    電子情報通信学会総合大会講演論文集   2013 ( 2 ) 114 - 114  2013年03月

    CiNii

  • D-11-78 A Study on 3D Point Cloud Stitching for SFM Reconstruction

    Duan Mengyao, Xu Rong, Ohya Jun

    電子情報通信学会総合大会講演論文集   2013 ( 2 ) 78 - 78  2013年03月

    CiNii

  • 高彩度および低彩度gamutを用いた灰色仮説に基づく照明光色推定の一提案

    川村春美, 米村俊一, 大谷淳, 小島明

    情報処理学会研究報告(CD-ROM)   2012 ( 6 )  2013年

    J-GLOBAL

  • A Study of Automatic 3D Fetal Face Detection By Locating Facial Features from 3D Ultrasound Images for Navigating FETO Surgeries (医用画像)

    Xu Rong, Ohya Jun, Zhang Bo, SATO Yoshinobu, Fujie Masakatsu G.

    電子情報通信学会技術研究報告. MI, 医用画像   112 ( 271 ) 59 - 64  2012年10月

     概要を見る

    With the wide clinical application of 3D ultrasound (US) imaging, automatic location of fetal facial features from us volumes for navigating fetoscopic tracheal occlusion (FETO) surgeries becomes possible, which plays an important role in reducing surgical risk. In this paper, we propose a feature-based method to automatically detect 3D fetal face and accurately locate key facial features without any priori knowledge or training data. The candidates of the key facial features, such as the nose, eyes, nose upper bridge and upper lip are detected by analyzing the mean and Gaussian curvatures of the facial surface. Each feature is gradually identified from the candidates by a boosted cascade filtering scheme based on the spatial relations between each feature. In experiments, an identification rate of 100% is achieved by using 72 3D US images from a test database of 6 fetal faces in the frontal view and any pose within 15° from the frontal view, and the location error 3.18±0.91mm of the detected upper lip for all test data is obtained, which can be tolerated by the FETO surgery.

    CiNii

  • H-020 移動Kinect画像中からの移動物体の抽出と三次元形状のセグメンテーションに関する検討 : Probabilistic Boundary Edge Mapを用いたFixationベースのセグメンテーション手法の提案(3次元処理・ステレオ,H分野:画像認識・メディア理解)

    立松 直倫, 大谷 淳, Davis Larry

    情報科学技術フォーラム講演論文集   11 ( 3 ) 161 - 162  2012年09月

    CiNii

  • H-046 ベイジアンネットワークを用いた店舗内における消費者の行動認識に関する研究(動作解析,H分野:画像認識・メディア理解)

    鄭 曜, 大谷 淳

    情報科学技術フォーラム講演論文集   11 ( 3 ) 221 - 222  2012年09月

    CiNii

  • H-048 Fundamental Study of Reconstructing Botanical Tree's 3D Models from Kinect's Images and Dynamical Behaviors of Non-leafy Trees

    Do Khanh N., 大谷 淳

    情報科学技術フォーラム講演論文集   11 ( 3 ) 225 - 226  2012年09月

    CiNii

  • H-042 防犯用カメラを用いた不審者検出法の基礎的検討(人物検出・移動検知,H分野:画像認識・メディア理解)

    溝口 慶範, 大谷 淳

    情報科学技術フォーラム講演論文集   11 ( 3 ) 213 - 214  2012年09月

    CiNii

  • H-047 A Study of Extracting 3D Facial Feature from Kinect's Image by Integrating ASM and Depth Map

    李 岩, LUO DAN, 大谷 淳

    情報科学技術フォーラム講演論文集   11 ( 3 ) 223 - 224  2012年09月

    CiNii

  • H-045 表情と手振りの組み合わせから成る手話動作認識のためのマルチモーダル特徴量抽出法の検討(動作解析,H分野:画像認識・メディア理解)

    羅 丹, 大谷 淳

    情報科学技術フォーラム講演論文集   11 ( 3 ) 219 - 220  2012年09月

    CiNii

  • G-014 A Registration Between 3D Ultrasound Images and 3D Fetal Model for Locating a Fetal Mouth in a Fetal Surgical Navigation System

    Xu Rong, Ohya Jun, Sato Yoshinobu, Fujie Masakatsu G.

    情報科学技術フォーラム講演論文集   11 ( 2 ) 373 - 374  2012年09月

    CiNii

  • Object Tracking Using Kinect and its Application in Tracking Dynamical Behaviors of Botanical Tree Leaves (ヒューマン情報処理)

    DO Khanh N., OHYA Jun

    電子情報通信学会技術研究報告. HIP, ヒューマン情報処理   111 ( 500 ) 159 - 164  2012年03月

     概要を見る

    Reconstructing the dynamical behavior of a moving non-rigid object such as smoke, water and botanical tree is a tough task because it is very difficult to track the behavior of such objects due to their complicated structure and behavior. This paper studies on tracking the dynamical behaviors of a botanical tree by particle filter based methods. The proposed method uses particle filter, which is also known as Sequential Monte Carlo method, to estimate the position of the target leaf (leaf to be tracked) in each frame of the video sequences. The motion model predicts the position of the target leaf by generating different hypothesis of the target leaf's positions. The observation model corrects the prediction by evaluating each "particle" based on template matching score between the leaf model (template) and the target leaf. To increase the tracking accuracy and decrease the computation cost, a leaf is only searched for in its region of interest (ROI). The ROI position and size are updated by one frame delay method.

    CiNii

  • A Cone Based Electromagnetic 3D Ultrasound Calibration (ヒューマン情報処理)

    Xu Rong, Ohya Jun, Zhang Bo, SATO Yoshinobu, FUJIE Masakatsu G.

    電子情報通信学会技術研究報告. HIP, ヒューマン情報処理   111 ( 500 ) 253 - 258  2012年03月

     概要を見る

    For a surgical navigation system with swept-volume 3D ultrasound images, it is necessary to estimate the extracted positions of ultrasound voxels relative to a tracking reference by a 3D ultrasoud calibration. In this paper, we propose a cone based 3D ultrasound calibration system by using an electromagnetic tracking device. The proposed phantom is not expensive, easy to construct, easy to scan, and has a simple experiment setup, while the identification of the tips on each cone from a single ultrasound volume is a manual process, the tracking position of each tip is measured by a pen probe, and the calibration matrix is estimated by SVD (Singular Value Decomposition) method. The precision of the system is experimentally evaluated. It turns out that the maximum distance root mean square (RMS) error is 3.32 mm by using 12 cones, which satisfies the requirement of our fetal surgical navigation system: less than 3.85 mm.

    CiNii

  • Analyzing the "●" Communication System's Effect on Users' Self-Disclosures during Tele-Communication Session (ヒューマン情報処理)

    CHEN Li Jen, Ohya Jun, Yonemura Shunichi, TOKUNAGA Yukio

    電子情報通信学会技術研究報告. HIP, ヒューマン情報処理   111 ( 500 ) 123 - 128  2012年03月

     概要を見る

    This paper analyzes how our Prompter Communication System (PCS), which has single or several black circular images "●" embedded in the background of the text-field canvas to be used for tele-communication between two users, affects telel-communication users' self-disclosures. To the analysis, this research applies the concepts and features of psychological projection techniques and tests. According to these concepts and features, PCS is expected to enhance and encourage the users' self-disclosure, which is essential to developing intimate and deep interpersonal relationship. Communication experiments by using the prototype system, PCS, are conducted, where a Normal Communication System (NCS), which uses only plain text-field canvas without black circles, is compared with PCS. Two subjects are required to make tele-communication using PCS or NCS. PCS/NCS user writes texts to the canvas with/without randomly generated black circles and sends it (message) to the other user. After tele-communication experiments using PCS and NCS, to each message, for coders give a self-disclosure level, which modifies Daibo et al.'s self-disclosure levels. Consequently, it turns out that PCS gives significantly higher frequencies for the high self-disclosure level, which corresponds to the users' inner thoughts and emotions, than NCS.

    CiNii

  • A Cone Based Electromagnetic 3D Ultrasound Calibration (パターン認識・メディア理解)

    Xu Rong, Ohya Jun, Zhang Bo, SATO Yoshinobu, FUJIE Masakatsu G.

    電子情報通信学会技術研究報告. PRMU, パターン認識・メディア理解   111 ( 499 ) 253 - 258  2012年03月

     概要を見る

    For a surgical navigation system with swept-volume 3D ultrasound images, it is necessary to estimate the extracted positions of ultrasound voxels relative to a tracking reference by a 3D ultrasoud calibration. In this paper, we propose a cone based 3D ultrasound calibration system by using an electromagnetic tracking device. The proposed phantom is not expensive, easy to construct, easy to scan, and has a simple experiment setup, while the identification of the tips on each cone from a single ultrasound volume is a manual process, the tracking position of each tip is measured by a pen probe, and the calibration matrix is estimated by SVD (Singular Value Decomposition) method. The precision of the system is experimentally evaluated. It turns out that the maximum distance root mean square (RMS) error is 3.32 mm by using 12 cones, which satisfies the requirement of our fetal surgical navigation system: less than 3.85 mm.

    CiNii

  • Object Tracking Using Kinect and its Application in Tracking Dynamical Behaviors of Botanical Tree Leaves (パターン認識・メディア理解)

    DO Khanh N., OHYA Jun

    電子情報通信学会技術研究報告. PRMU, パターン認識・メディア理解   111 ( 499 ) 159 - 164  2012年03月

     概要を見る

    Reconstructing the dynamical behavior of a moving non-rigid object such as smoke, water and botanical tree is a tough task because it is very difficult to track the behavior of such objects due to their complicated structure and behavior. This paper studies on tracking the dynamical behaviors of a botanical tree by particle filter based methods. The proposed method uses particle filter, which is also known as Sequential Monte Carlo method, to estimate the position of the target leaf (leaf to be tracked) in each frame of the video sequences. The motion model predicts the position of the target leaf by generating different hypothesis of the target leaf's positions. The observation model corrects the prediction by evaluating each "particle" based on template matching score between the leaf model (template) and the target leaf. To increase the tracking accuracy and decrease the computation cost, a leaf is only searched for in its region of interest (ROI). The ROI position and size are updated by one frame delay method.

    CiNii

  • Analyzing the "●" Communication System's Effect on Users' Self-Disclosures during Tele-Communication Session (パターン認識・メディア理解)

    CHEN Li Jen, Ohya Jun, Yonemura Shunichi, TOKUNAGA Yukio

    電子情報通信学会技術研究報告. PRMU, パターン認識・メディア理解   111 ( 499 ) 123 - 128  2012年03月

     概要を見る

    This paper analyzes how our Prompter Communication System (PCS), which has single or several black circular images "●" embedded in the background of the text-field canvas to be used for tele-communication between two users, affects telel-communication users' self-disclosures. To the analysis, this research applies the concepts and features of psychological projection techniques and tests. According to these concepts and features, PCS is expected to enhance and encourage the users' self-disclosure, which is essential to developing intimate and deep interpersonal relationship. Communication experiments by using the prototype system, PCS, are conducted, where a Normal Communication System (NCS), which uses only plain text-field canvas without black circles, is compared with PCS. Two subjects are required to make tele-communication using PCS or NCS. PCS/NCS user writes texts to the canvas with/without randomly generated black circles and sends it (message) to the other user. After tele-communication experiments using PCS and NCS, to each message, for coders give a self-disclosure level, which modifies Daibo et al.'s self-disclosure levels. Consequently, it turns out that PCS gives significantly higher frequencies for the high self-disclosure level, which corresponds to the users' inner thoughts and emotions, than NCS.

    CiNii

  • 胎児手術支援システムのための内視鏡画像処理による胎児の口の検出法の基礎的検討

    謝 天亮, 徐 栄, 大谷 淳, 張 博, 佐藤 嘉伸, 藤江 正克

    電子情報通信学会技術研究報告. PRMU, パターン認識・メディア理解   111 ( 499 ) 235 - 240  2012年03月

     概要を見る

    先天性横隔膜ヘルニアの治療法として、内視鏡気管閉塞がある。内視鏡気管閉塞では気管にバルーンを留置する方法で,灰の自然復元を目指す。ただ、この方法は大変危険を伴う治療法であり、手術支援システムの実現が望まれている。本研究では、胎児の気管に挿入する手術具の自動的なナビゲートを実現するために、内視鏡画像から胎児の口の位置を自動的に検出する方法の実現を目指す。ランダム化ハフ変換による楕円検出とCamShiftによる追跡を組み合わせる方法を提案し、実験的に有効性の見通しを示した。

    CiNii

  • A-15-6 分析的記憶表象領域における顔記憶の階層的構造 : デフォルメ似顔絵自動生成システムへの応用(A-15.ヒューマン情報処理,一般セッション)

    榎本 誠, 大谷 淳

    電子情報通信学会総合大会講演論文集   2012   226 - 226  2012年03月

    CiNii

  • A-15-8 ニューラルネットを用いた似顔絵自動生成に関する基礎的検討(A-15.ヒューマン情報処理,一般セッション)

    高野 晃, 大谷 淳, 榎本 誠

    電子情報通信学会総合大会講演論文集   2012   228 - 228  2012年03月

    CiNii

  • A-16-5 抽象絵画における鑑賞者の視線行動解析と音楽作曲への応用に関する提案(A-16.マルチメディア・仮想環境基礎,一般セッション)

    小楠 竜也, 大谷 淳, 楜沢 順

    電子情報通信学会総合大会講演論文集   2012   254 - 254  2012年03月

    CiNii

  • D-12-15 Human gesture recognition using multimodal features

    Luo Dan, Gao Hua, Ekenel Hazim Kemal, Ohya Jun

    電子情報通信学会総合大会講演論文集   2012 ( 2 ) 109 - 109  2012年03月

    CiNii

  • D-12-13 Real Length Measurement by Kinect

    Duan Mengyao, Xie Yingdi, Ohya Jun

    電子情報通信学会総合大会講演論文集   2012 ( 2 ) 107 - 107  2012年03月

    CiNii

  • D-12-48 Study of the Particle Filter Based Method for Tracking the Dynamical Behaviors of Botanical Tree Leaves in Video Sequence

    Do Khanh N., Ohya Jun

    電子情報通信学会総合大会講演論文集   2012 ( 2 ) 142 - 142  2012年03月

    CiNii

  • D-15-18 e-learningにおける主観的難易度の補足方法に対する基礎的検討(D-15.教育工学,一般セッション)

    大川内 隆朗, 大谷 淳, 米村 俊一, 徳永 幸生

    電子情報通信学会総合大会講演論文集   2012 ( 1 ) 215 - 215  2012年03月

    CiNii

  • 分析的記憶表象領域における顔記憶の階層的構造とデフォルメ似顔絵自動生成システムへの応用

    榎本 誠, 高野 晃, 大谷 淳

    電子情報通信学会技術研究報告. MVE, マルチメディア・仮想環境基礎   111 ( 479 ) 19 - 24  2012年03月

     概要を見る

    似顔絵画家(研究者)自身が似顔絵を制作する過程を内観的に考察し、それを論理化してプログラミングすることで「自動似顔絵ソフト」を開発した。入力画像をトレースすることなく、特徴を解析して顔の分類ができることで、文字やイラストなど様々な変換が可能となった。本システムは入力画像とのアナロジーに束縛されないので、画家の意図する大胆なデフォルメが可能である。また、必要な特徴抽出点をわずか25ポイントに抑えた。

    CiNii

  • 化粧サンプルを利用した多様な仮想メイクアップ生成法に関する考察

    曹 智恩, 朴 〓濟, 朴 相日, 大谷 淳

    電子情報通信学会技術研究報告. MVE, マルチメディア・仮想環境基礎   111 ( 479 ) 25 - 29  2012年03月

     概要を見る

    本稿では、多様な化粧のスタイルの高速なプロトタイピングのための、顔の化粧の新たな分析と生成法を提案する。同一人物の素顔と化粧を施した顔の画像により、与えられた化粧の効果をまず計測する。次に、抽出された化粧を、分有限混合モデルを用いて表現する。この表現に基づき、提案手法は化粧の多様な効果、即ち、転写、移植、誇張と減衰、を簡単に合成する。さらに、複数の化粧スタイルを効果的に混合して新たな化粧を提供することができることを示す。

    CiNii

  • ニューラルネットを用いた似顔絵自動生成に関する基礎的検討 : ニューラルネットの構成法と似顔絵の物理心理的類似性の検討

    高野 晃, 榎本 誠, 大谷 淳

    電子情報通信学会技術研究報告. MVE, マルチメディア・仮想環境基礎   111 ( 479 ) 13 - 18  2012年03月

     概要を見る

    本論文では顔画像の顔特徴量を入力、イラストレータが描いた似顔絵を教師として、階層型ニューラルネットワークに誤差逆伝搬法を用いて学習させることによって、人間の感覚を反映し、かつ、トレース画の変形によらない似顔絵の自動生成システムを検討する。まず、ニューラルネットワークの構成法、および学習のパラーメータと出力結果の関係について検討を行う。また、システムの出力とイラストレータが描いた似顔絵の類似度を主観評価実験によって評価し、その結果を用いて両者の物理的誤差(物理量)と主観評価の得点(心理量)の関係を調べる。

    CiNii

  • 抽象絵画における鑑賞者の視線行動を利用した音楽作曲の検討

    小楠 竜也, 大谷 淳, 楜沢 順

    研究報告音声言語情報処理(SLP)   2012 ( 18 ) 1 - 6  2012年01月

     概要を見る

    本検討は抽象絵画と音楽における互いの表現要素を工学的アプローチによって結びつけることで両者を融合した新しい表現を提案する。そのアプローチの方法として絵画鑑賞者の視線行動による画面上の注視要素の時系列的な変化を音楽の時間情報として利用する方法を考えた。今回は抽象絵画を対象に鑑賞者の視線行動を計測し、視線の停留時間は平均と異常値の両極端に別れることや、要素ごとの停留回数は要素の大きさと中心からの距離が大きく影響しているといった傾向が見られた。また、色と音の印象や共感覚保持者の感覚を参考に色と音のマッピングを検討することで注視要素を音に変換し、音群的音楽を踏襲する作曲方法の可能性を示した。This paper proposes a method that allows music composition based on abstract paintings. Our approach utilizes gaze behaviors of viewers who see abstract paintings, where temporal changes in gaze positions are utilized as temporal information for music. In this paper, we measured the viewers' gaze behaviors when they see different abstract paintings, and found the following things: (1) durations in which the fix one's gaze on some position are classified into "average length" group and "extremely long" group, and (2) the number of gaze's stay in each element depends on the element's size and distance from the center of the painting. By analyzing mapping between color and sound based on synesthesia, the element at which the gaze stays is converted to sound so that a new music composition method for generating tone clusters is shown.

    CiNii

  • e-learningにおける主観的難易度の補足方法に対する基礎的検討

    大川内隆朗, 大谷淳, 米村俊一, 米村俊一, 徳永幸生

    電子情報通信学会大会講演論文集   2012  2012年

    J-GLOBAL

  • WEB上で動作する“黒丸”プロンプタを用いたコミュニケーションシステム-物語をベースにした複数ユーザ間コミュニケーションの特性分析-

    小駒ちなみ, 米村俊一, 徳永幸生, 杉山精, 大谷淳

    情報処理学会全国大会講演論文集   74th ( 4 )  2012年

    J-GLOBAL

  • 低彩度および高彩度色領域を用いた灰色仮説に基づく照明光色推定法の一提案

    川村春美, 米村俊一, 大谷淳, 小島明

    画像電子学会年次大会予稿集(CD-ROM)   40th  2012年

    J-GLOBAL

  • e-learningにおける学習者の行動履歴を利用した講義改善支援システムの開発

    大川内隆朗, 大谷淳, 米村俊一, 徳永幸生

    情報科学技術フォーラム講演論文集   11th  2012年

    J-GLOBAL

  • Improving Iterative Randomized Hough Transform for Automatic Detection of Fetal Head from Ultrasound Images (画像工学)

    Xu Rong, Ohya Jun, Zhang Bo, Sato Yoshinobu, Fujie Masakatsu G.

    電子情報通信学会技術研究報告 : 信学技報   111 ( 349 ) 127 - 132  2011年12月

     概要を見る

    In this paper, we propose an improved iterative randomized Hough transform (IRHT) method to detect fetal head automatically in ultrasound images. With the update of region of interest (ROI) in the IRHT method, the noise pixels are gradually excluded from the region of interest during iteration process, and the estimation becomes progressively close to the target. In order to enhance the efficiency and stability of this algorithm, we consider introducing the number (N) of pixels on the detected ellipses, and select the ellipse with the maximal number of the pixels on the ellipse as the result for each iteration, which is selected from the top-M peaks in the accumulators of the whole detected ellipse samples. The experiments on fetal ultrasound images demonstrate that the proposed method achieves more robust and accurate results, and has a better performance for fetal head detection than the IRHT method.

    CiNii

  • Improving Iterative Randomized Hough Transform for Automatic Detection of Fetal Head from Ultrasound Images(この論文は研究会登録者以外の方は購入できません)

    Rong Xu, Jun Ohya, Bo Zhang, Yoshinobu Sato, MasakatsuG.Fujie

    研究報告オーディオビジュアル複合情報処理(AVM)   2011 ( 24 ) 1 - 6  2011年12月

     概要を見る

    In this paper, we propose an improved iterative randomized Hough transform (IRHT) method to detect fetal head automatically in ultrasound images. With the update of region of interest (ROI) in the IRHT method, the noise pixels are gradually excluded from the region of interest during iteration process, and the estimation becomes progressively close to the target. In order to enhance the efficiency and stability of this algorithm, we consider introducing the number (N) of pixels on the detected ellipses, and select the ellipse with the maximal number of the pixels on the ellipse as the result for each iteration, which is selected from the top-M peaks in the accumulators of the whole detected ellipse samples. The experiments on fetal ultrasound images demonstrate that the proposed method achieves more robust and accurate results, and has a better performance for fetal head detection than the IRHT method.In this paper, we propose an improved iterative randomized Hough transform (IRHT) method to detect fetal head automatically in ultrasound images. With the update of region of interest (ROI) in the IRHT method, the noise pixels are gradually excluded from the region of interest during iteration process, and the estimation becomes progressively close to the target. In order to enhance the efficiency and stability of this algorithm, we consider introducing the number (N) of pixels on the detected ellipses, and select the ellipse with the maximal number of the pixels on the ellipse as the result for each iteration, which is selected from the top-M peaks in the accumulators of the whole detected ellipse samples. The experiments on fetal ultrasound images demonstrate that the proposed method achieves more robust and accurate results, and has a better performance for fetal head detection than the IRHT method.

    CiNii

  • J-036 抽象絵画における鑑賞者の視線行動解析と自動音楽作曲への応用に関する基礎的検討(HIP(1),J分野:ヒューマンコミュニケーション&インタラクション)

    小楠 竜也, 大谷 淳, 楜沢 順

    情報科学技術フォーラム講演論文集   10 ( 3 ) 617 - 618  2011年09月

    CiNii

  • H-064 動画像からの樹木の葉の追跡法の基礎的検討 : カルマンフィルターとパーティクフィルターの利用法の検討(動作解析,H分野:画像認識・メディア理解)

    Khanh Do N., Ohya Jun

    情報科学技術フォーラム講演論文集   10 ( 3 ) 247 - 248  2011年09月

    CiNii

  • H-014 移動ステレオカメラ画像中からの移動物体抽出と三次元データのセグメンテーションの検討 : SIFT特徴点を元にした前景・背景のエネルギー関数を組み込んだ手法の提案(一般物体認識,H分野:画像認識・メディア理解)

    立松 直倫, 大谷 淳

    情報科学技術フォーラム講演論文集   10 ( 3 ) 133 - 134  2011年09月

    CiNii

  • G-004 A Study of Automated Fetal Head Detection by Pre-processing based on Ultrasound Image Gray Feature and Iterative Randomized Hough Transform

    Xu Rong, Ohya Jun, Zhang Bo, Sato Yoshinobu, Fujie Masakatsu G.

    情報科学技術フォーラム講演論文集   10 ( 2 ) 529 - 530  2011年09月

    CiNii

  • 3次元実写画像の立体感強調法に関する検討 : 彩度と明度を考慮した手法の組み合わせの比較検討

    古 鎮宇, 大谷 淳, 阿部 信明, 河合 隆史

    電子情報通信学会技術研究報告. PRMU, パターン認識・メディア理解   110 ( 467 ) 317 - 322  2011年03月

     概要を見る

    近年の3D技術の進展に伴い、立体映像が3Dディスプレイに表示されることが多くなった。一方、実写画像を立体ディスプレイに表示する時に立体感を感知するのが困難な場合がある。物体の特徴点が少ない場合、あるいはコントラストや彩度が悪い場合に立体感の低下が感じられる。本論文では、本研究室で過去に行われた研究である重み付け局所的ヒストグラム平坦化法(WHE)がカラー画像の明度のみを強調していた点を改良することを目指す。具体的には、明度以外のカラー情報のコントラストを強調する五つの手法を取り上げ、WHEを含めた6種類の手法を単独で用いる場合を検討する。さらに、WHEと五つの手法を組み合わせる5種類の手法を検討する。従って、合計11種類の手法を実験的に比較検討した。従来の立体感強調法にカラー情報の処理を加えて、検討を行い、有効な立体感強調法を見出すことをした。

    CiNii

  • 移動ステレオカメラ画像中からの移動物体抽出と三次元データのセグメンテーションの検討 : Temporal Modified-RANSAC と色・構造・事前確率を用いたグラフカットを組み合わせた手法の提案

    立松 直倫, 大谷 淳

    電子情報通信学会技術研究報告. PRMU, パターン認識・メディア理解   110 ( 467 ) 253 - 258  2011年03月

     概要を見る

    筆者らは,複数の移動物体を含むシーンを移動ステレオカメラにより撮像することにより獲得されるステレオ動画像から,移動物体を物体毎に識別し,識別した物体毎の三次元構造の復元と,ステレオカメラの姿勢推定が可能なTemporal Modified-RANSAC (以下,TMR)を用いた手法の検討を進めている。本稿では,前述の三次元構造情報のセグメンテーションにグラフカットを利用した手法を提案する.TMRの解析結果を用いて前景・背景のラベル付けを行い,色確率・構造・事前確率に基づくエネルギー関数を用いることで,移動物体の自動的なセグメンテーションを行う.本手法を複数の移動物体を含む時系列のステレオ画像に対し適用する実験を行い,本手法の有効性の見通しを確認した.

    CiNii

  • D-12-68 A Study on Edge Feature and its Descriptor

    Xie Yingdi, Ohya Jun

    電子情報通信学会総合大会講演論文集   2011 ( 2 ) 171 - 171  2011年02月

    CiNii

  • D-12-83 テンソル分解に基づく任意の視点からの人物の動作認識手法の検討(D-12.パターン認識・メディア理解,一般セッション)

    堀 隆之, 大谷 淳, 楜沢 順

    電子情報通信学会総合大会講演論文集   2011 ( 2 ) 186 - 186  2011年02月

    CiNii

  • D-16-2 A Study of Segmenting Ultrasound Image Based on Bilateral Filtering and Fuzzy Clustering

    Xu Rong, Ohya Jun, Zhang Bo, Sato Yoshinobu, Fujie Masakatsu G.

    電子情報通信学会総合大会講演論文集   2011 ( 2 ) 205 - 205  2011年02月

    CiNii

  • D-12-88 視覚障害者の歩行支援のための動的動画像からのパーティクルフィルタを用いた白線追跡法の検討(D-12.パターン認識・メディア理解,一般セッション)

    高橋 昌平, 大谷 淳

    電子情報通信学会総合大会講演論文集   2011 ( 2 ) 191 - 191  2011年02月

    CiNii

  • D-12-94 Temporal Modified-RANSACとグラフカットを用いた移動ステレオカメラ画像中からの移動物体抽出と三次元データのセグメンテーションの検討(D-12.パターン認識・メディア理解,一般セッション)

    立松 直倫, 大谷 淳

    電子情報通信学会総合大会講演論文集   2011 ( 2 ) 197 - 197  2011年02月

    CiNii

  • D-12-42 Study of Estimating Face Direction and Forefinger Motion for Manipulating a Virtual Object in a Large Screen : Combining Detection of Face Direction and Particle Filter Based Hand and Finger Tracking

    呉 明輪, 大谷 淳

    電子情報通信学会総合大会講演論文集   2011 ( 2 ) 145 - 145  2011年02月

    CiNii

  • D-11-48 3次元実写画像の彩度を考慮した立体感強調法に関する検討(D-11.画像工学,一般セッション)

    古 鎮宇, 大谷 淳, 阿部 信明, 河合 隆史

    電子情報通信学会総合大会講演論文集   2011 ( 2 ) 48 - 48  2011年02月

    CiNii

  • パーティクルフィルタによる白線追跡のためのパラメータの検討 : 視覚障害者の歩行支援のための人物装着型カメラにより獲得される動画像からの白線認識法の検討

    高橋 昌平, 大谷 淳

    電子情報通信学会技術研究報告. WIT, 福祉情報工学   110 ( 418 ) 69 - 74  2011年02月

     概要を見る

    筆者らは、視覚障害者の歩行支援に資するため、視覚障害者の身体に装着したカメラから獲得される動画像を処理することにより,歩道を示す路面上の白線を追跡する手法について提案し,検討を進めている.具体的には、パーティクルフィルタを用いて動画像中の白線を追跡する手法を検討している.本報告では,このパーティクルフィルタの各種パラメータを実験的に検討し、良好な追跡結果を与えるパラメータ値を明らかにする

    CiNii

  • テンソル分解に基づく多視点映像を用いた人物の動作認識手法の検討

    堀 隆之, 大谷 淳, 楜沢 順

    電子情報通信学会技術研究報告. PRMU, パターン認識・メディア理解   110 ( 414 ) 141 - 146  2011年02月

     概要を見る

    本稿では多視点映像について,認識用データベース内に含まれない未知人物の動作をテンソル分解に基づく手法により認識する手法を提案する.本手法では,動作,人物,視点の各次元から構成されるテンソルを認識用データベースとして構築することで,任意の視点からの動作認識を可能にする手法を検討する.動作認識ではデータベースに含まれない未知人物の動作を入力した際,入力データを認識用データベース内の一つのデータと置き換え,motion signatureを算出する.この過程を認識用データベース内のすべての人物,動作について繰り返し,それらの場合のmotion signatureを求める.その中で最もmotion signatureが類似するデータから,入力データの動作クラスを判別する.未知人物の動作認識実験を行い,本手法の有効性を評価するために従来法と比較した.6種類の歩行動作を対象に動作認識実験を行った結果,提案手法は75%以上の認識率で各動作について安定的に認識できることを明らかにした.

    CiNii

  • 顔の輪郭映像を用いた会話システムにおける社会的スキルと注視行動に関する考察

    花田研, 米村俊一, 徳永幸生, 杉山精, 大谷淳

    情報処理学会全国大会講演論文集   73rd ( 4 )  2011年

    J-GLOBAL

  • サイバーシアターにおける観客が実人間あるいはアバターである場合の観客効果の相違に関する検討

    ZHANG Yong, 大谷淳, 米村俊一, 徳永幸生

    電子情報通信学会大会講演論文集   2011  2011年

    J-GLOBAL

  • 人物同士のコミュニケーションを触発する“○”メディアにおける自己開示レベルの検討

    CHEN Li Jen, 大谷淳, 米村俊一, 徳永幸生

    電子情報通信学会大会講演論文集   2011  2011年

    J-GLOBAL

  • サイバーシアターにおける観客効果に関する検討~観客が実人間・アバターの場合の特性の違いに関する検討~

    YONG Zhang, 大谷淳, 米村俊一, 米村俊一, 徳永幸生

    電子情報通信学会技術研究報告   110 ( 457(MVE2010 133-174) )  2011年

    J-GLOBAL

  • 灰色仮説に基づく照明光色推定法の提案

    川村春美, 米村俊一, 大谷淳, 松浦宣彦

    画像電子学会年次大会予稿集(CD-ROM)   39th  2011年

    J-GLOBAL

  • オンデマンド型e-learningにおける履修者の学習行動を利用した主観的難易度の把握方法の基礎的検討

    大川内隆朗, 大谷淳, 米村俊一, 米村俊一, 徳永幸生

    電子情報通信学会技術研究報告   111 ( 332(ET2011 76-87) )  2011年

    J-GLOBAL

  • 球面領域判定を用いた一枚の画像からの光源位置推定に関する検討

    立松直倫, XU Rong, 大谷淳, 川村春美, 米村俊一

    情報科学技術フォーラム講演論文集   10th  2011年

    J-GLOBAL

  • 移動ステレオカメラ画像中からの移動物体の抽出と三次元形状復元およびカメラの姿勢推定を行う Temporal Modified-RANSAC に基づく手法の検討

    立松 直倫, 大谷 淳

    電子情報通信学会技術研究報告. IE, 画像工学   110 ( 324 ) 79 - 84  2010年11月

     概要を見る

    本論文では複数の移動物体を含む観測空間において,移動物体を物体毎に識別し,識別した物体毎の三次元構造の復元と,ステレオカメラの姿勢推定が可能なTemporal Modified-RANSACを利用した手法を提案する.本手法は複数の移動物体の識別が可能なModified-RANSACを拡張したTemporal Modified-RANSACを用いて取得した三次元オプティカルフローの物体毎への分類結果と直前のシーンを基点とした回転・並進移動の推定結果を,各時刻の点群データの情報と組み合わせることで,各時刻におけるステレオカメラ及び各移動物体の姿勢の推定と,背景と各物体の分類および,物体毎の復元を実現する.本手法を複数の移動物体を含む時系列のステレオ画像に対し適用する実験を行い,本手法の有効性を確認した.

    CiNii

  • Interactive Guitar: Musical Software That Teaches Guitar Through an Interactive Game Interface and Audio DSP

    JohnDelGaizo, Jun Ohya

    研究報告音楽情報科学(MUS)   2010 ( 9 ) 1 - 5  2010年10月

    CiNii

  • 色相に着目した灰色仮説に基づく照明光推定法の一提案

    川村 春美, 米村 俊一, 大谷 淳, 松浦 宣彦

    研究報告オーディオビジュアル複合情報処理(AVM)   2010 ( 6 ) 1 - 6  2010年08月

     概要を見る

    本報告では,色相に着目して灰色仮説に基づく照明光色の推定手法を提案する.灰色仮説は画像中の物体の色の平均を灰色であるとする仮説である.従来,この仮説を利用して画像の平均を照明光の色として推定する手法が提案されているが,仮説が成立しない場合には照明光の推定精度が悪くなるという問題があった.そこで,画素値を類似の色相をもつカテゴリに分類し,反対色の関係にある色相カテゴリから色を選択し灰色仮説の成立可否を判定することによって照明光の色を推定する手法を提案する.実験により,平均に偏りのある色分布に対しても本提案手法による推定照明光が従来手法に比較して正解値の近くに推定できること,推定誤差が人間が知覚できる色差よりも小さいことを示した.This paper proposes a gray world assumption based method for estimating an illuminant color from an image by hue categorization. The gray world assumption hypothesizes that the average color of all the objects in a scene is gray. However, it is difficult to estimate an illuminant color correctly if the colors of the objects in a scene are dominated by certain colors. To solve this problem, our method roughly categorizes the colors in the image by hue and selects them one by one to decide whether the average of the selected colors can be regarded as an illuminant color or not. We use a surface reflectance set obtained from the object color spectra database and three illuminants, i.e., CIE standard illuminants A and D65, and blackbody radiation with 15000 K of color temperature, as an experiment for estimating an illuminant color. Experiment results show that estimated illuminants are closer to the correct one than that of the conventional one, and the estimation error by our method is within the just noticeable difference in human color perception.

    CiNii

  • G-017 脳のMRJ画像の領域分割のための改良KFCMアルゴリズム(G分野:生体情報科学,一般論文)

    徐 栄, 大谷 淳

    情報科学技術フォーラム講演論文集   9 ( 2 ) 563 - 564  2010年08月

    CiNii

  • F-033 Interactive Music : Teaching People Guitar Through Gaming Software

    Gaizo John Del, 大谷 淳

    情報科学技術フォーラム講演論文集   9 ( 2 ) 433 - 434  2010年08月

    CiNii

  • J-018 Study of Human Gesture Recognition by Integrating Face and Hand Motion Features

    羅 丹, Ekenel Hazim Kemal, 大谷 淳

    情報科学技術フォーラム講演論文集   9 ( 3 ) 505 - 506  2010年08月

    CiNii

  • I-037 テクスチャマッピング制御による立体感強調の基礎的検討(I分野:グラフィクス・画像,一般論文)

    古 鎮宇, 大谷 淳, 河合 隆史

    情報科学技術フォーラム講演論文集   9 ( 3 ) 327 - 328  2010年08月

    CiNii

  • H-020 移動物体を含む環境における移動ステレオカメラの姿勢推定と空間の3次元復元の検討(H分野:画像認識・メディア理解,一般論文)

    立松 直倫, 謝 英弟, 大谷 淳

    情報科学技術フォーラム講演論文集   9 ( 3 ) 177 - 178  2010年08月

    CiNii

  • H-030 テンソル分解に基づく多視点映像を用いた人物の動作認識の一検討(H分野:画像認識・メディア理解,一般論文)

    堀 隆之, 大谷 淳, 楜沢 順

    情報科学技術フォーラム講演論文集   9 ( 3 ) 197 - 198  2010年08月

    CiNii

  • Texture analysis for food recognition (ヒューマン情報処理)

    Do Khanh N., Ohya Jun, Pishva Davar

    電子情報通信学会技術研究報告. HIP, ヒューマン情報処理   110 ( 98 ) 69 - 74  2010年06月

     概要を見る

    This paper studies the effectiveness of texture analysis methods for classifying different food items having the same color. This paper studies two texture analysis methods: gray-level co-occurrence matrix (GLCM) based features and Fourier Transform (FT) based features. We carried out experiments on testing the effectiveness of the two texture features using six different food items, where two food items having three colors: white, red and yellow are used. From the experimental results, it turns out that GLCM features and FT's spatial frequency based features are promising.

    CiNii

  • Texture analysis for food recognition (パターン認識・メディア理解)

    Do Khanh N., Ohya Jun, Pishva Davar

    電子情報通信学会技術研究報告. PRMU, パターン認識・メディア理解   110 ( 97 ) 69 - 74  2010年06月

     概要を見る

    This paper studies the effectiveness of texture analysis methods for classifying different food items having the same color. This paper studies two texture analysis methods: gray-level co-occurrence matrix (GLCM) based features and Fourier Transform (FT) based features. We carried out experiments on testing the effectiveness of the two texture features using six different food items, where two food items having three colors: white, red and yellow are used. From the experimental results, it turns out that GLCM features and FT's spatial frequency based features are promising.

    CiNii

  • Study of a car type classifying method using an automated frame segmentation algorithm: study of a specific representation for convertibles using local maxima curvature function features (画像工学)

    Briois Sebastien, 大谷 淳

    電子情報通信学会技術研究報告. IE, 画像工学   109 ( 469 ) 13 - 18  2010年03月

     概要を見る

    This research paper develops a new method for car type classification using two different car views. We first built a database for each car type based on three geometric ratios. We could obtain a statistical distribution of these parameters values. Dimensions of the unknown car are retrieved using a shape extraction method. In a final part, an index of similarity was defined in order to compare unknown cars geometric proportions with those from the generic models.

    CiNii

  • 色分け衣服を用いた動画像からの人物姿勢推定のための人体パーツ追跡法の検討 : パーティクルフィルタによるオクルージョン判定法の検討

    清水 雄太, 大谷 淳, 岡崎 潤

    電子情報通信学会技術研究報告. IE, 画像工学   109 ( 469 ) 7 - 12  2010年03月

     概要を見る

    筆者らは,色分け衣服を装着した人物を撮像したビデオ画像から人物の姿勢を推定する方法の検討を進めている.本論文では,人体パーツを追跡する方法の基礎的検討を行う.我々は,人物の撮影画像を入力画像とし,mean-shiftアルゴリズムにより人物画像の領域分割を行う.その後,領域分割結果から得た各人体パーツの色分布情報を用いて,パーティクルフィルタによりパーツを追跡する.オクルージョンが始まる時に生じるパーティクルの溢れ現象に注目し,溢れの割合を利用することでオクルージョンの判別を可能にした.

    CiNii

  • パン・ティルト・カメラにより獲得される動画像からのカメラの回転パラメータの推定法に関する検討 : 動物体を含む撮像シーンからのロバストな推定法の検討

    栃折 泰史, 大谷 淳, 江畑 勝

    電子情報通信学会技術研究報告. IE, 画像工学   109 ( 469 ) 1 - 6  2010年03月

     概要を見る

    本論文では,パン・ティルト・カメラから獲得された動画像における各フレームでのカメラの姿勢(回転パラメータ)を推定する手法を提案する.特に,撮像対象シーンに動物体を含む場合への対処法を検討する.まず検出・追跡した2つの特徴点を,カメラの光学中心を中心,焦点距離を半径とした仮想球体上に投影を行い,仮想球体上の特徴点2個と光軸と仮想球の交点が作る三角形の合同を利用して,回転パラメータを推定する.動物体を含む撮像シーンにおいてもロバストに推定するために,特徴点が物理空間上で静止物体・動物体のいずれかに対応しているかの識別を,特徴点2点間の距離がパン・ティルト後も等距離を保つかどうかを判断することにより行う.本論文では提案手法についてシミュレーションと実画像を対象とする実験を行い,その有効性を検証する.

    CiNii

  • Study of extracting multiple independently moving objects and estimating the egomotion from active stereo sequences (ヒューマン情報処理)

    Xie Yingdi, Ohya Jun

    電子情報通信学会技術研究報告. HIP, ヒューマン情報処理   109 ( 471 ) 413 - 418  2010年03月

     概要を見る

    In this paper, we propose a modified RANSAC based method that can detect multiple independently moving objects from the video sequences acquired by active stereo cameras, and can estimate the egomotion of the stereo cameras. From the optical flows that computed by matching the feature descriptors within temporal frames, a modified RANSAC is adopted to extract the valid egomotion models, under which enough homogenous optical flows can be found. Each of the egomotion models corresponds to either the background or one of the independent moving individuals. The optical flows of the background are then utilized to calculate the real egomotion. Experiments using real stereo sequences demonstrate the effectiveness of the proposed method.

    CiNii

  • Study of recognizing multiple persons' complicated hand gestures from an active image sequence: increasing the number of persons and hand gesture categories (ヒューマン情報処理)

    Dan Luo, Ohya Jun

    電子情報通信学会技術研究報告. HIP, ヒューマン情報処理   109 ( 471 ) 407 - 412  2010年03月

     概要を見る

    Recognizing hand gestures from the video sequence acquired by a dynamic camera could be a useful interface for human robot communication. We propose a framework to extract and recognize hand gestures from moving camera images. We improved Human-Following Local Coordinate (HFLC) system to extract hand motion trajectories, and Condensation algorithm and PCA-based algorithm was performed to recognize extracted hand trajectories. Our experimental show the comparison between PCA based approach and Condensation algorithm on 51 kinds of sign language based Japanese and American Sign Language gestures obtained from 7 people.

    CiNii

  • Study of recognizing multiple persons' complicated hand gestures from an active image sequence: increasing the number of persons and hand gesture categories (パターン認識・メディア理解)

    Dan Luo, Ohya Jun

    電子情報通信学会技術研究報告. PRMU, パターン認識・メディア理解   109 ( 470 ) 407 - 412  2010年03月

     概要を見る

    Recognizing hand gestures from the video sequence acquired by a dynamic camera could be a useful interface for human robot communication. We propose a framework to extract and recognize hand gestures from moving camera images. We improved Human-Following Local Coordinate (HFLC) system to extract hand motion trajectories, and Condensation algorithm and PCA-based algorithm was performed to recognize extracted hand trajectories. Our experimental show the comparison between PCA based approach and Condensation algorithm on 51 kinds of sign language based Japanese and American Sign Language gestures obtained from 7 people.

    CiNii

  • Study of extracting multiple independently moving objects and estimating the egomotion from active stereo sequences (パターン認識・メディア理解)

    Xie Yingdi, Ohya Jun

    電子情報通信学会技術研究報告. PRMU, パターン認識・メディア理解   109 ( 470 ) 413 - 418  2010年03月

     概要を見る

    In this paper, we propose a modified RANSAC based method that can detect multiple independently moving objects from the video sequences acquired by active stereo cameras, and can estimate the egomotion of the stereo cameras. From the optical flows that computed by matching the feature descriptors within temporal frames, a modified RANSAC is adopted to extract the valid egomotion models, under which enough homogenous optical flows can be found. Each of the egomotion models corresponds to either the background or one of the independent moving individuals. The optical flows of the background are then utilized to calculate the real egomotion. Experiments using real stereo sequences demonstrate the effectiveness of the proposed method.

    CiNii

  • D-11-52 パーリンノイズ地形レイはGPUにレイキャスティング(D-11.画像工学,一般セッション)

    フォスtマン スヴェン, 大谷 淳

    電子情報通信学会総合大会講演論文集   2010 ( 2 ) 52 - 52  2010年03月

    CiNii

  • D-12-17 移動カメラ画像からの手振り動きの検出と認識モデルの構築(D-12.パターン認識・メディア理解,一般セッション)

    羅 丹, 大谷 淳

    電子情報通信学会総合大会講演論文集   2010 ( 2 ) 128 - 128  2010年03月

    CiNii

  • D-12-16 テンソル分解法に基づくHOG特徴量を用いた人物の動作認識手法の検討(D-12.パターン認識・メディア理解,一般セッション)

    堀 隆之, 大谷 淳, 楜沢 順

    電子情報通信学会総合大会講演論文集   2010 ( 2 ) 127 - 127  2010年03月

    CiNii

  • A-16-9 C.O.T.O. : A Multimedia Choreography System Inspired by Butoh-fu

    Pierce Jennifer, 大谷 淳, Gaizo John Del, Wu Ming-Han

    電子情報通信学会総合大会講演論文集   2010   227 - 227  2010年03月

    CiNii

  • A system that Allows Human Hand's Short Range Movements to Point a Virtual Object in a Large Screen By Tracking the Hand by Computer Vision Based Approach

    呉 明翰, 大谷 淳

    情報科学技術フォーラム講演論文集     239 - 240  2010年

    CiNii

  • 色分け衣服を用いた動画像からの人物姿勢推定法の検討-パーティクルフィルタにおける "溢れ現象" を利用した人体パーツ追跡法の提案-

    清水雄太, 大谷 淳, 岡崎 潤

    電子情報通信学会総合大会, 2010     126 - 126  2010年

    CiNii

  • 動物体を含むパン ティルト映像からのカメラ回転角の推定の検討

    栃折泰史, 江畑 勝, 大谷 淳

    電子情報通信学会 総合大会, 2010     198 - 198  2010年

    CiNii

  • 輪郭映像を用いた会話システムにおける顔注視行動の分析

    花田研, 米村俊一, 徳永幸生, 杉山精, 大谷淳

    情報処理学会全国大会講演論文集   72nd ( 4 )  2010年

    J-GLOBAL

  • “・”プロンプタを用いるコミュニケーションシステムにおけるメッセージ表現の分析

    飯田真也, 米村俊一, 徳永幸生, 杉山精, 大谷淳

    情報処理学会全国大会講演論文集   72nd ( 4 )  2010年

    J-GLOBAL

  • サイバーシアターにおいて多数の観客アバターが存在する場合の演技者と観客との間の観客効果に関する基礎的検討

    ZHANG Yong, 大谷淳, 米村俊一, 米村俊一

    電子情報通信学会技術研究報告   110 ( 238(MVE2010 52-73) )  2010年

    J-GLOBAL

  • 1チャネルの線画映像コミュニケーションにおける対話ストラテジーと対話特性

    米村俊一, 花田研, 徳永幸生, 大谷淳

    ヒューマンインタフェース学会研究報告集(CD-ROM)   12  2010年

    J-GLOBAL

  • 創造的思考を用いたコミュニケーション方法-”・”プロンプタ・システムでの実用について-

    CHEN Li Jen, 米村俊一, 大谷淳, 徳永幸生

    電子情報通信学会技術研究報告   109 ( 471(HIP2009 118-210) )  2010年

    J-GLOBAL

  • H-003 Comparison of Several Shape Descriptors in Order to Perform Car Recognition from a Moving Camera

    Briois Sebastien, Ohya Jun, Xie Yingdi

    情報科学技術フォーラム講演論文集   8 ( 3 ) 101 - 102  2009年08月

    CiNii

  • H-029 色分け衣服を用いた人物の姿勢推定法における人体パーツ追跡法の基礎的検討(画像認識・メディア理解,一般論文)

    清水 雄太, 大谷 淳

    情報科学技術フォーラム講演論文集   8 ( 3 ) 159 - 160  2009年08月

    CiNii

  • I-013 Automatic Shape Classification through Descriptor Matching

    謝 英弟, 大谷 淳

    情報科学技術フォーラム講演論文集   8 ( 3 ) 267 - 268  2009年08月

    CiNii

  • H-024 修正RANSACに基づく楕円検出手法の性能評価に関する検討(画像認識・メディア理解,一般論文)

    張 勇, 謝 英弟, 大谷 淳

    情報科学技術フォーラム講演論文集   8 ( 3 ) 149 - 150  2009年08月

    CiNii

  • H-034 移動カメラ動画像からの手振り動作認識法の多人数動作への拡張法の検討(画像認識・メディア理解,一般論文)

    羅 丹, 大谷 淳

    情報科学技術フォーラム講演論文集   8 ( 3 ) 171 - 172  2009年08月

    CiNii

  • I-056 複数カメラを用いたMotion Signatureに基づく人物のトラッキングの検討(グラフィクス・画像,一般論文)

    堀 隆之, 大谷 淳, 楜沢 順

    情報科学技術フォーラム講演論文集   8 ( 3 ) 371 - 372  2009年08月

    CiNii

  • 1A2-C03 画像処理を用いたサフランめしべ自動採集法の検討

    高野 晃, 小方 博之, 村松 大吾, 大谷 淳

    ロボティクス・メカトロニクス講演会講演概要集   2009   "1A2 - C03(1)"-"1A2-C03(4)"  2009年05月

     概要を見る

    All stigmas of saffrons which are used as a spice or a dye are harvested by hand. However, it is heavy work to gather an enough amount. The purpose of this paper is to examine whether harvesting saffron's stigmas automatically is possible by using image processing. As a process of harvesting saffron stigmas automatically, we conceieved an idea of cutting the root of flower and harvesting stigma which is hanging by turning it down. Features to harvest stigmas are detected by using color information. The feasibility of this method was shown by the experiment.

    CiNii

  • 顔構成要素の輪郭映像が遠隔対話に与える影響に関する考察

    花田 研, 米村 俊一, 徳永 幸生, 杉山 精, 大谷 淳

    ヒューマンインタフェース学会研究報告集 : human interface   11 ( 2 ) 131 - 136  2009年05月

    CiNii

  • 2方向顔画像からのテーブルゲーム競技者の視線検出法に関する検討

    唐 華斌, 大谷 淳

    電子情報通信学会技術研究報告. HCS, ヒューマンコミュニケーション基礎   108 ( 487 ) 31 - 36  2009年03月

     概要を見る

    実世界におけるテーブルゲーム(マージャン)で,コンピュータと人間の対戦を可能とするための要素技術の一つとして,対戦相手の意図を推定するために重要な手がかりとなる視線を画像処理により推定する方法を提案する.正面顔画像から鼻の頭の位置を検出し,斜め下からの顔画像から黒目の位置を検出する.キャリブレーションで,黒目の検出結果と実際の視線のズレをあらかじめ計測しておく.実際の視線推定時には,これらを統合的に用いて,視線を計算する.マージャンの状況で実験を行った結果,本提案手法の有効性の見通しが得られた.

    CiNii

  • サイバーシアターにおける観客の表現法に関する検討

    劉 強, 大谷 淳

    電子情報通信学会技術研究報告. HCS, ヒューマンコミュニケーション基礎   108 ( 487 ) 37 - 41  2009年03月

    CiNii

  • Creative thinking support communication system: with random Prompter "●" that allows hand-drawing (ヒューマンコミュニケーション基礎)

    Chen Li Jen, Ohya Jun, Yonemura Shunichi, TOKUNAGA Yukio

    電子情報通信学会技術研究報告. HCS, ヒューマンコミュニケーション基礎   108 ( 487 ) 43 - 48  2009年03月

     概要を見る

    In our previous research, we have developed a visual tele-communication method using visual Prompter (black circle, "●") image patterns (VP-patterns), and developed our first Communication System with Prompter (CSP1), which allows participants conduct conversation with VP-patterns as visual stimuli for inspiring ideas and supporting creative thinking processes. Although the prototype CSP1 has shown a considerable tendency toward the inspiration of creative ideas by the participants, CSP1 was limited only allows text input. After carefully analyzed and researched, we assumed that creative thinking process might be more enhanced with arbitrary hand-drawing input, and have conducted a paper based simulation, in which the participants can hand-draw arbitrary figures in a paper in which VP-patterns are printed. The simulation results have shown positive outcome, therefore we developed our second networked system, CSP2, which allows hand-drawing.

    CiNii

  • Stakeholder system and analysis of extended producer responsibility based on game theory (情報システムと社会環境)

    Yiping Zhao, Jun Ohya

    研究報告情報システムと社会環境(IS)   2009 ( 32 ) 105 - 112  2009年03月

     概要を見る

    Extended producer responsibility (EPR) is an effective environmental policy principle in terms of motivating responsible corporate to enhance their product's life-cycle environmental performance. However, on the other hand EPR also challenges greatly the core companies into a complicated and dynamics product life-cycle stakeholder system. In this paper, the structures and features of product life-cycle stakeholder system under EPR is analyzed according to stakeholder theory. Primary and secondary stakeholders are identified followed by their inter-relationships discussed. A two-entity static game model is set up accordingly. Mixed-strategy equilibrium is analyzed and key influential factors are studies in detail. Adaptive decision-making suggestions are made in brief for companies facing EPR in several specific scenarios with the dynamic of the above key factors and information.Extended producer responsibility (EPR) is an effective environmental policy principle in terms of motivating responsible corporate to enhance their product's life-cycle environmental performance. However, on the other hand EPR also challenges greatly the core companies into a complicated and dynamics product life-cycle stakeholder system. In this paper, the structures and features of product life-cycle stakeholder system under EPR is analyzed according to stakeholder theory. Primary and secondary stakeholders are identified followed by their inter-relationships discussed. A two-entity static game model is set up accordingly. Mixed-strategy equilibrium is analyzed and key influential factors are studies in detail. Adaptive decision-making suggestions are made in brief for companies facing EPR in several specific scenarios with the dynamic of the above key factors and information.

    CiNii

  • エッジ方向特徴と A Modified RANSAC による楕円認識および医療画像工学への応用

    謝 英弟, 大谷 淳

    電子情報通信学会技術研究報告. IE, 画像工学   108 ( 485 ) 41 - 46  2009年03月

     概要を見る

    形状は物体認識のための重要な特徴の一つである。形状認識技術は様々な応用に適用されてきたが、医療工学の分野でも大変重要性の高い技術であると言える。本論文では、筆者らが既に提案した、画像中の楕円の検出法を、医療画像中の複数の楕円形状の抽出に適用する方法を検討する。筆者らの方法は、楕円の5つの形状パラメータを推定するために、エッジ方向系列の解析と修正RANSACを組み合わせたものである。この手法を実際の医療画像に適用し、有効性の見通しを示す。

    CiNii

  • A-15-18 テーブルゲーム時の競技者の顔画像からの視線検出法の検討(A-15.ヒューマン情報処理,一般セッション)

    唐 華斌, 大谷 淳

    電子情報通信学会総合大会講演論文集   2009   254 - 254  2009年03月

    CiNii

  • A-15-3 サイバーシアターにおける観客効果に関する基礎的検討(A-15.ヒューマン情報処理,一般セッション)

    劉 強, 大谷 淳

    電子情報通信学会総合大会講演論文集   2009   239 - 239  2009年03月

    CiNii

  • A-14-5 Creative Thinking Support Communication System with Random Prompter "・" that Allows Hand-drawing

    Chen Li Jen, Yonemura Shunichi, Ohya Jun, Tokunaga Yukio

    電子情報通信学会総合大会講演論文集   2009   232 - 232  2009年03月

    CiNii

  • D-12-39 A Local Method for Ellipse Detection

    謝 英弟, 大谷 淳

    電子情報通信学会総合大会講演論文集   2009 ( 2 ) 148 - 148  2009年03月

    CiNii

  • D-12-22 テンソル分解法に基づく画像処理による個人認証における画像特徴量の比較検討(D-12.パターン認識・メディア理解A(パターンメディアの認識・理解・生成),一般セッション)

    堀 隆之, 大谷 淳, 楜沢 順

    電子情報通信学会総合大会講演論文集   2009 ( 2 ) 131 - 131  2009年03月

    CiNii

  • 回転運動するカメラにより撮影された動画像からのカメラ回転角導出の検討

    栃折泰史, 江畑 勝, 大谷 淳

    第8回情報科学技術フォーラム講演論文集, 2009     235 - 236  2009年

    CiNii

  • コミュニケーションにおける会話特性に着目した顔構成要素の役割

    花田研, 米村俊一, 徳永幸生, 杉山精, 大谷淳

    情報処理学会全国大会講演論文集   71st ( 4 )  2009年

    J-GLOBAL

  • 自動会話システムにおけるフォントによる感情表現の効果

    野原雄紀, 徳永幸生, 杉山精, 米村俊一, 大谷淳

    情報処理学会全国大会講演論文集   71st ( 4 )  2009年

    J-GLOBAL

  • 顔構成要素の輪郭映像が遠隔対話に与える影響に関する考察

    花田研, 米村俊一, 徳永幸生, 杉山精, 大谷淳

    電子情報通信学会技術研究報告   109 ( 29(WIT2009 1-47) )  2009年

    J-GLOBAL

  • “黒丸”プロンプタを用いるコミュニケーションシステムにおける表現特性の分析

    飯田真也, 徳永幸生, 杉山精, 米村俊一, 大谷淳

    情報処理学会全国大会講演論文集   71st ( 4 )  2009年

    J-GLOBAL

  • テンソル分解に基づく人物の歩行動作を用いた個人認証

    堀 隆之, 大谷 淳, 楜沢 順

    電子情報通信学会技術研究報告. PRMU, パターン認識・メディア理解   108 ( 363 ) 87 - 92  2008年12月

     概要を見る

    人物の歩行系動作について,人物のシルエット画像の時系列的な変化に対し,テンソル分解に基づく各個人の歩行における動作の特徴量(Motion Signature)を求め,個人認証を行う手法を提案する.人物の歩行系動作から個人を認証する実験を行い,その有効性を他の認証手法と比較した.実験結果より,提案手法の有効性を確認する.

    CiNii

  • Parallel forward projection of large voxel-volumes on the GPU (オーディオビジュアル複合情報処理)

    Sven Forstmann, Jun Ohya

    情報処理学会研究報告オーディオビジュアル複合情報処理(AVM)   2008 ( 124 ) 11 - 16  2008年12月

     概要を見る

    We present an efficient SIMD optimized implementation of the parallel voxel-based forward projection algorithm. The algorithm rasterizes RLE encoded volume data in a front to back manner by utilizing a specialized view transform. In addition to the original method, our implementation achieves a significant speedup by utilizing a multi-segment culling mechanism in combination with a binary visibility map. We show that it is possible to uncompress and visualize large volume data directly from GPU memory without streaming data from slower CPU memory.We present an efficient SIMD optimized implementation of the parallel voxel-based forward projection algorithm. The algorithm rasterizes RLE encoded volume data in a front to back manner by utilizing a specialized view transform. In addition to the original method, our implementation achieves a significant speedup by utilizing a multi-segment culling mechanism in combination with a binary visibility map. We show that it is possible to uncompress and visualize large volume data directly from GPU memory without streaming data from slower CPU memory.

    CiNii

  • 複数カメラ画像からの色分け衣服装着人物のオクルージョンが発生する姿勢を含む姿勢推定法の検討

    岡崎 潤, 大谷 淳

    情報処理学会研究報告コンピュータビジョンとイメージメディア(CVIM)   2008 ( 82 ) 195 - 200  2008年08月

     概要を見る

    本論文では、色彩情報処理に基づいて人体の複雑な姿勢を推定する方法を提案する。人物の姿勢を画像処理により推定するために、人物シルエット像の輪郭線を解析して特徴点を検出しようとする際の困難な問題は、複数の人体パーツのシルエットが重なる場合である。そこで、我々は、人体パーツ毎に異なる色で彩色された衣服を人物が着用し、色彩情報処理を用いて前述の問題を解決する方法を検討している。従来の我々の研究では合成画像に対する検討だけで、実写画像に対する検討は行っていなかった。そこで本論文では、複数カメラからの入力画像から平均値シフトアルゴリズム (mean-shift algorithm) を行い人体画像の領域分割を行う、その後、画像から特徴点を抽出し 3 次元姿勢推定を実現する。This paper proposes a method for estimating complicated postures of a human body using color information processing. Difficulties in detecting feature points by analyzing (he contour of a human body silhouette lie in me case in which the silhouettes of multiple body parts overlap. Thus, we proposed a method in which a human wears a multiple-colored suit, in which each body part is colored differently, so that the above-mentioned problem can be solved by using color information processing. Conventionally we studied only synthesized human images, not real images. This paper studies a method for extracting each body part by using image segmentation based on mean-shift algorithm. After detecting feature points from the body part extraction result, the proposed method computes the 3D coordinates of each feature point using the principle of triangulation. Experimental results using real human images show the validity of the proposed method.

    CiNii

  • 複数カメラ画像からの色分け衣服装着人物のオクルージョンが発生する姿勢を含む姿勢推定法の検討

    岡崎 潤, 大谷 淳

    電子情報通信学会技術研究報告. HIP, ヒューマン情報処理   108 ( 199 ) 193 - 198  2008年08月

     概要を見る

    本論文では、色彩情報処理に基づいて人体の複雑な姿勢を推定する方法を提案する。人物の姿勢を画像処理により推定するために、人物シルエット像の輪郭線を解析して特徴点を検出しようとする際の困難な問題は、複数の人体パーツのシルエットが重なる場合である。そこで、我々は、人体パーツ毎に異なる色で彩色された衣服を人物が着用し、色彩情報処理を用いて前述の問題を解決する方法を検討している。従来の我々の研究では合成画像に対する検討だけで、実写画像に対する検討は行っていなかった。そこで本論文では、複数カメラからの入力画像から平均値シフトアルゴリズム(mean-shift algorithm)を行い人体画像の領域分割を行う、その後、画像から特徴点を抽出し3次元姿勢推定を実現する。

    CiNii

  • I-034 Study of Detecting Primitive Shapes by Local Optimization Method

    謝 英弟, 大谷 淳

    情報科学技術フォーラム講演論文集   7 ( 3 ) 267 - 268  2008年08月

    CiNii

  • H-043 シルエット特徴量のテンソル分解に基づく動画像から人物の動作認識手法の検討(画像認識・メディア理解,一般論文)

    堀 隆之, 大谷 淳, 楜沢 順

    情報科学技術フォーラム講演論文集   7 ( 3 ) 155 - 156  2008年08月

    CiNii

  • H-062 複数カメラ画像からの色分け衣服装着人物の3次元姿勢推定についての検討(画像認識・メディア理解,一般論文)

    岡崎 潤, 大谷 淳

    情報科学技術フォーラム講演論文集   7 ( 3 ) 197 - 198  2008年08月

    CiNii

  • J-021 The Prototype system of Prompter communication with handwriting and drawing functions

    Chen Li Jen, Forstmann Sven, Ohya Jun, Yonemura Shunichi, Tokunaga Yukio

    情報科学技術フォーラム講演論文集   7 ( 3 ) 449 - 450  2008年08月

    CiNii

  • J-026 顔画像からの顔方向推定のための鼻検出法の比較検討(ヒューマンコミュニケーション&インタラクション,一般論文)

    唐 華斌, 大谷 淳

    情報科学技術フォーラム講演論文集   7 ( 3 ) 459 - 460  2008年08月

    CiNii

  • 互いに類似した動作のテンソル分解に基づく動画像からの認識法の検討

    堀 隆之, 大谷 淳, 楜沢 順

    電子情報通信学会技術研究報告. IE, 画像工学   108 ( 127 ) 43 - 48  2008年07月

     概要を見る

    本論文では動画像からテンソル分解に基づく未知人物の行動認識手法を提案する,テンソルには人物,動作,時系列に沿った画像特徴量が格納されており,未知の人物が入力された場合,データベース中のデータ一つと置き換えられ,コアテンソルが算出される.この過程を既存の人物と動作すべてにおいて繰り返し,各動作のコアテンソルを算出し,既知の人物の動作データから求まるコアテンソルと置き換えられた人物のコアテンソルの類似度を求め,最も似ている動作を認識結果とする.この手法で7つの動作に対して認識実験を行い,画像特徴量ごとに見た認識率から提案手法の有効性を確認する.

    CiNii

  • 局所コントラストと距離情報による立体感コントラスト強調法の検討

    丁 〓, 大谷 淳, 河合 隆史, 阿部 信明

    電子情報通信学会技術研究報告. IE, 画像工学   108 ( 127 ) 49 - 53  2008年07月

     概要を見る

    本稿では、局所コントラストと距離情報を利用する加重ヒストグラム平坦化による立体感強調手法を提案する。加重ヒストグラム平坦化は大きな重みを与えられた輝度の輝度範囲を広げることでコントラストを強調することができる。各画素の距離情報と局所的コントラスト情報を利用して計算した重みをヒストグラムの計算と平坦化の輝度変換に使用する。視点に近い画素で、その近傍のコントラストが低い場合にはその画素に大きい重みを与えてコントラストを強調し、視点から遠い画素で、コントラストが高い場合には小さい重みを与え、コントラストを抑制する。この加重ヒストグラム平坦化に基づく手法により、3次元モデルの距離感を強調する。本提案手法を3次元物体の距離画像とそのテクスチャ画像に対して施す実験を行い、提案手法の有効性の見通しを得た。

    CiNii

  • A method for creative communication using black-circled prompters "●": analysis of a method that allows users' freehand writing (ヒューマン情報処理)

    Chen Li Jen, Ohya Jun, Yonemura Shunichi, TOKUNAGA Yukio

    電子情報通信学会技術研究報告. HIP, ヒューマン情報処理   107 ( 553 ) 61 - 66  2008年03月

     概要を見る

    Research into creative thinking-support tools and communication is commonly focused on how to develop and share ideas between participants or with others. In this paper, in order to evaluate the potential variations developmental directions for the visual "●" Prompter Message System (PM-System), we explore a Prompter Message Simulation (PM-Simulation), that uses a printed paper version of visual "●" prompter image patterns (VP-patterns), and allows not only writing texts but also freehand drawing and writing. Experiments have been conducted and analyzed into methods of stimulating the thought process, inspiring ideas, creative and imaginative thinking and enrich self-expression. From the results, a tendency towards inspiring creative ideas by participants has been observed.

    CiNii

  • 自動会話システムにおけるキャラクタの可変表示効果

    野原 雄紀, 徳永 幸生, 杉山 精, 米村 俊一, 大谷 淳

    全国大会講演論文集   70   289 - 290  2008年03月

    CiNii

  • 距離情報に基づく画像コントラスト強調

    丁皛, 大谷 淳, 河合 隆史, 阿部 信明

    情報処理学会研究報告コンピュータビジョンとイメージメディア(CVIM)   2008 ( 27 ) 267 - 270  2008年03月

     概要を見る

    画像強調、特にカラー画像強調は画像処理研究の一つの重要な分野である。画像コントラスト強調は画像の品質を高めるようにカラー画像のコントラストを高めることである。カラー画像にとって、距離感は真実感を表現する重要な要素である。そのため、筆者らはヒストグラム平坦化を改良し「加重ヒストグラム平坦化」を提案した。画素の距離情報を利用し計算した重みをヒストグラムの計算と平坦化の輝度変換に使用する。近い画素の領域に強めにコントラスト強調し、遠い領域に弱めに強調することによって画像の距離感を強調できる。カラー画像に本提案手法の施す実験を行い、提案手法の有効性の見通しを得た。Image enhancement, especially color image enhancement is a critical area in image processing research. Image contrast enhancement is a Image contrast enhancement is to enhance the contrast of color image so as to make the image more vivid and beautiful. Distance sense is a critical element to present the reality of color images. In order to improve the distance sense, we optimize the histogram equalization (HE) with distance information in enhancement processing and propose a Weighted Histogram Equalization (WHE) method. Near areas of the images are enhanced strongly and far areas weakly. Experimental results show that the proposed method is effective.

    CiNii

  • Visualizing run-length-encoded volume data on modern GPUs (コンピュータビジョンとイメージメディア)

    Sven Forstmann, Jun Ohya

    情報処理学会研究報告コンピュータビジョンとイメージメディア(CVIM)   2008 ( 27 ) 355 - 358  2008年03月

     概要を見る

    We present an algorithm for the visualization of large opaque volume data. So far volume data has mainly been visualized on the GPU using conventional ray-casting or texture-based techniques. However since the appearance of CUDA even more complex visualization techniques become possible. We show that large run-length-encoded volume data can efficiently be visualized using CUDA. In our experiments using a NVIDIA 8600 GTS graphics board even as much as 40.000 x 1024 x 40.000 voxel were visualized in real-time at interactive 40 fps.We present an algorithm for the visualization of large opaque volume data. So far, volume data has mainly been visualized on the GPU using conventional ray-casting or texture-based techniques. However, since the appearance of CUDA, even more complex visualization techniques become possible. We show that large run-length-encoded volume data can efficiently be visualized using CUDA. In our experiments using a NVIDIA 8600 GTS graphics board, even as much as 40.000 x 1024 x 40.000 voxel were visualized in real-time at interactive 40 fps.

    CiNii

  • Comparative study of methods for recognizing human actions from a real video sequence (コンピュータビジョンとイメージメディア)

    Weiqing Wang, Jun Ohya

    情報処理学会研究報告コンピュータビジョンとイメージメディア(CVIM)   2008 ( 27 ) 103 - 108  2008年03月

     概要を見る

    This paper explores the effectiveness of using three image features instead of synthesized human motion data by using the real video sequence. We have compared three algorithms that recognize the observed action generated by an unknown person who is not included in the database. We tested the 4 methods using 3 single image features with 4 human actors and 5 classes of action. In addition we proved all the three method are useful for the human action recognition.This paper explores the effectiveness of using three image features instead of synthesized human motion data by using the real video sequence. We have compared three algorithms that recognize the observed action generated by an unknown person, who is not included in the database. We tested the 4 methods using 3 single image features with 4 human actors and 5 classes of action. In addition, we proved all the three method are useful for the human action recognition.

    CiNii

  • 移動カメラ動画像からのCondensation Algorithmを用いた手振り認識の検討

    羅 丹, 大谷 淳

    情報処理学会研究報告コンピュータビジョンとイメージメディア(CVIM)   2008 ( 27 ) 11 - 16  2008年03月

     概要を見る

    人間と移動ロボットの共存環境を実現するためには,人間が,移動ロボットの動作に関する指示を与えられることが重要である。このようなヒューマンロボットインターフェースには,手振りが有効と考えられる。従来の手振り認識の研究は,静止カメラ画像を用いる場合がほとんどであり,動的カメラ画像の例は少ない。本研究では,動的カメラ画像中で人物追従型局所座標を構築することで,カメラの位置変動を抑制した安定かつ単純な手振り軌跡抽出法を提案する。これにより,Condensation アルゴリズムを,手振り動作認識手法として適用可能となる。日本とアメリカ手話に含まれる語彙に対応する 35 種類の動作を対象として,実験的な検討を行う。The recognition of human gestures in image sequences is an important and challenging problem that enables human robot co-existence Environment as a human-computer interaction application. There already are many researches working on hand gesture recognition from image sequences acquired by still camera. But using Dynamic Camera is few. Our focus here will be on recognition of gestures from video sequences acquired by a Dynamic camera. We created a very simple and stable extracting method of hand motion model using Human-Following Local Coordinate system (HFLC), and we using condensation algorithm to recognize the hand motion model. We demonstrated 35 kinds of Japanese and American sign languages actions of gesture recognition.

    CiNii

  • モンテカルロ法とベイズ推定に基づく動的カメラからの三次元形状復元を利用したカメラの移動方向評価尺度に関する検討

    成澤祐, 大谷 淳, 小方 博之

    情報処理学会研究報告コンピュータビジョンとイメージメディア(CVIM)   2008 ( 27 ) 181 - 186  2008年03月

     概要を見る

    移動ロボットに搭載されたカメラにより獲得される動画像から物体全体の形状を三次元復元するためには、任意の一視点方向からの復元だけでは不十分であり、移動経路において適宜最適な移動方向を選択しつつ、局所ごとの形状復元を行い、最終的に複数の局所的な復元結果を統合する必要がある。本報告では、移動カメラ画像からの三次元復元法として、モンテカルロ法とベイズ推定を用いる手法を用いて対象物体の局所的な三次元形状を復元する方法を検討する。更に、三次元形状復元を行った視点(動画像の初期フレームに対応)からの対象物体の見え方に関する情報量の取得を行い、ロボットの移動方向の選択をするための評価尺度としての有用性を検討する。In order to reconstruct the entire 3-D structure of an object from the video sequence acquired by the camera attached to a mobile robot, one view direction is not sufficient; it is necessary to select the optimal direction at each spot on the robot's path, reconstruct local structures, and integrate the multiple local structures. This paper studies a Monte Carlo method and Bayes Estimationbased method for the local 3-D reconstruction. In addition, we study the volume of information from a view point (the initial frame of the view sequence) is useful for evaluating the robot's moving direction.

    CiNii

  • Multiple Shapes Extraction with Guidance to Random Sampling

    XIE Yingdi, OHYA Jun

    電子情報通信学会技術研究報告. PRMU, パターン認識・メディア理解   107 ( 539 ) 457 - 462  2008年03月

     概要を見る

    In this paper, we present a novel method that is capable of detecting multiple shapes, including: straight line, circle, ellipse, triangle, rectangle and other polygons. Multiple shapes' detection is realized via analysis of edge orientation curve, which are obtained by tracing the contours of pre-segmented image region, and recording contour pixels' orientations. A modified histogram is generated from the edge orientation curve, for initial shape guess, by two groups: line/polygon, and ellipse/ellipse arc. Based on the primary shape recognition, target objects are precisely estimated through detecting the corresponding equation's parameters.

    CiNii

  • 距離情報に基づく画像コントラスト強調

    丁 〓, 大谷 淳, 河合 隆史, 阿部 信明

    電子情報通信学会技術研究報告. PRMU, パターン認識・メディア理解   107 ( 539 ) 267 - 270  2008年03月

     概要を見る

    画像強調、特にカラー画像強調は画像処理研究の一つの重要な分野である。画像コントラスト強調は画像の品質を高めるようにカラー画像のコントラストを高めることである。カラー画像にとって、距離感は真実感を表現する重要な要素である。そのため、筆者らはヒストグラム平坦化を改良し「加重ヒストグラム平坦化」を提案した。画素の距離情報を利用し計算した重みをヒストグラムの計算と平坦化の輝度変換に使用する。近い画素の領域に強めにコントラスト強調し、遠い領域に弱めに強調することによって画像の距離感を強調できる。カラー画像に本提案手法の施す実験を行い、提案手法の有効性の見通しを得た。

    CiNii

  • モンテカルロ法とベイズ推定に基づく動的カメラからの三次元形状復元を利用したカメラの移動方向評価尺度に関する検討

    成澤 祐, 大谷 淳, 小方 博之

    電子情報通信学会技術研究報告. PRMU, パターン認識・メディア理解   107 ( 539 ) 181 - 186  2008年03月

     概要を見る

    移動ロボットに搭載されたカメラにより獲得される動画像から物体全体の形状を三次元復元するためには、任意の一視点方向からの復元だけでは不十分であり、移動経路において適宜最適な移動方向を選択しつつ、局所ごとの形状復元を行い、最終的に複数の局所的な復元結果を統合する必要がある。本報告では、移動カメラ画像からの三次元復元法として、モンテカルロ法とベイズ推定を用いる手法を用いて対象物体の局所的な三次元形状を復元する方法を検討する。更に、三次元形状復元を行った視点(動画像の初期フレームに対応)からの対象物体の見え方に関する情報量の取得を行い、ロボットの移動方向の選択をするための評価尺度としての有用性を検討する。

    CiNii

  • 移動カメラ動画像からの Condensation Algorithm を用いた手振り認識の検討

    羅 丹, 大谷 淳

    電子情報通信学会技術研究報告. PRMU, パターン認識・メディア理解   107 ( 539 ) 11 - 16  2008年03月

     概要を見る

    人間と移動ロボットの共存環境を実現するためには,人間が,移動ロボットの動作に関する指示を与えられることが重要である。このようなヒューマンロボットインターフェースには,手振りが有効と考えられる。従来の手振り認識の研究は,静止カメラ画像を用いる場合がほとんどであり,動的カメラ画像の例は少ない。本研究では,動的カメラ画像中で人物追従型局所座標を構築することで,カメラの位置変動を抑制した安定かつ単純な手振り軌跡抽出法を提案する。これにより,Condensationアルゴリズムを,手振り動作認識手法として適用可能となる。日本とアメリカ手話に含まれる語彙に対応する35種類の動作を対象として,実験的な検討を行う。

    CiNii

  • D-12-57 スポーツ映像において高速に移動するボールを検出する方法の基礎的検討(D-12. パターン認識・メディア理解,一般セッション)

    劉 強, 謝 英弟, 大谷 淳

    電子情報通信学会総合大会講演論文集   2008 ( 2 ) 188 - 188  2008年03月

    CiNii

  • D-12-7 移動カメラ画像からの人物追従局所座標による手振り軌跡の検出法(D-12. パターン認識・メディア理解,一般セッション)

    羅 丹, 大谷 淳

    電子情報通信学会総合大会講演論文集   2008 ( 2 ) 138 - 138  2008年03月

    CiNii

  • D-12-36 移動カメラ画像からの3次元物体形状復元におけるカメラの移動方向評価尺度に関する検討(D-12. パターン認識・メディア理解,一般セッション)

    成澤 祐, 大谷 淳, 小方 博之

    電子情報通信学会総合大会講演論文集   2008 ( 2 ) 167 - 167  2008年03月

    CiNii

  • D-15-32 e-learningにおける講義ビデオのスキミング手法に関する提案と実装(D-15. 教育工学,一般セッション)

    大川内 隆朗, 大谷 淳

    電子情報通信学会総合大会講演論文集   2008 ( 1 ) 226 - 226  2008年03月

    CiNii

  • D-11-68 実写動画像からの人物の動作認識のために有効な特徴量の検討(D-11. 画像工学,一般セッション)

    王 偉卿, 大谷 淳

    電子情報通信学会総合大会講演論文集   2008 ( 2 ) 68 - 68  2008年03月

    CiNii

  • D-12-115 Detecting Ellipses from Image by Randomized Hough Transform with Edge Orientation Difference Curve Based Clustering

    Xie Yingdi, Ohya Jun

    電子情報通信学会総合大会講演論文集   2008 ( 2 ) 246 - 246  2008年03月

    CiNii

  • A-14-12 顔の特徴を分類化および言語表現可能とした似顔絵システム : デフォルメ似顔絵自動生成システム:ACGS(A-14. ヒューマンコミュニケーション基礎,一般セッション)

    榎本 誠, 大谷 淳, 楜沢 順

    電子情報通信学会総合大会講演論文集   2008   249 - 249  2008年03月

    CiNii

  • A-14-5 A Fundamental Study of "Bi-Conversation" Using "●" Communication Method

    Chen Li Jen, Yonemura Shunichi, Ohya Jun, Tokunaga Yukio

    電子情報通信学会総合大会講演論文集   2008   242 - 242  2008年03月

    CiNii

  • 近赤外画像を用いた人物の鼻の位置からの視線推定法の基礎的検討

    唐華斌, 大谷 淳, 大川内 隆朗

    電子情報通信総合大会 (2008年), 3   273   273 - 273  2008年

    CiNii

  • 色分け衣服装着人物の実写画像に対する mean-shit アルゴリズムによる色領域分割の検討

    岡崎潤, 大谷 淳, Gyo Huimin

    電子情報通信学会, 2008. 3     134 - 134  2008年

    CiNii

  • “○”プロンプタを用いたコミュニケーションシステムの会話特性

    飯田真也, 徳永幸生, 杉山精, 米村俊一, 大谷淳

    情報処理学会全国大会講演論文集   70th ( 4 )  2008年

    J-GLOBAL

  • Study of different image features used for recognizing unknown person's activity based on tensor decomposition approach (コンピュータビジョンとイメージメディア)

    Acep lrawan, Yingdi XIEl, Jun OHYA

    情報処理学会研究報告コンピュータビジョンとイメージメディア(CVIM)   2007 ( 87 ) 239 - 244  2007年09月

     概要を見る

    This paper proposes a method for recognizing an unknown person' action from a video sequence where the unknown person is defined as a person who is not included in the database (tensor) used for the recognition process. We have developed a tensor decomposition based method but that method used only motion capture data. The main motivation of this paper is to replace the motion capture data by image feature data and clarify which image features are useful. This paper tests three image features as well as their combinations. Experimental results using synthesized image sequences present the effectiveness of the method and clarify the useful image features.This paper proposes a method for recognizing an unknown person' action from a video sequence, where the unknown person is defined as a person who is not included in the database (tensor) used for the recognition process. We have developed a tensor decomposition based method, but that method used only motion capture data. The main motivation of this paper is to replace the motion capture data by image feature data and clarify which image features are useful. This paper tests three image features as well as their combinations. Experimental results using synthesized image sequences present the effectiveness of the method and clarify the useful image features.

    CiNii

  • Comparative study of segmentation in monochrome facial images: snake pedals and template matching (コンピュータビジョンとイメージメディア)

    Carolina RAMIREZ, Claudio PEREZ, Jun OHYA

    情報処理学会研究報告コンピュータビジョンとイメージメディア(CVIM)   2007 ( 87 ) 167 - 172  2007年09月

     概要を見る

    The snake pedal model is a rather new active contour algorithm used for segmentation in 2D and 3D digital images and has been employed with good results in medical imaging. However its use on other typical images like facial images has not been studied deeply. In this paper we evaluate the snake pedal model applied to face segmentation and more specifically to parameter extraction i.e. face aspect ratio face area and position. We compare its results with the ones of a template matching method. Results indicate that the snake pedal model outperforms the template matching model in face area estimation.The snake pedal model is a rather new active contour algorithm used for segmentation in 2D and 3D digital images, and has been employed with good results in medical imaging. However, its use on other typical images, like facial images, has not been studied deeply. In this paper we evaluate the snake pedal model applied to face segmentation, and more specifically, to parameter extraction, i.e., face aspect ratio, face area and position. We compare its results with the ones of a template matching method. Results indicate that the snake pedal model outperforms the template matching model in face area estimation.

    CiNii

  • A modified RANSAC based method for extracting primitive shapes from image (コンピュータビジョンとイメージメディア)

    Yingdi Xie, Jun Ohya

    情報処理学会研究報告コンピュータビジョンとイメージメディア(CVIM)   2007 ( 87 ) 71 - 76  2007年09月

     概要を見る

    Primitive shapes extraction in image processing such as line and circle is of fundamentally importance. In this paper we propose a modified ransac based shape detection method. Through a repetitive process that randomly selecting points and validity evaluation feature models could be successfully obtained. In the experimental results the effectiveness of this method is demonstrated.Primitive shapes extraction in image processing, such as line and circle, is of fundamentally importance. In this paper, we propose a modified ransac based shape detection method. Through a repetitive process that randomly selecting points and validity evaluation, feature models could be successfully obtained. In the experimental results, the effectiveness of this method is demonstrated.

    CiNii

  • A modified RANSAC based method for extracting primitive shapes from image (パターン認識・メディア理解)

    Xie Yingdi, Ohya Jun

    電子情報通信学会技術研究報告. PRMU, パターン認識・メディア理解   107 ( 206 ) 71 - 76  2007年08月

     概要を見る

    Primitive shapes extraction in image processing, such as line and circle, is of fundamentally importance. In this paper, we propose a modified ransac based shape detection method. Through a repetitive process that randomly selecting points and validity evaluation, feature models could be successfully obtained. In the experimental results, the effectiveness of this method is demonstrated.

    CiNii

  • Study of different image features used for recognizing unknown person's activity based on tensor decomposition approach (ヒューマン情報処理)

    Irawan Acep, Xie Tingdi, Ohya Jun

    電子情報通信学会技術研究報告. HIP, ヒューマン情報処理   107 ( 207 ) 239 - 244  2007年08月

     概要を見る

    This paper proposes a method for recognizing an unknown person' action from a video sequence, where the unknown person is defined as a person who is not included in the database (tensor) used for the recognition process. We have developed a tensor decomposition based method, but that method used only motion capture data. The main motivation of this paper is to replace the motion capture data by image feature data and clarify which image features are useful. This paper tests three image features as well as their combinations. Experimental results using synthesized image sequences present the effectiveness of the method and clarify the useful image features.

    CiNii

  • Study of different image features used for recognizing unknown person's activity based on tensor decomposition approach (パターン認識・メディア理解)

    Irawan Acep, Xie Tingdi, Ohya Jun

    電子情報通信学会技術研究報告. PRMU, パターン認識・メディア理解   107 ( 206 ) 239 - 244  2007年08月

     概要を見る

    This paper proposes a method for recognizing an unknown person' action from a video sequence, where the unknown person is defined as a person who is not included in the database (tensor) used for the recognition process. We have developed a tensor decomposition based method, but that method used only motion capture data. The main motivation of this paper is to replace the motion capture data by image feature data and clarify which image features are useful. This paper tests three image features as well as their combinations. Experimental results using synthesized image sequences present the effectiveness of the method and clarify the useful image features.

    CiNii

  • A modified RANSAC based method for extracting primitive shapes from image (ヒューマン情報処理)

    Xie Yingdi, Ohya Jun

    電子情報通信学会技術研究報告. HIP, ヒューマン情報処理   107 ( 207 ) 71 - 76  2007年08月

     概要を見る

    Primitive shapes extraction in image processing, such as line and circle, is of fundamentally importance. In this paper, we propose a modified ransac based shape detection method. Through a repetitive process that randomly selecting points and validity evaluation, feature models could be successfully obtained. In the experimental results, the effectiveness of this method is demonstrated.

    CiNii

  • J-024 Tensor Decomposition Framework For Recognizing an Unknown Person's Action From A Video Sequence Using Image Features

    Irawan Acep, Xie Yingdi, Ohya Jun

    情報科学技術フォーラム一般講演論文集   6 ( 3 ) 443 - 444  2007年08月

    CiNii

  • J-041 自動会話システムにおける背景画像による話題支援(J分野:ヒューマンコミュニケーション&インタラクション)

    野原 雄紀, 徳永 幸生, 杉山 精, 米村 俊一, 大谷 淳

    情報科学技術フォーラム一般講演論文集   6 ( 3 ) 481 - 482  2007年08月

    CiNii

  • I-066 Low Level Feature Detection based on Modified Ransac

    Xie Yingdi, Ohya Jun

    情報科学技術フォーラム一般講演論文集   6 ( 3 ) 345 - 346  2007年08月

    CiNii

  • J-005 顔認識における二重符号化理論とデフォルメ似顔絵との関連性について : コンピュータによる似顔絵生成への応用(J分野:ヒューマンコミュニケーション&インタラクション)

    榎本 誠, 大谷 淳, 楜沢 順

    情報科学技術フォーラム一般講演論文集   6 ( 3 ) 397 - 398  2007年08月

    CiNii

  • H-024 Validation of the Snake Pedal Model applied to Face Segmentation in Monochromatic Images

    Ramirez Carolina, Perez Claudio, 大谷 淳

    情報科学技術フォーラム一般講演論文集   6 ( 3 ) 57 - 58  2007年08月

    CiNii

  • H-008 動的カメラ画像からの動物体追跡のためのロボットプラットフォームの検討(H分野:画像認識・メディア理解)

    羅 丹, 謝 英第, 大谷 淳

    情報科学技術フォーラム一般講演論文集   6 ( 3 ) 21 - 22  2007年08月

    CiNii

  • H-058 Study of Foreground-Background Contrast Enhancement in Color Image

    丁 キョウ, 大谷 淳

    情報科学技術フォーラム一般講演論文集   6 ( 3 ) 139 - 140  2007年08月

    CiNii

  • H-056 カメラの上下動を考慮するモンテカルロ法とベイズ推定に基づく物体の三次元形状復元法の検討(H分野:画像認識・メディア理解)

    成沢 祐, 小方 博之, 大谷 淳

    情報科学技術フォーラム一般講演論文集   6 ( 3 ) 133 - 134  2007年08月

    CiNii

  • O-009 画像処理を用いた店舗内の顧客の商品選定時における態度の認識手法の一考察(O分野:情報システム)

    堀 隆之, 楜沢 順, 大谷 淳

    情報科学技術フォーラム一般講演論文集   6 ( 4 ) 453 - 454  2007年08月

    CiNii

  • 線画によるデフォルメ映像を用いた遠隔サポートの会話特性

    米村 俊一, 吉田 亨, 徳永 幸生, 大谷 淳

    ヒューマンインタフェース学会研究報告集 : human interface   9 ( 2 ) 157 - 162  2007年05月

    CiNii

  • 線画によるデフォルメ映像を用いた遠隔サポートの会話特性

    米村 俊一, 吉田 亨, 徳永 幸生, 大谷 淳

    電子情報通信学会技術研究報告. HIP, ヒューマン情報処理   107 ( 60 ) 157 - 162  2007年05月

     概要を見る

    Novices have little technical skill and so are best supported by verbal explanations by experts in conjunction with visual information such as pictures of computer screens. Video telephone systems are becoming more prevalent and are a logical infrastructure on which to build a novice support service. Unfortunately, there is a lot of resistance to such systems since most users feel uncomfortable with showing their faces and dwellings to strangers, the experts. Key problems are the loss of privacy and the feeling of breakdown in security. This paper proposes a system that automatically deforms the images transmitted in both directions os as to achieve two goals: easing the concerns of users and ensuring good enough support. We examine here the effect of visual information quality on the effectiveness and impression of a collaboration between a novice user and an operator.

    CiNii

  • A study of a computer mediated communication via the "●" prompt system: analysis of the affects on the stimulation of thought processes and the inspiration of creative ideas (ヒューマンコミュニケーション基礎)

    Chen Li Jen, Harada Nobuyuki, Yonemura Shunichi, OHYA Jun, TOKUNAGA Yukio

    電子情報通信学会技術研究報告. HCS, ヒューマンコミュニケーション基礎   106 ( 609 ) 27 - 30  2007年03月

     概要を見る

    Research into thinking-support tools is commonly focused on how to develop and share ideas between participants or with others. In this paper, we propose and develop a communication system that stimulates the thought processes and inspires the creative ideas of participants by using a visual "●" prompt within the framework of a communication pallet. Experiments have been conducted into methods of stimulating the thought process and inspiring ideas during conversation and the results have been analyzed. From the results, a tendency towards inspiring creative ideas by participants has been observed.

    CiNii

  • 影と非影領域に基づく画像コントラスト強調研究

    丁 〓, 大谷 淳

    電子情報通信学会技術研究報告. IE, 画像工学   106 ( 608 ) 53 - 58  2007年03月

     概要を見る

    画像強調、特にカラー画像強調は画像処理研究の一つの重要な分野である。画像コントラスト強調は画像を美しくするようにカラー画像のコントラストを高めることである。影がカラー画像の不可欠の部分で、特徴が非影領域と異なっているので、影と非影の処理も異なっているべきである。私たちは、影の検出方法でキャスト影を特定し、カラー画像を影の領域と非影の領域に分割し、非影の領域と影の領域のHSVカラースペースでそれぞれの協調方法を適用する。カラー画像に本提案手法の施す実験を行い、提案手法の有効性の見通しを得た。

    CiNii

  • Adaptive optimization to modified Ransac based motion segmentation (画像工学)

    Xie Yingdi, Ohya Jun

    電子情報通信学会技術研究報告. IE, 画像工学   106 ( 608 ) 83 - 86  2007年03月

     概要を見る

    In this paper, adaptive optimization methods to video sequence, which will apply to modified ransac based multiple independent motion segmentation on is discussed. Give that our system could run real-time computation, the speed continuity is a strong constraint to the following three points: 1) optical flow sampling 2) adaptive thresholds 3) motion continuity of both the camera and independent moving objects. From the next section, we discuss the corresponding solution to the above expecting improvements.

    CiNii

  • Comparative study of marker-based detection and tracking of PC in the video sequence acquired by the mobile camera for visual call center applications (画像工学)

    Zhang Qi, Ohya Jun, Yonemura Shunichi

    電子情報通信学会技術研究報告. IE, 画像工学   106 ( 608 ) 77 - 82  2007年03月

     概要を見る

    The call centers in which video communication is available, visual call centers, are supposed to be an efficient way of PC troubleshooting. Users take the video of their computer with handy cameras and send the video to the operators. The operators can confirm the matter directly so that they can give more reasonable advice to users. However, viewing the video directly has the threat of privacy violation. To overcome this problem, a method that can detect computer from the video and eliminate other objects is needed. In this paper, a marker-based PC detection method is proposed and several typical tracking methods are compared in order to fine out the appropriate ones. The accuracy and robustness of both the marker-based methods and the tracking methods are shown by experimental results.

    CiNii

  • D-12-149 Marker-based PC Detection Using Sample Matching

    Zhang Qi, Ohya Jun, Yonemura Shunichi

    電子情報通信学会総合大会講演論文集   2007 ( 2 ) 265 - 265  2007年03月

    CiNii

  • D-12-25 Stability Improvement for Motion Segmentation based on Active Stereo Cameras

    Xie Yingdi, Ohya Jun

    電子情報通信学会総合大会講演論文集   2007 ( 2 ) 141 - 141  2007年03月

    CiNii

  • D-12-123 観察法に基づく画像処理を用いた顧客の行動認識手法の一考察(D-12.パターン認識・メディア理解,一般講演)

    堀 隆之, 楜沢 順, 大谷 淳

    電子情報通信学会総合大会講演論文集   2007 ( 2 ) 239 - 239  2007年03月

    CiNii

  • D-12-115 Study of Contrast Enhancement Based on Shadow Detection

    Xiao Ding, Ohya Jun

    電子情報通信学会総合大会講演論文集   2007 ( 2 ) 231 - 231  2007年03月

    CiNii

  • D-12-122 Implementation of a Video Sequence Based System for Recognizing an Unknown Person's Gesture by a Tensor Decomposition Based Approach

    Irawan Acep, Xie Yingdi, Ohya Jun

    電子情報通信学会総合大会講演論文集   2007 ( 2 ) 238 - 238  2007年03月

    CiNii

  • A-14-10 分析的記憶表象領域における顔記憶の階層的構造とそのコンピュータシミュレーション : デフォルメ似顔絵自動生成システムへの応用(A-14.ヒューマンコミュニケーション基礎,一般講演)

    榎本 誠, 大谷 淳, 楜沢 順

    電子情報通信学会総合大会講演論文集   2007   279 - 279  2007年03月

    CiNii

  • A-14-9 A Study of Communication Prompted by "・" Communication System : Approach on how prompter effects and inspires ideas and thoughts

    Chen Li Jen, Harada Nobuyuki, Ohya Jun, Yonemura Shunichi, Tokunaga Yukio

    電子情報通信学会総合大会講演論文集   2007   278 - 278  2007年03月

    CiNii

  • 顔の輪郭画像を用いた会話システムにおける会話特性

    吉田亨, 徳永幸生, 米村俊一, 大谷淳

    情報処理学会全国大会講演論文集   69th ( 4 )  2007年

    J-GLOBAL

  • “○”プロンプタを用いるコミュニケーションシステム

    原田宣之, 徳永幸生, 米村俊一, 大谷淳

    情報処理学会全国大会講演論文集   69th ( 4 )  2007年

    J-GLOBAL

  • 線画映像による遠隔サポート-触覚インタラクションの展望-

    米村俊一, 吉田亨, 徳永幸生, 大谷淳

    人間工学   43  2007年

    J-GLOBAL

  • Independent motion areas extraction from a modified RANSAC mechanism

    Xie Yingdi, Ohya Jun

    電子情報通信学会技術研究報告. PRMU, パターン認識・メディア理解   106 ( 301 ) 13 - 16  2006年10月

     概要を見る

    Independent motion area detection is one of the active researched topics among computer vision. The computation could be achieved from seperating background and also different independent motion areas. However, the estimation within a scene with independent motion area is difficult for its uncertainty of optical flow selection. In this paper, we propse a method of different independent motion areas from a modified RANSAC mechanism..

    CiNii

  • 表面材質の逐次的推定を利用した物体の識別

    池崎 太郎, 田中 啓晶, 小方 博之, 大谷 淳

    インテリジェント・システム・シンポジウム講演論文集 = FAN Symposium : fuzzy, artificial intelligence, neural networks and computational intelligence   16   223 - 224  2006年09月

     概要を見る

    It is important for robots to recognize unregistered objects when working in general environments like home or office. In such a case, the information of shape and material may play an important role to recognize them. In this research, a sequential method of inferring object's surface material using brightness data from a series of images is examined.

    CiNii

  • Study of Real-time Marker-based PC Detection for Visual Call Center Applications

    Qi Zhang, Jun Ohya, Shunichi Yonemura

    情報処理学会研究報告コンピュータビジョンとイメージメディア(CVIM)   2006 ( 93 ) 227 - 232  2006年09月

     概要を見る

    Nowadays majority of PC producers provide their product support services via visual call centers. At times users cannot describe their problems correctly which causes waste of time. We propose a new solution for PC based visual call center applications. The video images taken by the user's portable camera are used for smooth communications between the user and the operator at the visual call center. To protect the user's privacy only the PC in the video images should be visible to the operator. This paper proposes a marker based method for detecting the PC in real-time. The design of the markers that are attached to the PC are discussed and studied A modified Chamfer Matching Algorithm is used for detecting the markers. Experimental results demonstrate the effectiveness and efficiency of the proposed method.Nowadays, majority of PC producers provide their product support services via visual call centers. At times, users cannot describe their problems correctly which causes waste of time. We propose a new solution for PC based visual call center applications. The video images taken by the user's portable camera are used for smooth communications between the user and the operator at the visual call center. To protect the user's privacy, only the PC in the video images should be visible to the operator. This paper proposes a marker based method for detecting the PC in real-time. The design of the markers that are attached to the PC are discussed and studied, A modified Chamfer Matching Algorithm is used for detecting the markers. Experimental results demonstrate the effectiveness and efficiency of the proposed method.

    CiNii

  • A Modified RANSAC mechanism:Multiple models extraction algorithm

    Yingdi Xie, Jun Ohya

    情報処理学会研究報告コンピュータビジョンとイメージメディア(CVIM)   2006 ( 93 ) 159 - 166  2006年09月

     概要を見る

    As one of the most frequently used regression methods RANSAC is advanced in its effectiveness and efficiency but RANSAC cannot extract multiple models due to its exclusivity. To extract multiple models this paper proposes a new regression method which is a modified version of RANSAC. To fit a model to data points a labeling process classifies each data point into proper inlier quasi-inlier or outlier. The model is obtained from the proper and quasi inliers. After eliminating the proper inliers another model fitting is performed. These operations are repeated till no more model is fitted. The effectiveness of the proposed method is shown by experiments on extracting multiple lines from images.As one of the most frequently used regression methods, RANSAC is advanced in its effectiveness and efficiency, but RANSAC cannot extract multiple models due to its exclusivity. To extract multiple models, this paper proposes a new regression method, which is a modified version of RANSAC. To fit a model to data points, a labeling process classifies each data point into proper inlier, quasi-inlier or outlier. The model is obtained from the proper and quasi inliers. After eliminating the proper inliers, another model fitting is performed. These operations are repeated till no more model is fitted. The effectiveness of the proposed method is shown by experiments on extracting multiple lines from images.

    CiNii

  • ウェーブレット分析に基づくカラー画像強調研究

    Ding Xiao, 大谷淳

    情報処理学会研究報告コンピュータビジョンとイメージメディア(CVIM)   2006 ( 93 ) 35 - 40  2006年09月

     概要を見る

    画像強調、特にカラー画像強調は画像処理研究の一つの重要な分野である。ウェーブレット分析は信号処理と画像処理に広範に応用されている。ウェーブレット変換、ウェーブレット逆変換と強調処理を使用し、私たちはHSVカラー空間でのカラー画像強調方法を提案する。即ち、カラー画像の輝度成分に対してウェーブレット変換を施し、得られる近似成分の係数に対して、輝度成分用のコントラスト強調を施すことにより得られる修正係数を用いて逆ウェーブレット変換を行う。色彩成分に対してSahmutionに対してヒストグラム平坦化を施す。カラー画像に本提案手法の施す実験を行い、提案手法の有効性の見通しを得た。Image enhancement, especially color image enhancement is a critical area in image processing research. The wavelet analysis is widely used in signal processing and image processing. By using wavelet transform, wavelet inverse transform and an enhancement processing between the two transforms, we propose a color image enhancement method in HSV color space. More specifically, Wavelet transform is applied to the luminance component. The coefficients for the approximation components are enhanced by a gray-level image contrast enhancement technique, and then using the enhanced coefficients, the inverse Wavelet transform is performed. To the saturation component, the histogram equalization is applied. Promising results are obtained by applying the proposed method to some color images. The experimental result showed that the enhancement method can improve the performance of color images.

    CiNii

  • A Modified RANSAC mechanism : Multiple models extraction algorithm

    Xie Yingdi, Ohya Jun

    電子情報通信学会技術研究報告. PRMU, パターン認識・メディア理解   106 ( 230 ) 25 - 32  2006年09月

     概要を見る

    As one of the most frequently used regression methods, RANSAC is advanced in its effectiveness and efficiency, but RANSAC cannot extract multiple models due to its exclusivity. To extract multiple models, this paper proposes a new regression method, which is a modified version of RANSAC. To fit a model to data points, a labeling process classifies each data point into proper inlier, quasi-inlier or outlier. The model is obtained from the proper and quasi inliers. After eliminating the proper inliers, another model fitting is performed. These operations are repeated till no more model is fitted. The effectiveness of the proposed method is shown by experiments on extracting multiple lines from images.

    CiNii

  • Study of Real-time Marker-based PC Detection for Visual Call Center Applications

    Zhang Qi, Ohya Jun, Yonemura Shunichi

    電子情報通信学会技術研究報告. PRMU, パターン認識・メディア理解   106 ( 230 ) 93 - 98  2006年09月

     概要を見る

    Nowadays, majority of PC producers provide their product support services via visual call centers. At times, users cannot describe their problems correctly which causes waste of time. We propose a new solution for PC based visual call center applications. The video images taken by the user's portable camera are used for smooth communications between the user and the operator at the visual call center. To protect the user's privacy, only the PC in the video images should be visible to the operator. This paper proposes a marker based method for detecting the PC in real-time. The design of the markers that are attached to the PC are discussed and studied. A modified Chamfer Matching Algorithm is used for detecting the markers. Experimental results demonstrate the effectiveness and efficiency of the proposed method.

    CiNii

  • ウェーブレット分析に基づくカラー画像強調研究

    丁 〓, 大谷 淳

    電子情報通信学会技術研究報告. PRMU, パターン認識・メディア理解   106 ( 229 ) 35 - 40  2006年09月

     概要を見る

    画像強調、特にカラー画像強調は画像処理研究の一つの重要な分野である。ウェーブレット分析は信号処理と画像処理に広範に応用されている。ウェーブレット変換、ウェーブレット逆変換と強調処理を使用し、私たちはHSVカラー空間でのカラー画像強調方法を提案する。即ち、カラー画像の輝度成分に対してウェーブレット変換を施し、得られる近似成分の係数に対して、輝度成分用のコントラスト強調を施すことにより得られる修正係数を用いて逆ウェーブレット変換を行う。色彩成分に対してSaturationに対してヒストグラム平坦化を施す。カラー画像に本提案手法の施す実験を行い、提案手法の有効性の見通しを得た。

    CiNii

  • K_089 Analysis of Communication Prompted by Black "●" Communication System : Effects of Emotional Emphasis in Comparison with E-mails and Messengers

    Chen Li Jen, Harada Nobuyuki, Ohya Jun, Tokunaga Yukio, Yonemura Shunichi

    情報科学技術フォーラム一般講演論文集   5 ( 3 ) 577 - 578  2006年08月

    CiNii

  • K_008 分析的記憶表象領域における顔記憶の階層的構造とそのコンピュータシミュレーション : デフォルメ似顔絵自動生成システムへの応用(K分野:ヒューマンコミュニケーション&インタラクション)

    榎本 誠, 大谷 淳, 楜沢 順

    情報科学技術フォーラム一般講演論文集   5 ( 3 ) 383 - 384  2006年08月

    CiNii

  • I_015 Optimization of 3D Egomotion Computation in Image Sequence

    謝 英弟, 大谷 淳

    情報科学技術フォーラム一般講演論文集   5 ( 3 ) 33 - 34  2006年08月

    CiNii

  • I_074 Study of Color Contrast Enhancement Based on Wavelet Transform

    Xiao Ding, Ohya Jun

    情報科学技術フォーラム一般講演論文集   5 ( 3 ) 179 - 180  2006年08月

    CiNii

  • J_019 多関節弾性物体モデルのための計算コストと使用メモリ削減法の検討(J分野:グラフィクス・画像)

    渡辺 隆史, 大谷 淳, 楜沢 順, 徳永 幸生

    情報科学技術フォーラム一般講演論文集   5 ( 3 ) 233 - 234  2006年08月

    CiNii

  • I_053 Object Detection by Using Marker Assistance

    Zhang Qi, Ohya Jun, Yonemura Shunichi

    情報科学技術フォーラム一般講演論文集   5 ( 3 ) 133 - 134  2006年08月

     概要を見る

    This paper proposes a solution for PC troubleshooting which can be used in the visual call center. The operator and user communicate not only by audio channel, but also by visual channel. To protect users' privacy, a method for eliminating objects except the users' PC from each frame of the video stream is needed. First, the marker that is to be attached to the PC is designed so that the marker is rotation-invariant and well-contrasted. After detecting candidate regions for the markers in each frame, a modified Chamfer Matching Algorithm is applied so that the markers are detected. Experimental results demonstrate the effectiveness of the proposed method.

    CiNii

  • 身体動作解析による感情要素の抽出に関する考察

    小林 裕一, 大谷 淳

    電子情報通信学会技術研究報告. HIP, ヒューマン情報処理   106 ( 143 ) 97 - 102  2006年06月

     概要を見る

    身体動作に現れる感情の差違を分析・抽出するために,演劇経験者に各種の感情を歩行動作の中で演じ分けて貰い,それらの動作をMotion captureにより記録する実験を行った.得られた時系列データに対し,速度・加速度等の時間情報の解析と上体を中心として上肢・下肢が時間的に占める空間表現の時間変化として姿勢を記述し,その状態変化の解析から,身体動作の解析を行った.その結果,特に肘の加速度の時間周波数解析と,姿勢変化の解析とを組み合わせることにより,感情を良好に分離できることを確認した.

    CiNii

  • Analysis of Human-to-Human Communications Prompted by the "●" Communication System--Comparing "with Prompters" and "without Prompters" (ヒューマンコミュニケーショングループ(HCG)シンポジウム)

    Chen Li Jen, Ohya Jun, Tokunaga Yukio, YONEMURA Shunichi

    電子情報通信学会技術研究報告. MVE, マルチメディア・仮想環境基礎   105 ( 683 ) 31 - 36  2006年03月

     概要を見る

    This paper proposes a new communication system using a black "●" prompter to inspire and encourage conversation. Experiments related to the usage of the prompter have been conducted and analyzed. Conversation experiments, both with and without a prompter, have also been performed. Following an analysis of the experimental data, it was discovered that the communication system using the prompter was supportive in expressing information other than text. Through this research and study, it can be seen that a communication method using the "●" prompter can potentially be used as an effective conversation tool.

    CiNii

  • 顔の特徴を分類化および言語表現可能とした似顔絵システムの検討

    榎本 誠, 大谷 淳, 楜沢 順

    電子情報通信学会技術研究報告. MVE, マルチメディア・仮想環境基礎   105 ( 683 ) 19 - 24  2006年03月

     概要を見る

    似顔絵画家(研究者)自身が似顔絵を制作する過程を内観的に考察し、それを論理化してプログラミングすることで「自動似顔絵ソフト」を開発した。入力画像をトレースすることなく、特徴を解析して顔の分類ができることで、文字やイラストなど様々な変換が可能となった。本システムは入力画像とのアナロジーに束縛されないので、画家の意図する大胆なデフォルメが可能である。また、必要な特徴抽出点をわずか25ポイントに抑えた。

    CiNii

  • Study of the Creation Processes-Based System for Exhibiting Artistic Works (ヒューマンコミュニケーショングループ(HCG)シンポジウム)

    Srichompoo Ton, Ohya Jun, Kurumisawa Jun, ENOMOTO Makoto

    電子情報通信学会技術研究報告. MVE, マルチメディア・仮想環境基礎   105 ( 683 ) 61 - 66  2006年03月

     概要を見る

    Art museum exhibits the artworks in term of inspiration and education. It is a relaxation place for one who loves and appreciates art. It is also a place where designers and artists seek for inspiration for their works. However, not many people have visited the art museum, because not many people can understand or appreciate the beauty or meaning of the artworks. One solution for these problems could be to exhibit not only the final work but also its creation process. This paper addresses an issue of how to construct a system that can exhibit artistic works' creation processes.

    CiNii

  • Study of Motion Segmentation from Dynamic Stereo Images Acquired by Active Stereo Cameras(映像符号化,システム及び一般)

    Xie Yingdi, Ohya Jun

    電子情報通信学会技術研究報告. IE, 画像工学   105 ( 689 ) 1 - 6  2006年03月

     概要を見る

    In this paper, we aim at achieving a real-time method for segmenting moving objects from dynamic stereo images acquired by the stereo cameras attached to a movable platform such as a robot. Although some algorithms are proposed to this problem, the central problem faced by all motion-based techniques is that, in general, it is difficult to estimate 3D motion from flow at one step, and it is difficult in achieving computational efficiency. We address this problem by implementing a computationally efficient regression method: RANSAC to calculate the ego-motion of the camera, and select a robust and fast stereo matching method to acquire the 3D structure of scene.

    CiNii

  • 店舗内における顧客の行動認識方法の基礎的検討 : 人物の介入するフレームの検出と色情報を用いた人物と物体との接触確認

    堀 隆之, 大谷 淳, 楜沢 順

    電子情報通信学会技術研究報告. IE, 画像工学   105 ( 689 ) 7 - 8  2006年03月

     概要を見る

    顧客の購買時における迷いや比較検討などの行動を認識することを目的とし,店舗内における顧客の行動認識を行うための基礎的な検討を行った.ここでは人物の行動の認識について直接扱わず,人物の介入する時点をキーフレームとして検出し,その前後のフレームを比較することでシーンの状態を認識する.人物の介入前後のフレームで差分量が認められる場合,人物が物体と接触したものとし,その認識を行った.

    CiNii

  • センサーネットワークを利用する消火活動支援システムの検討 : 画像処理を用いた火災状況認識法の検討

    野飼 雅弘, 大谷 淳

    電子情報通信学会技術研究報告. PRMU, パターン認識・メディア理解   105 ( 674 ) 15 - 20  2006年03月

     概要を見る

    センサーネットワークと画像処理を統合的に用いて消火活動を支援するシステムの実現を目指し、本報告では火災状況の認識を画像処理を用いて行う手法を検討する。具体的には、煙の挙動を画像処理により認識する手法を検討する。煙の挙動を認識するためには、一般に単純な背景差分では不十分である。従って、本報告では、再帰的に画像を、濃度分散特徴を利用して分割していく方法を提案する。背景画像と各フレームの分割結果を比較することにより、煙の挙動が推定される。実際の火災の状況を撮影したビデオ画像を対象とした実鼓を行い、提案手法の有効性を確認した。

    CiNii

  • センサーネットワークを利用する消火活動支援システムの検討-画像処理を用いた火災状況認識法の検討-

    野飼 雅弘, 大谷 淳

    情報処理学会研究報告コンピュータビジョンとイメージメディア(CVIM)   2006 ( 25 ) 187 - 192  2006年03月

     概要を見る

    センサーネットワークと画像処理を統合的に用いて消火活動を支援するシステムの実現を目指し、本報告では火災状況の認識を画像処理を用いて行う手法を検討する。具体的には、煙の挙動を画像処理により認識する手法を検討する。煙の挙動を認識するためには、一般に単純な背景差分では不十分である。従って、本報告では、再帰的に画像を、濃度分散特徴を利用して分割していく方法を提案する。背景画像と各フレームの分割結果を比較することにより、煙の挙動が推定される。実際の火災の状況を撮影したビデオ画像を対象とした実験を行い、提案手法の有効性を確認した。Towards the realization of a system that could support fire extinguishing activities by combining sensor networks and image processing technologies, this paper studies an image processing based method for recognizing the situation of fire. More specifically, how to recopize behaviors of smoke is studied. To detect smokers behaviors, in general simple background subtractions do not work. Therefore, this paper proposes an image segmentation method that recursively partitions the image using a feature based on gay-fevel variances. Experimental results using real video sequences of fire demonstrate the effectiveness of the proposed algorithm.

    CiNii

  • D-12-57 移動カメラを用いるベイズ更新に基づく逐次的3次元形状復元法の検討 : 特徴点の追跡が不要な方法の提案と基礎的検討(D-12.パターン認識・メディア理解,一般講演)

    成沢 祐, 小方 博之, 大谷 淳

    電子情報通信学会総合大会講演論文集   2006 ( 2 ) 189 - 189  2006年03月

    CiNii

  • D-12-105 店舗内での顧客の行動を認識するための色情報を用いた物体の存在確認手法の基礎的検討(D-12.パターン認識・メディア理解,一般講演)

    堀 隆之, 大谷 淳, 楜沢 順

    電子情報通信学会総合大会講演論文集   2006 ( 2 ) 237 - 237  2006年03月

    CiNii

  • D-12-100 Study of Motion Segmentation from Dynamic Stereo Images Acquired by Active Stereo Cameras

    Xie Yingdi, Ohya Jun

    電子情報通信学会総合大会講演論文集   2006 ( 2 ) 232 - 232  2006年03月

    CiNii

  • D-12-76 センサーネットワークを用いる消火活動支援システムのための、画像処理による煙の挙動認識法の検討(D-12.パターン認識・メディア理解,一般講演)

    野飼 雅弘, 大谷 淳

    電子情報通信学会総合大会講演論文集   2006 ( 2 ) 208 - 208  2006年03月

    CiNii

  • A-15-4 顔の特徴を分類化および言語表現可能とした似顔絵システムの提案(A-15.ヒューマン情報処理,一般講演)

    榎本 誠, 大谷 淳, 楜沢 順

    電子情報通信学会総合大会講演論文集   2006   240 - 240  2006年03月

    CiNii

  • A-15-12 Study of Designing a Prototype System for Exhibiting Artistic Works with Their Creation Processes

    Srichompoo Ton, Ohya Jun, Kurumisawa Jun, Enomoto Makoto

    電子情報通信学会総合大会講演論文集   2006   248 - 248  2006年03月

    CiNii

  • A-14-2 A Study of Communication Prompted by the "●" Communication System : Comparing "with Prompters" with "without Prompters"

    Chen Li Jen, Ohya Jun, Tokunaga Yukio, Yonemura Shunichi

    電子情報通信学会総合大会講演論文集   2006   233 - 233  2006年03月

    CiNii

  • D-12-126 弾性物体のように振舞うキャラクターモデルの構築法(D-12.パターン認識・メディア理解,一般講演)

    渡辺 隆史, 大谷 淳, 楜沢 順, 徳永 幸生

    電子情報通信学会総合大会講演論文集   2006 ( 2 ) 258 - 258  2006年03月

    CiNii

  • 複数弾性物体を用いた対話操作が可能な弾性物体キャラクターモデルの構築法の提案

    渡辺 隆史, 大谷 淳, 楜沢 順, 徳永 幸生

    情報処理学会研究報告グラフィクスとCAD(CG)   2006 ( 18 ) 81 - 86  2006年02月

     概要を見る

    本論文では、伸縮を含むインタラクティブな変形操作が可能な、多関節3次元弾性物体モデルを提案する。本モデルは複数の弾性物体パーツから構成され、外骨格が全体を囲む。隣接する弾性物体パーツは関節構造に対応する接合面で結合される。各弾性物体パーツは、ボーンと弾性物体要素から構成される。外骨格はインタラクティブな変形操作を行うために用いられ、外骨格の頂点の移動に応じて伸縮を含むボーンの変形の計算がインバースキネマティクスなどを用いて行われる。ボーンの変形に基づき、弾性物体要素の変形、関節構造の動作などの計算が、境界要素法などを用いて行われる。本モデルをキャラクターモデルに適用し、実験的に有効性を確認した。This paper proposes an articulated 3D elastic object model that allows interactive deformations including expansions and contractions. The proposed model consists of multiple elastic object parts, and is surrounded by an exoskeleton. Adjacent elastic object parts are connected by a joining surface, which corresponds to a joint. An elastic object part consists of a bone and elastic object primitives. The exoskeleton is used for interactive deformations; i.e., according to the displacement of the vertex of the exoskeleton, the bone's deformation including expansion and contraction is computed by inverse-kinematics etc. Based on the bone's deformation, the deformations of the elastic object primitives and joining surfaces are computed by the boundary element method. By applying the proposed method to character models, the effectiveness of the proposed model was confirmed.

    CiNii

  • デフォルメ映像通信を用いた初心者ユーザの遠隔サポート

    米村俊一, 吉田亨, 徳永幸生, 大谷淳

    電子情報通信学会技術研究報告   106 ( 84(HIP2006 1-22) )  2006年

    J-GLOBAL

  • 自動会話システムにおける話題切り替えの効果

    河野恭佑, 徳永幸生, 米村俊一, 大谷淳

    情報処理学会全国大会講演論文集   68th ( 2 )  2006年

    J-GLOBAL

  • デフォルメ映像を用いた遠隔サポートのコミュニケーション

    米村俊一, 吉田亨, 徳永幸生, 大谷淳

    電子情報通信学会技術研究報告   106 ( 219(HCS2006 34-40) )  2006年

    J-GLOBAL

  • 顔の輪郭画像を用いた映像通信システムにおける会話特性

    吉田亨, 徳永幸生, 米村俊一, 大谷淳

    情報処理学会全国大会講演論文集   68th ( 2 )  2006年

    J-GLOBAL

  • K-028 関節構造を持つ3次元弾性物体モデルの提案(K分野:ヒューマンコミュニケーション&インタラクション)

    渡辺 隆史, 大谷 淳, 楜沢 順, 徳永 幸生

    情報科学技術フォーラム一般講演論文集   4 ( 3 ) 417 - 418  2005年08月

    CiNii

  • K-029 サイバーシアターの空間移動ディレクション装置の提案(K分野:ヒューマンコミュニケーション&インタラクション)

    キム ヒョンムン, 大谷 淳, 小方 博之

    情報科学技術フォーラム一般講演論文集   4 ( 3 ) 419 - 420  2005年08月

    CiNii

  • K-082 Studies of Black "●" Prompter Communication System

    Chen Li Jen, 大谷 淳, 徳永 幸生, 米村 俊一

    情報科学技術フォーラム一般講演論文集   4 ( 3 ) 543 - 544  2005年08月

    CiNii

  • K-088 画像情報を用いたサイバーアクターの動作制御(K分野:ヒューマンコミュニケーション&インタラクション)

    〓 智恩, 渡辺 隆史, 大谷 淳

    情報科学技術フォーラム一般講演論文集   4 ( 3 ) 559 - 560  2005年08月

    CiNii

  • K-057 Study of Augmented Reality Based Method for Exhibiting Artistic Works with their Creation Processes

    Ton Srichompoo, 大谷 淳, 米村 俊一, 榎本 誠

    情報科学技術フォーラム一般講演論文集   4 ( 3 ) 485 - 486  2005年08月

    CiNii

  • K-065 顔認識における二重符号化理論とデフォルメ似顔絵との関連性について : コンピュータによる似顔絵生成への応用(K分野:ヒューマンコミュニケーション&インタラクション)

    榎本 誠, 大谷 淳, 楜沢 順

    情報科学技術フォーラム一般講演論文集   4 ( 3 ) 501 - 504  2005年08月

    CiNii

  • I-061 Motion Detection Based On Active Stereo Camera Array

    謝 英弟, 大谷 淳

    情報科学技術フォーラム一般講演論文集   4 ( 3 ) 145 - 146  2005年08月

    CiNii

  • H-029 Interactive Visualization of Large ISO-Surfaces

    スヴェン フォストマン, 大谷 淳

    情報科学技術フォーラム一般講演論文集   4 ( 2 ) 365 - 366  2005年08月

     概要を見る

    Presented is a novel algorithm for the real-time view-dependent visualization of large iso-surfaces. The developed method utilizes a unique continuous level-of-detail approach based on clip-boxes for visualizing the triangular geometry which is generated from the original iso-surface. The algorithm is especially focused on simplicity and performance for highly interactive and continuous frame rates.

    CiNii

  • L-055 センサーネットワークと監視カメラを用いた消火活動支援システムの提案(L分野:ネットワークコンピューティング)

    野飼 雅弘, Rubaiyat Yasmin, 大谷 淳

    情報科学技術フォーラム一般講演論文集   4 ( 4 ) 133 - 134  2005年08月

    CiNii

  • O-007 画像処理を用いた店舗内の顧客の行動認識法に関する基礎的検討(O分野:情報システム)

    堀 隆之, 大谷 淳, 楜沢 順

    情報科学技術フォーラム一般講演論文集   4 ( 4 ) 391 - 392  2005年08月

    CiNii

  • A Proposal on Active Extensible Stereo Camera Array For High Speed Moving Object Detection

    Yingdi Xie, Jun Ohya

    情報処理学会研究報告オーディオビジュアル複合情報処理(AVM)   2005 ( 66 ) 43 - 48  2005年07月

     概要を見る

    Recent years almost motion detection researches have been focused on detecting moving object with a low speed while only a few have been considered high speed case. In this paper a new approach for high speed moving object detection based on active extensible stereo camera array and a novel approach of motion detection are presented. In our approach the camera array is extensible by increasing or decreasing the number of the stereo camera set to scale the video sequence to a desired frame rate. In the experiment this approach shows its ability of getting high frame rate images which is the basic for high speed moving object detection.Recent years,almost motion detection researches have been focused on detecting moving object with a low speed,while only a few have been considered high speed case. In this paper,a new approach for high speed moving object detection based on active extensible stereo camera array,and a novel approach of motion detection are presented. In our approach,the camera array is extensible by increasing or decreasing the number of the stereo camera set to scale the video sequence to a desired frame rate. In the experiment,this approach shows its ability of getting high frame rate images,which is the basic for high speed moving object detection.

    CiNii

  • A Proposal on Active Extensible Stereo Camera Array For High Speed Moving Object Detection

    Xie Yingdi, Ohya Jun

    電子情報通信学会技術研究報告. MoMuC, モバイルマルチメディア通信   105 ( 164 ) 43 - 48  2005年06月

     概要を見る

    Recent years, almost motion detection researches have been focused on detecting moving object with a low speed, while only a few have been considered high speed case. In this paper, a new approach for high speed moving object detection based on active extensible stereo camera array, and a novel approach of motion detection are presented. In our approach, the camera array is extensible by increasing or decreasing the number of the stereo camera set to scale the video sequence to a desired frame rate. In the experiment, this approach shows its ability of getting high frame rate images, which is the basic for high speed moving object detection.

    CiNii

  • ソフト・ハードエッジに着目したコンピュータによる絵画制作とその評価 (映像符号化・システム・感性工学及び一般)

    新原 雄介, 徳永 幸生, 楜沢 順, 大谷 淳

    電子情報通信学会技術研究報告   104 ( 752 ) 1 - 6  2005年03月

     概要を見る

    本報告では, アーティストが油絵を描くときに用いるソフトエッジ・ハードエッジ手法を取り入れた絵画作成支援システムについて述べる.ソフト・ハードエッジ手法とは, エッジ(境界線)を用いて奥行きや立体感を表す手法であり, リアリティや立体感の付与などの効果が見込まれる.本報告では, 画家の感覚を分析し, ソフト・ハードエッジ手法を用いた絵画画像を制作した.またエッジによる表現の違いを詳細に見分ける為, 絵画を専門的に学んだ経験を持つ被験者による評価を行った.

    CiNii

  • A Fundamental Analysis of Topic Changes Prompted by the "●" Communication System (ヒューマンコミュニケーショングループ(HCG)シンポジウム)

    Chen Li-Jen, Ohya Jun, Tokunaga Yukio, KATO Tetsuya, YONEMURA Shunichi

    電子情報通信学会技術研究報告. HCS, ヒューマンコミュニケーション基礎   104 ( 744 ) 47 - 51  2005年03月

     概要を見る

    In this paper, data obtained from experiments into a new communication method using a black prompter, "●, " as a metaphor or talking partner, conducted using two different approaches, is analyzed. The experimental results showed that topic changes occurred more often on particular frames with similar patterns. The results have been examined and compared using several methodologies. Topic changes by the participants have been observed and studied.

    CiNii

  • 多関節化による弾性物体のインタラクティブモデルの提案

    渡辺 隆史, 大谷 淳, 楜沢 順, 徳永 幸生

    電子情報通信学会技術研究報告. MVE, マルチメディア・仮想環境基礎   104 ( 748 ) 7 - 12  2005年03月

     概要を見る

    インタラクティブな変形操作が可能な、複雑な形状をもつ多関節弾性物体のアニメーションモデルを提案する。本提案手法では、関節構造により接続された一連のボーンに、弾性物体要素を取り付けることにより、境界要素法による各要素の変形計算の負荷を軽減し、実時間性を実現する。ボーンの変形計算にはインバースキネマティクスを用い、ボーンの長さを物理的計算により変化させることにより、多関節弾性物体全体を、あたかも関節構造をもたない一つの弾性物体のように振舞わせる。また、弾性物体により構成される外骨格により前述の多関節弾性物体を囲むことで、複数のボーンを同時に制御できる。実験的に、インタラクティブ性を含め、リアルなアニメーション結果が実現できる見通しを示す。

    CiNii

  • Shape from Shading と遺伝的アルゴリズムを用いた水面形状推定法の基礎的検討

    寺島 哲平, 大谷 淳, 楜沢 順, 徳永 幸生

    電子情報通信学会技術研究報告. MVE, マルチメディア・仮想環境基礎   104 ( 748 ) 1 - 6  2005年03月

     概要を見る

    筆者らは実空間における水面の挙動を、仮想空間においてBump Mappingを用いて再現する手法について検討を行っている。水面の形状を再現するためには入力画像より水面上の法線ベクトルを多数推定する必要がある。そこで我々は法線ベクトルの推定にはShape from Shadingを用いるのが有効であると考えた。しかし、Shape from Shadingはカメラモデルとして直交投影を仮定しているため、通常のカメラでは透視変換の影響により、カメラの光軸から離れた画素において推定結果に誤差が生じてしまう。そこで本報告では、Shape from Shadingにより生じた誤差に対して、遺伝的アルゴリズを用いる事で誤差を抑制し、水面形状の推定精度向上を目指す方法について検討する。

    CiNii

  • A-16-23 サイバーアクターの演技のタイミングに関する検討(A-16. マルチメディア・仮想環境基礎, 基礎・境界)

    曹 智恩, 大谷 淳

    電子情報通信学会総合大会講演論文集   2005   299 - 299  2005年03月

    CiNii

  • A-16-22 Theater Canvas : サイバーシアターのディレクションを支援するインタフェースシステム(A-16. マルチメディア・仮想環境基礎, 基礎・境界)

    金 〓文, 曹 智恩, 大谷 淳

    電子情報通信学会総合大会講演論文集   2005   298 - 298  2005年03月

    CiNii

  • A-16-10 サイバーシアターにおけるアヴァター表現に関する検討 : 画像処理による人物姿勢推定結果のニューラルネットによる改良(A-16. マルチメディア・仮想環境基礎, 基礎・境界)

    飯田 将也, 姜 東完, 大谷 淳

    電子情報通信学会総合大会講演論文集   2005   286 - 286  2005年03月

    CiNii

  • D-12-130 因子分解法を用いた屋外環境下での広範囲における強化現実端末の自己位置・姿勢検出精度向上法の基礎的検討(D-12. パターン認識・メディア理解, 情報・システム2)

    藤原 裕也, 大谷 淳, 野飼 雅弘

    電子情報通信学会総合大会講演論文集   2005 ( 2 ) 280 - 280  2005年03月

    CiNii

  • D-12-79 A Study of Synthesizing New Human Motions from Sampled Motions Using Tensor Decomposition(D-12. パターン認識・メディア理解, 情報・システム2)

    Rovshan Kalanov, Cho Jieun, Ohya Jun

    電子情報通信学会総合大会講演論文集   2005 ( 2 ) 229 - 229  2005年03月

    CiNii

  • D-12-77 逆運動学による弾性物体の多関節モデルの検討(D-12. パターン認識・メディア理解, 情報・システム2)

    渡辺 隆史, 大谷 淳, 楜沢 順, 徳永 幸生

    電子情報通信学会総合大会講演論文集   2005 ( 2 ) 227 - 227  2005年03月

    CiNii

  • D-12-11 色彩画像処理による人物の3次元姿勢推定に関する検討(D-12. パターン認識・メディア理解, 情報・システム2)

    小沼 裕一, 姜 東完, 大谷 淳

    電子情報通信学会総合大会講演論文集   2005 ( 2 ) 161 - 161  2005年03月

    CiNii

  • D-12-4 Shape from Shadingと遺伝的アルゴリズムを用いた水面形状推定法の基礎的検討(D-12. パターン認識・メディア理解, 情報・システム2)

    寺島 哲平, 大谷 淳, 楜沢 順, 徳永 幸生

    電子情報通信学会総合大会講演論文集   2005 ( 2 ) 154 - 154  2005年03月

    CiNii

  • D-4-6 Analysis-based Participant Selection Scheme in Workflow Management System(D-4. データ工学, 情報・システム1)

    Ding Xiao, Cao Jian, Ohya Jun

    電子情報通信学会総合大会講演論文集   2005 ( 1 ) 32 - 32  2005年03月

    CiNii

  • 顔のエッジ表現を用いたコミュニケーションシステムの会話特性

    大石貴也, 徳永幸生, 米村俊一, 大谷淳

    情報処理学会全国大会講演論文集   67th ( 4 )  2005年

    J-GLOBAL

  • 顔のエッジ表現を用いたコミュニケーションシステム

    大石貴也, 徳永幸生, 米村俊一, 大谷淳

    情報処理学会研究報告   2005 ( 9(HI-112) )  2005年

    J-GLOBAL

  • 熱転写記録を用いた金色銀色表現法とその用応

    徳永 幸生, 古田 裕樹, 楜沢 順, 大谷 淳

    パソコンリテラシ   29 ( 10 ) 19 - 23  2004年10月

    CiNii

  • K-069 仮想弾性物体の運動の操作手法に関する検討(K.ヒューマンコミュニケーション&インタラクション)

    渡辺 隆史, 大谷 淳

    情報科学技術フォーラム一般講演論文集   3 ( 3 ) 549 - 550  2004年08月

    CiNii

  • K-044 A Communication System using a black prompter "●"

    Chen Li Jen, 加藤 哲也, 徳永 幸生, 大谷 淳

    情報科学技術フォーラム一般講演論文集   3 ( 3 ) 491 - 492  2004年08月

    CiNii

  • I-053 Shape from Shadingと入力画像のアフィン変換を用いた水面の法線ベクトル推定方法の検討(I.画像認識・メディア理解)

    寺島 哲平, 大谷 淳

    情報科学技術フォーラム一般講演論文集   3 ( 3 ) 123 - 124  2004年08月

    CiNii

  • K-032 屋外環境下での広範囲における強化現実端末の自己位置・姿勢検出精度向上法の基礎的検討(K.ヒューマンコミュニケーション&インタラクション)

    藤原 裕也, 大谷 淳

    情報科学技術フォーラム一般講演論文集   3 ( 3 ) 467 - 468  2004年08月

    CiNii

  • K-033 色彩画像処理と時系列情報による人物の3次元姿勢推定に関する検討(K.ヒューマンコミュニケーション&インタラクション)

    小沼 裕一, 姜 東完, 大谷 淳

    情報科学技術フォーラム一般講演論文集   3 ( 3 ) 469 - 470  2004年08月

    CiNii

  • K-035 A Frame Work for Analysis and Synthesis of Actor's Stylistic Action

    Cho Jieun, Ohya Jun

    情報科学技術フォーラム一般講演論文集   3 ( 3 ) 473 - 474  2004年08月

    CiNii

  • 対比刺激を用いた視聴覚相互作用の予備的検討

    小林 裕一, 柴田 滝也, 加藤 俊一, 大谷 淳

    電子情報通信学会技術研究報告. MVE, マルチメディア・仮想環境基礎   103 ( 745 ) 7 - 12  2004年03月

     概要を見る

    われわれはこれまでに,様々な視覚コンテンツに対する印象について調べ,視覚刺激のコントラスト属性が印象に対して有効に働くことを実証してきた.しかし,印象は本来的には,複数の感覚モダリティが相互に影響を及ぼしあった結果として生まれる.そこでわれわれは,視覚刺激に聴覚刺激を加え,コントラストに着目して相互の影響について調べることにした.本報告では,まず視覚と聴覚が相互に影響を及ぼし合う刺激の範囲を把握することを目的として,心理物理的アプローチにより予備的な検討を行った.明るさと音量の対比刺激を用いて相互の影響を実験的に調べた.2要因の分散分析の結果,明るさ弁別の悪い明部および暗部では,視覚刺激の対比判断が聴覚刺激の対比判断に引っ張られる傾向が見られ,またその度合いは,協和音刺激よりも不協和音刺激の場合に強くなる傾向が見られた.さらに,対比刺激の変化方向(増加・減少)が視覚と聴覚とで同じときに,単純主効果が強く,反対のときに交互作用が強くなる傾向が認められた.

    CiNii

  • 初期テンペラ絵画のディジタル表示法に関する検討 : 色彩復元と物質感表現保存の試み

    斎藤 実, 大谷 淳, 楜沢 順, 平尾 大輔, 呂 亮震, 徳永 幸生

    電子情報通信学会技術研究報告. IE, 画像工学   103 ( 739 ) 1 - 6  2004年03月

     概要を見る

    現状のディジタルアーカイブシステムの多くでは、蓄積された芸術的絵画作品をパソコンのモニター画面へ表示しているが、絵画のオリジナルな色彩の復元が行われておらず、絵画が本来表現しようとしている物質感が失われるといった問題がある。油彩画と水彩画は絵画の代表的な例であるが、前者では透明性をもつ絵の具を重ね塗りするglazingが用いられ、後者では水分と絵の具の量の微妙な調整によるgradationが用いられていため、工学的な解析は困難である。そこで、本報告では、不透明な絵の具が用いられた初期テンペラ絵画を対象に、絵画のオリジナルな色彩復元と物質感表現の保存が可能なディジタル表示法について基礎的検討を行う。まず、初期テンペラ絵画に使用されていた顔料と類似した顔料32種類を用いて、支詩体の上に各絵の具を塗布して色彩評価用見本を作成する。SRGBモニターにこれらの絵の具の色彩を表示し、色彩評価用見本と目視により比較する主観評価テストを行い、絵の具の色を忠実に再現可能なシステムを構築する。次に、絵画のディジタル画像の各面素毎に、RGB空間における最近傍決定則を行い、使用された絵の具を推定し、前述の色彩再現システムに表示する,、イタリア・ウフィツィ美術館所蔵の初期テンペラ絵画のディジタル画像を対象に実験を行い、本手法の有効性の見通しを得た。

    CiNii

  • 仮想的再現を目的とした、動画像中の樹木の挙動解析に基づく風の方向と強さの推定法の基礎的検討

    呂 亮震, 大谷 淳, 寺島 哲平

    電子情報通信学会技術研究報告. PRMU, パターン認識・メディア理解   103 ( 737 ) 103 - 108  2004年03月

     概要を見る

    筆者らは、実空間中における樹木の風等の外力に起因する挙動を、仮想空間において再現する手法について検討を進めている。樹木の挙動を再現するためには、動画像中の樹木の挙動を解析することが考えられるが、樹木のような複雑な構造をもつ対象の場合、局所的な追跡等はオクルージョンが頻発するため有効ではない。そこで本報告では、仮想空間における樹木の挙動生成は、風を与えれば行えることを利用する。即ち、樹木の動画像を解脈して風の方向と強さを推定する方法を提案し、基礎的検討を行う。提案手法は固有空間解析とフィツシャーの線形判別法に基づく学習と認識から構成される。つまり、種々の風を与えた状況の樹木の動画像を用いて学習を行い、認識時に用いる。推定精度を向上させるための補間的方法も提案する。実験的に提案手法の有効性の見通しを示す。

    CiNii

  • D-11-120 3次元弾性物体の頂点補間を用いた境界要素法による実時間アニメーションモデルの基礎的検討(D-11.画像工学D)

    渡辺 隆史, 大谷 淳, 楜沢 順, 徳永 幸生

    電子情報通信学会総合大会講演論文集   2004 ( 2 ) 120 - 120  2004年03月

    CiNii

  • A-15-19 視聴覚相互作用の予備的検討(A-15. ヒューマン情報処理)

    小林 裕一, 柴田 滝也, 加藤 俊一, 大谷 淳

    電子情報通信学会総合大会講演論文集   2004   299 - 299  2004年03月

    CiNii

  • A-16-4 赤外発光ダイオードを用いた屋外環境下での強化現実端末の自己位置・姿勢検出精度向上法の基礎的検討(A-16. マルチメディア・仮想環境基礎)

    藤原 裕也, 大谷 淳

    電子情報通信学会総合大会講演論文集   2004   313 - 313  2004年03月

    CiNii

  • A-16-19 形状変形とテクスチャ張り替えを用いた3次元人物顔再構築法(A-16. マルチメディア・仮想環境基礎)

    佐藤 一, 大谷 淳, 寺島 信義

    電子情報通信学会総合大会講演論文集   2004   328 - 328  2004年03月

    CiNii

  • D-12-116 色彩画像処理による色分け衣服を装着した人物の複雑な姿勢推定法の検討(D-12. パターン認識・メディア理解B)

    姜 東完, 小沼 裕一, 大谷 淳

    電子情報通信学会総合大会講演論文集   2004 ( 2 ) 282 - 282  2004年03月

    CiNii

  • 熱転写記録を用いた金色銀色表現法とその応用

    古田 裕樹, 徳永 幸生, 楜沢 順, 大谷 淳

    映像情報メディア学会技術報告   28 ( 9 ) 25 - 28  2004年02月

    CiNii

  • 熱転写記録を用いた金色銀色表現法とその応用

    古田 裕樹, 徳永 幸生, 楜沢 順, 大谷 淳

    電子情報通信学会技術研究報告. EID, 電子ディスプレイ   103 ( 649 ) 25 - 28  2004年02月

     概要を見る

    熱転写記録を用いた金色銀色表現法について提案する.CMY以外のいわゆる特色を印字するプリンタは存在しているが,一般にプリンタドライバをユーザが変更することは出来ないので,特色を利用するためには特別の変換テーブルを開発しなければならない.また,金色銀色の上に印刷を行うと下の金色銀色が透過してしまい原画とは異なった色合いで印字されるという問題があった.本稿では,これらの問題を解決するために,CMYKGSとCMYK[GS]の変換テーブル,金色銀色とCMYとの混色による216種類の色表現マップ,金色銀色に影響されない特殊ホワイト印刷法を開発すると共に,デジタルプリンティング作品と金屏風の再現を行い,本手法の有用性を示す.

    CiNii

  • 動的計画法による実時間ステレオ

    Forstmann Sven, 加納 裕, 大谷 淳, THUERING Sven, SCHMITT Alfred

    電子情報通信学会技術研究報告. HIP, ヒューマン情報処理   103 ( 455 ) 103 - 108  2003年11月

     概要を見る

    本稿では、動的計画法に基づく高精度のマッチング結果が得られる実時間ステレオマッチング法を提案する。新たなcoarse to fineのアプローチに加えて、MMX等のハードウェアを用いて、高速の処理の実現を図る。画像の縦方向の平滑化と動的計画法における経路の統合を用いて、水平方向の雑音的誤りのマッチングを防ぐことにより、高精度なステレオマッチングを達成する。本稿で構築したシステムでは、2GHzのPCを用いて30フレーム/秒の処理速度が得られ、実時間システムの実現のために大変有望な結果が得られた。

    CiNii

  • 衝突を伴う仮想弾性物体のリアルタイムアニメーションモデルの提案--境界要素法モデルと実写挙動の再現

    渡辺 隆史, 大谷 淳, 楜沢 順, 徳永 幸生

    電子情報通信学会技術研究報告   103 ( 352 ) 35 - 40  2003年10月

     概要を見る

    仮想弾性物体が衝突を伴って運動を行う場合の、リアルタイムアニメーションのためのモデルを提案する。弾性物体のシミュレーション方法には、一般的によく用いられるばねモデルよりも扱いやすく、期待した変形をする境界要素法を利用する。ただし、実時間計算を前提とする場合の境界要素法は、シミュレーション単体ではアニメーションができないため、その対処法について述べる。また、3次元弾性物体の場合では、実時間計算が困難であるため、2次元のシミュレーションを用いた近似モデルを提案する。最後に、有効性を示すため、撮影したゼリーの挙動を提案するモデルを用いて再現する。

    CiNii

  • サイバーシアターにおける演技者の感情による動作表現の多様性に関する基礎的検討

    Cho Jieun, 大谷 淳

    電子情報通信学会技術研究報告   103 ( 351 ) 31 - 36  2003年10月

     概要を見る

    本稿は誰もが役者、ディレクタ、観客としてコンテンツ制作に携わることが可能なサイバーシアターにユーザがディレクタとして参加してコンテンツを制作可能にすることを目指して、新しいサイバーシアターディレクティングシステムを提案し、実現のための基礎的なシステム環境の分析及び検証を行う。この論文におけるディレクションの目標は、データベースに蓄積された演技素片を駆使して、ディレクタが所望する演技シーンを生成できるようにすることである。即ち、データベースに蓄積された演技の素片を適宜編集し、サイバーキャラクタの演技動作の多様性を実現する。具体的には、一つの動作に感情によるバリエーションを付けて、システムに参加するユーザがディレクタとして動作を編集するのが可能であることを確認した。また、動作の合成や感情の強弱の表現の調節により「複数の演出」を可能にし、実空間でのディレクションとは異なる新たなサイバーシアターでのディレクションが可能であることを確認した。

    CiNii

  • D-12-164 実写動画像と顔面筋モデルを用いた 3 次元人物顔画像の構築

    佐藤 一, 大谷 淳, 寺島 信義

    電子情報通信学会総合大会講演論文集   2003 ( 2 ) 325 - 325  2003年03月

    CiNii

  • D-12-97 境界要素法による 3 次元ゼリー状物体の挙動の実時間再現

    渡辺 隆史, 大谷 淳

    電子情報通信学会総合大会講演論文集   2003 ( 2 ) 258 - 258  2003年03月

    CiNii

  • A-16-31 台本のト書きの分析結果を利用したサイバーシアター・ディレクティング・システム

    曹 智恩, 大谷 淳

    電子情報通信学会総合大会講演論文集   2003   326 - 326  2003年03月

    CiNii

  • 効率的かつリアルな3次元樹木モデルのアニメーションの検討

    神田 仁, 大谷 淳

    電子情報通信学会技術研究報告. MVE, マルチメディア・仮想環境基礎   102 ( 662 ) 81 - 86  2003年02月

     概要を見る

    本稿ではリアルな3次元樹木モデルのアニメーションを実現する新しい効率的手法を提案する.本稿で扱う3次元樹木モデルは,葉のモデルを取り付けた枝セグメントの集合体として構築される.計算量削減に向け,全セグメントの運動を解析する代りに,枝の変形において中心的役割を果たすセグメントのみを力学的に解析する.その際,数値解析は3次元運動方程式の解析を必要とせず,2次元平面に拘束された運動の解析となる.葉の配置では,数枚の葉を1組とした葉モデルを各セグメントの周囲に体系的に配置する.以上の提案手法を取り入れたアニメーション実験により,リアルタイムかつ視覚的リアリティのある樹木の力学的挙動が実現された.

    CiNii

  • 仮想的再現のための Shape from Shading を利用した水面形状の推定法の基礎的検討

    寺島 哲平, 大谷 淳

    電子情報通信学会技術研究報告. PRMU, パターン認識・メディア理解   102 ( 652 ) 55 - 60  2003年02月

     概要を見る

    水面の形状を画像処理により推定し、Bump Mappingを用いて仮想的再現する手法の基礎的検討について報告する。Bump Mappingで必要となる水面上の多数の点に対する法線ベクトルを求めるため,水面画像にShape from Shadingを施し、これを利用して水面形状を推定する手法を提案する。従来のShape from Shadingでは物体の色は単一であることを前提としていたが、本報告では水面への映り込み等に対処するための方法を検討した。3次元構造や色彩が既知の3次元シーンに対する有効性を示すとともに、水面画像に対する検討結果について述べる。

    CiNii

  • 動画像と顔面筋動作を考慮したモデルを用いた3次元人物顔画像構築法

    佐藤 一, 大谷 淳, 寺島 信義

    電子情報通信学会技術研究報告. PRMU, パターン認識・メディア理解   102 ( 651 ) 53 - 56  2003年02月

     概要を見る

    本稿では,動画像の持つ特徴を直接使用した3次元人物顔画像の簡便かつ高速・高精度な生成法を提案する.まず,正面および側面から撮影した無表情人物顔画像を使用し,3次元ポリゴンと2次元顔面筋モデルによって構成された3次元顔モデルを構築する.次に,入力されたフレームに対して正規化処理を施した後,顔面筋の伸縮ルールに基づき,人物顔上の特徴点位置を計測する.これらの座標をもとに,3次元顔モデルの形状を変形し,正規化された人力フレームを直接モデルの上にテクスチャマッピングしていく.一般的なCCDカメラおよびパソコンを用いて本手法の実装を行い,1名の人物顔データを使用した基礎実験を行うことにより,その有効性を確認した.

    CiNii

  • 文化財環境における遍在型デジタルアーカイブ研究 ∼非接触型ICチッブ/タグを利用した、文化財環境でのユビキタス・アーカイブの実現について∼

    小池 公二, 平尾 大輔, 大谷 淳

    情報処理学会研究報告人文科学とコンピュータ(CH)   2002 ( 107 ) 47 - 54  2002年11月

     概要を見る

    文化財環境における近距離無線搭載型携帯電話とアンテナ付き超小型ICチップを使用する、保存・管理・展示・学習システムである.多様な対象物にチップを付すことで,その対象物から直に必要な情報を入手出来る特性をもつ新たな遍在型,分散型データベースとなる.The preservation,management and learning system to use the short-range wireless cellular phone and the ultraminiature IC chip loading the antenna in the field of cultural properties. Putting the chip on various objects makes it a new,ubiquitous,anddistributed database ,which can directly get the needed information.

    CiNii

  • J-41 境界要素法を用いた仮想弾性体のリアルタイムアニメーション法(アニメーション,J.グラフィクス・画像)

    渡辺 隆史, 大谷 淳

    情報科学技術フォーラム一般講演論文集   2002 ( 3 ) 283 - 284  2002年09月

    CiNii

  • J-11 力学的挙動の効率的表現が可能な樹木の三次元モデリング法の検討(レンダリングと自然物,J.グラフィクス・画像)

    神田 仁, 大谷 淳

    情報科学技術フォーラム一般講演論文集   2002 ( 3 ) 223 - 224  2002年09月

    CiNii

  • I-72 3方向光源差分画像を用いた古銭画像識別法の検討(物体認識,I.画像認識・メディア理解)

    橋本 純, 大谷 淳

    情報科学技術フォーラム一般講演論文集   2002 ( 3 ) 143 - 144  2002年09月

    CiNii

  • K-30 Field Augmented Reality実現のための絶対位置・方位測定方法の検討(マルチメディア・仮想環境基礎1,K.ヒューマンコミュニケーション&インタラクション)

    坂本 敦也, 小池 公二, 大谷 淳

    情報科学技術フォーラム一般講演論文集   2002 ( 3 ) 427 - 428  2002年09月

    CiNii

  • K-20 3Dテクスチャ画像の材質感解析(ヒューマン情報処理(1),K.ヒューマンコミュニケーション&インタラクション)

    小林 裕一, 大谷 淳, 蓼沼 眞

    情報科学技術フォーラム一般講演論文集   2002 ( 3 ) 407 - 408  2002年09月

    CiNii

  • I-22 色彩画像処理による色分け衣服を装着した人物の姿勢推定法の検討(人物姿勢推定・ジェスチャ認識,I.画像認識・メディア理解)

    姜 東完, 大谷 淳

    情報科学技術フォーラム一般講演論文集   2002 ( 3 ) 43 - 44  2002年09月

    CiNii

  • 2枚の実写画像による顔面筋動作を考慮した3次元顔特徴モデルの構築法

    佐藤 一, 劉 奕志, 大谷 淳, 寺島 信義

    電子情報通信学会技術研究報告. IE, 画像工学   102 ( 216 ) 77 - 81  2002年07月

     概要を見る

    本稿ではマルチメディア通信システムへの応用を目的とした,異なる方向・表情の人物顔画像の生成手法を提案する.この手法は3次元顔モデルの幾何学的な変形則と顔面筋の物理学的な動作の両方を考慮しており,簡便な方式でリアリティの高い人物顔表情の再構築を可能にする.まず,正面および側面から2枚の無表情の人物顔画像を取得し,画像上に特徴点を配置していくことにより,人物顔構造を模った3次元ポリゴンモデルを作成する,次に,モデル上に顔面筋動作を近似したスプリングを配置し,その伸縮比率を用いて眉,目,口といった顔構成要素をスムーズに変形する.また,スプリング終点近隣の頂点座標を適切に移動させることにより,自然な表情変化を再構築する。このスプリング動作は特定の人物顔構造に依存しないため,簡単なフィッティング処理により,モデルを任意人物の顔に適合させることができる.比較的安価なPC上に本手法を実装し,シミュレーション実験を行うことにより,提案手法の有効性を確認した.

    CiNii

  • A-16-35 筋肉動作を考慮した3次元顔モデルの構築と表現生成の応用

    劉 奕志, 佐藤 一, 大谷 淳

    電子情報通信学会総合大会講演論文集   2002   355 - 355  2002年03月

    CiNii

  • D-11-76 実写画像を用いた流体挙動の仮想的再現の検討

    寺島 哲平, 大谷 淳

    電子情報通信学会ソサイエティ大会講演論文集   2001   161 - 161  2001年08月

    CiNii

  • アート・ベース・レンダリングにおける視覚的グルーピングと構図制御

    Kowalski Michael A., 大谷 淳, Hughes John F., 大谷 淳

    電子情報通信学会技術研究報告. DSP, ディジタル信号処理   100 ( 12 ) 13 - 18  2000年04月

     概要を見る

    本稿では、伝統的なアートの構図の技法を、インタラクティブな3次元シーンのアート・ベースなレンダリングに適用する方法を検討する。我々のシステムは、与えられた見え方の望ましい構図効果を実現するために、シーン中の物体のレンダリングのための属性を動的に調整する。このような効果の一つとして、共有する色調、色彩と輪郭によりシーン中の要素を選択的にグルーピングすることがある。本稿では、このようなグルーピングが、どのように画像を簡易化し、構造化するかを示すとともに、シーン中の重要な物体を強調するために、詳細度のレベル制御とともにどのように用いられるかを示す。また、陰影、シルエット抽出、詳細生成アルゴリズムが、このような構図効果を支援するためにどのように適応されるかを示す。最後に、画像中の隣接する要素のコントラストを制御するために、色彩や他の属性を適応的に変える技法を提案する。

    CiNii

  • 高速度カメラを用いた顔面表情の動的変化に関する分析

    内田 英子, 四倉 達夫, 森島 繁生, 山田 寛, 大谷 淳, 赤松 茂

    電子情報通信学会技術研究報告. HIP, ヒューマン情報処理   99 ( 722 ) 1 - 6  2000年03月

     概要を見る

    顔面表情に焦点をあて、意図的なコントロールを受けたものと、なんらかの情動喚起に伴い自発的に現れるものとの違い、特に動的な変化の違いを実験的に検討した。被験者の顔面表情の変化を次の2条件下で高速度カメラにより撮影した。1つが意図的表出(動作教示)条件、もう一つが自発的表出条件である。意図的表出条件では、顔面動作教示に従って被験者に6つの基本表情を演じさせた。一方、自発的表出条件では、情動喚起映像(喜び、驚き、怒り、悲しみ、嫌悪、恐れ)を提示し、被験者に自然な表情を自発させた。高速度カメラで撮影した顔面表情の動的変化(特徴点の変位)を、画像解析ツールを用いて測定した。

    CiNii

  • 人物像の実時間認識・生成-仮想シーンを介したコミュニケーションの実現を目指して

    大谷 淳

    システム/制御/情報 : システム制御情報学会誌 = Systems, control and information   44 ( 3 ) 136 - 141  2000年03月

    CiNii

  • 高速度カメラを用いた顔面動作の分析

    四倉 達夫, 内田 英子, 山田 寛, 森島 繁生, 赤松 茂, 大谷 淳

    電子情報通信学会総合大会講演論文集   2000   260 - 260  2000年03月

    CiNii

  • ATRにおける仮想コミュニケーション環境の研究

    大谷 淳, 坂口 竜己

    電子情報通信学会技術研究報告. PRMU, パターン認識・メディア理解   99 ( 574 ) 79 - 84  2000年01月

     概要を見る

    ATR知能映像通信研究所において行われている仮想的シーンを介した距離を隔てた人物同士のコミュニケーション環境に関する研究を紹介する。このような仮想的コミュニケーション環境を実現するためには、人物像を仮想的なシーンの中に合成する人物像の認識・生成法と、コミュニケーションのための仮想的シーンを生成するシーンの認識・生成法が重要である。本稿では、人物像の認識・生成に関しては、仮想変身システムと多眼画像からの手振り認識システム、シーンの認識・生成に関しては、実写画像からの任意視点画像生成法、実写像からの見え方とふるまいのリアリティを保存可能な自然物の3次元モデリング法、実世界とCG画像の統合環境について紹介する。さらに、今後の展開に関する研究状況についても述べる。

    CiNii

  • ニューラルネットワークによる実時間人物姿勢推定法に関する一考察

    上村哲也, 高橋 和彦, 大谷 淳

    2000信学全大, 情報 システム (2)     302 - 302  2000年

    CiNii

  • 非同期多視点画像を用いた複数人物追跡の安定化

    Yang Howard, 内海 章, 大谷 淳

    電子情報通信学会技術研究報告. PRMU, パターン認識・メディア理解   99 ( 450 ) 1 - 7  1999年11月

     概要を見る

    非同期多視点画像を用いて複数人物の追跡を行う手法を提案する.提案手法では,多視点で非同期に得られる観測画像をカルマンフィルタにより統合し人物追跡を効率的に行う.試作システムは,各視点の画像を処理する観測ノード(Observation Node)と人物の発見,追跡を行う発見ノード(Discovering Node),追跡ノード(Tracking Node)からなる.観測ノードで行われる画像特徴と追跡モデルの対応づけにおいては,人物同士の重なりによって生じるオクルージョンが問題となる.提案手法では,多視点画像から得られる各人物に固有の特徴(背丈,着衣の色)を用いて,これらオクルージョンによる追跡精度の悪化を低減する.実画像を用いた実験により,本手法の有効性を示す.

    CiNii

  • 分身コミュニケーションの提案と検討 : ノンバーバル情報の認識を利用した新たなコミュニケーション手段

    大谷 淳, 中津 良平, 川戸 慎二郎, 坂口 竜己

    電子情報通信学会技術研究報告. PRMU, パターン認識・メディア理解   99 ( 448 ) 47 - 52  1999年11月

     概要を見る

    時間の効率的利用、人間性豊かな生活の実現を目指して筆者らは分身コミュニケーションを提案する。分身コミュニケーションは、自分が現在いる場所とは別の場所で同時並行的に行われているイベント(会議、講演等)に、仮想変身によるアヴァターまたは計算機制御されるエージェントとして、ネットワーク回線を介して参加することにより、必要な意見の伝達や情報収集を可能にしようとするものである。仮想変身とエージェントの切り替えは、各イベントの他の参加者の感情やふるまい等の非言語情報を認識することにより自動的に行う。プロトタイプシステムを構築することにより、分身コミュニケーションの有効性の見通しを得た。

    CiNii

  • アクティブカメラによる視線追跡・自動 Lip Reading

    四倉 達夫, 島田 直幸, 森島 繁生, 大谷 淳

    電子情報通信学会技術研究報告. HIP, ヒューマン情報処理   99 ( 451 ) 31 - 36  1999年11月

     概要を見る

    本稿ではカメラヘッドのパン・チルトとズームのコントロール可能なアクティブカメラ2台を用い、常時ユーザの口・目領域を高解像度でキャプチャし自動追跡を行う手法を提案する。各々のカメラから取り込んだ画像を2値化することにより、口や目領域を検出し、キャプチャされた画像における各領域の位置とその面積からカメラの回転方向と回転速度、ズーム速度を決定し、カメラ制御を行う。この追跡法によって抽出された口・目領域の2個化画像の特徴を分析し、LipReading、瞬きの検出や視線の追跡が可能となった。

    CiNii

  • 三眼視による実時間非接触非装着型三次元人物姿勢推定法

    高橋 和彦, 坂口 竜己, 大谷 淳

    電子情報通信学会技術研究報告. PRMU, パターン認識・メディア理解   99 ( 380 ) 47 - 54  1999年10月

     概要を見る

    本研究では,実時間非接触非装着型の三次元人体姿勢推定方法の開発の一環として,カメラ画像からの人体特徴点の検出方法を提案し,多眼視による人物の三次元姿勢推定法に適用する.人物の輪郭線画像解析,及びフレーム間差分の組み合わせによる人体特徴点(頭頂,左右手先及び足先)の検出と,ARモデルによる特徴点の時系列追跡を行なう検出アルゴリズムを提案する.提案するアルゴリズムを三眼視による三次元姿勢推定システムに実装し,実画像を用いた計測実験により,本システムが実時間で動作し,提案手法により自己遮蔽が生じる姿勢への対応が可能であり,推定可能な人物姿勢の範疇が拡大する事を示す.

    CiNii

  • 多数カメラによる両手手振り認識を用いた仮想空間操作

    内海章, 大谷淳

    ヒューマンインタフェースシンポジウム論文集   1999   227 - 232  1999年10月

    J-GLOBAL

  • D-12-39 表情推定のための顔の眉間位置検出法の検討

    川戸 慎二郎, 大谷 淳

    電子情報通信学会ソサイエティ大会講演論文集   1999   203 - 203  1999年08月

    CiNii

  • A-16-7 カルマンフィルタを用いた実時間人物姿勢推定法の一考察

    高橋 和彦, 坂口 竜己, 大谷 淳

    電子情報通信学会ソサイエティ大会講演論文集   1999   174 - 174  1999年08月

    CiNii

  • 非同期多視点画像を用いた人物追跡システムの構築

    内海章, 大谷淳

    電子情報通信学会大会講演論文集   1999   173  1999年08月

    J-GLOBAL

  • 多様な人物情報の獲得が可能な多視点システムの提案と構築

    森大樹, 内海章, 大谷淳, 谷内田正彦

    電子情報通信学会技術研究報告   98 ( 684(MVE98 98-104) ) 41 - 48  1999年03月

     概要を見る

    多視点画像を用いて人物の動作情報を効率的に獲得する手法を検討する。画像情報を用いた人物追跡では、撮影方向の違いによって生じる自己オクルージョンと人物間で生じる相互オクルージョンが問題となるが、多視点情報を統合することにより、これらオクルージョンの影響を低減しながら情報獲得を行うことができる。本報告では、人物の位置・方向、顔画像、手の位置の検出について検討した。多視点情報の統合にはカルマンフィルタを用いる。5台のカメラからなるシステムを実装し、処理の安定性を確認した。

    CiNii J-GLOBAL

  • A-16-14 動的インタラクションを可能にする樹木のCGアニメーション

    坂口 竜己, 大谷 淳

    電子情報通信学会総合大会講演論文集   1999   370 - 370  1999年03月

    CiNii

  • D-12-81 顔動画像からの表情動作の検出手法に関する検討

    大塚 尚宏, 大谷 淳

    電子情報通信学会総合大会講演論文集   1999 ( 2 ) 254 - 254  1999年03月

    CiNii

  • D-12-80 頭部の移動・回転に対応可能な実時間表情推定法

    竹松 克浩, 海老原 一之, 坂口 竜己, 大谷 淳

    電子情報通信学会総合大会講演論文集   1999 ( 2 ) 253 - 253  1999年03月

    CiNii

  • A-16-1 非接触手振りインタフェースのための実環境ポインティングデバイスの検討

    内海 章, 大谷 淳

    電子情報通信学会総合大会講演論文集   1999   357 - 357  1999年03月

    CiNii

  • D-12-91 全身像の三眼シルエット画像に基づく姿勢推定の検討

    岩澤 昭一郎, 大谷 淳, 森島 繁生

    電子情報通信学会総合大会講演論文集   1999 ( 2 ) 264 - 264  1999年03月

    CiNii

  • ノンバーバル情報を伝達可能な通信環境の検討 : 頭部自動追跡、表情推定・認識・変換生成の研究

    大塚 尚宏, 大谷 淳

    電子情報通信学会技術研究報告. PRMU, パターン認識・メディア理解   98 ( 608 ) 33 - 39  1999年02月

     概要を見る

    映像・音声を介した通信環境において, 映像情報からユーザの表情を認識して認識された表情カテゴリーを相手のユーザに理解し易いように標準化・強調処理を施して相手に伝える手法を開発した. 提案手法では, まず, 抽出された頭部領域に含まれる特徴点を自動的に追跡して頭部の動きおよび各表情筋の動きを推定する. 次に, 表情筋の動きのパターンから基本6表情の表出の有無を判定する. 最後に, ユーザの3次元モデルにおいて各基本表情を生成する表情筋肉の動きに対応した変形を施すことにより, 相手に理解し易い表情をCGにより描画する. 実験を行い, 基本表情を生成する表情筋肉の動きを正しく検出することを確認した.

    CiNii

  • 非同期多視点情報を用いた複数人物追跡手法の検討

    森 大樹, 内海 章, 大谷 淳, 谷内田 正彦

    電子情報通信学会技術研究報告. PRMU, パターン認識・メディア理解   98 ( 527 ) 15 - 22  1999年01月

     概要を見る

    多視点情報を用いた複数人物の追跡手法について述べる。広範囲を移動する人物を効率よく追跡するためには多視点画像の利用が有効であるが、従来のシステムは各視点での観測が同時に行われることを仮定しており、カメラの同期機構が必要となったり、処理に最も時間のかかる画像によって全体の処理時間が制約されるという問題があった。本報告では、カメラ間の同期をとらずに人物追跡を行う手法を検討する。各カメラは異なる計算機に接続され、それぞれの計算機はLANで接続されている。観測結果の統合にはカルマンフィルタを用い、各観測は独立に行うこととした。本手法に基づいたシステムを構築し、複数人物の追跡が可能であることを示した。

    CiNii

  • 2)P型フーリエ記述子を用いた多数カメラによる手形状認識(マルチメディア情報処理研究会 ネットワーク映像メディア研究会合同)

    内海 章, 大谷 淳

    映像情報メディア学会誌 : 映像情報メディア   52 ( 12 )  1998年12月

    CiNii

  • "Shall We Dance?"の構築 : 多眼画像処理による実時間3次元モーションキャプチャに基づく仮想変身システム

    岩澤 昭一郎, 海老原 一之, 竹松 克浩, 坂口 竜己, 大谷 淳

    電子情報通信学会技術研究報告. PRMU, パターン認識・メディア理解   98 ( 394 ) 15 - 22  1998年11月

     概要を見る

    本報告では, 人物の姿勢を画像解析により推定し, CGキャラクタにより実時間で再現することが可能な"Shall We Dance?"システムについて述べる.筆者らは既に, 単眼画像を用いた非接触な人物の姿勢推定手法を開発したが, 姿勢推定結果は2次元的であった.本報告では既提案の単眼像アルゴリズムを多眼画像へと発展させる.まず, 各画像におけるシルエット領域とその輪郭のヒューリスティックスに基づいて頭頂・手先・足先の各特徴部位を実時間で検出し, それら結果を用いて3次元復元を行なうことで姿勢を推定する.併せて本手法の有効性を実験により示す.

    CiNii

  • 弱透視エピポーラ幾何を用いた実時間頭部動き推定に関する検討

    大塚 尚宏, 大谷 淳

    電子情報通信学会ソサイエティ大会講演論文集   1998   306 - 306  1998年09月

    CiNii

  • 非同期多視点画像による人物追跡手法の検討

    内海章, 大谷淳

    電子情報通信学会大会講演論文集   1998   274 - 274  1998年09月

    CiNii J-GLOBAL

  • 複数画像からの実時間身体姿勢推定の検討

    岩澤 昭一郎, 竹松 克浩, 大谷 淳, 森島 繁生

    電子情報通信学会ソサイエティ大会講演論文集   1998   308 - 308  1998年09月

    CiNii

  • P型フーリエ記述子を用いた多数カメラによる手形状認識

    内海章, 大谷淳

    映像情報メディア学会技術報告   22 ( 39(MIP98 56-63/NIM98 82-89) ) 7 - 12  1998年07月

     概要を見る

    We propose a hand shape recognition system using multiple-viewpoint images. Most conventional hand shape recognition system did not concern about self-occlusion problem due to the hand rotation and a user needs to pay attention to his hand's direction to avoid the problem. We employ multiple-viewpoint images to estimate the pose of a human hand. After a pose estimation, a "best view" for the hand shape recognition is selected based on the estimation result. Hand shape recognition is performed based on the shape representation using P-type Fourier descriptor that is not affected with image scaling and translation. Based on the shape recognition, we developed a system where a user co create virtual graphical scenes interactively. In the system, a user can change the virtual objects' positions, sizes, colors, etc. with hand gestures. This system can be used as a user interface device, replacing glove-type devices and overcoming most of the disadvantages of contact-type devices.

    DOI CiNii J-GLOBAL

  • 実写映像に基づく樹木モデル生成法の検討

    坂口 竜己, 大谷 淳

    電子情報通信学会総合大会講演論文集   1998 ( 2 ) 128 - 128  1998年03月

    CiNii

  • アクティブカメラを用いた実時間表情検出・再現処理の検討

    竹松 克浩, 海老原 一之, 大谷 淳

    電子情報通信学会総合大会講演論文集   1998 ( 2 ) 340 - 340  1998年03月

    CiNii

  • 人物頭部の動きを考慮した顔動画像からの個別表情抽出・認識の検討

    大塚 尚宏, 大谷 淳

    電子情報通信学会総合大会講演論文集   1998 ( 2 ) 341 - 341  1998年03月

    CiNii

  • 絵画と鑑賞者の双方向コミュニケーションを目指して

    楜沢 順, 大谷 淳

    電子情報通信学会総合大会講演論文集   1998   373 - 373  1998年03月

    CiNii

  • カルマンフィルタを用いた多数カメラによる複数人物追跡の検討

    内海章, 森大樹, 大谷淳, 谷内田正彦

    電子情報通信学会大会講演論文集   1998 ( 2 ) 345 - 345  1998年03月

    CiNii J-GLOBAL

  • 人物の姿勢の3次元推定のための能動的空間インデクシング法

    スヅハンシュセンワル, 大谷 淳, イリスフェリミン

    情報処理学会研究報告コンピュータビジョンとイメージメディア(CVIM)   1998 ( 5 ) 89 - 96  1998年01月

     概要を見る

    本稿では、複数カメラを用いて、仮想環境における人物を追跡する手法を提案する。提案手法は、前処理と人物の姿勢の3次元推定との、2つの主要処理モジュールから構成される。前処理において、3次元空間に対してあらかじめインデックスを与えておく。3次元推定処理においては、人物の全身におけるいくつかの特徴点の3次元位置が、前述のインデックス情報に従い求められる。実験により本提案手法の有効性を示す。We present a method for unencumbered tracking participants in a virtual environment using multiple cameras. The method consists of two main modules: preprocessing and 3D posture estimation. In the preprocessing step the 3D space (we call active space) is indexed in advance, and in the estimation step, the 3D positions of some significant points of the body of a participant, are obtained based on that indexed space.

    CiNii

  • コンピュータビジョンに於ける実時間表情検出処理の検討

    竹松 克浩, 海老原 一之, 大谷 淳

    電子情報通信学会技術研究報告. PRMU, パターン認識・メディア理解   97 ( 500 ) 63 - 68  1998年01月

     概要を見る

    我々は、距離を隔てた複数の人物間の仮想空間を会したコミュニケーションを実現するシステムの構築に取り組んでいる. そのシステムの重要な要素技術の一つとして顔表情を検出する方法がある. 従来の筆者らのシステムでは、被験者は、顔の位置を固定させるためにCCDカメラを取り付けたヘルメットをかぶる必要があり、マンマシンインタフェース上好ましくなかった. そこで、電動雲台付きカメラを用いて顔を自動的にトラッキングし、目、口等の特徴点を検出し、表情検出を行うことによりこの問題を解決する手法を提案する. 表情の検出においては、顔の特徴点を中心とした一定範囲を離散コサイン変換によって空間周波数領域のスペクトルに置き換え、無表情時との変化から現時点の顔表情を遺伝的アルゴリズムの学習結果によって検出する. 本手法の有効性を実験の結果により示す.

    CiNii

  • ATR知能映像通信研究所における人物の表情・姿勢推定法の研究

    大谷 淳

    電子情報通信学会技術研究報告. PRMU, パターン認識・メディア理解   97 ( 500 ) 77 - 81  1998年01月

     概要を見る

    (株) ATR知能映像通信研究所では、距離を隔てた人物同士の仮想的シーンを介したコミュニケーション環境の実現法を検討している。このようなコミュニケーション環境の一例として、自分の姿を別の姿に仮想的に変えることが可能な仮想変身システムがある。仮想変身システム実現のためには、人物の表情と全身の動きを推定して、仮想的シーン中の人物像において再現する必要である。本報告では、筆者らが行った人物の表情と全身の姿勢の推定法、およびこれらに関連が強い技術の研究として表情と手振りの認識法の研究を紹介する。

    CiNii

  • 多数カメラによる複数人物の位置・姿勢推定手法の検討

    森大樹, 内海章, 大谷淳, 谷内田正彦

    電子情報通信学会技術研究報告   97 ( 500(PRMU97 196-206) ) 23 - 30  1998年01月

    J-GLOBAL

  • 風による樹木の運動アニメーション

    坂口竜巳, 大谷 淳

    システムソサイエティ大会講演論文集, 1998     192 - 192  1998年

    CiNii

  • ATR知能映像通信研究所

    大谷 淳, 間瀬 健二, 宮里 勉

    日本バーチャルリアリティ学会誌 = Journal of the Virtual Reality Society of Japan   2 ( 2 ) 110 - 112  1997年12月

    CiNii

  • 実写映像に基づいた樹木のモデリング

    坂口 竜己, 大谷 淳

    電子情報通信学会技術研究報告. MVE, マルチメディア・仮想環境基礎   97 ( 449 ) 25 - 32  1997年12月

     概要を見る

    距離を隔てた人物同士の仮想的なシーンを介したコミュニケーション環境の実現のためには, インタラクティブで自然な仮想環境の構築が重要である. 本報告ではまず自然景観の一例として, 実写画像を基にリアリティのある3次元的な樹木モデルを自動的に構築する手法を検討する. 複数視点からの画像を基にボリュームデータを作成し, そのボリュームデータを形状の拘束条件として, 単純な枝の分岐規則により樹木形状を生成する. 生成した樹木形状に葉のモデルを加え, レンダリングすることで原画像に近い樹木画像を得ることが可能となった.

    CiNii

  • 6-4 パソコン版MICSにおける実時間人物動き検出

    山田 正紀, 海老原 一之, 大谷 淳

    映像情報メディア学会冬季大会講演予稿集   ( 1997 ) 104 - 104  1997年12月

    CiNii

  • 連続した表情シーケンス画像からのHMMを用いた個別表情抽出に関する検討

    大塚 尚宏, 大谷 淳

    電子情報通信学会技術研究報告. PRMU, パターン認識・メディア理解   97 ( 387 ) 17 - 24  1997年11月

     概要を見る

    連続した表情シーケンス画像から個別表情を抽出する方法を検討した. 異なった表情筋の動き (弛緩, 収縮, 静止, 伸長) に対応した状態を遷移するHMMにより表情の動きをモデル化し, 画像処理から得られる特徴ベクトルの値をもとに各状態に割り付けた確率を更新する. 表情筋の静止状態に割り付けた確率があるしきい値を越えた場合に表情が表出された区間として抽出する. 本手法をワークステーションに実装して実験を行ったところ, 基本6表情を精度良く抽出できることが分かった.

    CiNii

  • 11)実時間人物全身像動き検出手法([マルチメディア情報処理研究会 ネットワーク映像メディア研究会]合同)

    山田 正紀, 海老原 一之, 大谷 淳

    映像情報メディア学会誌 : 映像情報メディア   51 ( 11 ) 1859 - 1859  1997年11月

    CiNii

  • 5)多数カメラによる人物位置・姿勢推定(〔ヒューマンインフォメーション研究会 ネットワーク映像メディア研究会〕合同)

    森 大樹, 谷内田 正彦, 内海 章, 大谷 淳

    映像情報メディア学会誌 : 映像情報メディア   51 ( 9 )  1997年09月

    CiNii

  • バ-チャル歌舞伎における実時間表情検出

    海老原 一之, 楜沢 順, 大谷 淳

    画像ラボ   8 ( 9 ) 1 - 5  1997年09月

    CiNii

  • 多数カメラによる実時間手振り推定装置を用いた対話的シーン生成

    内海章, くるみ沢順, 大塚尚宏, 大谷淳

    日本バーチャルリアリティ学会大会論文集   2nd   226 - 227  1997年09月

    J-GLOBAL

  • アフィン座標系に基づく任意視点からの画像生成の検討

    クンタル セングプタ, 坂口 竜己, 大谷 淳

    電子情報通信学会ソサイエティ大会講演論文集   1997   278 - 278  1997年08月

     概要を見る

    3次元空間中のシーンを撮影したステレオ画像に基づき任意視点からの見え方に対応する画像を合成する手法を検討する. 従来は, 撮影されているシーンの3次元復元を利用する手法が一股的であったが, カメラキャリブレーションの厳密さが要求され, 現実には精度の高い任意視点からの見え方の生成は困難であった. そのため本稿では, ステレオ画像か3次元復元処理を用いることなく, 2次元アフィン座標系を用いて再投影する手法について述べる.

    CiNii

  • 実時間人物全身像動き検出手法の検討

    山田 正紀, 海老原 一之, 大谷 淳

    電子情報通信学会ソサイエティ大会講演論文集   1997   197 - 197  1997年08月

     概要を見る

    筆者らは、誰もが自分の希望するキャラクタに仮想的に変身することが可能な環境の実現を目指しており、その一環として歌舞伎役者に仮想的に変身可能な「バーチャル歌舞伎システム」を提案し、検討を進めている。バーチャル歌舞伎においては、人物の動きを実時間で検出し、3次元歌舞伎役者モデルにおいて、動作を再現する必要がある。人物の動きを実時間で検出する手法としては、体にセンサを装着し各関節の動きを検出する手法や、赤外線カメラにより獲得される熱画像を用いて検出する手法が提案されている。しかし、体へのセンサ装着は、動きの制限などの理由から好ましくない。また、熱画像を用いる手法は、熱を持ちにくいスカート等の服装のときに検出しにくいといった問題がある。本稿では、CCDカメラにより得られるカラー画像から、実時間で人物全身像の姿勢を推定する手法を検討を行った。

    CiNii

  • 最適視点の選択による手形状認識の安定化

    内海 章, 大谷 淳

    電子情報通信学会ソサイエティ大会講演論文集   1997   198 - 198  1997年08月

     概要を見る

    筆者らは、非装着型のヒューマンインタフェースへの応用を目指して、画像処理による手振り認識の研究を進めており、多数カメラを利用することで安定な手の位置・姿勢推定が行なえることを示した。推定された手の位置・姿勢は、手形状認識の簡素化および安定化のための視点選択に利用できる。今回、推定姿勢に基づいて正面像を選択することで、フーリエ記述子による形状認識を安定化できることを確認したので報告する。

    CiNii

  • ステレオ画像からのアフィン座標系に基づく任意視点からの見え方生成の検討

    Kuntal Sengupta, 坂口 竜己, 大谷 淳

    情報処理学会研究報告コンピュータビジョンとイメージメディア(CVIM)   1997 ( 70 ) 51 - 58  1997年07月

     概要を見る

    本報告では,ステレオ画像から得られる2次元アフィン座標系に基づき,任意視点から見た画像を合成する手法について述べる.3次元空間中のシーンを撮影した2次元の画像を基に任意視点から見た画像を合成するためには,撮影されている対象の3次元構造を再構築する手法が一般的である.しかし,3次元シーンの再構築には正確なカメラキャリブレーションが必要となり,この時点で発生する誤差が生成されるシーンの品質に大きく反映してしまう.そのため本報告では,より直接的な手法として,生成する画像と基になるステレオ画像の対応関係を推定するために,カメラキャリブレーションとして与える5点の対応点のアフィン座標値を用いた.この手法は実画像とCGの融合や,画像のシームレスな結合等の他のアプリケーションにも応用可能である.We present an unified theoretical framework for novel view synthesis and other applications. To start with, we have a set of real images from weakly calibrated cameras, for which we compute the dense point match correspondences. For applications like novel view synthesis, on may first solve the 3D scene reconstruction problem, followed by a view rendering process. However, errors in 3D scene reconstruction usually gets reflected in the quality of the new scene generated, so we seek a more direct method. In this report, we use the knowledge of dense point matches and their affine coordinate values to estimate the corresponding affine coordinate values in the new scene. Our technique of reprojection is extended for other applications like merging real and synthetic worlds.

    CiNii

  • 9)バーチャル歌舞伎システム(〔情報ディスプレイ研究会 ヒューマンインフォメーション研究会 マルチメディア情報処理研究会 ネットワーク映像メディア研究会 画像情報システム研究会〕合同)

    海老原 一之, 楜沢 順, 岩澤 昭一郎, 大谷 淳

    映像情報メディア学会誌 : 映像情報メディア   51 ( 6 ) 818 - 818  1997年06月

    CiNii

  • 多数カメラによる人物位置・姿勢推定

    森大樹, 内海章, 大谷淳, 谷内田正彦

    映像情報メディア学会技術報告   21 ( 33(HIR97 39-59/NIM97 34-54) ) 21 - 26  1997年06月

     概要を見る

    We describe a system to estimate position and orientation of a human body. In such a system, deformation and occulusion of the human body often cause difficulties in the estimation. Our system employed multiple-camera based method to avoid these difficulty. Skeleton images detected from multiple cameras are utilized for stable estimation of both position and orientation. Furthermore, according to the estimation result, the best camera for the body side detection is selected. We confirmed the stability of those through experiments.

    CiNii J-GLOBAL

  • 多数カメラによる人物位置・姿勢推定

    森大樹, 内海章, 大谷淳, 谷内田正彦

    Hum Interface News Rep   12 ( 2 ) 139 - 144  1997年05月

     概要を見る

    We describe a system to estimate position and orientation of a human body. In such a system, deformation and occulusion of the human body often cause difficulties in the estimation. Our system employed multiple-camera based method to avoid these difficulty. Skeleton images detected from multiple cameras are utilized for stable estimation of both posltion and orientation. Furthermore, according to the estimation result, the best camera for the body side detection is selected. We confirmed the stability of those through experiments.

    CiNii J-GLOBAL

  • 連続出力確率分布を用いたHMMによる動画像からの不特定人物の表情認識の検討

    大塚尚宏, 大谷 淳

    情報処理学会研究報告コンピュータビジョンとイメージメディア(CVIM)   1997 ( 31 ) 39 - 46  1997年03月

     概要を見る

    仮想的なシーンを介した通信では,別の人物の姿・表情として3次元人物像を表示する方法が有効であり,不特定人物の表情認識が課題となる.本稿では,混合連続確率密度分布を持つ隠れマルコフモデル(M)を用いて不特定多数の人物の顔動画像から表情を認識する手法を検討した.本手法では,まず動画像中の連続する2枚の画像から得られる速度ベクトルをフーリエ変換して,低周波成分を認識のための特徴ベクトルとして抽出した.特徴ベクトルの確率密度分布を混合連続確率密度分布で近似し,HMMにより学習および認識を行った.4人の被験者の顔動画像を用いて実験したところ,個人差の少ない表情では高い認識率が得られた.Recognizing facial expressions is important in a communication through virtual scenes in which one's body and face could be transformed into other's ones. In this report, a method using HMM based on a mixture normal density as a output probability is described. First, features are obtained by applying Fourier transform to a vector field generated by a facial change. Then, the distribution of the features is approximated by mixture normal density. Finally, HMM is trained for each expression to be used for recognition. The recognition experiments using four subjects showed good recognition rate for expression with fewer interpersonal variations.

    CiNii

  • 時系列表情画像の解析処理に基づく表情変換法の検討

    大塚 尚宏, 大谷 淳

    電子情報通信学会技術研究報告. PRMU, パターン認識・メディア理解   96 ( 599 ) 75 - 80  1997年03月

     概要を見る

    ある人物の表情を別の人物の表情に変換する手法を提案した.本手法では,あらかじめ各表情の変化パターンを表情筋の状態(弛緩,収縮中,収縮終了)の遷移として隠れマルコフモデル(HMM)に学習させておき入力動画像のフレーム毎に各表情の状態確率を計算する.表情筋が収縮中の状態に対応する状態確率から別の人物の表情筋の収縮速度を求め,別の人物の顔に対応する3Dワイアフレームモデルを変形させて表情を生成する.表情の生成には,表情筋の収縮およびあごの回転にともなう変形量を求めるために弾性体モデルを用いる.6種類の基本表情(怒り,嫌悪,恐怖,喜び,悲しみ,驚き)の入力動画像に対して,入力動画像の表情の変化に追随したリアリズムの高い表情が生成できた.

    CiNii

  • 熱画像を用いた人体姿勢の実時間推定の検討

    岩澤 昭一郎, 海老原 一之, 大谷 淳, 森島 繁生

    電子情報通信学会技術研究報告. HCS, ヒューマンコミュニケーション基礎   96 ( 604 ) 37 - 44  1997年03月

     概要を見る

    本報告では赤外線カメラにより獲得される熱画像を用いて、背景・照明条件に対して実時間で人物姿勢を推定する手法を提案する。熱画像への閾値処理により得られる人物領域に距離変換を施すことにより全身像の重心を求め、上半身の傾きを得た後、頭頂・手先・足先の各特徴部位を求める。さらに、これら特徴部位から遺伝的アルゴリズムを用いて肘と膝の位置を学習的に推定する。本手法は非接触方式であり、任意の人物に対して適用が可能である。

    CiNii

  • 熱画像からの人体の姿勢推定の高度化の検討

    岩澤 昭一郎, 海老原 一之, 大谷 淳, 森島 繁生

    電子情報通信学会総合大会講演論文集   1997 ( 2 ) 365 - 365  1997年03月

     概要を見る

    筆者らは既に、熱画像を用いた非接触な人物の姿勢推定手法を提案している。しかし、筆者らの従来法では、上半身の左右への大幅な傾きや、足の広範な動作に対応できず、また単眼のため3次元情報が得られないなどの課題があった。本報告ではより多くの姿勢に対応できるよう、従来の単眼用アルゴリズムを改良する。即ち単眼赤外線カメラから入力される熱画像から獲得される人物領域と、その輪郭の情報に基づいてヒューリスティックに頭頂・手先・足先の各位置を実時間で検出する手法、および遺伝的アルゴリズム (GA) を利用して肘および膝の位置を推定する手法を提案する。さらに、ステレオ視による3次元位置の獲得について検討する。

    CiNii

  • 時系列画像から推定される画素値分布に基づく手領域抽出

    内海章, 大谷淳

    電子情報通信学会大会講演論文集   1997 ( Sogo Pt 7 ) 361  1997年03月

    J-GLOBAL

  • 視点に追随した背景画像切り出し表示法に関する一検討

    山口徹也, 海老原 一之, 大谷 淳, 岩田 誠, 岸野 文郎

    1997信学総大     386 - 386  1997年

     概要を見る

    仮想環境を構築する際に、背景シーンを含めて全てを3次元コンピュータグラフィックスで生成するとリアリティが損なわれるばかりでなく、膨大な計算処理も必要となる。従って、仮想環境で背景シーンを構築する際、実シーンの動画像を積極的に利用することが、この課題を解決するために有効である。しかし、実シーン動画像をそのまま仮想環境の中にはめ込むだげでは、視点の移動に伴う運動視差が再現できず、リアリティの欠如が問題となる。そこで筆者らは視点に追従して動画像の表示を制御する手法の検討を開始している。本稿では表示用ディスプレイに対して平行な視点移動に対応可能なシステムを構築し、検討を行った。

    CiNii

  • パソコン版MICSの提案と検討

    海老原, 大谷 淳

    1997年映像情報メディア学会冬季大会講演予稿集, Dec.     103 - 103  1997年

    CiNii

  • 5)熱画像からの実時間全身像の姿勢推定法の検討(ネットワーク映像メディア研究会)

    岩澤 昭一郎, 海老原 一之, 大谷 淳

    テレビジョン学会誌   50 ( 12 ) 1987 - 1987  1996年12月

    CiNii

  • 10)造形学的視点からの表情再現([マルチメディア情報処理研究会 ネットワーク映像メディア研究会]合同)

    海老原 一之, 楜沢 順, 大谷 淳, 岸野 文郎

    テレビジョン学会誌   50 ( 11 ) 1817 - 1817  1996年11月

    CiNii

  • 10)造形学的視点からの表情再現([マルチメディア情報処理研究会 ネットワーク映像メディア研究会]合同)

    海老原 一之, 楜沢 順, 大谷 淳, 岸野 文郎

    テレビジョン学会誌   50 ( 9 ) 1419 - 1419  1996年09月

    CiNii

  • パターン認識・理解技術とアートの融合

    中津 良平, 大谷 淳

    電子情報通信学会ソサイエティ大会講演論文集   1996   541 - 542  1996年09月

     概要を見る

    本論文では、パターン認識・理解技術とアートを組み合わせることにより開けてくる可能性について論じる。一般に工学は「ハイテク」の名が示すように技術の最先端を切り開くものという印象が強い。しかしながら、ハイテクを駆使した未来社会は人間性に欠けるという漠然とした不安がある。これは、現在の工学が感覚や感性を無視した方向に進んでいることに大きな原因がある。我々は、技術の最前線でこそ、人間の感覚・感性を最初から考慮することが必要と考えている。そのためには、アーティストのような感覚・感性を扱うことを得意とする人達と工学者が一緒に研究することが必要である。このような観点に立って我々の研究所で進めている研究の基本的考え方、および具体例について述べる。

    CiNii

  • ウェーブレット変換の位相情報を用いた顔動画像からの表情認識に関する検討

    大塚 尚宏, 海老原 一之, 大谷 淳

    全国大会講演論文集   53   345 - 346  1996年09月

     概要を見る

    表情認識は、画像通信における知的な符号化や高度なマン-マシンインタフェースの実現のために重要な基礎技術である。例えば、通信会議システムにおいて表情認識が実現されれば、伝送すべき情報の高圧縮化が実現できる。また、対話型のシステム(例えば教育ソフト)では、ユーザの表情を理解して対話の流れを円滑にする高度な制御が実現できると考えられる。筆者らは、顔動画像からの表情認識を、隠れマルコフモデル(HMM: Hidden Markov Model)を用いる手法を提案した。動画像のフレーム毎に特徴量ベクトルを求め、その特徴量ベクトルの時系列を生成する確率モデルであるHMMを用いて表情認識を行う。HMM は、トレーニングデータからの高速な学習が可能、時間的変化特徴の利用が可能、時間軸方向の伸縮に対する耐性がある等の特徴がある。筆者らの従来のHMMを用いた表情認識法では、目および口の形状変化により空間周波数の電力が変化する点に着目し、ウェーブレット変換によりそれらを検出していた。しかし、空間周波数領域の電力からは顔の構成要素の移動情報が得られず、正確な認識が実現できないという問題があった。そこで、本稿ではウェーブレット変換の位相情報からエッジの移動量を算出して利用することにより、表情認識性能の向上を目指す手法を提案する。

    CiNii

  • 双線形補間を用いた2個の検出パラメータにより制御された口の3次元実時間アニメーション

    ムバラキ ハッサン, 大谷 淳

    電子情報通信学会技術研究報告. IE, 画像工学   96 ( 198 ) 39 - 46  1996年07月

     概要を見る

    我々の実時間アニメーション・アルゴリズムは、唇の幅と高さ(w,h)のみに基づいた口のパラメータ表現を用いた3次元の口と唇の動き生成のリアルさを増大するものである。(w,h)により全体が制御されるアニメーション・アルゴリズムは、フィルタリングと2次元の入力データ(w,h)のキャリブレーションを行い、双線形補間を用いて口の開き角度とz成分(突き出し効果)を計算する。唇の輪郭はスプラインを用いて生成する。さらに、検出された(w,h)により制御される実時間の3次元アニメーションが、口の動きのパラメータ表現を用いて得られる。

    CiNii

  • 4)周波数領域変換を用いた実時間表情検出(ネットワーク映像メディア研究会)

    海老原 一之, 大谷 淳, 岸野 文郎

    テレビジョン学会誌   50 ( 7 ) 997 - 998  1996年07月

    CiNii

  • 造形学的視点からの表情再現

    海老原 一之, 楜沢 順, 大谷 淳, 岸野 文郎

    テレビジョン学会技術報告   20 ( 41 ) 55 - 59  1996年07月

     概要を見る

    In visual communication systems in which 3D images of humans and scenes need to be reproduced so that the participants can feel as if they share one common space, fidelity of reproduction of facial expressions is very important. In this paper, we propose a new expression reproduction method based on artistic anatomy. Artists create reference facial expression 3D models and generate other 3D expressions by mixing the reference expressions. Then before telecommunications, the parameters representing the mixtures are related to the facial expression parameters to be obtained by the expression detection system so that detected expressions are reproduced by using the relationship. Promising experimental results are show.

    CiNii

  • 臨場感通信会議における実時間表情検出・再現

    大谷 淳, 岸野 文郎

    情報処理学会研究報告コンピュータビジョンとイメージメディア(CVIM)   1996 ( 47 ) 47 - 54  1996年05月

     概要を見る

    臨場感通信会議システム実現のために行った筆者らの実時間表情検出・再現の研究を紹介する。本表情検出法は、周波数領域変換を利用して、目・口等の顔要素の変形表情を検出するものである。また、表情再現法では、種々の表情検出時の顔の3次元形状計測結果を利用して、前述の表情検出結果を3次元顔モデルの変形情報に変換する。この表情検出・再現法の性能を示すとともに、残された課題や今後の展開についても触れる。

    CiNii

  • 臨場感通信会議における人物動作の再構成に関する一検討

    成山 桂一, 大谷 淳, 岸野 文郎

    電子情報通信学会技術研究報告. MVE, マルチメディア・仮想環境基礎   95 ( 553 ) 57 - 64  1996年03月

     概要を見る

    臨場感通信会議における自然な人物全身動作の再構成を目的として、人物の骨格構造を29自由度を有するリンク機構としてモデル化し、頭,胸および両手に装着した6自由度の計測が可能な4個のセンサから得られる24個のデータから拘束条件を用いることにより、前述の全身の姿勢に関する29個のパラメーターを推定する方式について述べる。さらに自然な胴体の屈曲動作の再現を目的とした胴体部のモデリングおよび形状変形手法について述べる。実験により胴体モデルの形状変形比率を求めると共に、前述の4個のセンサを用い、着座から起立, お辞儀に至る遷移動作の再構成を8フレーム/秒で行えることを確認した。

    CiNii

  • 周波数領域変換を用いた実時間表情検出

    海老原 一之, 大谷 淳, 岸野 文郎

    テレビジョン学会技術報告   20 ( 15 ) 17 - 22  1996年03月

     概要を見る

    A new method for real-time detection of facial expressions from time-sequential images is proposed. The proposed method does not need tape marks that are pasted to the face for detecting expressions in real-time in the current implementation for Virtual Space Teleconferencing. In the proposed method, four windows are applied to four areas in the face image : a left and right eyes, mouth and forehead. Each window is divided into blocks that consist of 8 by 8 pixels. Discrete Cosine Transform (DCT) is applied to each block, and the feature vector of each window is obtained by taking the summations of the DCT energies in the horizontal, vertical and diagonal directions. To convert the DCT features to virtual tape mark movements, we represent the displacement of a virtual tape mark by a polynomial of the DCT features for the three directions. We apply a Genetic Algorithm to train facial expression image sequences to find the optimal set of coefficients that minimizes the difference between the real and converted displacements of the virtual tape marks. Exprimental results shows the effectiveness of the proposed method.

    CiNii

  • 熱画像からの実時間全身像の姿勢推定法の検討

    岩澤昭一郎, 海老原 一之, 大谷 淳

    信学技報   96   25 - 30  1996年

     概要を見る

    本報告では、赤外線カメラにより獲得される熱画像を用いて、背景・照明条件に対して頑健に人物の姿勢を実時間で推定する手法を提案する。熱画像への閾値処理により得られる人物領域に距離変換を施すことにより身体重心を求め、上半身主軸により上半身の傾き角を得た後、ヒューリスティックに頭頂・手先・足先の各特徴部位を求める。さらに、これら特徴部位から遺伝的アルゴリズムを用いて肘と膝の位置を学習的に推定する。本手法をバーチャル歌舞伎システムの人物姿勢推定方式に適用し、有効性を確認した。

    CiNii

  • 3次元計測に基づいた顔画像の実時間表情再現

    海老原一之, 大谷 淳, 鈴木 紀子, 岸野 文郎

    電子情報学会誌A   9 ( 2 ) 527 - 536  1996年

     概要を見る

    臨場感通信会議システムでは、参加者の表情を送信側で検出し、受信側において3次元顔モデル(3D Wire Frame Model:WFM)で再現する。筆者らは既に、実時間で表情を検出・合成するため、人物の顔にマーカを貼付し、CCDカメラを用い顔画像中で追跡するとともに、表情の変化を定義したモーションルールに従って表情を再現するシステムを構築しているが、表情再現品質、再現可能表情数等に課題があった。そこで、筆者らは各種表情表出時における3次元計測に基づき、実時間表示を行う手法を提案している。本報告では3次元計測とカメラ画像系の誤差を検討し、表情再現品質の向上を目指す。3次元計測により各種表情表出時における顔表面上の各点における無表情の位置からの移動ベクトルをあらかじめ求め、顔画像に投影して基準ベクトルとする。顔画像から入力されるマーカの動きベクトルを前述の基準ベクトル和で表現し、WFMの各頂点の3次元移動ベクトルを求めることにより表情再現を行う。しかし、主に前述の3次元計測系における誤差要因のため、CCDカメラ系と3D系の関連付けにおいて精度の点で問題があった。本稿では、その問題を克服するために、基準ベクトルを作成する時に、3次元計測データと2次元計測データの誤差が最少になるように、遺伝的アルゴリズム(Genetic Algorithm:GA)を用いて各種パラメータを最適化する。さらになお残存する誤差を登録しておき、移動量の計算の際に利用することで、高速で高品質な表情再現を行う手法を、本稿では提案し検討する。

    CiNii

  • 赤外線カメラを用いた実時間人物全身像動き検出

    海老原一之, 楜沢 順, 大谷 淳

    1996年電子情報通信学会基礎 境界ソサイエティ大会     212 - 212  1996年

     概要を見る

    筆者らは、誰もが自分の希望するキャラクターに仮想的になることが可能な環境の実現を目指しており、その一環として「バーチャル歌舞伎システム」を提案し、検討を進めている。バーチャル歌舞伎においては、歌舞伎役者となる人物の動きを実時間で検出し、3次元歌舞伎役者モデルにおいて、動作を再現する必要がある。人物の動きを実時間で検出する手法としては、体にセンサーを装着し各関節の動きを検出する手法や、CCDカメラから取り込んだ画像を用いて検出する手法が提案されている。しかし、体へのセンサー装着はマンマシン性上好ましくなく、輝度変動や影の影響を受けやすいなどの課題があった。本報告では、赤外線カメラにより得られる熱画像から、実時間で人物全身像の姿勢を推定する手法を検討する。

    CiNii

  • 能動的カメラによる面対称性を用いた3次元物体形状復元のためのテクスチャマッピング法の検討

    吉田 和憲, 大谷 淳, 岸野 文郎

    電子情報通信学会技術研究報告. PRU, パターン認識・理解   95 ( 445 ) 25 - 30  1995年12月

     概要を見る

    筆者らは、物体の面対称性を用いて、再帰的かつ能動的な3次元物体形状の復元を効率的に行う手法を提案し、検討を進めている。本報告では、能動カメラの各視点からの画像情報を、3次元形状再構成結果にマッピングするためのテクスチャとして利用する方法について検討する。即ち、各視点における照明条件の差異を考慮に入れ、物体のもつ色彩情報を推定する手法を検討する。本手法の有効性を実験結果により示す。

    CiNii

  • 臨場感通信会議システムにおける3次元顔画像処理

    海老原 一之, 山田 正紀, 大谷 淳, 岸野 文郎

    テレビジョン学会技術報告   19 ( 44 ) 21 - 26  1995年09月

     概要を見る

    臨場感通信会議では、実時間での表情検出、表情再現を行うために、会議参加者の顔にマーカを貼付してその追跡結果をもとに、人物の3次元ワイヤフレームモデル(3D Wire Frame model : WFM)を変形させ表情を再現するという手法を用いている。本稿では送信側で顔に貼付されたマーカを、CCDカメラ、マーカ検出装置、パーソナルコンピュータを用いて追跡する表情検出系のシステム構成と、マーカ検出アルゴリズムについて述べる。また、受信側でマーカ追跡結果がら3D WFMを変形させ表情を再現する表情再現系の処理の内容について述べる。

    CiNii

  • 少数センサデータからの全身動作の再構成に関する一検討

    成山 桂一, シン カランシャー, 大谷 淳, 岸野 文郎

    電子情報通信学会ソサイエティ大会講演論文集   1995   183 - 183  1995年09月

     概要を見る

    臨場感通信会議の実現に向けて、筆者らは自然な人物像の仮想空間への合成の研究を行っている。臨場感通信会議においては実時間性等の制約のため、少数のセンサから得られた情報から人物の姿勢を3次元人物ワイヤーフレームモデルにおいて再構成する必要がある。本稿では人物全身を24自由度を有するリンク機構としてモデル化し、3個のセンサから得られる3次元座標、3軸回転角度の計18個のセンサデータから、下肢の運動における関節回転角度の左右同一性などの拘束条件を用いることにより、着座状態から起立状態への遷移運動における前述の全身の姿勢に関する24自由度を推定する方式について述べる。更に推定されたリンクモデルの関節角度に基づき、Free Form Deformations(FFD)手法を用いて人物ワイヤーフレームモデルを変形することにより、全身の屈曲動作を再構成する方式について述べる。

    CiNii

  • 1)テクスチャーモーフィングを用いた臨場感通信会議のための布の実時間アニメーション効果([放送方式研究会画像処理・コンピュータビジョン研究会映像表現研究会画像通信システム研究会画像応用研究会]合同)

    シン カランシャー, 大谷 淳, 岸野 文郎

    テレビジョン学会誌   49 ( 5 ) 704 - 704  1995年05月

    CiNii

  • 3次元計測に基づいた顔画像の表情再現法の検討 : 多種類の表情再現

    鈴木 紀子, 大谷 淳, 岸野 文郎

    電子情報通信学会総合大会講演論文集   1995   252 - 252  1995年03月

     概要を見る

    臨場感通信会議システムでは、送信側で検出した人物の表情を、受信側の3次元モデル(3D Wire Frame Model : WFM)において再現している。筆者らは既に、実時間で表情を検出/合成するために、人物のかおにマーカを貼り、小型カメラを用いてこれを顔画像中で追跡するとともに、あらかじめ定義されたモーションルールに従って表情を再現するシステムを構築しているが、表情再現品質や再現可能表情数に課題を残していた。その問題点を解決すべく、あらかじめいくつかの表情表出時の3次元計測を行い、その結果に基づいて顔画像手のマーカの2次元移動ベクトルを3D WFMの各頂点の3次元移動ベクトルに変換する推定マトリックスを用いる手法を提案したが、前述の3次元計測を行った表情以外の表情に対応するマーカの動きが入力された場合の表情再現品質に問題があった。本稿では、その問題を克服するために、3次元計測を行って得たいくつかの表情に対応するマーカの無表情の位置からの移動ベクトルをあらかじめ顔画像に投影しておき、入力されたマーカの動きベクトルを前述の投影ベクトルの知で表現し、その際に算出される重み等に基づき、3D WFMの各頂点の3次元移動ベクトルを求めることにより表情再現を行なう手法を提案する。

    CiNii

  • 顔動画像からのHMMによる表情認識 : Wavelet変換とコードワード選択追加型VQによるシンボル系列化

    坂口 竜己, 大谷 淳, 岸野 文郎

    電子情報通信学会総合大会講演論文集   1995   258 - 258  1995年03月

     概要を見る

    顔表情の認識は画像通信における高度な符号化やコンピュータとの能動的なインターフェースの実現のために重要な基礎技術である。表情認識の研究としては静止画像を対象にしたものが多いが、本来表情とは時間変化を有するものであるため安定性に欠けている。従って時間軸をも考慮した認識手法の開発が有力であると考えられる。本稿では表情の時間変化を積極的に利用し認識効率を向上させることう目標に、音声認識の分野で実績のあるHMM(Hidden Markov Model)を用いて表情変化の時系列画像から表情を認識する手法の検討を行う。

    CiNii

  • 3次元計測データの重要度に応じた表情再現品質の検討

    鈴木紀子, 大谷淳, 岸野文郎

    電子情報通信学会技術研究報告   94 ( 486(HC94 82-86) )  1995年

    J-GLOBAL

  • Snake を用いた複雑形状輪郭の自動抽出 追跡法の一検討

    畑幸一, 大谷 淳, 岸野 文郎

    情報 システム, 19950327, 社団法人電子情報通信学会   1995 ( 2 ) 326 - 326  1995年

     概要を見る

    近年、コンピュータビジョンや画像通信システムなどの分野において人物の動きや姿勢を自動的かつ非接触な方式で検出する技術の重要性が増している。画像からの人物の動き・姿勢検出では、シルエット画像を用いたものやエッジ画像を用いたものが検討されているが、動画像において複雑な輪郭を追跡できれば、シルエットの内部のエッジの動き情報などが得られ、さらに高度な動き検出が実現できると考えられる。本報告では、Snakesを用いた複雑な輪郭の自動抽出・追跡法の検討を行なう。

    CiNii

  • 小数センサデータからの上半身動作の再構成に関する一検討

    城山, シン カランシャー, 大谷 淳, 岸野 文郎

    信学会総合大会, 1995   262   262 - 262  1995年

     概要を見る

    臨場感通信会議の実現に向けて、筆者らは自然な人物象の仮想空間への合成の研究を行っている。臨場感通信会議においては実時間性等の制約のため、少数のセンサから得られた情報から人物の姿勢を再構成する必要がある。筆者らは少数センサから人物の運動を検出し、構造モデルを用いて三次元半身動作の再構成方式の検討を進めている。本稿では人物上半数を20自由度を有するリンク機構としてモデル化し、3個のセンサから得られる3次元座標、3軸回転角度の計18個のデータから関節の可動範囲の拘束等を用いることにより、前述の上半身の姿勢に関する20自由度を推定し、動作を再構成する方式について述べる。

    CiNii

  • AICに基づく結合判断機能をもつ Snake による輪郭の自動抽出 追跡法

    畑幸一, 大谷 淳, 岸野 文郎

    信学会技報   95   25 - 30  1995年

     概要を見る

    概要:本報告では,人間のように複雑に変形する輪郭をもつ物体の画像中の輪郭を自動的に抽出し追跡する手法を提案する.複雑な輪郭を輪郭セグメント(滑らかにつながりその垂直方向の輝度袖初変化も滑らかな輪郭の一部分)に分割して考え,複数の独立したActive Contour Models(ACM)によって輪郭セグメント毎に追跡する.従来ユーザによる初期位置の設定が必要だったACMの初期位置を,エッジ画像と赤池の瀞瞳胡準(AIC)に基づき自動的に推定して追跡を行う.また追跡しているACM の垂直方向の輝度勾配を検定し,遮蔽されたと判定された輪郭セグメントはACMによる追跡を中止する.本手法を人物の実画像に適応し,良好な実験の結果を得た.

    CiNii

  • テクスチャーモーフィンクを用いた臨場感通信会議のための布の実時間アニメーション効果 : 放送方式,画像処理・コンピュータビジョン,映像表現,画像通信システム,画像応用

    SINGH Karansher, 大谷 淳, 岸野 文郎

    テレビジョン学会技術報告   18 ( 64 ) 1 - 8  1994年11月

     概要を見る

    本稿では、臨場感通信会議における人物像の衣服を合成し、実時間で表示する手法について述べる。物理モデルを用いた布のアニメーションは効果的であるものの、複雑すぎて実時間処理には適していない。通信会議においては、物理的な正確さよりも、リアリズムが重要である。ここで提案する手法では、布は皮膚表面にマッピングされたテクスチャで表現される。種々の衣類の為の特徴的なしわのテクスチャーを合成し、半自動的に皮膚表面に重ね合わせる。しわの生成は、人物の姿勢により制御されるテクスチャーモーフィングにより行われる。臨場感通信会議システムにおいて、布のテクスチャーモーフィングをハードウェアによるpixel blendingを用いて行うことにより、リアルな表現が可能なことを示す。

    CiNii

  • 遺伝的アルゴリズムを用いた3方向画像からの人物の姿勢検出法の検討 : 上半身の姿勢推定精度向上と指の関節角度推定

    大谷 淳, 岸野 文郎

    電子情報通信学会秋季大会講演論文集   1994   465 - 466  1994年09月

     概要を見る

    人体には多数の関節が存在し、姿勢(関節角度の組合せ)の数は、各関節に可動範囲が存在するものの、実質無限大である。さらに、人間は3次元空間中において移動するものであるので、前述の関節の自由度に、移動の6自由度(3次元座標軸方向の移動と回転)が加わる。筆者らは既に、人物の3方向からの画像から、遺伝的アルゴリズムを用いて人体上半身の各関節の自由度に対応するパラメータ値を検出する方式を提案し、検討を行っている。本報告では、関節の自由度に加えて、前述の移動に関する6パラメータを推定する場合の、遺伝的アルゴリズムにおける各種のパラメータの検討を行う。さらに、従来扱わなかった手における指の関節角度の推定についても検討を行う。

    CiNii

  • A-155 3次元計測に基づいた顔画像の表情再現法の検討(A-6. ヒューマンコミュニケーション,一般講演)

    鈴木 紀子, 大谷 淳, 岸野 文郎

    電子情報通信学会秋季大会講演論文集   1994   155 - 155  1994年09月

    CiNii

  • A-161 テクスチャブレンディング法を用いた表情再現法(A-6. ヒューマンコミュニケーション,一般講演)

    北村 泰一, 大谷 淳, 岸野 文郎

    電子情報通信学会秋季大会講演論文集   1994   161 - 161  1994年09月

    CiNii

  • Implicit Function手法を用いた人物像のための筋肉と皮膚表面のリアルなモデリングとアニメーション : 画像処理・コンピュータビジョン

    SINGH Karansher, 大谷 淳, 岸野 文郎

    テレビジョン学会技術報告   18 ( 41 ) 49 - 56  1994年07月

     概要を見る

    本稿では、Implicit Function、とBrep(Boundary Representation)に基づいた種々のアニメーション手法の適用が可能な、人物のような関節構造体を対象とする統合的な筋肉と皮膚表面階層モデルを示す。人物像は階層構造的に表現できる。人物の骨格構造の上に存在する筋肉と皮膚表面層のリアルなモデリングとアニメーションには、人物像の人体パーツ間の滑らかな接続を確保すること、皮膚表面におけるしわの形成のモデリングを行うこと、筋肉の盛り上がりや接触による変形を表現すること、といった課題がある。人物像のアニメーションを行う際に生じるこのような問題を解決するために、Implicit Functionを使う手法を提案する。さらに、前述のモデルと提案手法を、臨場感通信会議のリアリズム増加に応用する方法を検討する。

    CiNii

  • 5)知覚的運動幾何学 : ロボットマニピュレータの視覚に基づく制御([放送方式研究会映像表現研究会画像処理・コンピュータビジョン研究会画像通信システム研究会画像応用研究会]合同)

    クッカ ピーター, 大谷 淳, 岸野 文郎

    テレビジョン学会誌   48 ( 3 ) 356 - 356  1994年03月

    CiNii

  • 7)ホモトピーに基づいた三次元顔画像の表情生成の検討([視聴覚技術研究会画像処理・コンビョン研究会]合同)

    梶原 創一, 田中 弘美, 大谷 淳, 岸野 文郎

    テレビジョン学会誌   48 ( 1 ) 116 - 117  1994年01月

    CiNii

  • Homotopy に基づく表情の3次元アニメーション

    ハッサン ムバラキ, 田中 弘美, 北村 泰一, 大谷 淳, 岸野 文郎

    信学技法   94   9 - 16  1994年

     概要を見る

    Homotopy掃引法は、2次元輪郭図形の集合を用いて3次元表面形状の生成を行う手法として1991年に提案され、一つの輪郭図形から他の輪郭図形への遷移を制御可能である性質をもっている。実際にグラフィックワークステーションにインプリメントして評価したところ、人物の顔の表現を目的とすると、このアプローチには限界があることがわかった。しかし、動的アプローチに基づいた新しい定式化を開発することにより、変形を便利な形で制御するのに利用できるという興味ある知見を得られている。本報告では、人間の筋肉と形態に関するいくつかの仮定を用いれば、単にいくつかのパラメータを指定するだけで、口の連続的な変形を制御することができることを示す。また、その表示結果はリアルであることが明らかとなり、単純な補間計算を行うだけなので実時間処理も可能である。

    CiNii

  • 遺伝的アルゴリズムを用いたマルチ画像からの人物の姿勢検出の検討27:030★信学技報

    大谷, 岸野 文郎

    電子情報通信学会技術研究報告. PRU, パターン認識・理解   93   47 - 54  1994年

     概要を見る

    遺伝的アルゴリズムに基づき、人物のマルチ画像から、人体上半身の関節角度および人物の位置情報を検出する方法を提案する。検出すべきパラメータを個体の遺伝子情報に対応させ、環境への適応度としては、実際のカメラから得られた人物像と、遺伝子情報に従い変形された3次元人物モデルによる合成人物像との重なり度合を用いる。自然淘汰、交差、突然変異の遺伝子操作を行い、ある世代を経過した時点で最大の適応度を与える個体の遺伝子情報を、パラメータ推定結果とする。合成人物画像を対象に実験的検討を行い、本手法の有効性の見通しを得た。

    CiNii

  • 3次元計測に基づく顔表情変化の分析と合成

    坂口竜己, 森島 繁生, 大谷 淳, 岸野 文郎

    信学技報     61 - 68  1994年

     概要を見る

    よりユーザフレンドリーなコンピュータとのコミュニケーション環境実現のため、顔表情動画像を用いたインタフェース構築の研究を進めている。筆者らはすでにモデルベース手法を応用した表情動画像の作成について提案しているが、この表情変形規則は2次元的な計測を基に作られたものであったため、満足な性能は得られていなかった。本稿では、顔表面の3次元計測により、各表情表出時の顔面皮膚の移動量を求め、新たな移度制御点(特徴点)の設定と移動規則の決定を行なっている。3次元計測では正面・側面画像を利用する手法を採用し、誤差±1.2%程度の精度を得ている。更に得られた特徴点位置についての測定結果よりFACSのAUの定量化を見直し、特徴点以外の点の補間法を検討してより自然な画像合成を行なっている。

    CiNii

  • 2.5次元画像からの面対称性の検出

    佐藤 嘉伸, 大谷 淳

    電子情報通信学会論文誌. D-II, 情報・システム, II-情報処理 = The transactions of the Institute of Electronics, Information and Communication Engineers   76 ( 11 ) 2444 - 2447  1993年11月

     概要を見る

    2.5次元画像から面対称性を検出する方法を述べる.まず,ハフ変換により対称面パラメータ空間のピークを検出し,次に,繰返し重み付け最小2乗法により非極大仰制および精密化を行う.距離画像に対する実験によってその有効性を実証する.

    CiNii

  • ホモトピーに基づいた三次元顔画像の表情生成の一検討

    梶原 創一, 田中 弘美, 大谷 淳, 岸野 文郎

    全国大会講演論文集   47   317 - 318  1993年09月

     概要を見る

    筆者等は、臨場感通信会議システム実現を目指し、3次元人物像の表情検出と生成の研究を進めている。すなわち、図1に示すように、顔の表情筋の構造と動作に基づく3Dワイヤーフレームモデル駆動法を検討している。本研究では、皺の生成に適する位相幾何学(トポロジー)におけるホモトピーに基づいた三次元顔画像の表情生成の検討を行った.ホモトピーは、パラメーターを介することにより、両端を固定した任意曲線を他の任意曲線に遷移する際に用いる手法である。本研究ではこの応用例として、任意曲線の端点に輪郭線を設定し両輪郭間をプレンディング関数で補間して形成される任意の原曲面を、他の異なる曲面に実時間で遷移させる時変ホモトピーに基づくシリンダーモデルを提案する。さらにこの形状変形を、臨場感通信会議における人物顔画像の実時間表情変化に適用し、その合成例として顔面の額を動作させる際に生じる皺の発生法を検討する。

    CiNii

  • 熱画像と可視光画像のステレオ統合による時系列距離画像入力法の検討

    大谷 淳, 岸野 文郎

    情報処理学会研究報告コンピュータビジョンとイメージメディア(CVIM)   1993 ( 25 ) 65 - 72  1993年03月

     概要を見る

    熱画像と可視光画像のステレオペアを統合的に用いて、時系列距離画像を獲得する手法について検討した。本手法では、ステレオペアの左右においては、熱画像と可視光画像の視野は一致させてあり、4種類の画像が同期してアルゴリズムに入力される。まずステレオ熱画像を等温度領域に分割し、各等温度領域の輪郭線をベースとした対応付けを行う。輪郭線の対応付けのみでは密な距離データが得られないので、等温度領域の内部に対応する場所の可視光画像の濃度情報に対してDPマッチングを行い、対応付けを行う。これらの対応付けの結果得られた画素ペアから三次元データを求める。実際のシーンを対象とした実験を行い、手法の有効性の検証を行った。A new method for acquiring time-sequential range images is studied. In this method, stereo infrared video cameras and stereo TV cameras are placed so that the thermal and intensity images have the same field of view at the left and right sides of the stereo pairs, respectively. Stereo thermal images are segmented into isotemperature regions, and contour based matching is done for the isotemperature regions. Then, DP matching is performed for the stereo intensity images. With the corresponding pixel pairs obtained from the matching processes, range data are obtained. Experiments with real scenes show promising results.

    CiNii

  • 熱画像と可視光画像のステレオ統合による時系列距離画像の獲得 : 等温度領域の輪郭の対応付け

    大谷 淳, 岸野 文郎

    全国大会講演論文集   46   175 - 176  1993年03月

     概要を見る

    時系列距離画像は、人物等の3次元運動の計測や認識、あるいは筆者らが実現を目指している臨場感通信会議における人物像処理に有効であると考えられる。既に筆者らは、熱画像と可視光画像のステレオ画像を統合的に用いて、ビデオレート程度の速度に対応する時系列距離画像の獲得法を提案し、検討を進めている。既に提案している手法では、ステレオ熱画像に存在する等温度領域単位のマッチングを行っていたが、実際に対応している領域同志でもその形状が一般には同一なものとはならないことに代表されるように、形状の類似性判定における不安定さが問題点であった。これに対して本報告では、ステレオ熱画像における等温度領域の輪郭線(等温度線)単位のマッチング法を提案し、対応付けの安定化を目指す。以下、本手法の概要をまず述べ、提案手法について説明する。さらに、本手法を実際のシーンに適用した実験結果を示す。

    CiNii

  • 遺伝的アルゴリズムを用いた顔画像からの表情検出の一検討

    北村泰一, 大谷 淳, 岸野 文郎

    信学技報   93   23 - 28  1993年

     概要を見る

    遺伝的アルゴリズムを用いた顔画像からの新しい表情検出法を提案し、検討を行なった。顔における表情筋の変位等の表情生成に寄与する物理量を遺伝子とし、この遺伝子情報を無表情の3次元モデルに与えて表情を生成する。このモデルをTVカメラで観測したとすることにより得られる合成画像と、目標顔画像とを比較して適応度を求め、自然淘汰を行なう。また遺伝子プールにおいて適宜遺伝子操作を行なう。ある世代を経て得られる良好な適応度を示す遺伝子情報を表情検出結果とする。2次元および3次元顔画像について良好な実験結果を得た。

    CiNii

  • 熱画像と可視光画像のステレオ統合による時系列距離画像獲得法 : 等温度領域の対応付けの検討

    大谷 淳, 岸野 文郎

    全国大会講演論文集   45   259 - 260  1992年09月

     概要を見る

    著者らは、人間等のように動きをもつものを含むシーンを、センサ統合によりビデオレート程度の頻度の時系列距離画像として入力する手法の検討を進めている。このような時系列距離画像が得られれば、動物体の3次元運動の認識や計測、あるいは著者らが実現を目指している臨場感通信会議システムにおける人物像の入力処理に有効であると考えられる。著者らは既に、赤外線熱画像装置と可視光用TVカメラ各2台から入力されるステレオ熱画像と可視光画像を統合に用いて、時系列距離画像を獲得する方式について検討を開始している。本方式は、左路然瞬像の等温度領域の対応付けを、左右可視光画像の情報を統合的に用いることによる基本としているため、レーザ光の照射等が不要な、passiveな方式であるという特徴がある。著者らは従来、左右熱画像の等温度領域の対応付けを、領域の形状の類似性と、左右可視光画像の対応する画素から得られる領域の平均濃度女差とに基づいて行なっていた。しかし、左右の画像においては、同一の領域でも、その形状が同一のものとなることは一般にはないため、等温度領域の対応付けに誤りが起こることが多かった。また、領域の平均濃度をもう一つの特徴として使用していたが、面積の大きな領域について、特に対応付けの確度が低くなる傾向をもたらしていた。これに対して本報告では、等温度領域の対応付けを、ステレオ可視光画像における各等温度領域に対応する場所の濃度分布情報を用いて行なうことにより、対応付けの安定化を目指している。即ち、対応候補領域におけるエピポーラライン上の濃度分布にDP(Dynamic Programming)マッチングを施することにより得られる類似度に基づき、対応付けの決定を行う。以下に、本報告で提案する手法および実験結果について述べる。

    CiNii

  • 熱画像と濃淡画像のステレオ統合を用いた時系列距離画像入力の検討

    大谷淳, 大和淳司, 石井健一郎

    電子情報通信学会大会講演論文集   1992 ( Shunki Pt 7 ) 7.396  1992年03月

    J-GLOBAL

  • HMMを用いた動画像からの不特定多数人物の動作認識の検討

    大和淳司, 大谷淳, 石井健一郎

    電子情報通信学会大会講演論文集   1992 ( Shunki Pt 7 ) 7.353  1992年03月

    J-GLOBAL

  • ステレオ熱画像による時系列距離画像入力法の検討

    大谷淳, 大和淳司, 石井健一郎

    電子情報通信学会技術研究報告   91 ( 478(PRU91 126-136) ) 25 - 32  1992年02月

    J-GLOBAL

  • HMMを用いた動画像からの人物の行動認識

    大和淳司, 大谷淳, 石井健一郎

    電子情報通信学会技術研究報告   91 ( 252(PRU91 51-61) ) 59 - 66  1991年09月

    J-GLOBAL

  • HMMを用いた行動認識法の検討

    大和淳司, 大谷淳, 石井健一郎

    情報処理学会全国大会講演論文集   43rd ( 2 ) 2.245-2.246  1991年09月

    J-GLOBAL

  • ステレオ熱画像による距離画像入力法の検討

    大谷淳, 大和淳司, 石井健一郎

    情報処理学会全国大会講演論文集   43rd ( 2 ) 2.443-2.444  1991年09月

    J-GLOBAL

  • Smoothed Local Generalized Conesによる パーツ構造の復元

    佐藤 嘉伸, 大谷 淳

    情報処理学会研究報告コンピュータビジョンとイメージメディア(CVIM)   1991 ( 10 ) 69 - 76  1991年01月

     概要を見る

    本研究の目的は、視点に依存しない3D形状の分割記述を2.5D画像から復元することである。本稿では、Smoothed Local Generalized Cones (G)と呼ぶ新しい3D形状表現を提案する。この表現法は、Bradyの提案によるSmoothed Local Symmetries ()の3次元版と考えられる。まず、3D形状自体によって定まる局所基準座標系を推定する方法を示す。2D形状の局所座標系は局所対称により一意に定めることができるが、3D表面形状の局所面対称からは、局所座標系の位置と方向に関する拘束条件が得られるのみである。そこで、さらに、局所一般化円筒(cal Generalized Cones: LG)の当てはめを行うことによって、局所座標系の決定を行う。SLGCプリミティブは、滑らかに接続するLGCの系列を抽出することによって復元される。次に、抽出されたSLGCプリミティブを用いて、3D形状のパーツ構造を復元する方法を述べる。パーツ構造復元のためには、SLGCプリミティブの選択・統合を行う必要があり、その基準を論じ、組み合せ最適化問題として定式化する。本表現法の利点は、復元形状の多様性と復元の安定性である。局所的な規則性モデルを利用することにより、Superquadrics等のパラメトリックモデルや大局的一般化円筒に比べ、柔軟にデータに当てはめることができるので、多様な形状の復元が可能である。安定性の観点からも、数値的に不安定な大局的モデルの直接的な当てはめに比べ有利である。得られた記述は、3D物体認識において、形状の可変性を含む物体モデルの利用、大規模モデルベースの利用、および、物体モデル記述の学習を行う場合、特に有効である。The goal of this work is to recover viewpoint-independant description of 3D shapes from 2.5D images. In this paper, we propose a novel 3D shape representation called the Smoothed Local Generalized Cones (SLGCs), which can be considered as a three dimensional extension of Brady's Smoothed Local Symmetries (SLSs). First, we present a method for estimating local canonical frames determined by the 3D shape itself. While local symmetry of 2D shapes determines its local frame, local (mirror) symmetry of 3D shapes only provides constraints on position and orientation of its local frame. The 3D local frames are estimated by finding frames where the Local Generalized Cones (LGCs) best fit to sensory data. The SLGC primitives can be recovered by extracting long sequences of LGCs connected smoothly. Next, we present a method for recovering a part structure of a 3D object using the SLGC primitives. The criteria for grouping and selecting the SLGc primitives to recover a part structure are presented and the problem is formulated as a combinatorial optimization. The advantages of the SLGCs are their versatility and stability through the use of local models. The local models can fit to data flexibly and do not suffer from unstable localization, as compared with using pamemetric models such as superquadrics or global Generalized Cones. Obtained descriptions are well-suited for object recognition with a large model database learning object models.

    CiNii

  • 7)3-L法を用いた普通紙への階調画像記録(画像表示研究会(第61回))

    徳永 幸生, 大谷 淳, 久保田 一成

    テレビジョン学会誌   36 ( 1 ) 76 - 76  1982年01月

    CiNii

▼全件表示

受賞

  • 画像電子学会 優秀論文賞

    2012年06月  

  • 電気通信普及財団 テレコムシステム技術賞

    2000年  

  • 「第57回注目発明」を国務大臣・科学技術庁長官より受賞

    1998年  

共同研究・競争的資金等の研究課題

  • 実空間中の非剛体の挙動の仮想的3次元空間における実時間再現の研究

    科学研究費助成事業(早稲田大学)  科学研究費助成事業(基盤研究(C))

  • 実空間中の非剛体の挙動を仮想的3次元空間で実時間再現する方法の研究

    科学研究費助成事業(早稲田大学)  科学研究費助成事業(基盤研究(C))

  • 実空間中の非剛体の挙動の仮想的3次元空間における再現法の研究

    科学研究費助成事業(早稲田大学)  科学研究費助成事業(基盤研究(C))

  • 動的・静的多眼カメラ画像からの人物の行動認識法の研究

    科学研究費助成事業(早稲田大学)  科学研究費助成事業(基盤研究(C))

  • 動画像処理を用いる動的挙動解析と3次元構造復元の研究

    科学研究費助成事業(早稲田大学)  科学研究費助成事業(基盤研究(C))

  • 動画像処理による非剛体の挙動解析の研究

    科学研究費助成事業(早稲田大学)  科学研究費助成事業(基盤研究(C))

▼全件表示

講演・口頭発表等

  • Pedestrian Position Estimation by Integrating AlphaPose Based Human Pose Estimation and PredRNN++ Based Spatiotemporal Series Prediction for Autonomous Driving Systems

    Zhang Zhaowei, Eiji Fukuzawa, Jun Ohya

    電子情報通信学会PRMU研究会, vol. 121, no. 155, PRMU2021-12, pp. 30-35  

    発表年月: 2021年08月

  • 協生農法環境におけるRGB画像からの圃場の優勢植生の深層学習を用いる検出方法に関する研究

    征矢 寛汰, 青竹 峻太郎, 小方 博之, 大谷 淳, 大谷 拓也, 高西 淳夫, 舩橋 真俊

    2021年度第49回画像電子学会年次大会講演論文集, S7-3, pp.1-4  

    発表年月: 2021年06月

  • 協生農法環境におけるRGB画像に対するSemantic Segmentationを用いた圃場の被覆状態の認識方法に関する研究

    吉崎 玲奈, 青竹 峻太郎, 小方 博之, 大谷 淳, 大谷 拓也, 高西 淳夫, 舩橋 真俊

    2021年度第49回画像電子学会年次大会講演論文集, S8-2, pp.1-4.  

    発表年月: 2021年06月

  • UAVを用いた災害時の道路画像分割に関する研究

    武藤信太, 大谷 淳

    電子情報通信学会画像工学研究会, vol. 120, no. 390, IE2020-70, pp. 97-102  

    発表年月: 2021年03月

  • 環境モニタリングロボットを用いた夜間森林環境モニタリングにおけるSegNetを用いた環境認識と3次元マップ生成に関する研究

    金子丈朗, 大和淳司, 石井裕之, 大谷 淳, 高西淳夫

    電子情報通信学会画像工学研究会, vol. 120, no. 390, IE2020-69, pp. 91-96  

    発表年月: 2021年03月

  • Virtual Reality環境における初心者向けスキー滑走学習システムに関する研究

    宮川峻一, 瀬尾燦振, 大橋拓未, 後藤悠太, 中新かれん, 小澤 悠, 大谷 淳, 彼末一之, 小方博之

    電子情報通信学会画像工学研究会, vol. 120, no. 390, IE2020-61, pp. 52-57  

    発表年月: 2021年03月

  • Switch State Detection by MSRS and YOLOv4 and Automatic Switch Operation with a Robot Arm by Reinforcement Learning in Virtual Environments

    Li Qi, Jun Ohya, Hiroyuki Ogata

    電子情報通信学会PRMU研究会, vol. 120, no. 409, PRMU2020-94, pp. 145-150  

    発表年月: 2021年03月

  • Accuracy of Needle Puncture Under Augmented Reality Displayed on a Head Mounted Display with Position Automatically Adjusted by a 2D Marker

    Satoru Morita, Kazufumi Suzuki, Kenji Endo, Takahiro Yamamoto, Shuji Sakai, Shuhei Fujii, Takeshi Morishita, Ryuhei Maruyama, Jun Ohya

    RSNA2020(Radiological Society of North America), 106th Scientific Assembly and Annual Meeting  

    発表年月: 2020年11月

    開催年月:
    2020年11月
    -
    2020年12月
  • ドローンに搭載したカメラ等により獲得される情報を用いる土砂災害の検出法に関する基礎的検討

    松井 開, 長谷川 克也, 武藤 信太, 大谷 淳

    2020年度第48回画像電子学会年次大会講演論文集, S3-4, pp.1-4.  

    発表年月: 2020年12月

  • Classifying Pedestrian Attention for Pedestrian Vehicle Interaction Based on Human Pose Analysis

    Zhao Wentao, Jun Ohya, Zhang Zelin

    2020年度第48回画像電子学会年次大会講演論文集, S3-3, pp.1-4  

    発表年月: 2020年12月

  • How to Build AR/MR Phantom for Interventional Radiology Using Medical Images

    Kenji Endo, Kazufumi Suzuki, Satoru Morita, Shuhei Fujii, Ken Masamune, Jun Ohya, Takahiro Yamamoto, Takeshi Morishita, Ryuhei Maruyama, Shuji Sakai

    RSNA2020(Radiological Society of North America), 106th Scientific Assembly and Annual Meeting  

    発表年月: 2020年11月

  • Efficiency of Using Augmented Reality Technology in Training of Central Venous Access

    Kazufumi Suzuki, Kenji Endo, Satoru Morita, Shuhei Fujii, Ken Masamune, Jun Ohya, Takahiro Yamamoto, Takeshi Morishita, Ryuhei Maruyama, Shuji Sakai

    RSNA2020(Radiological Society of North America), 106th Scientific Assembly and Annual Meeting  

    発表年月: 2020年11月

  • Multi-Mask RCNN による多層化マスクを利用した遮蔽された物体の領域分割手法の検討

    平山 慎, 堀 隆之, 大谷 淳

    2020 年 電子情報通信学会総合大会, 情報・システム講演論文集2, D-12-3, p.36  

    発表年月: 2020年03月

  • Virtual Realityを用いたプルーク滑走スキーの体験のためのスキーシミュレータシステムの構築

    宮川峻一, 瀬尾燦振, 大橋拓未, 後藤悠太, 中新かれん, 小澤悠, 彼末一之, 大谷淳, 小方博之

    日本スキー学会第30回大会公演論文集、pp.28-29  

    発表年月: 2020年03月

  • 腹膜播種の光温熱治療のための熱画像の深層学習を用いた高解像度化に関する検討

    三瓶聡太, 尾原睦月, 瀬尾燦振, 長橋 宏, 正宗 賢, 大谷 淳, 守本祐司, 原田 学

    電子情報通信学会IE研究会,信学技報, vol. 119, no. 456, IE2019-118, pp. 103-108  

    発表年月: 2020年03月

  • RGB-Dカメラ画像を用いた災害対応ロボットによる自律的なドアノブ操作方法に関する検討

    林 正晃, 神田琢也, 宮川和也, 大谷 淳, 小方博之, 橋本健二, 孫 瀟, 松澤貴司, 内藤 博, 高西淳夫

    電子情報通信学会IE研究会,信学技報, vol. 119, no. 456, IE2019-109, pp. 63-67  

    発表年月: 2020年03月

  • 環境モニタリングロボットの自己位置推定法選択のためのRGBカメラ画像に対する深層学習による空認識の検討 ~ GNSSかVisual SLAMの選択 ~

    鈴木泰貴, 金子丈朗, 林 拓哉, 森本純矢, 大和淳司, 石井裕之, 大谷 淳, 高西淳夫

    電子情報通信学会IE研究会,信学技報, vol. 119, no. 456, IE2019-98, pp. 11-16  

    発表年月: 2020年03月

  • 自動運転システムのための深層学習を用いた合成画像から実シーン画像への変換および移動経路計画の生成

    張 澤霖, 大谷 淳

    電子情報通信学会PRMU研究会,信学技報, vol. 119, no. 481, PRMU2019-80, pp. 79-84  

    発表年月: 2020年03月

  • ドローンによる視覚障碍者の誘導支援における深層学習を用いた画像からの歩行位置推定に関する研究

    森下 健史, 長橋 宏, 大谷 淳

    画像電子学会研究会,予稿19-03-13、pp.57 - 61  

    発表年月: 2020年02月

  • 術場カメラ画像を用いる脳腫瘍摘出手術の手術工程認識に関する検討

    平田 啓樹, 大谷 淳, 正宗 賢

    画像電子学会研究会,予稿19-03-11、pp.45 - 50  

    発表年月: 2020年02月

  • Microsoft HoloLensを用いたIVR支援ARナビゲーションの知覚誤差に関する研究

    藤井柊平, 森田 賢, 鈴木一史, 遠藤健二, 森下健史, 長橋 宏, 正宗 賢, 大谷 淳

    電子情報通信学会MI研究会,信学技報, vol. 119, no. 399, MI2019-95, pp. 135-139  

    発表年月: 2020年01月

  • 深層学習を用いた心電図からの大動脈弁狭窄症の識別法の提案とGrad-CAMを用いた分析

    秦 絵里香, 瀬尾燦振, 中山雅文, 岩﨑清隆, 大川内隆朗, 大谷 淳

    電子情報通信学会MI研究会, 信学技報, vol. 119, no. 399, MI2019-87, pp. 97-101  

    発表年月: 2020年01月

  • 環境モニタリングロボットのためのRGBカメラ及び深度センサを用いた路面状況認識 〜 SegNet-BasicとENetの比較および高さと曲率特徴の比較 〜

    林 拓哉, 金子丈朗, 森本純矢, 大和淳司, 石井裕之, 大谷 淳, 高西淳夫

    電子情報通信学会技術報告、PRMU研究会, 電子情報通信学会技術報告, vol. 119, no. 235, PRMU2019-39, pp. 41-46  

    発表年月: 2019年10月

  • ガス管内探査ロボットの視覚機能と深層学習を用いた曲管部の湾曲方向検出に関する研究

    宮岡 寛太, 大谷 淳, 徐 栄, 高西 淳夫, 石井 裕之

    第18回情報科学技術フォーラム講演論文集  

    発表年月: 2019年09月

  • Estimating the Positions of Target Objects Based on Object Recognition by Processing 3D Point Cloud Data

    Qi Li, Jun Ohya, Atsuo Takanishi, Takashi Matsuzawa, Kenji Hashimo

    第18回情報科学技術フォーラム講演論文集  

    発表年月: 2019年09月

  • 災害対応ロボットにおけるRGB-Dカメラ情報を用いたスイッチの位置・姿勢の推定

    神田琢也, 大谷淳, 小方博之, 橋本健二, 内藤博, 松澤貴司, 高西淳夫

    第18回情報科学技術フォーラム講演論文集  

    発表年月: 2019年09月

  • 災害対応ロボットWAREC-1による自律的な階段昇段のための画像処理技術の検討

    宮川和也, 大谷淳, 小方博之, 松澤貴司, 橋本健二, 高西淳夫

    第18回情報科学技術フォーラム講演論文集  

    発表年月: 2019年09月

  • フォークリフトの倉庫内の自動運転のための経路周辺の人物の動作識別に基づく危険回避法に関する検討

    吉川 晴音, 林 拓哉, 渋谷 涼太, 大和 淳司, 大谷 淳

    2019 年度 第47 回画像電子学会年次大会  

    発表年月: 2019年06月

  • バーチャルリアリティ技術を用いた第三者視点スポーツトレーニング

    宮川 峻一, 徐 燦振, 小方 博之, 大谷 淳

    2019 年度 第47 回画像電子学会年次大会  

    発表年月: 2019年06月

  • HOG特徴と線形SVMを用いたノイズが含まれる顔動画像からの口唇の検出と口内領域の認識に関する研究

    黒宮 侃熙, 石川 彦太, 平山 慎, 大谷 淳, 徐 栄, 堀 隆之

    画像電子学会第288回研究会講演予稿  

    発表年月: 2019年03月

  • 顔の動画像解析を用いた食事のペース変動に伴うストレス検出方法の検討

    矢野 翔大, 大谷 淳, 大川内 隆朗, 大和 淳司

    画像電子学会第288回研究会講演予稿  

    発表年月: 2019年03月

  • ガス管内探査ロボットの視覚情報を用いた画像変換と進行距離推定

    杉田 愛, 大谷 淳, 徐 栄, 高西 淳夫, 石井 裕之

    画像電子学会第288回研究会講演予稿  

    発表年月: 2019年03月

  • 災害現場における4肢ロボットの深層強化学習を用いた局所的経路生成手法の検討

    黒澤俊樹, 小方博之, 大川内隆朗, 松澤貴司, 大谷 淳, 橋本健二, 高西淳夫

    電子情報通信学会技術報告、PRMU研究会  

    発表年月: 2019年02月

  • QRコード型マーカによる医療用ARナビゲーション

    丸山竜平, 森田 腎, 遠藤健二, 正宗 賢, 長橋 宏, 大谷 淳

    電子情報通信学会技術報告、MI研究会  

    発表年月: 2019年01月

  • 脳腫瘍摘出手術における術者手元近辺動画像中の手の動作解析に基づく手術状況認識法の検討

    堀込貴央, 藤江宏紀, 平田啓樹, 正宗 賢, 長橋 宏, 大谷 淳

    電子情報通信学会技術報告、MI研究会  

    発表年月: 2019年01月

  • 脳外科開頭手術のためのマーカレスARを用いた3次元医用画像の頭部画像への重畳表示

    西崎雄哉, 正宗 賢, 長橋 宏, 大谷 淳

    電子情報通信学会技術報告、MI研究会  

    発表年月: 2019年01月

  • 深層学習とGrad_CAMを用いた超音波画像中の胎児部位検出と深度推定に関する研究

    石川彦太, 徐 栄, 大谷 淳, 岩田浩康

    電子情報通信学会技術報告、MI研究会  

    発表年月: 2019年01月

  • 手術具の検出および追跡による脳腫瘍摘出手術の工程認識法におけるData Augmentationのパラメータ値の検討

    藤江宏紀, 平田啓樹, 堀込貴央, 長橋 宏, 大谷 淳, 田村 学, 正宗 賢, 村垣善浩

    電子情報通信学会技術報告、MI研究会  

    発表年月: 2019年01月

  • 動画像解析による快不快推定の研究

    矢野翔大, 大谷淳, 大川内隆朗, 大和淳司

    第31回人間情報学会予稿集  

    発表年月: 2018年12月

  • 災害対応ロボットにおけるデプスカメラ情報に基づく対象物体の把持位置・方向の自動的な推定

    西川敬士, 大谷 淳, 小方博之, 高西淳夫, 松澤貴司, 橋本健二

    FIT2018 (第17回情報科学技術フォーラム)  

    発表年月: 2018年09月

  • 疾走動作の段階的改善を目的とした教師なし学習による類似動作検出法の検討

    徐 燦振, 佐羽内雅人, 小方博之, 大谷 淳

    FIT2018 (第17回情報科学技術フォーラム)  

    発表年月: 2018年09月

  • 森林環境モニタリングロボットにおける SLAM と深層学習を用いた領域推定に基づく経路計画法の検討

    森本 純矢, 林 拓哉, 藤本 裕之, 石井 裕之, 大谷 淳, 大和 淳司, 高西 淳夫

    2018年度 第46回画像電子学会年次大会  

    発表年月: 2018年06月

  • 脚型ロボットの梯子昇降のための 3 次元点群データ解析による桟の自動的な位置推定に関する検討

    宮川 和也, 西川 敬士, 大谷 淳, 橋本 健二, 高西淳夫

    2018年度 第46回画像電子学会年次大会  

    発表年月: 2018年06月

  • Hand Pose Estimation from Single Depth Images with 3D Convolutional Neural Network

    Zelin Zhang, Zhao Wang, Jun Ohya

    電子情報通信学会技術報告  

    発表年月: 2018年01月

  • 脳動脈瘤の有無と脳動脈血管形状特徴との関係の解析に関する研究

    菊地功成, 八木高伸, 徐 栄, 大谷 淳

    電子情報通信学会技術報告  

    発表年月: 2017年11月

  • ドローンの墜落時点推定に有効なカメラ・センサデータ処理法の基礎的検討

    秦野 勇作, 陳 怡, 大谷 淳

    2017年度 第45回画像電子学会年次大会  

    発表年月: 2017年06月

  • ガス管内探査ロボットの視覚情報を用いた進行距離推定方法に関する研究

    杉田 愛, 徐 栄, 石井 裕之, 大谷 淳, 高西 淳夫

    2017年度 第45回画像電子学会年次大会  

    発表年月: 2017年06月

  • 似顔絵自動生成法のための深層学習による顔画像中の髪領域抽出の検討

    田中 雄也, 大谷 淳, 川村 春美

    2017年度 第45回画像電子学会年次大会  

    発表年月: 2017年06月

  • 環境モニタリングロボットの視覚情報処理を用いた森林における起点への帰還法の検討

    藤本 裕之, 石井 裕之, 大谷 淳, 大和 淳司, 高西 淳夫

    2017年度 第45回画像電子学会年次大会  

    発表年月: 2017年06月

  • RGB-D動画像処理を用いた要介護者の食事状況認識に関する検討

    矢野 翔大, 藤本 篤人, 大川内 隆朗, 大谷 淳

    2017年度 第45回画像電子学会年次大会  

    発表年月: 2017年06月

  • 顔画像中の瞼の応答性を表現する制御モデルによる目の開閉度の連続的な検出法の検討

    徐 燦振, 島 聡志, 大谷 淳

    画像電子学会研究会  

    発表年月: 2017年03月

  • 透視変換を用いたギター演奏時のネックの動画像における追跡法の検討

    本田 浩暉, 王 ?, 大谷 淳

    画像電子学会研究会  

    発表年月: 2017年03月

  • 脳動脈瘤の有無の識別に有効な MRA 画像中の脳血管形状特徴の検討

    齋藤 健太, 菊地 功成, 八木 高伸, 大谷 淳

    画像電子学会研究会  

    発表年月: 2017年03月

  • Support Vector Regressionに基づく3次元動画像処理による人物の動作評価法の検討

    前田尚俊, 王 しょう, 大谷 淳

    画像電子学会研究会  

    発表年月: 2017年03月

  • 縫合手術を構成する6つの段階の動画像中の手術者の手の動きに基づき予測する方法

    坪田実和, 李 イエ, 大谷 淳

    電子情報通信学会研究技術報告  

    発表年月: 2017年02月

  • 違和感の無いアニメーション画像生成のための背景と前景のトーンカーブを用いた自動的な融合法の検討

    江守海渡, 大谷淳, 楜沢順, 川村春美

    FIT2016 (第15回情報科学技術フォーラム)  

    発表年月: 2016年09月

  • Road Vanishing Point Detection by Multi-stage Convolutional Neural Network

    Yan LI, Ye LI, Jun OHYA

    the Media Computing Conference, IIEEJ  

    発表年月: 2016年06月

  • MRA 画像を用いた脳動脈の構造復元のための血流速度依存性と血管内外の輝度値の検討

    菊地功成, 立松直倫, 八木高伸, 大谷 淳, 張澤霖

    画像電子学会研究会  

    発表年月: 2016年03月

  • 縫合手術を構成する5つの段階の動画像からの識別法の検討

    三浦朋也, 李イエ, 大谷 淳

    画像電子学会研究会  

    発表年月: 2016年03月

  • 3次元動画像から抽出される人物の部分骨格モデルを利用する人物の行動認識法の検討

    藤本篤人, 立松直倫, 大谷 淳

    画像電子学会研究会  

    発表年月: 2016年03月

  • SLAM とレーザープロジェクションによる飛翔体ロボットの周囲環境との幾何学的な関係の獲得法の検討

    秦野勇作, 立松直倫, 大谷 淳

    画像電子学会研究会  

    発表年月: 2016年03月

  • Computer Vision Technologies Towards the Actualization of Robotic Scrub Nurses

    Ye Li, Jun Ohya  [招待有り]

    日本画像学会誌  

    発表年月: 2016年02月

  • 地域ビジネスとロボット技術

    大谷 淳, 大野邦夫

    画像電子学会 デジタルサイネージとインタラクション(DSG)研究会 第6回ワークショップ  

    発表年月: 2015年11月

  • 抽象絵画における鑑賞者の注視情報を利用した音楽生成システム;抽象絵画の特徴が鑑賞者の抽象的な発想の変化に及ぼす影響

    小楠竜也, 大谷 淳, 楜沢 順, 米村俊一

    FIT2015 (第14回情報科学技術フォーラム)  

    発表年月: 2015年09月

  • ニューラルネットワークを利用する顔画像からの似顔絵自動生成の検討 -主観評価に基づく比較検討

    郭 帥, 榎本 誠, 川村春美, 大谷 淳

    FIT2015 (第14回情報科学技術フォーラム)  

    発表年月: 2015年09月

  • 少数特徴点追跡に基づく動画像からの樹木全体の動き追跡の検討

    沈 渊超, 大谷 淳

    FIT2015 (第14回情報科学技術フォーラム)  

    発表年月: 2015年09月

  • A Method for Tracking Guitar Neck and Fingertips: Necking Tracking Robust against Occlusions Based on Geometry Analysis and Fingertips Tracking Based on Temporal Probability Map

    Zhao Wang, Jun Ohya

    FIT2015 (第14回情報科学技術フォーラム)  

    発表年月: 2015年09月

  • 超音波画像中の胎児の組織抽出のためのSuperVoxelに基づくセグメンテーション法の検討

    王 元晨, 立松直倫, 大谷 淳, 徐 栄, 石川牧子, 岩田浩康

    FIT2015 (第14回情報科学技術フォーラム)  

    発表年月: 2015年09月

  • SLAMに基づく片づけロボットによる物体の力学的操作結果の確認方法に関する検討

    高 斯, 立松直倫, 大谷 淳

    FIT2015 (第14回情報科学技術フォーラム)  

    発表年月: 2015年09月

  • 少数特徴点追跡に基づく動画像からの樹木全体の動き追跡の基礎的検討

    シン エンチョウ, 大谷 淳

    2015年度画像電子学会第43回年次大会  

    発表年月: 2015年06月

  • MRI を用いた内頚動脈再構築に関する検討-MRA 画像と血流速度分布のシミュレーションの比較・考察-

    黄 キエン, 八木 高信, 立松 直倫, 大谷 淳, 菊地 功成

    2015年度画像電子学会第43回年次大会  

    発表年月: 2015年06月

  • ニューラルネットワークを用いた顔画像からの似顔絵自動生成 -輪郭と目の描画方法の改良についての検討

    郭 帥, 榎本 誠, 川村 春美, 大谷 淳

    2015年度画像電子学会第43回年次大会  

    発表年月: 2015年06月

  • 絵画の”美しさ”についての基礎的な検討と考察 - 葛飾北斎「富嶽三十六景」への複数被験者による基本図形のあてはめ結果の分析―

    能條 由佳, 川村 春美, 楜沢 順, 大谷 淳

    2015年度画像電子学会第43回年次大会  

    発表年月: 2015年06月

  • Study of Early Recognition and Progress Level Calculation of Surgeon's Action during Suture Surgery

    Ye Li, Jun Ohya, Toshio Chiba, Rong Xu, Hiromasa Yamashita

    2015年度画像電子学会第43回年次大会  

    発表年月: 2015年06月

  • SuperVoxel を用いた超音波画像中の胎児に対するセグメンテーションの基礎的検討

    王 元晨, 立松 直倫, 大谷 淳, 徐 栄, 石川 牧子, 岩田 浩康

    2015年度画像電子学会第43回年次大会  

    発表年月: 2015年06月

  • SLAM による自己位置推定と地図生成を用いた片付けロボットの基礎的検討

    高 斯, 立松 直倫, 大谷 淳

    2015年度画像電子学会第43回年次大会  

    発表年月: 2015年06月

  • 人物の関節の三次元データを用いた動作の予測の検討 〜 リー群での相対位置に基づくSkeltonの特徴とMax-Margin Early Event Detectorsを用いた手法 〜

    立松直倫, 大谷 淳, Larry S. Davis

    電子情報通信学会研究技術報告  

    発表年月: 2015年03月

  • ピアノ練習の自動教師システムを目指したRGBD 動画像中の手指追跡の基礎的検討

    邱 東, 大谷 淳

    2015年 電子情報通信学会総合大会  

    発表年月: 2015年03月

  • 抽象絵画における鑑賞者の視線行動を利用した音楽生成システムの研究 −鑑賞者の発話内容の重複と発想の広がりとの関連に関する検討−

    小楠竜也, 大谷淳, 楜沢順, 米村俊一

    2015年 電子情報通信学会総合大会  

    発表年月: 2015年03月

  • Study of a Vision Based Method for Checking the Position of Each Finger of Guitar Players - Towards the Actualization of an Autonomous Guitar Chord Teaching System ?

    Zhao Wang, Jun Ohya

    2015年 電子情報通信学会総合大会  

    発表年月: 2015年03月

  • リー群での人物の関節の相対位置に基づくSkelton の特徴とMax-Margin Early Event Detectors を用いた動作の早期認識の検討

    立松直倫, 大谷 淳, Larry S.Davis

    2015年 電子情報通信学会総合大会  

    発表年月: 2015年03月

  • Fundamental Study of Early Recognition of Surgeon’s Action during Suture Surgery from Video Sequences

    Ye Li, Jun Ohya, Toshio Chiba, Rong Xu, Hiromasa Yamashita

    2015年 電子情報通信学会総合大会  

    発表年月: 2015年03月

  • Recognizing Hand Actions during Suture Surgeries by using sh-SIFT algorithm

    Ye Li, Jun Ohya, Toshio Chiba, Rong Xu, Hiromasa Yamashita

    第32回 日本ロボット学会 学術講演会  

    発表年月: 2014年09月

  • ベイジアンネットワークを用いた店舗内の顧客の購買行動認識法における画像特徴に関する検討

    セイ エン, 堀 隆之, 大谷 淳

    FIT2014(第13 回情報科学技術フォーラム)  

    発表年月: 2014年09月

  • 仮想化粧システムに関する基礎的検討 ― 顔形状の類似度に基づく化粧顔の検索法の検討―

    張 琳, 大谷 淳

    FIT2014(第13 回情報科学技術フォーラム)  

    発表年月: 2014年09月

  • 顔画像からの線画ベースの似顔絵自動生成システムにおける主観的識別に関する検討

    呉 玉珍, 榎本 誠, 大谷 淳

    FIT2014(第13 回情報科学技術フォーラム)  

    発表年月: 2014年09月

  • 抽象絵画における鑑賞者の視線行動を利用した音楽生成システムの研究 ―鑑賞者の発想を膨らませる音楽の自動生成システムに関する予備的検討―

    小楠竜也, 大谷 淳, 楜沢 順, 米村俊一

    FIT2014(第13 回情報科学技術フォーラム)  

    発表年月: 2014年09月

  • 店舗内の消費者の購買行動の動画像処理とベイジアンネットワークによる認識法の検討

    エン セイ, 堀 隆之, 大谷 淳

    電子情報通信学会技術報告  

    発表年月: 2014年09月

  • 顔画像からの似顔絵自動生成システムにおける似顔絵の類似度に関する検討

    呉 玉珍, 榎本 誠, 大谷 淳

    電子情報通信学会技術報告  

    発表年月: 2014年08月

  • 仮想化粧システムに関する基礎的検討

    張 琳, 大谷 淳

    2014年度 画像電子学会第42回年次大会  

    発表年月: 2014年06月

  • 顔画像からの線画ベースの似顔絵の自動生成システムにおける顔パーツ表現に関する検討

    榎本 誠, 呉 玉珍, 大谷 淳

    2014年度 画像電子学会第42回年次大会  

    発表年月: 2014年06月

  • Study of Detecting the Frets and Strings on the Neck of the Guitar from RGBD Images towards the Actualization of an Autonomous Guitar Teaching System

    Zhao WANG, Ye LI, Jing YAN, Jun OHYA

    2014年度 画像電子学会第42回年次大会  

    発表年月: 2014年06月

  • 論文の執筆過程に合わせた文献推薦システムの提案

    大川内 隆朗, 大谷 淳

    2014年度 画像電子学会第42回年次大会  

    発表年月: 2014年06月

  • 抽象絵画における鑑賞者の視線行動を利用した音楽生成システムの予備的検討 〜 提案システムが抽象絵画鑑賞者の発想の多寡に与える影響 〜

    小楠竜也, 大谷 淳, 楜沢 順, 米村俊一

    電子情報通信学会技術報告  

    発表年月: 2014年03月

  • ニューラルネットを利用する顔画像からの似顔絵自動生成における最適な特徴点の場所と数の検討

    方 国勇, 榎本 誠, 大谷 淳

    電子情報通信学会技術報告  

    発表年月: 2014年03月

  • 動的輪郭モデルとテクスチャ解析に基づく舌体検出と舌形分類法の検討

    田 明, 羅 丹, 大谷 淳

    電子情報通信学会技術報告  

    発表年月: 2014年03月

  • 移動RGB-Dカメラ画像中からの移動物体の特徴点のクラスタリングの検討 〜 Supervoxelとマルチラベルのグラフカットを用いた手法の提案 〜

    立松直倫, 大谷 淳, Larry S. Davis

    電子情報通信学会技術報告  

    発表年月: 2014年03月

  • 顔表情解析に基づく顧客の購買行動認識の基本的検討 〜 ASMによる表情特徴量の取得とベイジアンネットワークのモデルの構築手法 〜

    賈 ロイ, 大谷 淳, 堀 隆之

    電子情報通信学会技術報告  

    発表年月: 2014年03月

  • Study of Recognizing Hand Actions from Video Sequences during Suture Surgeries Based on Temporally-Sectioned SIFT and Sliding Window Based Neural Networks

    Ye Li, Jun Ohya, Toshio Chiba, Rong Xu, Hiromasa Yamashita

    電子情報通信学会技術報告  

    発表年月: 2014年03月

  • 複数画像特徴量を用いた読唇システム ― オプテイカルフロー特徴・形状特徴・離散コサイン変換特徴の統合の検討 −

    高橋昌平, 大谷 淳

    情報処理学会研究報告  

    発表年月: 2014年03月

  • Study of Recognizing Surgeon’s Action during Suture Surgery by Using Sectioned-SIFT

    Ye Li, Jun Ohya, Toshio Chiba, Rong Xu, Hiromasa Yamashita

    電子情報通信学会総合大会  

    発表年月: 2013年09月

  • ニューラルネットを利用する似顔絵自動生成に関する基礎的検討 - 顔特徴点と生成された似顔絵との物理的誤差に基づく最適な特徴点数の検討 ?

    方 国勇, 榎本 誠, 大谷 淳

    電子情報通信学会総合大会  

    発表年月: 2013年09月

  • 舌診における舌体検出と舌形分類法の検討

    田 明, 羅 丹, 大谷 淳

    電子情報通信学会総合大会  

    発表年月: 2013年09月

  • 抽象絵画の鑑賞者の視線行動に基づく音楽生成システムの予備的検討 ― 音楽の有無が抽象絵画鑑賞者の発想の多寡に与える影響 ―

    小楠竜也, 大谷 淳, 楜沢 順, 米村 俊一

    電子情報通信学会総合大会  

    発表年月: 2013年09月

  • オプティカルフロー特徴と形状特徴に離散コサイン変換特徴を組み合わせる動画像からの読唇法の検討

    高橋 昌平, 大谷 淳

    電子情報通信学会総合大会  

    発表年月: 2013年09月

  • ニューラルネットワークを用いた顔画像からの線画ベースの似顔絵自動生成システムの検討 ― 鼻の描画法の検討 ―

    呉 玉珍, 榎本 誠, 大谷 淳

    電子情報通信学会総合大会  

    発表年月: 2013年09月

  • 表情解析とベイジアンネットに基づく顧客の購買行動認識に関する検討

    賈 ?維, 大谷 淳, 堀 隆之

    電子情報通信学会総合大会  

    発表年月: 2013年09月

  • 画像処理とベイジアンネットワークを用いた店舗内における顧客の全身像からの購買行動認識に関する基礎的検討

    エンセイ, 堀 隆之, 大谷 淳

    電子情報通信学会総合大会  

    発表年月: 2013年09月

  • Supervoxel とマルチラベルのグラフカットを用いた移動物体の特徴点のクラスタリングの検討

    立松 直倫, 大谷 淳, Larry Davis

    電子情報通信学会総合大会  

    発表年月: 2013年09月

  • 抽象絵画における鑑賞者の視線行動を利用した自動作曲に関する研究:視線行動パターンから和声的な音楽の生成方法に関する基礎的検討

    小楠竜也, 大谷 淳, 楜沢 順

    FIT2013  

    発表年月: 2013年09月

  • 舌診における舌体検出と特徴抽出法の検討

    田 明, 羅 丹, 大谷 淳

    FIT2013  

    発表年月: 2013年09月

  • Fundamental Study of Recognizing the Surgeon's Action during Suture Surgery from the Video Sequence

    Ye Li, Jun Ohya, Toshio Chiba, Rong Xu, Hiromasa Yamashita

    FIT2013  

    発表年月: 2013年09月

  • Fundamental Study of Particle Filter based Motorbike Tracking for a Violator Detection System

    N. Khanh Do, Jun Ohya

    FIT2013  

    発表年月: 2013年09月

  • Visual-based Human Gesture Recognition Using Multi-modal Features

    羅 丹, Jun Ohya

    FIT2013  

    発表年月: 2013年09月

  • ニューラルネットを利用する似顔絵自動生成に関する基礎的検討:ASMにより検出される顔特徴と生成された似顔絵の品質との関係の検討

    方 国勇, 榎本 誠, 大谷 淳

    FIT2013  

    発表年月: 2013年09月

  • オプティカルフローの方向特徴履歴とサポートベクトルマシンを用いた読唇の基礎的検討

    高橋昌平, 大谷 淳

    FIT2013  

    発表年月: 2013年09月

  • Improving a Bayesian Network Based Recognition of Spontaneous Facial Expressions of a Person who Watches Web News − Utilizing Image Features for Blinks ?

    Chao Xu, Jun Ohya

    FIT2013  

    発表年月: 2013年09月

  • 移動Kinect画像中からの移動物体の抽出と三次元形状のセグメンテーションに関する検討 −Probabilistic Boundary Edge MapとSupervoxelを組み合わせた手法の提案−

    立松 直倫, 大谷 淳, Larry Davis

    FIT2013  

    発表年月: 2013年09月

  • 画像処理とベイジアンネットワークを用いた店舗内における顧客の全身像からの購買行動認識の基礎的検討

    Jing Yan, 堀 隆之, 大谷 淳

    FIT2013  

    発表年月: 2013年09月

  • Study of Structure from Motion Based 3D Reconstruction and Surface Mosaic of Internal Organs from an Endoscopic Video Sequence

    Mengyao Duan, Rong Xu, Jun Ohya

    FIT2013  

    発表年月: 2013年09月

  • Study of Recognizing Spontaneous Facial Expressions of a Person who Watches Web News Based on ASM and Bayesian Network

    Chao Xu, Jun Ohya

    電子情報通信学会技術報告  

    発表年月: 2013年09月

  • Study of Structure-from-motion Based 3D Reconstruction and Surface Mosaic

    Mengyao Duan, Rong Xu, Jun Ohya

    IEICE Technical Meeting  

    発表年月: 2013年09月

  • Study of Traffic Violator Detection System for Crowded Street −Fundamental Study of Improving Template Based Motorbike Tracking Method−

    Khanh N. Do, Jun Ohya

    2013年度画像電子学会第41回年次大会予稿集  

    発表年月: 2013年06月

  • 抽象絵画を観る人の視線行動を利用した自動作曲に関する研究 −抽象絵画鑑賞時の視線の予測モデルの基礎的検討−

    小楠竜也, 大谷 淳, 楜沢 順

    2013年度画像電子学会第41回年次大会予稿集  

    発表年月: 2013年06月

  • A Robust ICP Algorithm for Automatic Registration of 3D Fetal Facial Surface

    Rong Xu, Jun Ohya, Bo Zhang, Yoshinobu Sato, Masakatsu G. Fujie

    2013 年 電子情報通信学会総合大会  

    発表年月: 2013年03月

  • Temporal Modified-RANSAC とSupervoxel ベースのグラフカットを用いた移動 RBGD カメラからの移動物体領域のセグメンテーションの検討

    立松直倫, 大谷 淳, Larry S. Davis

    2013 年 電子情報通信学会総合大会  

    発表年月: 2013年03月

  • サポートベクターマシンを用いたRGBD 動画像からの寝返り判定に関する基礎的検討

    峰崎 雄大, 大谷 淳

    2013 年 電子情報通信学会総合大会  

    発表年月: 2013年03月

  • Robust Lip Contour Localization by Modified Active Shape Model

    Li Yan, Luo Dan, Jun Ohya

    2013 年 電子情報通信学会総合大会  

    発表年月: 2013年03月

  • 店舗内における消費者の行動認識のためのベイジアンネットワークモデル構築に関する研究

    鄭 曜, 大谷 淳

    2013 年 電子情報通信学会総合大会  

    発表年月: 2013年03月

  • Study of Recognizing Spontaneous Facial Behaviors Generated by Persons Watching Web News by Combining ASM and Bayesian Network

    Chao Xu, Jun Ohya

    2013 年 電子情報通信学会総合大会  

    発表年月: 2013年03月

  • Face Recognition Using Sparse Representation and Moments

    Ye Li, Huazhong Shu, Jun Ohya

    2013 年 電子情報通信学会総合大会  

    発表年月: 2013年03月

  • A Study on 3D Point Cloud Stitching for SFM Reconstruction

    Mengyao Duan, Rong Xu, Jun Ohya

    2013 年 電子情報通信学会総合大会  

    発表年月: 2013年03月

  • RGB 画像からの3次元復元結果とDepth 画像との比較による光源位置推定法に関する基礎的検討

    林田智樹, 高橋昌平, 奥屋武志, 大谷 淳, 川村春美

    2013 年 電子情報通信学会総合大会  

    発表年月: 2013年03月

  • ポリゴンモデルにおける法線ベクトルを用いた曲率の高速計算

    奥屋 武志, 藪野 健, 大谷 淳, 高橋 信之

    2013 年 電子情報通信学会総合大会  

    発表年月: 2013年03月

  • 映像合成のためのRGB画像からの3次元復元結果とDepth画像との比較による光源方向推定法に関する研究

    林田智樹, 高橋昌平, 奥屋武志, 大谷 淳

    電子情報通信学会技術報告  

    発表年月: 2013年03月

  • サポートベクターマシンを用いたDepth動画像からの寝返り判定に関する基礎的検討

    峰崎雄大, 大谷 淳

    電子情報通信学会技術報告  

    発表年月: 2013年03月

  • ベイジアンネットワークを用いた店舗内における消費者の行動認識に関する研究

    鄭 曜, 大谷 淳

    電子情報通信学会技術報告  

    発表年月: 2013年03月

  • 複数の視点固定型パン・チルト・ズームカメラを用いた不審者検出法に関する研究

    溝口慶範, 大谷 淳

    電子情報通信学会技術報告  

    発表年月: 2013年03月

  • Study of Robust Facial Feature Localization by Modified Active Shape Model

    Li Yan, Luo Dan, Jun Ohya

    IEICE Technical Meeting, Pattern Recognition and Machine Understanding  

    発表年月: 2013年03月

  • 映画予告編が映画鑑賞行動に及ぼす影響の物語論に基づく分析

    伊勢田 世山, 高橋 昌平, 奥屋 武志, 大谷 淳

    画像電子学会第264回研究会講演予稿  

    発表年月: 2013年03月

  • 高彩度および低彩度 gamut を用いた灰色仮説に基づく照明光色推定の一提案

    川村春美, 米村俊一, 大谷淳, 小島明

    情報処理学会, 研究報告オーディオビジュアル複合情報処理(AVM)  

    発表年月: 2013年02月

  • A Study of Automatic 3D Fetal Face Detection By Locating Facial Features From 3D Ultrasound Images for Navigating FETO Surgeries

    Rong Xu, Jun Ohya, Bo Zhang, Yoshinobu Sato, Masakatsu G. Fujie

    IEICE Technical Meeting, Biomedical Engineering and Medical Image Processing  

    発表年月: 2012年10月

  • 移動Kinect 画像中からの移動物体の抽出と三次元形状のセグメンテーションに関する検討

    立松直倫, 大谷淳, Larry Davis

    FIT2012(第11回情報科学技術フォーラム)  

    発表年月: 2012年09月

  • A Study of Extracting 3D Facial Feature from Kinect's Image by Integrating ASM and Depth Map

    Li Yan, Luo Dan, Jun Ohya

    FIT2012(第11回情報科学技術フォーラム)  

    発表年月: 2012年09月

  • Study of Extracting Multi-modal features for Recognizing Sign Language Vocabularies that Combine Facial Expressions and Hand Gestures

    Luo Dan, Jun Ohya

    FIT2012(第11回情報科学技術フォーラム)  

    発表年月: 2012年09月

  • ベイジアンネットワークを用いた店舗内における消費者の行動認識に関する研究

    鄭 曜, 大谷 淳

    FIT2012(第11回情報科学技術フォーラム)  

    発表年月: 2012年09月

  • e-learning における学習者の行動履歴を利用した講義改善支援システムの開発

    大川内隆朗, 大谷淳, 米村俊一, 徳永幸生

    FIT2012(第11回情報科学技術フォーラム)  

    発表年月: 2012年09月

  • A Registration Between 3D Ultrasound Images and 3D Fetal Model for Locating a Fetal Mouth in a Fetal Surgical Navigation System

    Rong Xu, Jun Ohya, Bo Zhang, Yoshinobu Sato, Masakatsu G. Fujie

    FIT2012(第11回情報科学技術フォーラム)  

    発表年月: 2012年09月

  • 防犯用カメラを用いた不審者検出法の基礎的検討

    溝口 慶範, 大谷 淳

    FIT2012(第11回情報科学技術フォーラム)  

    発表年月: 2012年09月

  • Fundamental Study of Reconstructing Botanical Tree's 3D Models from Kinect's Images and Dynamical Behaviors of Non-leafy Trees

    Khanh N. Do, Jun Ohya

    FIT2012(第11回情報科学技術フォーラム)  

    発表年月: 2012年09月

  • Incorporating Zoom Motion Estimation in Video Compression: A More General Approach for Motion Compensated Predictive Coding

    Morsalin Uz Zoha, Jun Ohya

    FIT2012(第11回情報科学技術フォーラム)  

    発表年月: 2012年09月

  • より効率的な日本式アニメ制作ソフトとその開発に関する研究

    奥屋武志, 大谷 淳, 高橋 信之, 藪野 健

    2012年度 画像電子学会第40回年次大会予稿集  

    発表年月: 2012年06月

  • RGB・距離画像からの照明光源方向の推定に関する検討

    徐 栄, 林田智樹, 大谷 淳, 川村春美

    2012年度 画像電子学会第40回年次大会予稿集  

    発表年月: 2012年06月

  • 低彩度および高彩度色領域を用いた灰色仮説に基づく照明光色推定法の一提案

    川村春美, 米村 俊一, 大谷 淳, 小島 明

    2012年度 画像電子学会第40回年次大会予稿集  

    発表年月: 2012年06月

  • e-learning における主観的難易度の補足方法に対する基礎的検討

    大川内隆朗, 大谷 淳, 米村俊一, 徳永幸生

    2012年 電子情報通信学会総合大会  

    発表年月: 2012年03月

  • A Study of Rapid Prototyping of Facial Makeup Styles

    Jieun Cho, Minje Park, Sang Il Park, Jun Ohya

    2012年 電子情報通信学会総合大会  

    発表年月: 2012年03月

  • A Study on 3D Fetal Model Construction with Oral Cavity and Airways

    Rong Xu, Jun Ohya, Bo Zhang, Yoshinobu Sato, Masakatsu G. Fujie

    2012年 電子情報通信学会総合大会  

    発表年月: 2012年03月

  • FETO手術の自動化のために胎児の口の検出法の基礎的検討

    謝 天亮, 徐 栄, 大谷 淳, 張 博, 佐藤 嘉伸, 藤江 正克

    2012年 電子情報通信学会総合大会  

    発表年月: 2012年03月

  • 抽象絵画における鑑賞者の視線行動解析と音楽作曲 への応用に関する提案

    小楠 竜也, 大谷 淳, 楜沢 順

    2012年 電子情報通信学会総合大会  

    発表年月: 2012年03月

  • Human Gesture Recognition Using Multimodal Features

    Luo Dan, Gao Hua, Hazim Kemal Ekenel, Ohya Jun

    2012年 電子情報通信学会総合大会  

    発表年月: 2012年03月

  • Real Length Measurement by Kinect

    Mengyao Duan, Yingdi Xie, Jun Ohya

    2012年 電子情報通信学会総合大会  

    発表年月: 2012年03月

  • Study of the Particle Filter Based Method for Tracking the Dynamical Behaviors of Botanical Tree Leaves in Video Sequence

    Khanh N. Do, Jun Ohya

    2012年 電子情報通信学会総合大会  

    発表年月: 2012年03月

  • ニューラルネットを用いた似顔絵自動生成に関する基礎的検討

    高野 晃, 大谷 淳, 榎本 誠

    2012年 電子情報通信学会総合大会  

    発表年月: 2012年03月

  • 分析的記憶表象領域における顔記憶の階層的構造 − デフォルメ似顔絵自動生成システムへの応用 −

    榎本 誠, 大谷 淳

    2012年 電子情報通信学会総合大会  

    発表年月: 2012年03月

  • WEB 上で動作する“●”プロンプタを用いたコミュニケーションシステム −物語をベースにした複数ユーザ間コミュニケ−ションの特性分析−

    小駒ちなみ, 米村俊一, 徳永幸生, 杉山 精, 大谷 淳

    情報処理学会第74回全国大会  

    発表年月: 2012年03月

  • Analyzing the "●" Communication System's Effect on Users' Self-Disclosures during Tele-Communication Session

    Li Jen Chen, Jun Ohya, Shunichi Yonemura, Yukio Tokunaga

    IEICE Technical Report  

    発表年月: 2012年03月

  • A Cone Based Electromagnetic 3D Ultrasound Calibration

    Rong Xu, Jun Ohya, Bo Zhang, Yoshinobu Sato, Masakatsu G. Fujie

    IEICE Technical Report  

    発表年月: 2012年03月

  • 胎児手術支援システムのための内視鏡画像処理による胎児の口の検出法の基礎的検討

    謝 天亮, 徐 栄, 大谷 淳, 張 博, 佐藤 嘉伸, 藤江 正克

    電子情報通信学会技術研究報告  

    発表年月: 2012年03月

  • Object Tracking Using Kinect and its Application in Tracking Dynamical Behaviors of Botanical Tree Leaves

    Khanh N. Do, Jun Ohya

    電子情報通信学会技術報告  

    発表年月: 2012年03月

  • 化粧サンプルを利用した多様な仮想メイクアップ生成法に関する考察

    智恩, 朴濟, 朴相日, 大谷 淳

    電子情報通信学会技術研究報告  

    発表年月: 2012年03月

  • 分析的記憶表象領域における顔記憶の階層的構造とデフォルメ似顔絵自動生成システムへの応用

    榎本 誠, 高野 晃, 大谷 淳

    電子情報通信学会技術報告  

    発表年月: 2012年03月

  • ニューラルネットを用いた似顔絵自動生成に関する基礎的検討 -ニューラルネットの構成法と物理心理的類似性の検討-

    高野 晃, 榎本 誠, 大谷 淳

    電子情報通信学会技術報告  

    発表年月: 2012年03月

  • 抽象絵画における鑑賞者の視線行動を利用した音楽 作曲の検討

    小楠 竜也, 大谷 淳, 楜沢 順

    情報処理学会研究報告  

    発表年月: 2012年02月

  • オンデマンド型e-learningにおける履修者の学習行動を利用した主観的難易度の把握方法の基礎的検討

    大川内隆朗, 大谷 淳, 米村俊一, 徳永幸生

    電子情報通信学会技術報告  

    発表年月: 2011年12月

  • Improving Iterative Randomized Hough Transform for Automatic Detection of Fetal Head from Ultrasound Images

    Rong Xu, Jun Ohya, Bo Zhang, Yoshinobu Sato, Masakatsu G. Fujie

    IEICE Technical Report  

    発表年月: 2011年11月

  • A Study of Automated Fetal Head Detection by Pre-processing Based on Ultrasound Image Gray Feature and Iterative Randomized Hough Transform

    Rong Xu, Jun Ohya, Bo Zhang, Yoshinobu Sato, Masakatsu G. Fujie

    FIT2011(第10回情報科学技術フォーラム)  

    発表年月: 2011年09月

  • 抽象絵画における鑑賞者の視線行動解析と自動音楽作曲への応用に関する基礎的検討

    小楠竜也, 大谷淳, 楜沢順

    FIT2011(第10回情報科学技術フォーラム)  

    発表年月: 2011年09月

  • 球面領域判定を用いた一枚の画像からの光源位置推定に関する検討

    立松 直倫, 徐 栄, 大谷 淳, 川村 春美, 米村 俊一

    FIT2011(第10回情報科学技術フォーラム)  

    発表年月: 2011年09月

  • 移動ステレオカメラ画像中からの移動物体抽出と三次元データのセグメンテーションの検討 −SIFT特徴点を元にした前景・背景のエネルギー関数を組み込んだ手法の提案−

    立松 直倫, 大谷 淳

    FIT2011(第10回情報科学技術フォーラム)  

    発表年月: 2011年09月

  • Studies of the Kalman Filter and Particle filter Method for Tracking the Moving Botanical Tree Leaves in Video Sequence

    Khanh N. Do, Jun Ohya

    FIT2011(第10回情報科学技術フォーラム)  

    発表年月: 2011年09月

  • 灰色仮説に基づく照明光色推定法の提案

    川村春美, 米村俊一, 大谷 淳, 松浦宣彦

    2011年度画像電子学会第39回年次大会  

    発表年月: 2011年06月

  • サイバーシアターにおける観客が実人間あるいはアバターである場合の観客効果の相違に関する検討

    張 勇, 大谷 淳, 米村 俊一, 徳永 幸生

    2011年 電子情報通信学会総合大会  

    発表年月: 2011年03月

  • A Study of Segmenting Ultrasound Image Based on Bilateral Filtering and Fuzzy Clustering

    Rong Xu, Jun Ohya, Bo Zhang, Yoshinobu Sato, Masakatsu G. Fujie

    2011年 電子情報通信学会総合大会  

    発表年月: 2011年03月

  • A Study on Edge Feature and its Descriptor

    Yingdi Xie, Jun Ohya

    2011年 電子情報通信学会総合大会  

    発表年月: 2011年03月

  • 視覚障害者の歩行支援のための動的動画像からのパーティクルフィルタを用いた白線追跡法の検討

    高橋昌平, 大谷 淳

    2011年 電子情報通信学会総合大会  

    発表年月: 2011年03月

  • 3次元実写画像の彩度を考慮した立体感強調法に関する検討

    古 鎮宇, 大谷 淳, 阿部 信明, 河合 隆史

    2011年 電子情報通信学会総合大会  

    発表年月: 2011年03月

  • 人物同士のコミュニケーションを触発する“●”メディアにおける自己開示レベルの検討

    Chen Li Jen, 大谷 淳, 米村俊一, 徳永幸生

    2011年 電子情報通信学会総合大会  

    発表年月: 2011年03月

  • テンソル分解に基づく任意の視点からの人物の動作認識手法の検討

    堀 隆之, 大谷 淳, 楜沢 順

    2011年 電子情報通信学会総合大会  

    発表年月: 2011年03月

  • Study of Estimating Face Direction and Forefinger Motion for Manipulating a Virtual Object in a Large Screen - Combining Detection of Face Direction and Particle Filter Based Hand and Finger Tracking -

    呉 明翰, 大谷淳

    2011年 電子情報通信学会総合大会  

    発表年月: 2011年03月

  • Temporal Modified-RANSAC とグラフカットを用いた移動ステレオカメラ画像中からの移動物体抽出と三次元データのセグメンテーションの検討

    立松 直倫, 大谷 淳

    2011年 電子情報通信学会総合大会  

    発表年月: 2011年03月

  • 顔の輪郭画像を用いた会話システムにおける社会的スキルと注視行動に関する考察

    花田 研, 米村俊一, 徳永幸生, 杉山 精, 大谷 淳

    情報処理学会第73回全国大会  

    発表年月: 2011年03月

  • VFT -- A Tree-Based Algorithm that is Robust to Partial-Occlusions and Rotation -

    John Delgaizo, Jun Ohya

    電子情報通信学会技術報告  

    発表年月: 2011年03月

  • 3次元実写画像の立体感強調法に関する検討 〜 彩度と明度を考慮した手法の組み合わせの比較検討 〜

    古 鎮宇, 大谷 淳, 阿部信明, 河合隆史

    電子情報通信学会技術報告  

    発表年月: 2011年03月

  • Study on Manipulating a Virtual Object in a Large Screen Close to the User by Visual Analysis of Small-Scale Movements of Forefinger, Hand and Face

    Ming-Han Wu, Jun Ohya

    電子情報通信学会技術報告  

    発表年月: 2011年03月

  • 移動ステレオカメラ画像中からの移動物体抽出と三次元データのセグメンテーションの検討 〜 Temporal Modified-RANSACと色・構造・事前確率を用いたグラフカットを組み合わせた手法の提案 〜

    立松直倫, 大谷 淳

    電子情報通信学会技術報告  

    発表年月: 2011年03月

  • サイバーシアターにおける観客効果に関する検討 〜 観客が実人間・アバターの場合の特性の違いに関する検討 〜

    張 勇, 大谷 淳, 米村俊一, 徳永幸生

    電子情報通信学会技術報告  

    発表年月: 2011年03月

  • パーティクルフィルタによる白線追跡のためのパラメータの検討 〜 視覚障害者の歩行支援のための人物装着型カメラにより獲得される動画像からの白線認識法の検討 〜

    高橋昌平, 大谷 淳

    電子情報通信学会技術報告  

    発表年月: 2011年02月

  • テンソル分解に基づく多視点映像を用いた人物の動作認識手法の検討

    堀 隆之, 大谷 淳, 楜沢 順

    電子情報通信学会技術報告  

    発表年月: 2011年02月

  • 修正ランザックによる楕円検出

    謝 英弟, 大谷 淳

    画像ラボ  

    発表年月: 2010年12月

  • 意見の対立する場面における会話特性−リアル画像と輪郭画像会話システムにおける注視行動の分析−

    花田 研, 米村俊一, 徳永幸生, 杉山 精, 大谷 淳

    2010年度ヒューマンコミュニケーショングループシンポジウム論文集  

    発表年月: 2010年12月

  • 移動ステレオカメラ画像中からの移動物体の抽出と三次元形状復元およびカメラの姿勢推定を行うTemporal Modified-RANSACに基づく手法の検討

    立松直倫, 大谷 淳

    電子情報通信学会技術報告  

    発表年月: 2010年12月

  • Interactive Guitar: Musical Software That Teaches Guitar Through an Interactive Game Interface and Audio DSP

    John Del Gaizo, Jun Ohya

    IPSJ, SIGMUS  

    発表年月: 2010年11月

  • サイバーシアターにおいて多数の観客アバターが存在する場合の演技者と観客との間の観客効果に関する基礎的検討

    張 勇, 大谷 淳, 米村俊一

    電子情報通信学会技術報告  

    発表年月: 2010年10月

  • Interactive Guitar: Musical Software That Teaches Guitar Through an Interactive Game Interface and Audio DSP

    John Del Gaizo, Jun Ohya

    IPSJ, SIGMUS  

    発表年月: 2010年10月

  • 移動物体を含む環境における移動ステレオカメラの姿勢推定と空間の3次元復元の検討

    立松 直倫, 謝 英弟, 大谷 淳

    FIT2010(第9 回情報科学技術フォーラム)  

    発表年月: 2010年09月

  • Study of Human Gesture Recognition by Integrating Face and Hand Motion Features

    Luo Dan, Haz?m Kemal Ekenel, Jun Ohya

    FIT2010(第9 回情報科学技術フォーラム)  

    発表年月: 2010年09月

  • テンソル分解に基づく多視点映像を用いた人物の動作認識の一検討

    堀 隆之, 大谷 淳, 楜沢 順

    FIT2010(第9 回情報科学技術フォーラム)  

    発表年月: 2010年09月

  • An Improved KFCM Algorithm in the Segmentation of Brain MRIs

    Rong Xu, Jun Ohya

    FIT2010(第9 回情報科学技術フォーラム)  

    発表年月: 2010年09月

  • A System that Allows Human Hand's Short Range Movements to Point a Virtual Object in a Large Screen by Tracking the Hand by Computer Vision Based Approach

    Ming-Han Wu, Jun Ohya

    FIT2010(第9 回情報科学技術フォーラム)  

    発表年月: 2010年09月

  • テクスチャマッピング制御による立体感強調の基礎的検討

    古鎮宇, 大谷淳, 河合隆史

    FIT2010(第9 回情報科学技術フォーラム)  

    発表年月: 2010年09月

  • Studies on the Influences of Economic Responsibility under EPR and Producer’s Adaptive Strategy

    Yiping Zhao, Jun Ohya

    FIT2010(第9 回情報科学技術フォーラム)  

    発表年月: 2010年09月

  • Interactive Music: Teaching People Guitar Through Gaming Software

    John Del Gaizo, Jun Ohya

    FIT2010(第9 回情報科学技術フォーラム)  

    発表年月: 2010年09月

  • A System for the OMR of Ancient Musical Manuscripts

    Carolina Ramirez, Jun Ohya

    FIT2010(第9 回情報科学技術フォーラム)  

    発表年月: 2010年09月

  • Texture Analysis for Food Recognition

    Do Ngoc Khanh, Jun Ohya, Pishva Davar

    電子情報通信学会技術報告  

    発表年月: 2010年06月

  • 1チャネルの線画映像コミュニケーションにおける対話ストラテジーと対話特性

    米村俊一, 花田 研, 徳永幸生, 大谷 淳

    ヒューマンインタフェース学会研究報告集SIG-CE-01  

    発表年月: 2010年05月

  • Perlin Noise Generated Terrain Raycasting on the GPU

    Sven Forstmann, Jun Ohya

    電子情報通信学会総合大会  

    発表年月: 2010年03月

  • C.O.T.O. — A Multimedia Choreography System Inspired by Butoh-fu —

    Jennifer Pierce, Jun Ohya, John Del Gaizo, Ming-Han Wu

    電子情報通信学会総合大会  

    発表年月: 2010年03月

  • A Study of Classifying Car Types Using Front and Side Views

    Sebastien Briois, Jun Ohya

    電子情報通信学会総合大会  

    発表年月: 2010年03月

  • テンソル分解法に基づくHOG 特徴量を用いた人物の動作認識手法の検討

    堀 隆之, 大谷 淳, 楜沢 順

    電子情報通信学会総合大会  

    発表年月: 2010年03月

  • 動物体を含むパン・ティルト映像からのカメラ回転角の推定の検討

    栃折泰史, 江畑 勝, 大谷 淳

    電子情報通信学会総合大会  

    発表年月: 2010年03月

  • 色分け衣服を用いた動画像からの人物姿勢推定法の検討 — パーティクルフィルタにおける"溢れ現象"を利用した人体パーツ追跡法の提案 —

    清水雄太, 大谷淳, 岡崎潤

    電子情報通信学会総合大会  

    発表年月: 2010年03月

  • 移動カメラ画像からの手振り動きの検出と認識モデルの構築

    羅 丹, 大谷 淳

    電子情報通信学会総合大会  

    発表年月: 2010年03月

  • "●"プロンプタを用いるコミュニケーションシステムにおけるメッセージ表現の分析

    飯田真也, 米村俊一, 徳永幸生, 杉山 精, 大谷 淳

    情報処理学会第72回全国大会  

    発表年月: 2010年03月

  • 輪郭映像を用いた会話システムにおける顔注視行動の分析

    花田 研, 米村俊一, 徳永幸生, 杉山 精, 大谷 淳

    情報処理学会第72回全国大会  

    発表年月: 2010年03月

  • Policy Design and Producer’s Strategy under Extended Producer Responsibility: Economic Responsibility

    Yiping Zhao, Jun Ohya

    IPSJ SIG Technical Report  

    発表年月: 2010年03月

  • 創造的思考を用いたコミュニケーション方法 − “●”プロンプタ・システムでの実用について −

    Chen Li Jen, 米村俊一, 大谷 淳, 徳永幸生

    電子情報通信学会技術研究報告  

    発表年月: 2010年03月

  • Study of Recognizing Multiple Persons' Complicated Hand Gestures from an Active Image Sequence 〜 Increasing the Number of Persons and Hand Gesture Categories 〜

    Luo Dan, Jun Ohya

    IEICE Technical Report  

    発表年月: 2010年03月

  • Study of Extracting Multiple Independently Moving Objects and Estimating the Egomotion from Active Stereo Sequences

    Yingdi Xie, Jun Ohya

    IEICE Technical Report  

    発表年月: 2010年03月

  • Study of a Car Type classifying Method using an automated Frame segmentation Algorithm -- Study of a specific Representation for Convertibles using local Maxima curvature Function Features ?

    Sebastien Briois, Jun Ohya

    IEICE Technical Report  

    発表年月: 2010年03月

  • パン・ティルト・カメラにより獲得される動画像からのカメラの回転パラメータの推定法に関する検討

    栃折泰史, 大谷 淳, 江畑 勝

    電子情報通信学会技術報告  

    発表年月: 2010年03月

  • 色分け衣服を用いた動画像からの人物姿勢推定のための人体パーツ追跡法の検討 〜 パーティクルフィルタによるオクルージョン判定法の検討 〜

    清水雄太, 大谷 淳, 岡崎 潤

    電子情報通信学会技術報告  

    発表年月: 2010年03月

  • “●”プロンプタを用いるコミュニケーションシステムにおける会話の分析 —GTAによる“●”利用プロセスの分析—

    飯田真也, 米村俊一, 徳永幸生, 杉山精, 大谷淳

    2009年度ヒューマンコミュニケーショングループシンポジウム論文集  

    発表年月: 2009年12月

  • 輪郭映像システムを用いた説得場面における顔構成要素の役割に関する考察

    花田研, 米村俊一, 徳永幸生, 杉山精, 大谷淳

    2009年度ヒューマンコミュニケーショングループシンポジウム論文集  

    発表年月: 2009年12月

  • カオス(現象)を用いた音楽からリアルタイムに映像を創るアート

    楜沢 順, 下西風澄, 栃折泰史, 立松直倫, 大谷 淳

    第14 回日本バーチャルリアリティ学会大会論文集  

    発表年月: 2009年09月

  • Choreography of the Butoh Object

    Jennifer Pierce, Jun Ohya

    第 14 回日本バーチャルリアリティ学会大会論文集  

    発表年月: 2009年09月

  • Ecological-value Based End-of-life Product Collecting Network Re-design and Optimization

    Yiping Zhao, Jun Ohya

    FIT2009(第8回情報科学技術フォーラム)  

    発表年月: 2009年09月

  • 複数カメラを用いたMotion Signatureに基づく人物のトラッキングの検討

    堀 隆之, 大谷 淳, 楜沢 順

    FIT2009(第8回情報科学技術フォーラム)  

    発表年月: 2009年09月

  • Proposed Method for OMR of Square Notation Manuscripts

    Carolina Ramirez, Jun Ohya

    FIT2009(第8回情報科学技術フォーラム)  

    発表年月: 2009年09月

  • Comparison of several Shape Descriptors in order to perform Car Recognition from a moving Camera

    Sebastien Briois, Xie Yingdi, Jun Ohya

    FIT2009(第8回情報科学技術フォーラム)  

    発表年月: 2009年09月

  • 修正RANSACに基づく楕円検出手法の性能評価に関する検討

    張 勇, 謝 英弟, 大谷 淳

    FIT2009(第8回情報科学技術フォーラム)  

    発表年月: 2009年09月

  • 色分け衣服を用いた人物の姿勢推定法における人体パーツ追跡法の基礎的検討

    清水雄太, 大谷 淳

    FIT2009(第8回情報科学技術フォーラム)  

    発表年月: 2009年09月

  • Automatic shape classification through descriptor matching

    謝 英弟, 大谷 淳

    FIT2009(第8回情報科学技術フォーラム)  

    発表年月: 2009年09月

  • 回転運動するカメラにより撮影された動画象からのカメラ回転角の導出法の検討

    栃折泰史, 江畑 勝, 大谷 淳

    FIT2009(第8回情報科学技術フォーラム)  

    発表年月: 2009年09月

  • 移動カメラ動画像からの手振り動作認識法の多人数動作への拡張法の検討

    羅 丹, 大谷 淳

    FIT2009(第8回情報科学技術フォーラム)  

    発表年月: 2009年09月

  • ニンフェアール第5回公演 〜息の領域〜

    カミラ・ホイテンガ, 森川栄子, 伊藤美由紀, 大村久美子, 松本祐一, 楜沢 順, 伊庭 崇, 成見 哲, 栃折泰史, 立松直倫, 大谷 淳,他

    サントリー音楽財団推薦コンサート  

    発表年月: 2009年06月

  • 画像処理を用いたサフランめしべ自動採集法の検討

    高野 晃, 小方 博之, 村松 大吾, 大谷 淳

    ロボティクス・メカトロニクス講演会2009 (ROBOMEC 2009)予稿集[No.09-4]  

    発表年月: 2009年05月

  • 顔構成要素の輪郭映像が遠隔対話に与える影響に関する考察

    花田研, 米村俊一, 徳永幸生, 杉山精, 大谷淳

    ヒューマンインタフェース学会研究報告集  

    発表年月: 2009年05月

  • サイバーシアターにおける観客効果に関する基礎的検討

    劉 強, 大谷 淳

    2009年電子情報通信学会総合大会  

    発表年月: 2009年03月

  • テンソル分解法に基づく画像処理による個人認証における画像特徴量の比較検討

    堀 隆之, 大谷 淳, 楜沢 順

    2009年電子情報通信学会総合大会  

    発表年月: 2009年03月

  • テーブルゲーム時の競技者の顔画像からの視線検出法の検討

    唐 華斌, 大谷 淳

    2009年電子情報通信学会総合大会  

    発表年月: 2009年03月

  • A Local Method for Ellipse Detection

    Yingdi Xie, Jun Ohya

    2009年電子情報通信学会総合大会  

    発表年月: 2009年03月

  • Creative Thinking Support Communication System with Random Prompter “●” that Allows Hand-drawing

    Li Jen Chen, Shunichi Yonemura, Jun Ohya, Yukio Tokunaga

    2009年電子情報通信学会総合大会  

    発表年月: 2009年03月

  • Local Adapaptive Thresholding Study for Early Musical Mananuscripts OMR

    Carolina Ramirez, Jun Ohya

    2009年電子情報通信学会総合大会  

    発表年月: 2009年03月

  • コミュニケーションにおける会話特性に着目した顔構成要素の役割

    花田 研, 徳永幸生, 杉山精, 米村俊一, 大谷 淳

    情報処理学会第71回全国大会  

    発表年月: 2009年03月

  • “●”プロンプタを用いるコミュニケーションシステムにおける表現特性の分析

    飯田真也, 徳永幸生, 杉山精, 米村俊一, 大谷 淳

    情報処理学会第71回全国大会  

    発表年月: 2009年03月

  • 自動会話システムにおけるフォントによる感情表現の効果

    野原雄紀, 徳永幸生, 杉山精, 米村俊一, 大谷 淳

    情報処理学会第71回全国大会  

    発表年月: 2009年03月

  • Stakeholder System and Analysis of Extended Producer Responsibility Based on Game Theory

    Yiping Zhao, Jun Ohya

    情報処理学会研究報告  

    発表年月: 2009年03月

  • サイバーシアターにおける観客の表現法に関する検討

    劉 強, 大谷 淳

    電子情報通信学会技術報告  

    発表年月: 2009年03月

  • 2方向顔画像からのテーブルゲーム競技者の視線検出法に関する検討

    唐 華斌, 大谷 淳

    電子情報通信学会技術報告  

    発表年月: 2009年03月

  • Ellipse Recognition and its Application toward Medical Imaging via Edge Orientation Feature with A Modified RANSAC

    謝 英弟, 大谷 淳

    電子情報通信学会技術報告  

    発表年月: 2009年03月

  • Staff Removal for Square Musical Notation Manuscripts OCR: An Experiment on the Binarization and Staff Detection Stage

    Carolina Ramirez, Jun Ohya

    電子情報通信学会技術報告  

    発表年月: 2009年01月

  • テンソル分解に基づく人物の歩行動作を用いた個人認証

    堀 隆之, 大谷 淳, 楜沢 順

    電子情報通信学会技術報告  

    発表年月: 2008年12月

  • 画像処理による未知人物の行動認識の研究

    堀隆之, 大谷淳

    国際情報通信研究科 公開研究会  

    発表年月: 2008年10月

  • 視覚情報処理の発展と仮想コミュニケーション環境の未来

    大谷 淳

    第38回高柳記念未来技術フォーラム  

    発表年月: 2008年09月

  • The Prototype System of Prompter Communication with Handwriting and Drawing Functions

    Li Jen Chen, Sven Forstmann, Jun Ohya, Shunichi Yonemura, Yukio Tokunaga

    FIT2008(第7回情報科学技術フォーラム)  

    発表年月: 2008年09月

  • Application of Synergetic Theory in Municipal Renewable Resource -- Net Values Model of End-of-life Products

    Yiping Zhao, Yingdi Xie, Jun Ohya

    FIT2008(第7回情報科学技術フォーラム)  

    発表年月: 2008年09月

  • 顔画像からの顔方向推定のための鼻検出法の比較検討

    唐 華斌, 大谷 淳

    FIT2008(第7回情報科学技術フォーラム)  

    発表年月: 2008年09月

  • Study of Detecting Primitive Shapes by Local Optimization Method

    Yingdi Xie, Jun Ohya

    FIT2008(第7回情報科学技術フォーラム)  

    発表年月: 2008年09月

  • 複数カメラ画像からの色分け衣服装着人物の3 次元姿勢推定についての検討

    岡崎 潤, 大谷 淳

    FIT2008(第7回情報科学技術フォーラム)  

    発表年月: 2008年09月

  • Study of Optimizing the Parameters in the Weighted Histogram Equalization for Stereoscopic Enhancement

    Xiao Ding, Jun Ohya, Takashi Kawai, Nobuaki Abe

    FIT2008(第7回情報科学技術フォーラム)  

    発表年月: 2008年09月

  • シルエット特徴量のテンソル分解に基づく動画像から人物の動作認識手法の検討

    堀 隆之, 楜沢 順, 大谷 淳

    FIT2008(第7回情報科学技術フォーラム)  

    発表年月: 2008年09月

  • 複数カメラ画像からの色分け衣服装着人物のオクルージョンが発生する姿勢を含む姿勢推定法の検討

    岡崎潤, 大谷淳

    電子情報通信学会技術報告  

    発表年月: 2008年09月

  • Study of Stereoscopic Constrast Enhancement Based on Local Contrast and Distance Information

    Xiao Ding, Jun Ohya, Takashi Kawai, Nobuaki Abe

    電子情報通信学会技術報告  

    発表年月: 2008年07月

  • 互いに類似した動作のテンソル分解に基づく動画像からの認識法の検討

    堀 隆之, 大谷 淳, 楜沢 順

    電子情報通信学会技術報告  

    発表年月: 2008年07月

  • e-learning における講義ビデオのスキミング手法に関する提案と実装

    大川内隆朗, 大谷淳

    2008年電子情報通信学会総合大会  

    発表年月: 2008年03月

  • スポーツ映像において高速に移動するボールを検出する方法の基礎的検討

    劉 強, 謝 英弟, 大谷 淳

    2008年電子情報通信学会総合大会  

    発表年月: 2008年03月

  • Study of 3D Contrast Enhancement Based on Weighted Histogram Equalization

    Xiao Ding Jun Ohya, Takashi Kawai, Nobuaki Abe

    2008年電子情報通信学会総合大会  

    発表年月: 2008年03月

  • 移動カメラ画像からの3次元物体形状復元におけるカメラの移動方向評価尺度に関する検討

    成澤 祐, 大谷 淳, 小方博之

    2008年電子情報通信学会総合大会  

    発表年月: 2008年03月

  • Detecting Ellipses from Image by Randomized Hough Transform with Edge Orientation Difference Curve Based Clustering

    Yingdi Xie Jun Ohya

    2008年電子情報通信学会総合大会  

    発表年月: 2008年03月

  • Visualizing Large Compressed Volume Data Using a CUDA Compatible GPU

    Sven Forstmann Jun Ohya

    2008年電子情報通信学会総合大会  

    発表年月: 2008年03月

  • 移動カメラ画像からの人物追従局所座標による手振り軌跡の検出法

    羅丹, 大谷淳

    2008年電子情報通信学会総合大会  

    発表年月: 2008年03月

  • 色分け衣服装着人物の実写画像に対するMean-Shift アルゴリズムによる色領域分割の検討

    岡崎潤, 大谷淳, Huimin Guo

    2008年電子情報通信学会総合大会  

    発表年月: 2008年03月

  • 実写動画像からの人物の動作認識のために有効な特徴量の検討

    王偉卿 大谷淳

    2008年電子情報通信学会総合大会  

    発表年月: 2008年03月

  • 近赤外線画像を用いた人物の鼻の位置からの視線推定法の基礎的検討

    唐 華斌, 大谷 淳, 大川内隆朗

    2008年電子情報通信学会総合大会  

    発表年月: 2008年03月

  • 顔の特徴を分類化および言語表現可能とした似顔絵システム −デフォルメ似顔絵自動生成システム:ACGS ?

    榎本 誠, 大谷 淳, 楜沢 順

    2008年電子情報通信学会総合大会  

    発表年月: 2008年03月

  • A Fundamental Study of “Bi-Conversation” Using “●” Communication Method

    Li Jen Chen, Shunichi Yonemura, Jun Ohya, Yukio Tokunaga

    2008年電子情報通信学会総合大会  

    発表年月: 2008年03月

  • 自動会話システムにおけるキャラクタの可変表示効果

    野原雄紀, 徳永幸生, 杉山精, 米村俊一, 大谷淳

    情報処理学会第70回全国大会  

    発表年月: 2008年03月

  • ”●“プロンプタを用いたコミュニケーションシステムの会話特性

    飯田真也, 徳永幸生, 杉山精, 米村俊一, 大谷淳

    情報処理学会第70全国大会  

    発表年月: 2008年03月

  • 顔の輪郭画像を用いた会話システムにおける視覚特性

    吉田亨, 米村俊一, 徳永幸生, 杉山精, 大谷淳

    情報処理学会第70全国大会  

    発表年月: 2008年03月

  • A Method for Creative Communication Usin Black-Circled Prompters "●" - Analysis of a Method that Allows Users' Freehand Writing -

    Li Jen Chen, Jun Ohya, Shunichi Yonemura, Yukio Tokunaga

    電子情報通信学会技術報告  

    発表年月: 2008年03月

  • Multiple Shapes Extraction with Guidance to Random Sampling

    Yingdi Xie, Jun Ohya

    IEICE Technical Report  

    発表年月: 2008年03月

  • Visualizing run-length-encoded volume data on modern GPUs

    Sven Forstmann, Jun Ohya

    IEICE Technical Report  

    発表年月: 2008年03月

  • モンテカルロ法とベイズ推定に基づく動的カメラからの三次元形状復元を利用したカメラの移動方向評価尺度に関する検討

    成澤 祐, 大谷 淳, 小方博之

    電子情報通信学会技術研究報告  

    発表年月: 2008年03月

  • Image Contrast Enhancement Based on Distance Information

    Xiao Ding, Jun Ohya, Takashi Kawai, Nobuaki Abe

    電子情報通信学会技術報告  

    発表年月: 2008年03月

  • Comparative Study of Methods for Recognizing Human Actions from a Real Video Sequence

    Weiqing WANG, Jun OHYA

    電子情報通信学会技術報告  

    発表年月: 2008年03月

  • 移動カメラ動画像からのCondensation Algorithmを用いた手振り認識の検討

    羅丹,大谷淳

    電子情報通信学会技術報告  

    発表年月: 2008年03月

  • 顔の特徴を分類化および言語表現可能とした似顔絵システム - A Caricatured Portrait Generate System Which Can Categorize and Describe Facial Feature -

    榎本誠 大谷淳

    日本顔学会誌  

    発表年月: 2007年09月

  • 自動会話システムにおける背景画像による話題支援

    野原雄紀, 徳永幸生, 杉山精, 米村俊一, 大谷淳

    FIT2007(第6回情報科学技術フォーラム)  

    発表年月: 2007年09月

  • 動的カメラ画像からの動物体追跡のためのロボットプラットフォームの検討

    羅丹, 謝英第, 大谷淳

    FIT2007(第6回情報科学技術フォーラム)  

    発表年月: 2007年09月

  • 画像処理を用いた店舗内の顧客の商品選定時における態度の認識手法の一考察

    堀 隆之, 楜沢 順, 大谷 淳

    FIT2007(第6回情報科学技術フォーラム)  

    発表年月: 2007年09月

  • Study of Foreground-Background Contrast Enhancement in Color Image

    Xiao DING, Jun OHYA

    FIT2007(第6回情報科学技術フォーラム)  

    発表年月: 2007年09月

  • カメラの上下動を考慮するモンテカルロ法とベイズ推定に基づく物体の三次元形状復元法の検討

    成澤 祐, 小方博之, 大谷 淳

    FIT2007(第6回情報科学技術フォーラム)  

    発表年月: 2007年09月

  • 顔認識における二重符号化理論とデフォルメ似顔絵との関連性について −コンピュータによる似顔絵生成への応用−

    榎本 誠, 大谷 淳, 楜沢 順

    FIT2007(第6回情報科学技術フォーラム)  

    発表年月: 2007年09月

  • Low Level Feature Detection based on Modified Ransac

    Yingdi Xie, Jun Ohya

    FIT2007(第6回情報科学技術フォーラム)  

    発表年月: 2007年09月

  • VISUALIZATION OF LARGE RLE-ENCODED VOXEL VOLUMES

    Sven Forstmann, Jun Ohya

    FIT2007(第6回情報科学技術フォーラム)  

    発表年月: 2007年09月

  • Tensor Decomposition Framework for Recognizing an Unknown Person’s Action from A Video Sequence Using Image Features

    Acep Irawan, Yingdi Xie, Jun Ohya

    FIT2007(第6回情報科学技術フォーラム)  

    発表年月: 2007年09月

  • Validation of the Snake Pedal Model applied to Face Segmentation in Monochromatic Images

    Carolina Ramirez, Claudio Perez, Jun Ohya

    FIT2007(第6回情報科学技術フォーラム)  

    発表年月: 2007年09月

  • A Modified RANSAC Based Method for Extracting Primitive Shapes from Image

    Yingdi Xie, Jun Ohya

    IEICE Technical Report  

    発表年月: 2007年09月

  • Study of Different Image Features Used for Recognizing Unknown Person's Activity Based on Tensor Decomposition Analysis

    Acep Irawan, Yingdi Xie, Jun Ohya

    IEICE Technical Report  

    発表年月: 2007年09月

  • Comparative Study of Segmentation in Monochrome Facial Images: Snake Pedals and Template Matching

    Carolina Ramirez, Claudio Perez, Jun Ohya

    IEICE Technical Report  

    発表年月: 2007年09月

  • 線画映像による遠隔サポートシステム

    米村俊一, 吉田亨, 徳永幸生, 大谷淳

    日本人間工学会第48回大会  

    発表年月: 2007年06月

  • 線画によるデフォルメ映像を用いた遠隔サポートの会話特性

    米村俊一, 吉田亨, 徳永幸生, 大谷淳

    電子情報通信学会技術報告  

    発表年月: 2007年05月

  • Implementation of a Video Sequence Based System for Recognizing an Unknown Person’s Gesture by a Tensor Decomposition Based Approach

    Acep Irawan, Xie Yingdi, Jun Ohya

    2007年電子情報通信学会総合大会  

    発表年月: 2007年03月

  • 分析的記憶表象領域における顔記憶の階層的構造とそのコンピュータシミュレーション - デフォルメ似顔絵自動生成システムへの応用 -

    榎本 誠, 大谷 淳, 楜沢 順

    2007年電子情報通信学会総合大会  

    発表年月: 2007年03月

  • 観察法に基づく画像処理を用いた顧客の行動認識手法の一考察

    堀 隆之, 楜沢 順, 大谷 淳

    2007年電子情報通信学会総合大会  

    発表年月: 2007年03月

  • Study of Contrast Enhancement Based on Shadow Detection

    Xiao Ding, Jun Ohya

    2007年電子情報通信学会総合大会  

    発表年月: 2007年03月

  • Stability Improvement for Motion Segmentation Based on Active Stereo Cameras

    Yingdi Xie, Jun Ohya

    2007年電子情報通信学会総合大会  

    発表年月: 2007年03月

  • Marker-based PC Detection Using Sample Matching

    Qi Zhang, Jun Ohya, Shunichi Yonemura

    2007年電子情報通信学会総合大会  

    発表年月: 2007年03月

  • A Study of Communication Prompted by “●” Communication System - Approach on how prompter effects and inspires ideas and thoughts -

    Li Jen Chen, Nobuyuki Harada, Jun Ohya, Shunichi Yonemura, Yukio Tokunaga

    2007年電子情報通信学会総合大会  

    発表年月: 2007年03月

  • Procedural Spline-Skeletons for Organic Structures and Adaptive Architecture

    Sven Forstmann, Jun Ohya

    2007年電子情報通信学会総合大会  

    発表年月: 2007年03月

  • A Real-time 3D Human Body Tracking and Modeling System

    Huimin Guo, Jun Ohya, Ping Guo

    2007年電子情報通信学会総合大会  

    発表年月: 2007年03月

  • “●”プロンプタを用いるコミュニケーションシステム

    原田宣之, 徳永幸生, 米村俊一, 大谷 淳

    情報処理学会第69回全国大会  

    発表年月: 2007年03月

  • 自動会話システムにおける会話破綻の分析

    野原雄紀, 徳永幸生, 米村俊一, 大谷 淳

    情報処理学会第69回全国大会  

    発表年月: 2007年03月

  • 顔の輪郭映像を用いた会話システムにおける会話特性

    吉田 亨, 徳永幸生, 米村俊一, 大谷 淳

    情報処理学会第69回全国大会  

    発表年月: 2007年03月

  • 陰影領域と非陰影領域に基づく画像コントラスト強調

    丁 皛, 大谷 淳

    SCCC学会研究会報告  

    発表年月: 2007年03月

  • Skeletal Animation by Spline aligned Deformation on the GPU

    Sven Forstmann, Jun Ohya

    電子情報通信学会技術報告, 画像工学研究会  

    発表年月: 2007年03月

  • Study of Image Contrast Enhancement Based on Shadow and Non-shadow Area

    Xiao Ding, Jun Ohya

    電子情報通信学会技術報告, 画像工学研究会  

    発表年月: 2007年03月

  • A Study of Computer Mediated Communication via the “●” Prompter System - Analysis of the affects on the simulation of thought processes and the inspiration of creative ideas

    Li Jen Chen, Nobuyuki Harada, Shunichi Yonemura, Jun Ohya, Yukio Tokunaga

    電子情報通信学会技術報告, ヒューマンコミュニケーション基礎研究会  

    発表年月: 2007年03月

  • Comparative Study of Marker based Detection and Tracking of PC in the Video Sequence Acquired by the Mobile Camera for Visual Call Center Applications

    Qi Zhang, Jun Ohya, Shunichi Yonemura

    電子情報通信学会技術報告(IE)  

    発表年月: 2007年03月

  • Adaptive Optimization to Modified Ransac Based Motion Segmentation

    Yingdi Xie, Jun Ohya

    電子情報通信学会技術報告(IE)  

    発表年月: 2007年03月

  • A modified RANSAC mechanism and its application

    Yingdi Xie, Jun Ohya

    国際情報通信研究科公開研究発表会予稿集  

    発表年月: 2006年10月

  • 顔の特徴を分類化および言語表現可能とした似顔絵システム

    榎本 誠, 大谷 淳

    第11回日本顔学会大会:フォーラム顔学2006、日本顔学会誌  

    発表年月: 2006年10月

  • Independent motion areas extraction from a modified RANSAC mechanism

    Yingdi Xie, Jun Ohya

    電子情報通信学会技術報告(PRMU)  

    発表年月: 2006年10月

  • Optimization of 3D Egomotion Computation in Image Sequence

    Yingdi Xie, Jun Ohya

    FIT2006(第5回情報科学技術フォーラム)  

    発表年月: 2006年09月

  • 分析的記憶表象領域における顔記憶の階層的構造とそのコンピュータシミュレーション - デフォルメ似顔絵自動生成システムへの応用 -

    榎本 誠, 大谷 淳, 楜沢 順

    FIT2006(第5回情報科学技術フォーラム)  

    発表年月: 2006年09月

  • Study of Color Contrast Enhancement Based on Wavelet

    Ding Xiao, Jun Ohya

    FIT2006(第5回情報科学技術フォーラム)  

    発表年月: 2006年09月

  • 多関節弾性物体モデルのための計算コストと使用メモリ削減法の検討

    渡辺隆史, 大谷 淳, 楜沢 順, 徳永幸生

    FIT2006(第5回情報科学技術フォーラム)  

    発表年月: 2006年09月

  • Object Detection by Using Marker Assistance

    Qi Zhang, Jun Ohya, Shunichi Yonemura

    FIT2006(第5回情報科学技術フォーラム)  

    発表年月: 2006年09月

  • Analysis of Communication Prompted by Black “●”Communication System - Effects of Emotional Emphasis in Comparison with E-mails and Messengers -

    Li Jen Chen, Nobuyuki Harada, Jun Ohya, Yukio Tokunaga, Shunichi Yonemura

    FIT2006(第5回情報科学技術フォーラム)  

    発表年月: 2006年09月

  • Study of Real-time Marker-based PC Detection for Visual Call Center Applications

    Zhang Qi, Ohya Jun, Yonemura Shunichi

    電子情報通信学会技術報告(PRMU)  

    発表年月: 2006年09月

  • Independent motion areas extraction from a modified RANSAC mechanism

    謝 英弟, 大谷 淳

    電子情報通信学会技術報告(PRMU)  

    発表年月: 2006年09月

  • Study of Color Image Enhancement Based on Wavelet Analysis

    Ding Xiao, Jun Ohya

    電子情報通信学会技術報告(PRMU)  

    発表年月: 2006年09月

  • A Modified RANSAC mechanism: Multiple models extraction algorithm

    Yingdi Xie, Jun Ohya

    情報処理学会研究報告,Computer Vision and Image Media  

    発表年月: 2006年09月

  • 輪郭映像を用いたコミュニケーションの視覚特性

    吉田 亨, 徳永幸生, 米村俊一, 大谷 淳

    ヒューマンインタフェースシンポジウム2006  

    発表年月: 2006年09月

  • デフォルメ映像を用いた遠隔サポートのコミュニケーション

    米村俊一, 吉田 亨, 徳永幸生, 大谷 淳

    電子情報通信学会技術報告(HCS)  

    発表年月: 2006年08月

  • デフォルメ映像通信を用いた初心者ユーザの遠隔サポート

    米村俊一, 吉田 亨, 徳永幸生, 大谷 淳

    電子情報通信学会技術報告(HCS)  

    発表年月: 2006年05月

  • 顔の輪郭画像を用いた映像通信システムにおける会話特性

    吉田亨, 徳永幸生, 米村俊一, 大谷淳

    情報処理学会第68回全国大会  

    発表年月: 2006年03月

  • 自動会話システムにおける話題切り替えの効果

    河野恭佑, 徳永幸生, 米村俊一, 大谷淳

    情報処理学会第68回全国大会  

    発表年月: 2006年03月

  • センサーネットワークを用いる消火活動支援システムのための、画像処理による煙の挙動認識法の検討

    野飼雅弘, 大谷

    2006 年電子情報通信学会総合大会  

    発表年月: 2006年03月

  • 店舗内での顧客の行動を認識するための色情報を用いた物体の存在確認手法の基礎的検討

    堀 隆之, 大谷 淳, 楜沢 順

    2006 年電子情報通信学会総合大会  

    発表年月: 2006年03月

  • 弾性物体のように振舞うキャラクターモデルの構築法

    渡辺 隆史, 大谷 淳, 楜沢 順, 徳永 幸生

    2006 年電子情報通信学会総合大会  

    発表年月: 2006年03月

  • 移動カメラを用いるベイズ更新に基づく逐次的3次元形状復元法の検討 - 特徴点の追跡が不要な方法の提案と基礎的検討 -

    成沢 祐, 小方博之, 大谷 淳

    2006 年電子情報通信学会総合大会  

    発表年月: 2006年03月

  • 顔の特徴を分類化および言語表現可能とした似顔絵システムの提案

    榎本 誠, 大谷 淳, 楜沢 順

    2006 年電子情報通信学会総合大会  

    発表年月: 2006年03月

  • Study of Motion Segmentation from Dynamic Stereo Images Acquired by Active Stereo Cameras

    Yingdi Xie, Jun Ohya

    2006 年電子情報通信学会総合大会  

    発表年月: 2006年03月

  • Study of Designing a Prototype System for Exhibiting Artistic Works with Their Creation Processes

    Ton Srichompoo, Jun Ohya, Jun Kurumisawa, Makoto Enomoto

    2006 年電子情報通信学会総合大会  

    発表年月: 2006年03月

  • A Study of Communication Prompted by the “●” Communication System - Comparing "with Prompters" with "without Prompters" -

    Li Jen Chen, Jun Ohya, Yukio Tokunaga, Shunichi Yonemura

    2006 年電子情報通信学会総合大会  

    発表年月: 2006年03月

  • Optimise the parameters of spring models so that the Spring models' motions fit well to the real objects' motions

    Denphol Pornchanoknart Jun Ohya

    2006 年電子情報通信学会総合大会  

    発表年月: 2006年03月

  • “ANALYSIS OF HUMAN-TO-HUMAN COMMUNICATIONS PROMPTED BY THE "●" COMMUNICATION SYSTEM - Comparing "with Prompters" and "without Prompters" -

    Li Jen Chen, Jun Ohya, Yukio Tokunaga, Shunichi Yonemura

    電子情報通信学会技術報告 MVE HCGシンポジウム  

    発表年月: 2006年03月

  • Study of the Creation Processes-Based System for Exhibiting Artistic Works

    Ton SRICHOMPOO, Jun OHYA, Jun KURUMISAWA, Makoto ENOMOTO

    電子情報通信学会技術報告 MVE HCGシンポジウム  

    発表年月: 2006年03月

  • 顔の特徴を分類化および言語表現可能とした似顔絵システムの検討

    榎本 誠, 大谷 淳, 楜沢 順

    電子情報通信学会技術報告、MVE(マルチメディア・仮想環境基礎研究会)  

    発表年月: 2006年03月

  • 店舗内における顧客の行動認識方法の基礎的検討−人物の介入するフレームの検出と色情報を用いた人物と物体との接触確認−

    堀隆之, 大谷淳, 楜沢順

    電子情報通信学会、画像工学研究会  

    発表年月: 2006年03月

  • センサーネットワークを利用する消火活動支援システムの検討 - 画像処理を用いた火災状況認識法の検討 -

    野飼 雅弘, 大谷 淳

    電子情報通信学会、パターン認識・メディア理解研究会  

    発表年月: 2006年03月

  • 複数弾性物体を用いた対話操作が可能な弾性物体キャラクターモデルの構築法の提案

    渡辺隆史, 大谷 淳, 楜沢 順, 徳永幸生

    情報処理学会研究報告  

    発表年月: 2006年02月

  • Visualization of Large Caved Terrains

    Sven Forstmann, Jun Ohya

    電子情報通信学会技術研究報告  

    発表年月: 2006年02月

  • Interactive Visualization of Large ISO-Surfaces

    Sven Forstmann, Jun Ohya

    国際情報通信研究科公開研究発表会予稿集  

    発表年月: 2005年10月

  • Comparative Study of Non-rigid Objects' Animations by Spring Models and Boundary Element Method

    Denphol Pornchanoknart, Takafumi Watanabe, Jun Ohya

    FIT2005(第4回情報科学技術フォーラム)  

    発表年月: 2005年09月

  • 画像情報を用いたサイバーアクターの動作制御

    Jieun Cho, 渡辺隆史, 大谷 淳

    FIT2005(第4回情報科学技術フォーラム)  

    発表年月: 2005年09月

  • Study of Black "●" Prompter Communication System

    Li Jen Chen, Jun Ohya, Yukio Tokunaga, Shunichi Yonemura

    FIT2005(第4回情報科学技術フォーラム)  

    発表年月: 2005年09月

  • サイバーシアターの空間移動ディレクション装置の提案

    キムヒョンムン, 大谷 淳, 小方博之

    FIT2005(第4回情報科学技術フォーラム)  

    発表年月: 2005年09月

  • Study of recognizing an unknown person action from motion capture data based on tensor decomposition

    Kalanov Rovshan, Jun Ohya, Hiroyuki Ogata, Hajime Takada

    FIT2005(第4回情報科学技術フォーラム)  

    発表年月: 2005年09月

  • Interactive Visualization of Large ISO-Surfaces

    Sven Forstmann, 大谷 淳

    FIT2005(第4回情報科学技術フォーラム)  

    発表年月: 2005年09月

  • Study of Augmented Reality Based Method for Exhibiting Artistic Works with their Creation Processes

    Srichompoo Ton, Jun Ohya, Syunichi Yonemura, Makoto Enomoto

    FIT2005(第4回情報科学技術フォーラム)  

    発表年月: 2005年09月

  • Image-based Assistance to Fire Extinguishing System with Mote

    Rubaiyat Yasmin, Jun Ohya, Aoki Yoshimitsu

    FIT2005(第4回情報科学技術フォーラム)  

    発表年月: 2005年09月

  • 顔認識における二重符号化理論とデフォルメ似顔絵との関連性について - コンピュータによる似顔絵生成への応用 -

    榎本 誠, 大谷 淳, 楜沢 順

    FIT2005(第4回情報科学技術フォーラム)  

    発表年月: 2005年09月

  • Motion Detection Based on Active Stereo Camera Array

    Xingdi Xie, Jun Ohya

    FIT2005(第4回情報科学技術フォーラム)  

    発表年月: 2005年09月

  • 関節構造を持つ3次元弾性物体モデルの提案

    渡辺隆史, 大谷 淳, 楜沢 順, 徳永幸生

    FIT2005(第4回情報科学技術フォーラム)  

    発表年月: 2005年09月

  • 画像処理を用いた店舗内の顧客の行動認識法に関する基礎的検討

    堀 隆之, 大谷 淳, 楜沢 順

    FIT2005(第4回情報科学技術フォーラム)  

    発表年月: 2005年09月

  • センサーネットワークと監視カメラを用いた消火活動支援システムの提案

    野飼雅弘, Yasmin Rubaiyat, 大谷 淳

    FIT2005(第4回情報科学技術フォーラム)  

    発表年月: 2005年09月

  • A Proposal on Active Extensible Stereo Camera Array for High Speed Moving Object Detection

    Yingdi Xie, Jun Ohya

    情報処理学会オーディオビジュアル複合情報処理研究会 AVM2005  

    発表年月: 2005年07月

  • Analysis-based Participant Selection Scheme in Workflow Management System

    Ding Xiao, Cao Jian, Jun Ohy