研究業績

受賞

  1. 2015年度 人工知能学会研究会優秀賞(JSAI Incentive Award)
    林 良彦,藤江 真也,福岡 維新,高津 弘明,小林 哲則,”情報アクセスにおける受動性と能動性: 音声対話によるニュース記事アクセス,” 人工知能学会研究会資料,AM-11-05,pp. 25-32, Nov. 2015. に授与された賞です.
  2. 2011年度 人工知能学会研究会優秀賞(JSAI Incentive Award)
    藤江真也,木下裕介,小林哲則,”発話期待度/意欲度に基づく発話タイミング制御,” 人工知能学会 言語・音声理解と対話研究会,SIG-SLUD-B102,pp.43-48,Oct. 2011. に授与された賞です.
  3. 2008年度 人工知能学会研究会優秀賞(JSAI Incentive Award)
    松山 洋一,谷山 輝,藤江真也,小林 哲則,”人-人コミュニケーションの活性化支援ロボットの開発,” 第53回 人工知能学会 言語・音声理解と対話処理研究会(SIG-SLUD), pp.15-22, July 2008. に授与された賞です.
  4. 2004年度 情報処理学会山下記念研究賞
    藤江真也,江尻 康,菊池英明,小林哲則,”パラ言語の理解能力を有する対話ロボット,”情報処理学会研究技術報告,SLP-48,pp.13-20,Oct. 2003. に授与された賞です.

著書

  1. “音声言語処理の潮流,” 第5章 音声対話システム,白井克彦 編著,コロナ社,March 2010. [Amazon]

招待講演

  1. 藤江真也, “会話ロボット・音声対話システムとの会話のかたち,” 日本感性工学会第18回大会,Sep. 2016.

論文

  1. Y. Matsuyama, I. Akiba, S. Fujie, and T. Kobayashi, “Four-participant group conversation: A facilitation robot controlling engagement density as the fourth participant,” Computer Speech & Language, vol. 33, no. 1, pp. 1-24, Sept. 2015. [Science Direct]
  2. Y. Matsuyama, A. Saito, S. Fujie, and T. Kobayashi, “Automatic expressive opinion sentence generation for enjoyable conversational systems,” IEEE/ACM Transactions on Audio, Speech, and Language Processing, vol. 23, no. 2, pp. 313-326, Feb. 2015. [IEEE Xplore]
  3. 藤江真也,松山洋一,谷山 輝,小林哲則,”人同士のコミュニケーションに参加し活性化する会話ロボット,” 電子情報通信学会論文誌(A),vol.J95-A,no.1,pp.37-45,Jan. 2012. [学会サイト]
  4. 中島 慶,江尻 康,藤江真也,小川哲司,松坂要佐,小林哲則,”対話ロボットの動作に頑健な頭部ジェスチャ認識,” 電子情報通信学会論文誌(D),vol.J89-D,no.7,pp.1514-1522,2006. [学会サイト]
  5. 中野鐵兵,藤江真也,小林哲則,”MONEA: 効率的多機能ロボット開発環境を実現するメッセージ指向ネットワークロボットアーキテクチャ,” 日本ロボット学会誌, vol.24, no.4, pp.543-553, May 2006. [J-STAGE]
  6. 藤江真也,江尻 康,菊池英明,小林哲則,”肯定的/否定的発話態度の認識とその音声対話システムへの応用,” 電子情報通信学会論文誌(D-II),vol.J88-D2,no.3,pp.489-498,March 2005. [学会サイト]
  7. 細川健一郎,藤江真也,小林哲則,”対話型情報検索システムにおける提案要求表現の適応的理解,” 電子情報通信学会論文誌(D-II),vol.J88-D2,no.3,pp.619-628,March 2005. [学会サイト]

国際会議(査読有り)

  1. Shinya Fujie, Ishin Fukuoka, Asumi Mugita, Hiroaki Takatsu, Yoshihiko Hayashi, and Tetsunori Kobayashi, “A spoken dialog system for coordinating information consumption and exploration,” Proc. CHIIR 2016, pp. 253-256, Mar. 2016.
  2. Yohei Shiraishi, Shinya Fujie, and Tetsunori Kobayashi, “AAM fitting using shape parameter distribution,” Proc. EUCIPCO2012, pp.2238-2242, Aug. 2012.
  3. Yoichi Matsuyama, Yushi Xu, Akihiro Saito, Shinya Fujie, and Tetsunori Kobayashi, “Multiparty Conversation Facilitation Strategy Using Combination of Question Answering and Spontaneous Utterances,” IWSDS2011 Workshop on Paralinguistic Information and its Integration in Spoken Dialogue Systems, pp.99-107, Sept. 2011.
  4. Yoichi Matsuyama, Shinya Fujie, and Tetsunori Kobayashi, “Framework of Communication Activation Robot Participating in Multiparty Conversation,” AAAI Fall Symposium, Dialog with Robots, pp.68-73, Nov. 2010.
  5. Yoichi Matsuyama, Shinya Fujie, and Tetsunori Kobayashi, “Psychological Evaluation of A Group Communication Activativation Robot in A Party Game,” Proc. Interspeech 2010, pp.3046-3049, Sept. 2010.
  6. Yasutomo Arai, Teppei Nakano, Shinya Fujie, and Tetsunori Kobayashi, “A Meeting Assistance System with a Collaborative Editor for Argument Structure Visualization,” Proc. ACM CSCW 2010, Feb. 2010.
  7. Hiroshi Sasaki, Teppei Nakano, Shinya Fujie, and Tetsunori Kobayashi, “A Collaborative Lexical Data Design System for Speech Recognition Application Developers,” Proc. ACM CSCW 2010, Feb. 2010.
  8. Yoichi Matsuyama, Kosuke Hosoya, Hikaru Taniyama, Hiroki Tsuboi, Shinya Fujie, Tetsunori Kobayashi, “SCHEMA: Multi-Party Interaction-Oriented Humanoid Robot,” Emerging Technologies, ACM SIGGRAPH ASIA 2009, Dec. 2009.
  9. Shinya Fujie, Yoichi Matsuyama, Hikaru Taniyama, and Tetsunori Kobayashi, “Conversation Robot Participating in and Activating a Group Communication,” Proc. Interspeech2009, pp.264-267, Sept. 2009.
  10. Yoichi Matsuyama, Hikaru Taniyama, Shinya Fujie, and Tetsunori Kobayashi, “System Design of Group Communication Activator: An Entertainment Task for Elderly Care,” Proc. HRI2009, pp.243-244, March, 2009.
  11. Kazuki Hoshiai, Shinya Fujie, Tetsunori Kobayashi, “Upper-body contour extraction using face and body shape variance information,” The 3rd Pacific-Rim Symposium on Image and Video Technology (PSIVT2009), pp.862-873, Jan. 2009.
  12. Shinya Fujie, Daichi Watanabe, Yuhi Ichikawa, Hikaru Taniyama, Kosuke Hosoya, Yoichi Matsuyama, and Tetsunori Kobayashi, “Multi-modal Integration for Personalized Conversation: Towards a Humanoid in Daily Life,” Proc. Humanoids2008, pp.617-622, Dec. 2008.
  13. Yoichi Matsuyama, Hikaru Taniyama, Shinya Fujie, and Tetsunori Kobayashi, “Designing Communication Activation System in Group Communication”, Proc. Humanoids2008, pp.629-634, Dec. 2008.
  14. Kazuki Hoshiai, Shinya Fujie, and Tetsunori Kobayashi, “Upper-body Contour Extraction and Tracking Using Face and Body Shape Variance Information,” Proc. Humanoids2008, pp.391-398, Dec. 2008.
  15. Matthias Wimmer, Shinya Fujie, Freek Stulp, Tetsunori Kobayashi, Bernd Radig, “An ASM fitting method based on machine learning that provides a robust parameter initialization for AAM fitting,” Proc. Int. Conf. Automatic Face and Gesture Recognition, FG2008, Sept. 2008.
  16. Teppei Nakano, Shinya Fujie, and Tetsunori Kobayashi, “Extensible speech recognition system using Proxy-Agent,” Proc. IEEE Workshop on Automatic Speech Recognition and Understanding, ASRU2007, pp.601-606, Dec. 2007.
  17. Shinya Fujie, Toshihiko Yamahata, and Tetsunori Kobayashi, “Conversation robot with the function of gaze recognition,” Proc. 2006 IEEE-RAS Int’l Conf. on Humanoid Robots, Humanoids 2006, pp.364-369, Dec. 2006.
  18. Teppei Nakano, Shinya Fujie, and Tetsunori Kobayashi, “MONEA: Message-Oriented Networked Robot Architecture,” Proc. Int’l Conf. on Robotics and Automation, pp.194-199, May 2006.
  19. Shinya Fujie, Riho Miyake, and Tetsunori Kobayashi, “Spoken dialogue system using recognition of user’s feedback for rhythmic dialogue,” Proc. Int’l Conf on Speech Prosody, SP2006, OS2-4, Dresden, Germany, May 2006.
  20. Shinya Fujie, Kenta Fukushima, and Tetsunori Kobayashi, “Back-channel feedback generation using linguistic and nonlinguistic information and its application to spoken dialogue system,” Proc. 9th European Conf. on Speech Communication and Technology, Interspeech2005, pp.889-892, Lisbon, Portugal, Sept. 2005.
  21. Shinya Fujie, Kenta Fukushima, and Tetsunori Kobayashi, “A Conversation Robot with Back-Channel Feedback Function based on Linguistic and Nonlinguistic Information,” Proc. Intl. Conf. on Autonomous Robots and Agents, ICARA2004, pp.379-384, Palmerston North, New Zealand, Dec. 2004.
  22. Shinya Fujie, Daizo Yagi, Hideaki Kikuchi, and Tetsunori Kobayashi, “Prosody based Attitude Recognition with Feature Selection and Its Application to Spoken Dialog System as Para-Linguistic Information,” Proc. Int’l. Conf. on Spoken Language Processing, ICSLP2004, vol.2, pp.2841-2844, Jeju Island, Korea, Oct. 2004.
  23. Shinya Fujie, Daizo Yagi, Yosuke Matsusaka, Hideaki Kikuchi, and Tetsunori Kobayashi, “Spoken Dialogue System Using Prosody As Para-Linguistic Information,” Proc. International Conference Speech Prosody, SP2004, pp.387-390, Nara, Japan, March 2004.
  24. Shinya Fujie, Yasushi Ejiri, Yosuke Matsusaka, Hideaki Kikuchi, and Tetsunori Kobayashi, “Recognition of Para-Linguistic Information and Its Application to Spoken Dialogue System,” IEEE Workshop on Automatic Speech Recognition and Understanding Workshop, ASRU2003, pp.231-236, St. Thomas, US, Dec. 2003.
  25. Yosuke Matsusaka, Shinya Fujie, and Tetsunori Kobayashi, “Modeling of Conversational Strategy for the Robot Participating in the Group Conversation,” Proc. ISCA-Eurospeech2001, pp.2173-2176, 2001.

総説

  1. 東中 竜一郎,岡田 将吾,藤江 真也,森 大毅,”対話システムと感情,” 人工知能学会誌,vol. 31,no. 5,pp. 664-670, Sept. 2016.
  2. Tetsunori Kobayashi and Shinya Fujie, “Conversational robots: An approach to conversation protocol issues that utilizes the paralinguistic information available in a robot-human setting,” Acoust. Sci. & Tech., vol.34, no.2, pp.64-72, 2013.
  3. 藤江真也,小林哲則,”音声対話システム,” 基礎講座 「音声・音響インタフェース」第3回,ヒューマンインターフェース学会誌,vol.12,no.3,pp.195-200,Aug. 2010.
  4. 藤江真也,小川哲司,小林哲則,”会話ロボットとその聴覚機能,” 日本ロボット学会誌,vol.28,no.1,pp.23-26,Jan. 2010.
  5. 小林哲則,藤江真也, “マルチモーダル会話ロボット:ロボットが会話において行う「聴く」行為について,” 解説:特集 ロボット聴覚のためのインテグレーション技術,計測と制御, Vol.46,No.6,pp.466-471,June 2007.
  6. 小林哲則,藤江真也,松坂要佐,白井克彦,”人間形会話ロボット -パラ言語の生成・理解機能を持つマルチモーダルインタフェース-,” 日本音響学会誌,vol.61,no.2,pp.85-90, Feb. 2005.

シンポジウム

  1. 白石洋平,藤江真也,小林哲則,”AAM の高精度化のための多角度顔画像用形状ラベリングツールの開発,” 第13回 画像の認識・理解シンポジウム,MIRU2010,IS3-69,pp.2044-2051,July 2010.
  2. 俵 直宏,藤江真也,小林哲則,”顔と身体の外観及び形状の変動傾向を考慮した上体輪郭抽出・追跡手法,” 第13回 画像の認識・理解シンポジウム,MIRU2010,IS1-47,pp.357-363,July 2010.
  3. 荒井康友,中野鐵兵,藤江真也,小林哲則,”議論構造の視覚化機能を有する会議支援システムを利用した会議スタイルの提案と評価,” 第17回インタラクティブシステムとソフトウェアに関するワークショップ, WISS2009, Dec. 2009.
  4. 橋口拓弥,藤江真也, 小川哲司,中野鐵兵,小林哲則,”連続円動作の認識に基づくメニュー項目の選択法,” 第12回 画像の認識・理解シンポジウム,MIRU2009,IS3-70, July 2009.
  5. 藤江真也, 小林哲則,”Kernel PCAによる形状モデルを用いたActive Appearance Modelの高精度なフィッティング,” 第12回 画像の認識・理解シンポジウム,MIRU2009,IS3-19, July 2009.
  6. 星合和樹,藤江真也,小林哲則,”形状変化傾向を考慮した動的輪郭モデルによる人の上体輪郭へのフィッティング,” 第11回 画像の認識・理解シンポジウム,MIRU2008,IS-5-28, July 2008.
  7. 岡本宇正,藤江真也,小林哲則,”視線方向とオブジェクトの動きの関係に基づいた注目オブジェクト推定,” 画像の認識・理解シンポジウム,MIRU2006,OS1B-1,July 2006.
  8. 山畠利彦,藤江真也,小林哲則,”対話システムのための視線方向認識,” 画像の認識・理解シンポジウム,MIRU2006,IS3-38,July 2006.
  9. 中野鐵兵,藤江真也,清水健二,徳永穣,小林哲則,”P2P仮想ネットワーク上の興味指向モジュールグループを利用したロボットアーキテクチャ,” 第10回 ロボティクス・シンポジア, pp.7-12, Feb. 2005.

研究会

  1. 林 良彦,藤江真也,福岡維新,高津弘明,小林哲則,”情報アクセスにおける受動性と能動性: 音声対話によるニュース記事アクセス,” 人工知能学会 第11回 情報アクセスと可視化マイニング研究会,SIG-AM,pp. 25-32,Nov. 2015.
  2. 赤川優斗,福岡維新,木村直登,一宮健介,藤江真也,小林哲則,”多人数会話における質疑応答と会話のファシリテーションを行うロボット,” 人工知能学会 第75回言語・音声理解と対話研究会,SIG-SLUD,第6回対話シンポジウム,pp. 1-2,Oct. 2015.
  3. 藤江真也,福岡維新,麥田愛純,高津弘明,林良彦,小林哲則,”効率的な情報伝達を指向した音声対話システムの提案,” 人工知能学会第74回言語・音声と対話処理研究会,SIG-SLUD,pp. 7-12,July 2015.
  4. 藤江真也,木下裕介,小林哲則,”発話期待度/意欲度に基づく発話タイミング制御,” 人工知能学会 言語・音声理解と対話研究会,SIG-SLUD-B102,pp.43-48,Oct. 2011.
  5. 齋藤彰弘,松山洋一,藤江真也,小林哲則,”会話ロボットの多人数会話活性化戦略とその評価,” 電子情報通信学会研究技術報告,SP2011-53, pp7-12, Oct. 2011.
  6. 中野幹生,荒木雅弘,駒谷和範,堂坂浩二,東中竜一郎,藤江真也,船越孝太郎,翠 輝久,南 泰浩,”チュートリアル&パネル「対話システム研究の進め方」,” 人工知能学会 言語・音声理解と対話処理研究会,SIG-SLUD-B002,pp.59-63,Oct. 2010.
  7. 藤江真也,松山洋一,小林哲則,”グループコミュニケーション活性化ロボット,” 人工知能学会 言語・音声理解と対話処理研究会,SIG-SLUD-B002,pp.7-10,Oct. 2010.
  8. 松山洋一,谷山 輝,藤江真也,小林哲則,”グループコミュニケーション活性化ロボットの印象評価,” 人工知能学会 言語・音声理解と対話処理研究会,SIG-SLUD-B001, pp.7-12, July 2010.
  9. 谷山 輝,松山洋一,藤江真也, 小林哲則,”参与構造を考慮した行動設計に基づくグループ会話ロボットの構築,” 人工知能学会 言語・音声理解と対話処理研究会,SIG-SLUD-A903, pp.55-60, Feb. 2010.
  10. 藤江真也,”会話ロボット研究の現状と課題,” 人工知能学会 言語・音声理解と対話処理研究会,SIG-SLUD-A902, pp.29-34, Nov. 2009.
  11. 谷山輝,松山洋一,藤江真也, 小林哲則,”参与構造を考慮したグループ会話ロボットの行動設計,” 人工知能学会 言語・音声理解と対話処理研究会,SIG-SLUD-A901, pp.1-6, July 2009.
  12. 佐々木浩, 中野鐵兵, 藤江真也, 小林哲則,”集合知を利用した語彙情報サービスにおける自動語彙拡張の評価,” 情報処理学会 音声言語情報処理研究会,SIG-SLP-77,pp.1-6, July 2009.
  13. 藤江真也,渡邊 大地,谷口 徹,小林 哲則,”音声対話システム用音声認識器の実現と音声対話ロボットへの応用,” 人工知能学会 言語・音声理解と対話処理研究会,SIG-SLUD-A803, pp.31-36, March 2009.
  14. 細谷 耕佑, 小川哲司, 藤江真也, 渡辺 大地, 市川 悠飛, 谷山 輝, 小林 哲則,”ロボットのためのハンズフリー音声対話システム,” 情報処理学会 音声言語情報処理研究会,SIG-SLP-74,pp.7-12, Dec. 2008.
  15. 谷口 徹, 藤江真也, 小林 哲則,”音声対話用音声認識システム,” 情報処理学会 音声言語情報処理研究会,SIG-SLP-74, pp.103-108, Dec. 2008.
  16. 松山洋一,谷山 輝,藤江真也,小林哲則, “人-人コミュニケーションの活性化支援ロボットの開発,” 第53回 人工知能学会 言語・音声理解と対話処理研究会(SIG-SLUD), pp.15-22, July 2008.
  17. 中野鐵兵, 佐々木浩, 藤江真也, 小林哲則, “WWWを用いた語彙情報の収集・共有・管理システム,” 情報処理学会音声言語情報処理研究会, SIG-SLP-71-12, May 2008.
  18. 中野鐵兵,藤江真也,小林哲則,”Proxy-Agentを用いた音声認識対応ウェブアプリケーション開発フレームワークの提案と実装,” 情報処理学会研究報告,2008-SLP-70,pp.83-88,Feb. 2008.
  19. 山畠利彦,藤江真也,小林哲則,”視線運動の離散性を用いた視線認識,” 情報処理学会研究報告,2007-CVIM-160,pp.77-82,Sept. 2007.
  20. 中野鐵兵,梅本 暁,藤江真也,小川哲司,小林哲則,”プロキシエージェントアーキテクチャによる音声認識アプリケーション用ユーザモニタリング機能の効率化,” 情報処理学会研究報告,2006-SLP-65,pp.23-28,Feb. 2007.
  21. 藤江真也,福島健太,三宅梨帆,小林哲則,”相槌生成/認識機能を持つ音声対話システム,” 人工知能学会研究会資料,SIG-SLUD-A502-09,pp.41-46,Nov. 2005.
  22. 中島慶,藤江真也,松坂要佐,小林哲則,”対話調整的役割を果たす顔表情の認識,” 電子情報通信学会研究会技術報告,PRMU2005-94,pp.7-12, 2005.
  23. 藤江真也,坂本直宏,清水健二,宗近純一,福島健太,瀬戸裕介,小林哲則,”音声対話ロボットROBISUKEによる相談型対話の実現,” 情報処理学会研究報告,2004-SLP-53,pp.55-56,Oct. 2004.
  24. 藤江真也, 福島健太, 柴田大輔, 小林哲則, “FSTと韻律情報を用いた相槌・復唱機能を有する対話ロボット,” 人工知能学会研究会資料, SIG-SLUD-A401-03, pp.15-20, June 2004.
  25. 藤江真也,江尻康,菊池英明,小林哲則,”パラ言語の理解能力を有する対話ロボット,” 情報処理学会研究技術報告,SLP-48,pp.13-20,Oct. 2003.
  26. 江尻康,中島慶,藤江真也,小林哲則,”対話ロボットの動作中における頭部ジェスチャ認識,” 電子情報通信学会研究技術報告,vol.103,no.453,PRMU2003-153,pp.13-18,Nov. 2003.
  27. 細川健一郎,藤江真也,小林哲則,”検索・提案型対話システムのためのユーザとのインタラクションによる適応的意図理解,” 人工知能学会研究研究会資料,SIG-SLUD-A302-5,pp.21-28,Nov. 2003.

講演(本人)

  1. 藤江真也,福岡維新,麥田愛純,高津弘明,林良彦,小林哲則.”聞き手の反応を考慮した発話計画を用いた音声対話システム,” 日本音響学会2015年秋季研究発表会講演論文集,pp. 39-42,Sep. 2015.
  2. 藤江真也, 松山洋一, 齋藤彰弘, 小林哲則,”多人数会話に参加しコミュニケーションを活性化する会話ロ ボットの開発,” 日本音響学会秋季研究発表会, pp.81-84, Sept. 2011.
  3. 藤江真也,小林哲則,”Haar-like 特徴量を用いたカスケード接続型識別器による音声単語検出,” 日本音響学会秋季研究発表会,pp.45-48,Sept. 2010.
  4. 藤江真也,福島健太,三宅梨帆,小林哲則,”ユーザの相槌にあわせた発話タイミング制御の検討,” 日本音響学会春季研究発表会,pp.129-130, March,2006.
  5. 藤江真也,福島健太,小林哲則,”言語/非言語情報を用いた相槌機能の実現,” 日本音響学会春季研究発表会,pp.655-656,March 2005.
  6. 藤江真也,八木大三,菊池英明,小林哲則,”パラ言語情報を用いた音声対話システム,” 日本音響学会秋季研究発表会,pp.39-40,Sept. 2003.
  7. 藤江真也,細川健一郎,小林哲則,”自律型ロボットの実経験に基づく行動知識の獲得,” 人工知能学会第16回全国大会,1D1-06,May 2002.
  8. 藤江真也,神作洋一,宮永悠平,小林哲則,”意味・文脈・発話権情報を用いた音声対話用文解析手法,” 言語処理学会第7回年次大会,pp.530-533,March 2001.
  9. 藤江真也,古川賢司,東條剛史,小林哲則,”自律型ロボットの行動を介した言語獲得,” 人工知能学会全国大会(第13回),pp.223-224,1999.

講演(その他)

  1. 山崎敦也,藤江真也,”雑談会話における音韻・韻律情報を用いた聞き手の発話タイミングの検出,” 日本音響学会秋季研究発表会講演論文集,Mar. 2016.
  2. 高津弘明,福岡維新,藤江真也,林 良彦,小林哲則,”快適な情報享受を可能とする音声対話システム,” 言語処理学会 第22回年次大会,pp. 302-305,Mar. 2016.
  3. 高津弘明,福岡維新,藤江真也,林 良彦,小林哲則,”会話によるニュース記事伝達のための情報選択,” 言語処理学会 第22回年次大会,pp. 199-202,Mar. 2016.
  4. 高津弘明,福岡維新,藤江真也,林 良彦,小林哲則,”会話によるニュース記事伝達のための口語化における述語の書き換え,” 言語処理学会 第22回年次大会,pp. 1033-1036,Mar. 2016.
  5. 木村直登,藤江真也,小林哲則,”多人数会話における発話タイミング検出のためのムーブの推定,” 言語処理学会 第22回年次大会,pp. 1129-1132,Mar. 2016.
  6. 福岡維新,麥田愛純,高津弘明,藤江真也,林良彦,小林哲則,”漸増的な情報補完機能を有する音声対話システム,” 第29回人工知能学会全国大会,2L4-OS-07a-6in,May,2015.
  7. 松山洋一,藤江真也,齋藤彰弘,小林哲則,”多人数会話活性化システムの発話戦略パターン,” 人工知能学会全国大会,1O2-OS-18-9,June 2012.
  8. 木下裕介,藤江真也,小林哲則,”言語に依存した韻律モデルによる発話継続/終了推定,” 日本音響学会秋季研究発表会,pp.85-88,Sept.2011.
  9. 齋藤彰弘,松山洋一,藤江真也,小林哲則,”質問応答と自発的発話の組み合わせによる複数人会話活性化戦略,” 人工知能学会全国大会,3C2-OS19-10,June 2011.
  10. 荒井康友,中野鐵兵,藤江真也,小林哲則, “議論構造の視覚化機能を有する参加者支援型議事録作成システムを利用した会議スタイルの提案,” 第8回情報科学技術フォーラム,FTI2009,Sept. 2009.
  11. 谷口 徹,藤江真也, 小林哲則,”発話継続の逐次的判断機能を備えた音声認識システム,” 日本音響学会秋季研究発表会講演論文集, 1-R-33, pp.221-224, Sept. 2009.
  12. 谷口 徹,藤江真也,小林哲則,”断片化したユーザ発話のための対話用音声認識システム,” 日本音響学会春季研究発表会,pp.217-220, March 2009.
  13. 中野鐵兵, 藤江真也, 小林哲則, “Proxy-Agentを用いたウェブアプリケーション用音声認識システムの開発,” 日本音響学会春季研究発表会, pp.15-18, March, 2008.
  14. 三宅梨帆,福島健太,藤江真也,小林哲則,”音声対話システムにおける相槌認識/生成機能の言語情報と韻律情報による実現,” 日本音響学会秋季研究発表会, pp.191-192, Sept. 2005.
  15. 宗近純一,藤江真也,小林哲則,”対話ロボットのための発話権保持者に依存した視線制御モデル,” 電子情報通信学会総合大会, D-5-5, p.43, March 2005.
  16. 三宅梨帆,藤江真也,小林哲則,”相槌/聞き返し認識とその音声対話システムへの応用,” 日本音響学会春季研究発表会,pp.71-72,March 2005.
  17. 八木大三,藤江真也,菊池英明,小林哲則,”韻律情報を用いた発話態度認識とその対話システムへの応用,” 日本音響学会春季研究発表会,pp.65-66,March 2005.
  18. 清水健二,中野鐵兵,藤江真也,松坂要佐,小林哲則,”ロボット用マルチプロセッサシステムのための情報共有アーキテクチャ,” 情報処理学会第67回全国大会,pp.181-182,March 2005.
  19. 徳永穣,中野鐵兵,清水健二,藤江真也,小林哲則,”P2Pを利用したシステム統合アーキテクチャに基づくロボットの移動機能の実現,” 情報処理学会第67回全国大会,pp.243-244,March 2005.
  20. 福島健太,藤江真也,柴田大輔,小林哲則,”相槌・復唱機能を持つ対話システム,” 日本音響学会秋季研究発表会,pp.139-140,Sept. 2004.
  21. 八木大三,藤江真也,菊池英明,小林哲則,”韻律情報を用いた肯定的/否定的態度の認識,” 日本音響学会春季研究発表会,pp.141-142,March 2004.
  22. 神作洋一,藤江真也,宮永悠平,小林哲則,”WWWを知識源とする音声対話システム,” 人工知能学会第15回全国大会 3B3-02,May 2001.
  23. 松坂要佐,東條剛史,古川賢司,藤江真也,小林哲則,”ジェスチャの表現・理解機能を有するロボットによる空間情報共有型対話の実現,” 日本音響学会秋季研究発表会, vol.1,pp.111-112,1999.
  24. 古川賢司, 東條剛史, 早田啓介, 藤江真也, 松坂要佐, 小林哲則, “空間情報共有のための身体表現機能を有する対話ロボット,” 第17回日本ロボット学会学術講演会,pp.1181-1182,Sept. 1999.
  25. 松坂要佐,東條剛史,古川賢司,久保田千太郎,藤江真也,早田啓介,川崎明彦,益満健,中野裕一郎,小林哲則,”アイコンタクト機能を持つ複数話者との対話ロボット,”第16回ロボット学会学術講演会,pp.1219-1220,Sept. 1998.

獲得資金

  1. 佐藤史明(代表者),藤江真也,小幡 稔,大川茂樹,世木秀明,須田宇宙,飯田一博,矢野博夫,柳川博文,山崎 治(分担者),”公共空間の安全性確保を目指した可聴型音響設計システムの構築,” 科学研究費補助金,基盤研究(A),2015〜2017年度
  2. 小林哲則(代表者),藤江真也,小川哲司(連携研究者),”リズムある会話を可能とするコミュニケーションロボットに関する研究,” 科学研究費補助金,基盤研究(B),20300068,2008〜2010年度.
  3. 藤江真也,”音声対話システム応用のための音声認識に関する研究,” 科学研究費補助金,若手研究(B),21700204,2009年度~2010年度.
  4. 藤江真也,”パターン認識器統合フレームワークとデータ収集に関する研究,” 科学研究費補助金,若手研究(B),19700179,2007~2008年度.
  5. 藤江真也,”対話中の顔表情認識とその音声対話システムへの応用,” 科学研究費補助金,若手研究(B),課題番号16700192,2004~2005年度.
  6. 小林哲則(代表者),藤江真也,小川哲司(分担者),”言語・パラ言語の生成・理解能力を有する会話システムに関する研究,” 科学研究費補助金,基盤研究(B),課題番号15300065,2003~2006年度.

展示会/TV取材等

  1. “Roboter auf dem Vormarsch,” Makro, 3sat ZDF, Germany, Oct. 2015.
  2. “進化する音声認識技術,” チャン知り,あさチャン,TBS,Aug. 1, 2014.
  3. “料理!洗濯!笑いまで!人と暮らす未来のロボット,” サイエンス ZERO, NHK, Apr. 22,2012.
  4. Robot Watch, 「SIGGRAPH Asia 2009」開幕、ロボット関連展示レポート, Dec. 18, 2009.
  5. History Channel, That’s Impossible, June, 2009.
  6. サイエンスチャンネル,THE LABO ~研究所の歴史に見る科学の系譜~(6)早稲田大学ヒューマノイド研究所,Apr. 2009.
  7. 大垣市制90周年記念事業 ものづくりフェスティバル,March., 7-8, 2009.
  8. すみだものづくりフェア,墨田区中小企業センター,Nov., 9, 2008.
  9. 学びの支援フォーラム,東京国際フォーラム,Aug. 2006.
  10. サイエンスZERO,NHK,March 2006.
  11. 21世紀夢ウイーク~飛騨高山ロボットワールド~,岐阜県高山市,Sept. 2005.
  12. 学びの支援フォーラム,東京国際フォーラム,Aug. 2005.
  13. 愛・地球博,中部千年共生村,Aug. 2005.
  14. Discovery Channel Canada, March 2005.
  15. Lille 2004 – Cultural Captal of Europe, Lille, France, Dec. 2003.
  16. ROBODEX 2003, パシフィコ横浜, Apr. 2003.
  17. ザ・ロボット博, 長島スパーランド, May 2001.
  18. 『共生する/進化するロボット』展, 東京オペラシテイ, March 1999.

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です

CAPTCHA: *