参加人数: 80 人(ユニークなログイン名の数)、総発言数 1469

(17:29:06) [@ipsj_sigmus] 【発表募集 8/14〆切】第113回研究会(2016/10/14-15@国民宿舎能登小牧台)の発表募集中です.奮ってご参加下さい.t.co/Sy26MH5FCB #sigmus twitter.com/ipsj_s...
(09:20:33) [@tetsurokitahara] 今日から3日間、東京理科大学野田キャンパスで #sigmus ですよ! twitter.com/tetsur...
(10:52:40) [@mactkg] 今日は #sigmus で発表してきますお twitter.com/mactkg...
(11:09:31) [@TatsunoriHirai] 本日から三日間開催されるSIGMUS夏のシンポジウムの二日目(7/31)特別企画「新博士パネルディスカッション:新博士さんいらっしゃい!」に登壇いたします。中継もあるようです。 t.co/ft7bSYR7o4 #sigmus twitter.com/Tatsun...
(12:14:19) [@tetsurokitahara] なんとか準備が一段落。 #sigmus t.co/rQOvvvbBIh twitter.com/tetsur...
(12:36:23) [@tetsurokitahara] 今回は受付がややこしいので、気をつけてください。 #sigmus t.co/WQtgluayHc twitter.com/tetsur...
(12:43:47) [@hoahoa] 今向かってます。。 t.co/QvCeyjaAvK twitter.com/hoahoa...
(13:05:20) [@knoike] #sigmus GTTMセッションは 15:15から. | 音楽情報科学研究会 » 第112回 音楽情報科学研究会(夏のシンポジウム) 参加案内 t.co/qoRRgXMshb twitter.com/knoike...
(13:16:35) [@hoahoa] #sigmus 夏シンポ会場とうちゃーく。鋭意準備中。 (@ 東京理科大学野田キャンパスセミナーハウス) t.co/lbYaD0f0ms t.co/hR7dFvUFnv twitter.com/hoahoa...
(13:35:50) [@hoahoa] #sigmus 夏シンポ開始。ただいま @tetsurokitahara 主査ご挨拶中。私は明日朝イチの会誌連携特別企画セッションに登壇します。詳細:t.co/2yLfgrgBvQ ニコ生中継:t.co/J9j9nRYHdd twitter.com/hoahoa...
(13:40:05) [@ballforest] 2日目の「新博士さんいらっしゃい!」パネルディスカッションはニコ生で見たい / 音楽情報科学研究会 » 第112回 音楽情報科学研究会(夏のシンポジウム) 参加案内 t.co/YdidpPAYQd #SIGMUS twitter.com/ballfo...
(13:41:24) [中野倫靖] チャットよろしくお願いします!
(13:41:37) [中野倫靖] 13:30-15:00 【音楽分析】 (3件)座長: 中村栄太(京大)
(13:41:44) [中野倫靖] (1) SMF解析による楽曲の難易度判定◎藤井ほのか, 佐藤陸, 齋藤康之 (木更津工業高等専門学校)
(13:43:59) [中野倫靖] SMF:スタンダードMIDIファイル
(13:44:17) [中野倫靖] 楽曲情報が付加されているとユーザが選びやすくなる
(13:44:32) [中野倫靖] 楽曲の難しさ。ユーザによって基準が異なる
(13:44:45) [中野倫靖] ユーザの演奏技術に依存しない楽曲内の情報のみを用いた難易度判定
(13:44:50) [中野倫靖] ピアノのみ
(13:45:10) [中野倫靖] SMFには小節という概念がない
(13:45:36) [中野倫靖] デルタタイムがある
(13:45:47) [中野倫靖] デルタタイムを用いて音符の一を求める
(13:46:58) [中野倫靖] 難易度の判定要素:音符の長さ、音符の高低差、楽曲のテンポ、指くぐりの回数
(13:47:28) [中野倫靖] 指くぐり:一定数以上の音符によって形成された滑らかに上昇・下降するフレーズを途切れることなく演奏する際に用いられる技法
(13:49:48) [中野倫靖] なぜこういう値を使うのか
(13:51:11) [原(@mactkg)] ピアノって足も使っていた記憶があるんですが、今回は特に考慮していないんですかね?(ピアノやらないので詳しくわからないのですが)
(13:52:45) [YutoOzaki] 現在ニコニコ動画で中継されておりますでしょうか?情報処理学会チャンネルの「生放送」欄で見ても見当たらず。。
(13:53:05) [中野倫靖] ch.nicovideo.jp/si...
(13:53:10) [中野倫靖] ではないでしょうか?
(13:54:37) [YutoOzaki] ありがとうございます、見つかりました!
(13:54:49) [中野倫靖] 難易度値が高いと難しい?
(13:55:29) [中野倫靖] 演奏技術に依存しない、というのはどこに影響を及ぼしているのでしょうか。
(13:56:45) [中野倫靖] 得られた結果の妥当性はどのように確認されるのか
(13:58:23) [中野倫靖] 難易度が楽譜によって設定されている
(13:59:09) [中野倫靖] ので、それに基づいて評価
(14:05:17) [中野倫靖] 指くぐりはSMFに書かれていないが、楽譜に書いてある指番号の値を使った。
(14:06:17) [中野倫靖] テンポが速い場合、音高が離れている方が、同音連打より簡単だと思うが、その考慮はどうか?
(14:07:23) [中野倫靖] 使っている楽譜が単旋律で、和音がない→今後の課題
(14:09:18) [中野倫靖] Q:曲の構造が時代によって異なるので、バッハの難しさ、などを考慮すると良いのではないか。影響があるのではないか。
(14:13:22) [中野倫靖] (2) 平均情報量からみたクラシックギター国際コンクール自由曲の特徴分析◎飯野なみ, 高松航 (東海大), 飯野秋成 (新潟工科大), 飯塚泰樹, 沖野成紀 (東海大)
(14:15:55) [中野倫靖] コンクール出場者が選ぶ曲(審査員にアピールするため)にはどういう特徴が有るのか?というモチベーション。
(14:16:31) [中野倫靖] 先行研究:古典より現代楽曲
(14:16:50) [中野倫靖] 音かを明瞭に演奏すべきこと、音色変化を追求すべきことを示した
(14:17:34) [中野倫靖] 方法:ギターコンクールの選曲分析(13年、3回以上エントリーされた96曲)、平均情報量解析(音高、ピッチクラス、音価)
(14:17:51) [中野倫靖] 情報量解析では優勝者7名の演奏楽曲
(14:18:37) [中野倫靖] コンクール毎の優勝曲と他の曲との関係は必要?
(14:19:59) [中野倫靖] 曲を演奏した人の技量も大事?
(14:21:19) [中野倫靖] 演奏回数が上位21曲は、テクニカルでドラマティックな構成を持つ現代の曲が多い(10曲)、バロック以前は4曲、古典・ロマン派7曲
(14:21:57) [中野倫靖] バロック以前はバッハ作品が占める割合が多き
(14:23:23) [中野倫靖] 平均情報量、12音の出現回数を合計回数で割った生起確率
(14:24:24) [中野倫靖] 音高、ピッチクラス、音かの全ての情報量において現デイの作品が最も大きい、バロック以前が最も小さい
(14:24:49) [中野倫靖] これは、こんかいの96曲に限った結果なのか?一般的にはどうなのか?
(14:25:06) [中野倫靖] 黄色が見えない。。。
(14:25:18) [中野倫靖] 主成分分析を行った(原稿にはない)
(14:25:29) [中野倫靖] 第1主成分では現代の楽曲が大きく、バロック以前は小さい
(14:26:02) [中野倫靖] 何の主成分?音高・ピッチクラス・音価の情報量3次元の?
(14:26:50) [中野倫靖] 審査員による影響はないのか?
(14:28:24) [中野倫靖] レベルが上がる毎により多彩で印象的な曲(情報量が多い)が選ばれる
(14:31:38) [中野倫靖] 選曲が多い曲ほど情報量が多かった
(14:35:50) [中野倫靖] コンクールに時間制限はあるのか
(14:36:24) [中野倫靖] Q:平均情報量を1曲で計算するのは妥当か。時間で区切って分析するべきなのでは。
(14:37:07) [中野倫靖] Q:音の連続性は考慮しないのか。
(14:38:40) [中野倫靖] Q:強拍かどうかなどの付属情報を付けた解析をすると良いのでは。
(14:39:21) [中野倫靖] Q:音楽的な細かいところに踏み込まなくても傾向が分かるのが、今回の発表の面白いところなのでは。
(14:40:16) [中野倫靖] Q:エントロピーは一番ランダムな時に高い。一番でたらめに作った曲が高い。
(14:41:37) [@hiromu1996] そろそろ発表はじまりまーす #SIGMUS t.co/N7K1LHTUjt t.co/vSt1LyzsWn twitter.com/hiromu...
(14:41:42) [後藤真孝] 今の一連の質疑、情報量が多くて素晴らしいですね :-)
(14:44:38) [中野倫靖] (3) 作業用BGMに特化した楽曲推薦システム◎矢倉大夢 (筑波大), 中野倫靖, 後藤真孝 (産総研)
(14:45:40) [中野倫靖] PCで作業をする時に聴く音楽(作業の集中度を高める)
(14:46:06) [中野倫靖] 学生75.7%が作業中に聴く
(14:46:19) [中野倫靖] とても好きな曲、とても嫌いな曲は集中度が下がる
(14:46:39) [中野倫靖] 好き、どちらともいえない、嫌いな曲は集中度を上げる
(14:46:49) [中野倫靖] 既存研究は、とても好きな曲も推薦してしまう
(14:47:17) [中野倫靖] スキップ、もっと聴くボタン
(14:47:30) [中野倫靖] 「嫌い」な曲は除外する(モチベーション向上のため)
(14:48:18) [中野倫靖] ユーザが聴取している曲をどう思っているか(嗜好度)を決定→次に再生する曲を決定
(14:48:41) [中野倫靖] 嗜好度の決定:もっと聴くボタンで「好き」、スキップで「嫌い」
(14:48:49) [中野倫靖] 何もしなければ、「どちらともいえない」
(14:48:59) [中野倫靖] 既存研究Pampalk+,2005
(14:49:37) [中野倫靖] スキップされた楽曲(嫌い)に似ておらず、スキップされなかった楽曲(好き)に似た楽曲を推薦する
(14:50:12) [中野倫靖] これを「もっと聴く」ボタンで拡張する
(14:50:19) [中野倫靖] 何もしなければサビまでダイジェスト再生
(14:50:30) [中野倫靖] 「もっと聴く」ボタンを押すと、最後まで聴ける
(14:50:56) [@1T0T] チャットにログインできない… #sigmus twitter.com/1T0T/s...
(14:51:06) [中野倫靖] 3段階:もっと聴くボタンで「好き」、スキップで「嫌い」、何もしなければ、「どちらともいえない」
(14:51:21) [中野倫靖] 5段階:とても好き、好き、どちらともいえない、嫌い、とても嫌い
(14:51:51) [中野倫靖] 「とても好き」「とても嫌い」は除外したいから5段階で推定する
(14:52:19) [中野倫靖] 集中度の推定:集中している時にわざわざもっと聴くボタンを押すなら、とても好き
(14:53:04) [中野倫靖] 集中度の自動推定には先行研究:外部センサ使う方法、アプリケーションの使用頻度等のソフトウェア的な解決
(14:53:22) [ほあし] このZuger et alの研究に興味が
(14:53:33) [中野倫靖] 今回:外部センサは使わない。短時間(30秒)で推定できるように。
(14:53:42) [中野倫靖] イベントのn-gramのbag-of-features
(14:53:56) [中野倫靖] 中3の時に作ったマルウェア分類を応用した。
(14:54:13) [中野倫靖] キーボード入力、マウス入力、Webアクセス
(14:54:23) [@yukara13] な~にが"""運河"""駅だ。 僻地じゃねーか!!! #sigmus twitter.com/yukara...
(14:55:25) [中野倫靖] 未再生楽曲の嗜好度を決定:Label Spreading(グラフベースの半教師ありアルゴリズム)
(14:55:40) [中野倫靖] 音響特徴空間における、周辺の楽曲の嗜好情報に基づいて推定
(14:56:04) [中野倫靖] 集中度に基づいて、どれを再生するか選別する
(14:56:26) [中野倫靖] 高い集中の時は直前の曲に似ているもの、低い集中の時は直前2曲に似ていないもの
(14:57:37) [中野倫靖] 実装:Songle, Songle Widget, Python, Jubatus, scikit-learn
(14:58:01) [中野倫靖] 評価:集中度の推定精度、嗜好度の決定精度、推薦システムの精度
(14:59:24) [中野倫靖] 正解データ収集:実際にユーザにシステムを使ってもらって、各曲の嗜好度、再生中の集中度を入力してもらった
(15:00:07) [中野倫靖] 集中度の推定精度:行動ログから実際に推定した結果と、ユーザが入力した正解を比較。
(15:00:22) [中野倫靖] 外部センサなしの従来手法より高い精度
(15:00:59) [中野倫靖] 嗜好度の決定精度:推定した集中度とユーザのフィードバック(スキップ等)によって決定した嗜好度と、ユーザが入力した正解を比較
(15:01:17) [中野倫靖] 0.67の相関で嗜好度を決定できた
(15:01:42) [中野倫靖] 集中度が高い時のフィードバックは、嗜好度を強く反映しているという仮説が検証できた
(15:02:27) [中野倫靖] (評価)推薦システムの精度:ユーザの嗜好度と集中度シミュレーションして評価する
(15:03:01) [中野倫靖] 嗜好度のシミュレーションにはソーシャルタグを使った
(15:03:12) [中野倫靖] 10ユーザをシミュレーション
(15:03:22) [中野倫靖] ランダム、もっと聴くのみ(集中度を使わない)と比較
(15:04:04) [中野倫靖] 提案手法が、「何もしない」楽曲を推薦した割合が最も多かった。
(15:04:28) [中野倫靖] 何もしない(好き、どちらともいえない、嫌い)=集中を高めると言われている楽曲群
(15:04:37) [中野倫靖] を推薦できた
(15:05:32) [中野倫靖] Q:東北大学伊藤:集中度のデータを取っているが、その時、被験者は何をしている?
(15:05:52) [中野倫靖] 普段と同じように作業をしていた。何でも良いから作業。
(15:06:47) [中野倫靖] Q:未来大竹川:被験者は「もっと聴く」「好き」などを選択する負荷があるが、ユーザビリティ評価はしているか?
(15:07:42) [中野倫靖] ユーザビリティ評価はしていないが、音楽を聴く行動の中から推定している
(15:07:59) [中野倫靖] ある程度履歴が集まったら、自動推定モードに移行できる
(15:08:10) [中野倫靖] Q:何曲ぐらいやれば良い精度になるノか
(15:08:16) [中野倫靖] 10曲で既に高い精度
(15:08:38) [中野倫靖] Q:筑波大松原:集中度の精度に関して、ホントに集中している時に、とても集中していると答えることは可能か?
(15:09:09) [中野倫靖] ダイアログを表示しているが、先行研究でもそのように評価した。それに則った。
(15:09:36) [中野倫靖] Q:没入感の研究だと、Webカメラで視線・姿勢を取り入れて測っているので、調べてみると良い
(15:10:26) [中野倫靖] Q:集中度というのは、何かをしている時の集中度で、「音楽を聴くというタスク」があると矛盾が生じる
(15:10:52) [中野倫靖] 今回の目的は、作業に集中するために音楽を使いたいというモチベーション
(15:11:55) [中野倫靖] Q:二つの集中を評価しようとしている。メインタスクと音楽鑑賞。その二つを生理指標で取れるものなのか。
(15:12:22) [中野倫靖] Q:この研究のフレームワークは、作業に特化しているが、音楽に特化したら逆の指標などで捉えることができるのでは
(15:12:41) [中野倫靖] Q:産総研深山:楽曲のライブラリは自分で選ぶ?
(15:12:51) [中野倫靖] 今回の評価は、ニコニコ動画上の曲を使っている。
(15:13:02) [中野倫靖] サビ情報のため。
(15:13:35) [中野倫靖] Q:自分が作業する曲を選ぶ時に、好きな曲を集めてしまいがちだけど、本システムによって適切な曲を選ぶということ?
(15:14:07) [中野倫靖] Q:お茶大伊藤:好みに一貫性がないのでは。同じ曲を聴いていると変わる。
(15:15:00) [ほあし] フロー尺度
(15:15:07) [中野倫靖] 嗜好が変わる場合は忘却させる
(15:15:10) [中野倫靖] Q:片寄:評価にフロー尺度がある、能率や集中度。後で説明する。
(15:16:42) [@knoike] #sigmus SIGMUSニコ生中継.ご発表中以外は映像を完全に切ってしまうことにしたのか... .そういえばさっきも主査ご挨拶が見えなかった.中継が始まっていなかったのではなくて,切られていたのか... . twitter.com/knoike...
(15:19:24) [@hoahoa] 次のセッションは10分遅れの15:25開始。#sigmus twitter.com/hoahoa...
(15:30:09) [@knoike] #sigmus 「かなえだん」と読むのだと思い込んでいた... . twitter.com/knoike...
(15:31:39) [@knoike] #sigmus 「15:15-16:45 オーガナイズドセッション【統計的文法理論と構成的意味論に基づく音楽理解の計算モデル】」 | 音楽情報科学研究会 » 第112回 音楽情報科学研究会(夏のシンポジウム) 参加案内 t.co/qoRRgXMshb twitter.com/knoike...
(15:32:13) [@knoike] #sigmus 「(4) トーク & 鼎談 東条敏 (北陸先端大),平田圭二 (公立はこだて未来大),麻生英樹(産総研)」 | 音楽情報科学研究会 » 第112回 音楽情報科学研究会(夏のシンポジウム) 参加案内 t.co/qoRRgXMshb twitter.com/knoike...
(15:32:43) [中野倫靖] 文法の意味と音楽理解:東条敏 (北陸先端大)
(15:32:51) [中野倫靖] 4つの問い1. 音楽を音楽と分かりますか?2. 意味を伝えるって何が伝わるのですか?3. 音楽に文法はありますか?4. 音楽に文法を仮定すると何か良いことありますか?
(15:32:56) [中野倫靖] ダーウィン
(15:34:25) [中野倫靖] 音楽を音楽たらしめるもの:リブレット頼りの無調の音楽
(15:34:53) [中野倫靖] リゲティ:Requiem, Atmosphere (cf. 2001年宇宙の旅)
(15:35:49) [中野倫靖] 音楽は確かに楽しみを与えてくれるものだが、音楽を生み出す能力は、日々の生活に直接役立つものとは言い難い。人間の持つ能力の内でとりわけ神秘的なものである。
(15:36:30) [中野倫靖] はるかな過去には、男も女も、言語によって自らのAIを明確に表現することはできなかったであろう。。。
(15:38:28) [中野倫靖] 音楽のカンブリア爆発(17~19世紀)
(15:38:59) [中野倫靖] 12音平均律と鍵盤楽器の確定
(15:39:05) [中野倫靖] 文化的背景
(15:39:11) [@knoike] #sigmus 「音楽のカンブリア爆発」 たかだか200年くらいの間に起こった(進歩した) twitter.com/knoike...
(15:39:27) [中野倫靖] 岡田暁生:西洋音楽史
(15:40:26) [中野倫靖] 菊地・大谷:憂鬱と官能を教えた学校
(15:41:48) [中野倫靖] バッハ→クラシック音楽の燗熱→否定・破壊・再構築、踏襲・保守、劣化コピー
(15:42:21) [YutoOzaki] 音楽について話されるとき、いわゆるクラシック音楽ばかりが取り上げられるのは偏りがあると思います
(15:42:28) [中野倫靖] 意味が伝わるとは?
(15:42:58) [中野倫靖] 言語の起源:コミュニケーション説vs思考説(思考には言語が必要)
(15:43:36) [中野倫靖] syntax, semantics, pragmatics
(15:44:15) [中野倫靖] Three logicians walk into a bar
(15:45:19) [中野倫靖] pragmatics: シチュエーションと前後のコンテキストによって始めて解釈される
(15:45:46) [中野倫靖] George deLa Tour: Le Tricheru a l'as de carreau
(15:47:04) [中野倫靖] Belief revision
(15:48:14) [中野倫靖] 音楽に文法はあるか
(15:48:19) [中野倫靖] チョムスキー階層
(15:48:41) [中野倫靖] 有限状態オートマトン
(15:48:53) [中野倫靖] 生起言語
(15:48:59) [中野倫靖] 正規言語
(15:49:40) [中野倫靖] カデンツがオートマトンで書けるか?
(15:49:56) [中野倫靖] オートマトンは過去を忘れて良い
(15:50:11) [中野倫靖] カデンツは過去の文脈を覚えてなければならない
(15:50:23) [中野倫靖] 文脈自由言語
(15:51:27) [中野倫靖] プッシュダウンスタック
(15:51:31) [中野倫靖] プッシュダウンオートマトン
(15:51:48) [中野倫靖] グライバッハ標準形
(15:52:19) [@SythonUK] #sigmus を作業用BGMにしつつ火曜のゼミ発表資料を作成しています twitter.com/Sython...
(15:53:12) [中野倫靖] シェンカー理論
(15:53:17) [中野倫靖] GTTMのタイムスパン木
(15:53:45) [@knoike] #sigmus カデンツが CFG じゃないと書けないのか,有限状態オートマトンで済むのか,聞き損なってしまった... . twitter.com/knoike...
(15:54:31) [中野倫靖] 音楽に文法を仮定すると
(15:54:58) [中野倫靖] 認知的意味ー演奏ー楽譜ー形式的意味
(15:55:11) [中野倫靖] 一個一個だと意味が分からないが、つなげてみると意味が分かる
(15:55:20) [中野倫靖] 形式的な意味として木構造を作ることができる
(15:55:33) [中野倫靖] 音にすると認知的意味、情動を受ける
(15:56:47) [中野倫靖] 演奏者と聴取者の思い描く木構造に違いがあるのか
(15:58:01) [中野倫靖] 確率付き文脈自由文法(PCFG)
(15:58:10) [中野倫靖] ウェイブレットによる旋律概形
(15:58:17) [中野倫靖] カテゴリー文法による和声解析
(15:58:28) [@knoike] #sigmus 有限状態オートマトンの略称が思い出せなかったのだけど,ようやく思い出した.DFA.頭に決定性/非決定性をつけるのを忘れていたせいでピンとこなかった. twitter.com/knoike...
(15:58:38) [中野倫靖] タイムスパン木の代数(補元を含む束)
(15:58:50) [中野倫靖] タイムスパン木+プロロンゲーション木
(15:58:57) [中野倫靖] 物理的刺激からの情動の形成
(15:59:09) [@knoike] #sigmus カテゴリー文法による和声解析 twitter.com/knoike...
(15:59:10) [中野倫靖] 深層学習によるタイムスパン木
(16:00:44) [@knoike] #sigmus 「カテゴリー文法」ってなんだろう.大昔に「統語範疇」と呼ばれていたモノそのものだろーか. twitter.com/knoike...
(16:00:50) [yukara] 音楽ってさすがに音じゃないとダメなのかな
(16:01:23) [中野倫靖] 1. 音楽を音楽と分かりますか?⇒「言語⊂音楽説」を買う
(16:01:27) [中野倫靖] 2. 意味を伝えるって何が伝わるのですか?⇒木構造(階層的順序構造・参照構造)を共有すること
(16:01:32) [中野倫靖] 3. 音楽に文法はありますか?⇒文脈自由文法が現存する
(16:01:37) [中野倫靖] 4. 音楽に文法を仮定すると何か良いことありますか?⇒言語の理論を使って新しい科学・技術に展開できる
(16:02:05) [中野倫靖] 産業技術総合研究所 AI研究センター 麻生英樹
(16:02:48) [@knoike] #sigmus 「言語⊂音楽」説.自由度を考えると逆も=もない気がする... .完全に包含関係があるかどうかはわからないけれど... . twitter.com/knoike...
(16:03:01) [中野倫靖] やりたいことは?音楽を言語学、自然言語処理の蓄積を使って解析すること?
(16:03:17) [中野倫靖] 解析だけではない。音楽とはなんだ。
(16:04:15) [@tetsurokitahara] 鼎談、始まりました。 #sigmus t.co/Vky8gBz1xb twitter.com/tetsur...
(16:04:54) [中野倫靖] 音楽で意味を伝えるといった時に、普通は、感情や情動。それが伝わって同調する。
(16:05:04) [中野倫靖] 木構造を伝えますと言われると、それで良いんですかと思う。
(16:05:16) [中野倫靖] 言語の場合は文法がはっきりしているから分かるが、音楽でそれで良いのか。
(16:05:47) [中野倫靖] ドレミレドは音楽か?ドドドドドは音楽か?
(16:05:54) [itoyama] 言語には文字,単語,文法が必要(プログラミング脳的に)
(16:06:05) [中野倫靖] そのレベルの音楽かどうかという議論はまともに扱ってこなかった。
(16:06:29) [@knoike] #sigmus CFG を仮定しているのなら,木構造でいいと思うけど... .木構造ですまないというのであれば,CFG ではない. twitter.com/knoike...
(16:07:08) [中野倫靖] 情動にいきなり取り組むのは正しいのかという疑問はある
(16:08:06) [中野倫靖] 構造を把握することが、それが情動とどう結びつくかを考える
(16:08:36) [中野倫靖] 音楽のメインが情動だというのはもちろんだが、その背景に木構造的なstructureを理解するベースがあるでしょう、ということ。
(16:09:29) [中野倫靖] どこまでが音楽ですか、という問いを考える時に、ランダムな音楽も存在するが、それらはどう考えるか
(16:09:39) [yukara] 音楽に文法があると仮定すると、あえてその文法から外して作ったものは音楽に聞こえないということになるんだろうか
(16:09:55) [@knoike] #sigmus 1900年くらいまでの音楽を対象に twitter.com/knoike...
(16:09:56) [YutoOzaki] そもそもある楽曲や作品を作成した者が、本当に音楽を通して何かしらの意味を伝えようとしているのか、というところも議論できる気がします。
(16:10:04) [中野倫靖] 聴いている人が音楽だと思うかどうか
(16:11:09) [@knoike] #sigmus 「4分33秒」のような「音楽」も CFG で書けるしなぁ... . twitter.com/knoike...
(16:11:46) [中野倫靖] これは文学ですか?
(16:12:00) [中野倫靖] 純文学ですか?のような問い
(16:12:34) [中野倫靖] 自然言語の議論が完成されたかのような議論になっているので、言語がいかに危ういかを認識
(16:12:51) [@knoike] #sigmus 「あたかも自然言語に関する理論が完成されているよう(笑)」 twitter.com/knoike...
(16:13:02) [中野倫靖] 「妹が結婚した男に花束を贈った」
(16:13:06) [中野倫靖] 5種類に解釈
(16:13:28) [中野倫靖] 木構造ができれば何かが伝わるのではなくて、人によって参照している構造が異なる場合がある
(16:13:31) [@knoike] #sigmus 「妹が結婚した男に花束をおくった」 贈った 送った twitter.com/knoike...
(16:13:42) [中野倫靖] 音楽はそれをむしろ期待・推奨するコミュニケーション
(16:14:00) [@knoike] これ,ふつうに係り受け解析するとどうなるかなぁ. RT @knoike: #sigmus 「妹が結婚した男に花束をおくった」 贈った 送った twitter.com/knoike...
(16:14:57) [中野倫靖] 楽譜を相手にしているが、パフォーマンスが間に入る。演奏家による解釈が重要。そうすると、GTTMで解析した結果は、そういう解釈を含めることができるか。
(16:15:16) [中野倫靖] GTTMという枠組みは、そういう可能性を扱えるか?
(16:15:21) [中野倫靖] yes
(16:15:52) [中野倫靖] プリファレンスルール。成立することが望ましいルールがあるから(必ず成立しなければならないわけではない)。
(16:17:05) [中野倫靖] 根本的な疑問。言語と音楽という関係があるから木構造なのか?なぜ木構造なのか?確かに繰り返しやそれらしい構造はあるが。
(16:17:48) [中野倫靖] 最近の言語処理では、木構造(文法)をあまり意識しない。単語の列をニューラルネットにがんがん入れると、文法っぽいモノが学習されるらしく。
(16:17:54) [@knoike] #sigmus 平田さん的には,GTTM の解析結果は唯一に定まるのか! あれって,GPR の段階ですでに複数の結果を仮定していると思うけどなぁ... . twitter.com/knoike...
(16:18:10) [中野倫靖] 明示的な文法はないが、それらしいモノはある。
(16:18:51) [中野倫靖] 認識の基本にゲシュタルトがあるから。総和は部分の和。グループの階層構造を表現する。それを扱うのが木構造。
(16:19:19) [中野倫靖] ディープラーニングの層。
(16:19:21) [YutoOzaki] 確かにsequence-to-sequence learningのような木構造という考え方を用いずにフレーズや音楽を生成する手法は存在しますね
(16:19:29) [中野倫靖] 人間の認知の基本的な構造が木構造。
(16:22:02) [@knoike] #sigmus すごくわかりやすいご説明(お立場).構文構造のようなモノは木構造.深層格のようなモノは別の枠組み,ということだと思う. twitter.com/knoike...
(16:22:56) [YutoOzaki] 19世紀の音楽が世の中のほかの文化圏が考える音楽というものと互換性があるのか、というところも考えさせられます
(16:24:08) [中野倫靖] 音楽研究とAIは関係するか
(16:24:31) [中野倫靖] NIPS, ICMLも音楽ある
(16:24:41) [中野倫靖] ISMIRでもdeep learningセッション
(16:24:43) [中野倫靖] 乖離していない
(16:25:50) [@knoike] #sigmus 「前言を撤回すると,ボクと同じ興味ではない(というだけのこと)」 twitter.com/knoike...
(16:27:16) [中野倫靖] AIでショートショート、絵を描く、音楽を作る、というのはある
(16:28:29) [@knoike] #sigmus そういえば,15年くらい前は,東条先生は CFG よりも LFG で表現しようとされていたような記憶があるけれど,いまは CFG なのかな. twitter.com/knoike...
(16:28:43) [中野倫靖] AIは、クリエイティビティにどう貢献できるのか
(16:28:50) [中野倫靖] 音楽は相当難しいと思う
(16:29:14) [中野倫靖] 不屈の棋士
(16:29:17) [YutoOzaki] Douglas EckはMagenta projectのことを話されているようですね
(16:30:25) [中野倫靖] 将棋はロジカルでclosedな世界だが、音楽にはかなりエモーションが入ってくるので、クリエイティビティがあるか答えにくい
(16:30:42) [中野倫靖] 身体性と結びついている
(16:31:10) [中野倫靖] 試行錯誤と評価を入れることでクリエイティビティ自体は実装可能ではと思う
(16:31:16) [knoike] このセッション,何時までですか? 何分遅れですか?
(16:31:52) [中野倫靖] 10分遅れで開始しました
(16:32:42) [knoike] 中野さん,そうですよね.ということは,浜中さんの時間が短くなるのかな.
(16:33:12) [中野倫靖] 語は何か。
(16:34:44) [中野倫靖] 自然言語処理でも単語とは何かというのは必ずしも自明ではない。教師なしで分割すると、人間の結果と必ずしも一致しない。
(16:34:59) [@knoike] #sigmus 楽譜ベースなのだから,終端記号は音符じゃないの? 形態素が,たとえば,GTTM だったら,GPR で繋がる音符列で. twitter.com/knoike...
(16:36:01) [@knoike] 終端記号に演奏情報は加味されないのか,という質問じゃないのかなぁ. RT @knoike: #sigmus 楽譜ベースなのだから,終端記号は音符じゃないの? 形態素が,たとえば,GTTM だったら,GPR で繋がる音符列で. twitter.com/knoike...
(16:36:16) [中野倫靖] 音楽をこう考えていくことで、知能とは何かということが人工知能コミュニティへフィードバックされると嬉しい。
(16:36:26) [YutoOzaki] 私たちが何を音楽と認知するかは文化的なものによる気がしています
(16:37:06) [@knoike] #sigmus 予稿をざっと読んだけれど,結果の表1 がない(^^;). twitter.com/knoike...
(16:38:10) [中野倫靖] (5) deepGTTM-II: ディープラーニングに基づく拍節構造分析器○浜中雅俊 (京都大), 平田圭二 (公立はこだて未来大),東条敏 (北陸先端大)
(16:38:24) [@knoike] #sigmus 「(5) deepGTTM-II: ディープラーニングに基づく拍節構造分析器 ○浜中雅俊 (京都大), 平田圭二 (公立はこだて未来大),東条敏 (北陸先端大)」 | 第112回 音楽情報科学研究会(夏のシンポ t.co/qoRRgXuQSB twitter.com/knoike...
(16:38:25) [中野倫靖] イングヴェイ・マルムスティーン
(16:39:47) [@knoike] #sigmus deepGTTM の I が見つからない.今日は II. twitter.com/knoike...
(16:40:04) [中野倫靖] 予測ピアノ
(16:40:10) [@em_use] GTTM年表2016年版 #sigmus 増えた twitter.com/em_use...
(16:41:00) [@knoike] #sigmus おっ,地震くる? twitter.com/knoike...
(16:42:34) [@knoike] なかなかの揺れっぷり.東京. RT @knoike: #sigmus おっ,地震くる? twitter.com/knoike...
(16:45:48) [@knoike] #sigmus GTTM.jp なるドメイン. | GTTM – Generative Theory of Tonal Music / Masatoshi Hamanaka t.co/Ze4n1VtUIJ twitter.com/knoike...
(16:46:35) [ほあし] あのポインティングデバイスほしい
(16:47:37) [中野倫靖] GTTMのポリフォニ化
(16:49:25) [@knoike] #sigmus GTTM のポリフォニ対応.別の研究会でディスカッション分析にも使われていた. twitter.com/knoike...
(16:49:57) [中野倫靖] σGTTM / pGTTM: 確率に基づくGTTM実装
(16:50:10) [中野倫靖] 時間がかかる
(16:50:18) [中野倫靖] ディープラーニングの導入
(16:50:40) [中野倫靖] 検討すべき点:マルチタスクの識別問題である
(16:50:53) [中野倫靖] 白雪構造分析
(16:50:57) [中野倫靖] 拍節
(16:52:35) [中野倫靖] マルチタスクの識別問題(階層方向)
(16:52:45) [中野倫靖] マルチタスク深層学習を行う
(16:52:50) [@knoike] #sigmus 何か違う気がするけれど,ここではそれを「マルチタスク」と呼ぶことにしているらしい... . twitter.com/knoike...
(16:52:53) [中野倫靖] 大量の学習データが必要となること
(16:53:20) [中野倫靖] プレトレーニング:15,000曲(Web)、ファインチューニング:300曲ラベル付きデータ
(16:53:45) [中野倫靖] 300曲がWebからダウンロードできるようになっている
(16:54:10) [中野倫靖] 一部は、複数の構造があるが、片方を採用した。
(16:55:02) [@knoike] #sigmus あっ,300曲のラベルつきデータは,人に構造が異なるときには,恣意的にひとつだけを選んであるのか.ずるい... . twitter.com/knoike...
(16:55:03) [中野倫靖] 計算に時間がかかる:Intelと共同研究をする
(16:55:17) [@knoike] #sigmus あっ,300曲のラベルつきデータは,人によって構造が異なるときには,恣意的にひとつだけを選んであるのか.ずるい... . twitter.com/knoike...
(16:55:40) [中野倫靖] GPGPU⇒Haswell-EP
(16:56:05) [中野倫靖] deepGTTM-II:DBNで構成
(16:56:14) [@knoike] #sigmus Intel Theamo 使用. twitter.com/knoike...
(16:56:40) [中野倫靖] 入力:各音符(オンセット、オフセット、ベロシティ、ピッチ)、階層的なグルーピング境界
(16:56:59) [中野倫靖] 出力:(1つの階層につき)7種類のMPR、その階層の拍節構造
(16:57:14) [中野倫靖] 従来より高性能
(16:58:14) [@knoike] #sigmus もしかして,今回は, MPR だけ? twitter.com/knoike...
(16:59:18) [中野倫靖] 階層的なグルーピング構造を入れないと全然ダメだった
(16:59:36) [@knoike] #sigmus あー,わかった.I がグルーピング構造分析,II が拍節構造分析,III がタイムスパン分析,IV がプロロンゲーショナル分析か! twitter.com/knoike...
(17:00:18) [@knoike] #sigmus えー,MPR 分析って,そんなに一生懸命やる必要ってあったかなぁ... .deep learning するまでもなかったような... . twitter.com/knoike...
(17:00:55) [中野倫靖] 学習規則を入れていけば、様々なジャンルの曲に対応可能だと思う
(17:01:51) [中野倫靖] F値=0.96は驚異的な数字。高次な判断を間違える。
(17:02:00) [@knoike] #sigmus MPR で F値が 0.9 以上いくのって驚異的かなぁ? twitter.com/knoike...
(17:02:33) [中野倫靖] ここでの判断が、次のタイムスパン分析に効いてくるので、もっと上げたい。
(17:02:43) [@knoike] 平田さん,いいツッコミ.その間違った 4% が何か知りたいよー. RT @knoike: #sigmus MPR で F値が 0.9 以上いくのって驚異的かなぁ? twitter.com/knoike...
(17:03:02) [中野倫靖] まだ入れていないルールによるかもしれない。
(17:03:11) [中野倫靖] タイムスパン木から拍節にフィードバックすると性能が上がることがあるので、先に進めて検証。
(17:03:22) [@knoike] そういうことらしい.deepGTTM-n の n の意味. RT @knoike: #sigmus あー,わかった.I がグルーピング構造分析,II が拍節構造分析,III がタイムスパン分析,IV がプロロンゲーショナル分析か! twitter.com/knoike...
(17:15:28) [中野倫靖] 17:00-18:30 【音響信号処理・プログラミング環境】 (3件)座長: 前澤陽(ヤマハ株式会社)
(17:15:34) [中野倫靖] 6) 調・コード・音高・スペクトログラムの階層ベイズモデルに基づく多重音解析◎尾島優太, 中村栄太, 糸山克寿, 吉井和佳 (京都大)
(17:16:39) [nameless] テスト
(17:16:46) [中野倫靖] 自動採譜:既存の曲を容易に編曲、楽譜が存在しない演奏を自分の演奏で再現できる
(17:17:14) [中野倫靖] 10ms単位で音高推定
(17:17:28) [中野倫靖] 音高とコードの間には大きな関係
(17:17:47) [中野倫靖] コードの構成音が出現しやすい
(17:18:17) [中野倫靖] コード進行も同時推定
(17:18:42) [中野倫靖] コード構造も同時推定
(17:21:14) [yukara] 全部ピアノって逆にむずそう
(17:21:23) [nameless] 多重音解析の研究だと,推定ミスはどういう間違いかたをしやすいんでしょう
(17:21:38) [中野倫靖] 調⇒コード進行⇒ピアノロール⇒混合音スペクトログラム
(17:22:30) [中野倫靖] 言語モデル:調⇒コード進行⇒ピアノロール
(17:22:37) [中野倫靖] 音響モデル:ピアノロール⇒混合音スペクトログラム
(17:22:45) [中野倫靖] 音響モデル:NMF
(17:23:18) [中野倫靖] binary-NMF: 2値変数S(ピアノロール)
(17:23:25) [tnkmr] どのぐらいの曲長を想定しているんだろ.曲が長いほど言語モデルは学習しやすそうだけど
(17:24:04) [nameless] 例えば,同時にD3とD4が鳴るようなケースって推定できるのかな?(和音の組み合わせにより詰みそうな気もする
(17:24:05) [@yoshipon0520] 逆ガンマ? #sigmus twitter.com/yoship...
(17:24:22) [中野倫靖] 調波構造:ガンマ分布(スパース)、アクティベーション:逆ガンマ分布(非スパース)
(17:24:44) [yukara] BinaryNMF、最後にthresholding するよりはよさそう
(17:30:52) [中野倫靖] MAPSデータベース
(17:31:54) [中野倫靖] 変Q変換?
(17:31:55) [yukara] 定Qだと高域がきついんだろうか
(17:32:16) [itoyama] 和音はピッチクラスの出現しやすさを与えるので,オクターブが違う音高が同時に現れるケースは扱える(はず)です
(17:32:46) [tnkmr] varying Q transformはたしか1,2年前のmirexで使ってた人いたはず
(17:33:03) [nameless] おー,そういうものなんですね>itoyama先生
(17:33:11) [itoyama] variable-Q tranform www.cs.tut.fi/sgn/...
(17:33:20) [inuchi] なるほど。
(17:33:35) [中野倫靖] おお
(17:36:33) [inuchi] 転調は?
(17:36:57) [中野倫靖] Q:事前学習はどういうデータ?
(17:37:16) [中野倫靖] 30曲のデータ中、29曲使う。
(17:37:27) [nameless] この手の研究の評価って,和音の種類やコード進行によって難易度が変わりそうな気がするんですけど,全体での精度だけで良いものなんでしょうか
(17:37:50) [中野倫靖] Q:時間分解能を学習とテストで揃えないと、強すぎる制約なのでは。
(17:38:43) [yukara] 同時推定のモチベーション
(17:41:19) [原(@mactkg)] 会場内が寒くないですか?::寒い::そうでもない::むしろ暑い
(17:42:34) [原(@mactkg)] (会場の都合上仕方ない可能性も…? と思いましたが聞いてみました)
(17:44:45) [tnkmr] variable-Q transformは確か,人間の聴覚に合わせて決めてたはず
(17:45:21) [tnkmr] 500Hzぐらいまでは周波数分解能が線形となるように,滑らかにQ値を変えてたはず
(17:45:36) [nameless] 変Q変換は自由度を高めたWaveletって感じですかね
(17:46:45) [tnkmr] コード境界だと非和声音が出やすいとかあるんであれば,各コードに2状態以上のHMMとか使えばいいのではなかろうか
(17:47:10) [yukara] 解析系のタスクだし、変/定Qを使うモチベーションが「人間の聴覚特性に合わせる」
(17:47:28) [yukara] っていうのはたぶん建前だろうな..
(17:47:33) [@mactkg] 直近2セッション同じ研究室なのかな? 発表のスライドのデザインが統一されていていいな #sigmus twitter.com/mactkg...
(17:48:41) [nameless] やはり,歌声のF0をFOと書くのは普及していないねw
(17:49:40) [中野倫靖] (7) 歌声F0軌跡に対する音符推定のためのベイジアン準ビート同期HMM◎錦見亮, 中村栄太, 糸山克寿, 吉井和佳 (京都大)
(17:49:57) [yukara] 大石さんのやってたモデルっぽい
(17:51:11) [yukara] FO軌跡みただけで、どの曲か分かるな
(17:54:09) [中野倫靖] ビートは緑?
(17:55:30) [yukara] リズム感ない歌手でも対応できる
(17:57:29) [tnkmr] F0のデルタで出力分布を制御するのがキーなのかな
(18:01:11) [yukara] 演歌みたいにしゃくってる場合、音符の正解(の解釈)が一意じゃないからむずそう
(18:04:00) [inuchi] ん?
(18:04:09) [yukara] 実験結果も FO 推定手法の出力を入力にしてるのかな。
(18:04:09) [中野倫靖] 元の曲を知らないと、正しいかどうかを聞いて判定するの難しそう。
(18:04:50) [@hoahoa] #sigmus に参加してる人はRWCの曲のメロディを全部覚えてるんだろうか twitter.com/hoahoa...
(18:04:50) [yukara] このモデルを評価するためには、アノテーションされた正解FOを入力にしないとダメな気がするけど
(18:05:43) [中野倫靖] のっぺりしたような
(18:05:46) [nameless] 同じ音高のF0が繋がってる?
(18:07:07) [nameless] さっきからの音のミスはどこのバグなんだろう
(18:07:46) [中野倫靖] (寒くなってきた)
(18:08:21) [@mactkg] 18:15すぎから、DJプレイをプログラミングしてコンピュータとB2Bするぞ! な研究を発表します。荒削りですがお時間あれば 中継: t.co/3ekoeNNvxn プログラム:t.co/ST1i954UJs #sigmus twitter.com/mactkg...
(18:10:50) [後藤真孝] もし質疑時間が余ったら、実験デモで結果を見せていた楽曲の、原曲を流してもらうのはいかがでしょうか? > 座長
(18:11:24) [後藤真孝] RWC-MDBとはいえ、聴いたことがない人ももしかしたらいるかも知れないので。。
(18:14:20) [後藤真孝] 今の二件を含むOngaCRESTシンポジウム2016 ongacrest.jp/sympo... の事前参加登録〆切が、明日なので、もしご興味のある方がいらしたらどうぞよろしくお願いします
(18:15:46) [knoike] ニコ生,質疑応答モードで,スライドがみえないそうです.
(18:16:11) [中野倫靖] (8) DJシステムと密に連携したプログラミング環境◎原健太 (明治大), 加藤淳, 後藤真孝 (産総研)
(18:16:37) [中野倫靖] B2B:二人でのDJ
(18:16:48) [中野倫靖] 一人(2本の手)では行えない演奏
(18:17:50) [knoike] ところどころ中継NGなご発表だったのですね.
(18:18:44) [中野倫靖] DJプレイをプログラミング可能に
(18:19:02) [中野倫靖] DJ中にプログラムも変化させる
(18:19:15) [中野倫靖] Live Programming
(18:22:15) [中野倫靖] PCDJ操作+タイミング制御(小節・拍の頭出し)+DJプレイの大局的構造
(18:23:01) [中野倫靖] ライブ開始
(18:25:49) [@knoike] #sigmus Back-to-back を略して B2B というらしい.(business to business ではなく) twitter.com/knoike...
(18:29:00) [中野倫靖] ライブ:つまみが自動的に動く
(18:31:11) [中野倫靖] つまみが光ってる
(18:31:43) [帆足] 夜のディスカッションのBGMはこれでいきましょう
(18:33:34) [yukara] DJ中にプログラム書くの、次世代DJって感じする
(18:34:48) [inuchi] かっこいー
(18:34:57) [yukara] ある意味エフェクトの追加っぽい
(18:35:28) [itoyama] プログラムすることで複雑な操作の使い回しができるというのは、いい感じのUIがあればかなり発展しそう
(18:35:48) [inuchi] デバッグみたいな
(18:36:08) [伊藤@お茶] ディスカッションに集中できるDJ #とは
(18:42:13) [中野倫靖] Q
(18:42:14) [中野倫靖] :
(18:42:21) [中野倫靖] 教育用途は?
(18:42:36) [中野倫靖] Q:B2Bのおもしろさに、予想外という点があるのでは
(18:42:42) [ham] あらゆる機器にキーマクロがあればいいのに
(18:42:46) [中野倫靖] Q:実際のミックスからプログラムを構築できるか
(22:12:03) [@hoahoa] ゆるい感じで夜のディスカッション始まってます。#sigmus t.co/FdVA3uNARM twitter.com/hoahoa...
(00:41:04) [@yukara13] スヌーピーのイヤホンジャック失くした... 見つけた人は教えてほしい... #sigmus twitter.com/yukara...
(08:58:46) [平井辰典] ~~~~~2日目~~~~~~~~
(09:00:09) [平井辰典] ◎情処会誌「音楽を軸に拡がる情報科学」特集連携講演
(09:03:27) [平井辰典] 特集記事の内容+ご自身の研究で10分ずつ、9名のご講演
(09:04:13) [中野倫靖] チャットの有効的な使い方を模索中です。
(09:04:22) [中野倫靖] 説明を聞き逃したりした助けになるように「昨日は発表内容を記録する」というトライをしてみました。
(09:04:43) [平井辰典] 音楽と音声情報処理 / 齋藤大輔(東大)
(09:05:44) [中野倫靖] 皆が少しずつ入力すれば、楽に、かつ情報を多くできそうかなと思っています。
(09:07:14) [中野倫靖] とはいえ、皆様、やりたいように、やるべきことをお互い考えて良いチャットにできれば嬉しいです!
(09:07:28) [中野倫靖] 音の情報処理の俯瞰
(09:07:33) [中野倫靖] 理解の技術、再現の技術
(09:07:49) [中野倫靖] 理解:認識、採譜、識別
(09:07:58) [中野倫靖] 再現:合成、適応、変換
(09:08:21) [中野倫靖] 音声理解のための技術:音声認識、話者認識、言語識別、感情・状態推定
(09:09:27) [中野倫靖] (「同感)
(09:10:00) [中野倫靖] (チャット文章右にある「同感」ボタンを押すと、そのチャット文章を大きくできますので、強調したい文章は同意すると良いと思います。)
(09:10:26) [中野倫靖] 自動採譜、歌唱音声認識、歌唱者認識、楽器認識、ジャンル推定、演奏者認識
(09:10:53) [中野倫靖] 音声認識vs自動採譜。音楽は混合音。音響モデルと言語モデルの統合アプローチの位置付け。
(09:11:05) [@hoahoa] #sigmus 夏シンポ二日目開始。このあと、登壇します! twitter.com/hoahoa...
(09:11:11) [中野倫靖] 話者認識vs楽器認識。音声では楽器の違い=声道特性の違い
(09:11:24) [中野倫靖] 言語識別vsジャンル推定
(09:11:39) [中野倫靖] 感情・状態推定vs演奏者認識
(09:13:34) [中野倫靖] ちなみに歌声は、声種、性別、年齢、身体サイズ、人種、声区、印象、感情、歌唱力、熱唱度、言語、楽曲ジャンルの認識研究があります。
(09:13:58) [中野倫靖] 音声合成、話者適応、声質変換
(09:14:02) [中野倫靖] 感情音声合成:CTS
(09:14:06) [中野倫靖] テキスト音声合成:TTS
(09:14:23) [中野倫靖] 歌声合成、楽音合成、自動演奏表情付け
(09:15:18) [中野倫靖] テキスト音声合成vs歌唱音声合成。継続長、音高、ビブラート
(09:15:25) [中野倫靖] 分析合成技術vs楽音合成
(09:15:42) [中野倫靖] 話者適応vs演奏表情付け。基本となる発話、演奏に情報を付与する技術
(09:15:50) [中野倫靖] 話者適応は自然性ではなくて柔軟性を重視
(09:15:56) [中野倫靖] 演奏表情付けは人間らしさを重視
(09:17:21) [平井辰典] 音楽とコンテンツ生成 / 深山覚(AIST)
(09:17:55) [中野倫靖] 音楽コンテンツの自動生成とは、コンピュータを使って音楽情報(楽譜・音響・歌詞など)を生成
(09:18:29) [中野倫靖] 研究の意義:工学的(創作支援)、科学的(創作過程の解明)、芸術的(初の作品)
(09:19:30) [中野倫靖] 初の作品:コンピュータを用いるからこそ、の作品
(09:19:49) [中野倫靖] 自動生成タスクの種類:楽譜、演奏、音響、歌詞
(09:20:54) [中野倫靖] 自動作曲のレジェンド1
(09:21:17) [中野倫靖] ILLIAC Suite (1957), Lejaren Hiller & Leonard Isaac
(09:21:36) [中野倫靖] 電子計算機を用いた最初の作曲、電子計算機ILLIAC I を利用。弦楽四重奏曲。
(09:22:03) [中野倫靖] 確率的な状態遷移と評価モジュールで作曲。ヴァイオリン×2、ヴィオラ、チェロ
(09:22:17) [中野倫靖] 昔からコンピュータで音楽を生成したいという想いがあった
(09:22:20) [中野倫靖] 化学者
(09:22:40) [中野倫靖] 接続された結果をルールに基づいて評価、良ければ採用でダメなら再び生成
(09:22:58) [中野倫靖] イリアック組曲
(09:23:31) [@yukara13] 不安になる音楽だ #sigmus twitter.com/yukara...
(09:23:46) [中野倫靖] 自動作曲のレジェンド2
(09:23:59) [中野倫靖] Experiments in Musical Intelligence ('90, '00)
(09:24:06) [中野倫靖] David Cope
(09:24:19) [中野倫靖] 過去の作曲家スタイルの再現:バッハ、ベートーベン
(09:24:37) [中野倫靖] 曲の素片のコレクションから選んだ素片を接続。データベースを活用した自動作曲法、クオリティが高い。
(09:25:16) [@hoahoa] パソコン取り上げられてるのでチャットに参戦できない。。 #sigmus twitter.com/hoahoa...
(09:26:03) [中野倫靖] 自動作曲のレジェンド3
(09:26:08) [中野倫靖] Continuator (2002)
(09:26:15) [中野倫靖] Francois Pachet
(09:26:22) [中野倫靖] 確率モデルに基づいた予測
(09:26:26) [中野倫靖] 音符単位で自動作曲
(09:26:35) [中野倫靖] 入力に応じてインタラクティブに旋律を生成。バトル。
(09:27:31) [中野倫靖] françois pachet
(09:27:54) [中野倫靖] The Continuator: Musical Interaction With Style csl.sony.fr/downlo...
(09:28:11) [@yukara13] Pachet 氏ってひょっとして SONY CSL の #sigmus twitter.com/yukara...
(09:28:31) [中野倫靖] 自動生成パラダイム::三つの自動生成法(ルールベース、事例ベース、機械学習ベース)
(09:28:59) [中野倫靖] ILLIAC Suite(ルール), EMI(事例), Continuator(機械学習)
(09:29:05) [中野倫靖] 音楽音響データに基づく自動作曲
(09:29:14) [中野倫靖] 今までは「データが足りなかった」
(09:29:38) [中野倫靖] パラダイムシフト。音楽音響信号から分析した結果を使った機械学習ベースの手法が発達する可能性。
(09:29:49) [中野倫靖] 創作支援目的の自動作曲の条件
(09:30:07) [中野倫靖] 品質とバラエティの両立(品質が高くても似た曲ばかりの生成)
(09:30:17) [中野倫靖] 自分らしさが出せない
(09:30:43) [中野倫靖] 簡便さと自由な編集のトレードオフ(全自動作曲は自分の好みが生かせない、細かいディティールの入力:大変)⇒HCI
(09:32:09) [中野倫靖] 音楽と機械学習 / 吉井和佳(京都大)
(09:32:37) [中野倫靖] 計算機科学のあらゆる分野への機械学習の導入が進んでいる
(09:32:41) [中野倫靖] 導入速度に違いがある
(09:33:06) [中野倫靖] 感度の高い分野(arXivに掲載された翌日には実装が出回るレベル)
(09:33:33) [中野倫靖] 画像処理(ICCV, CPVR)、音声認識(ICASSP, Interspeech)、自然言語処理(ACL, EMNLP)
(09:33:45) [中野倫靖] 感度の低い分野:音楽情報処理(ISMIR, SMC)
(09:34:04) [中野倫靖] 音楽は他分野へ輸出できるような技術があまりない。問題によって実装が異なる。
(09:34:08) [中野倫靖] 我々はどうすべきか
(09:34:18) [中野倫靖] 音楽ならではの新しくて普遍的な問題を定式化しよう
(09:34:36) [中野倫靖] 工学+科学
(09:34:56) [中野倫靖] 確立された「認識タスク」の精度勝負だと物量で負ける
(09:35:08) [中野倫靖] ISMIRの動向を調べてみた
(09:35:26) [中野倫靖] 今年の論文113件を解析。LDA+可視化(タグクラウド)
(09:35:39) [中野倫靖] LDA:引用数15,311
(09:35:52) [中野倫靖] 使えないとモグリ
(09:36:03) [中野倫靖] テキスト抽出(記号&ストップワード除去)
(09:37:00) [中野倫靖] トピック数20で解析
(09:37:21) [中野倫靖] 最初のトピックは一般用語の集合なので頻出する
(09:37:34) [中野倫靖] HDP-LDA, Dynamic topic mode, Correlated topic model
(09:37:52) [中野倫靖] 一般単語:information, data, dataset, using, results
(09:38:11) [中野倫靖] トピック2:アノテーション・データ:melody, annotation,
(09:38:18) [中野倫靖] トピック3:特徴量・類似度
(09:38:34) [中野倫靖] Feature space:
(09:38:39) [中野倫靖] 特徴量自身を学習
(09:38:49) [中野倫靖] トピック4:ディープラーニング
(09:38:55) [中野倫靖] ピアノ、タギング、コード
(09:39:02) [中野倫靖] トピック5:楽譜データ
(09:39:12) [中野倫靖] score, OMR,
(09:39:18) [中野倫靖] トピック6:評価
(09:39:21) [中野倫靖] evaluation
(09:39:36) [中野倫靖] トピック7:テンポ・ビート
(09:39:50) [中野倫靖] ニューラルネット系が台頭
(09:39:54) [中野倫靖] トピック8:歌唱表現
(09:40:12) [中野倫靖] ビブラート、portamento
(09:40:20) [中野倫靖] トピック9:ドラム
(09:40:28) [中野倫靖] ニューラルネットを用いるのが標準的
(09:40:45) [中野倫靖] ピアノ打鍵時の非調波成分
(09:40:50) [中野倫靖] 10:MIDI
(09:40:59) [中野倫靖] 11:メロディ分離・構造解析
(09:41:13) [中野倫靖] 楽譜に対してもメインメロディ分析
(09:41:20) [中野倫靖] 12:アルゴリズム・確率モデル
(09:41:30) [中野倫靖] 木構造
(09:41:33) [中野倫靖] 階層構造
(09:41:40) [中野倫靖] 13:ユーザスタディ
(09:41:44) [中野倫靖] ISMIR多い
(09:41:55) [中野倫靖] 14:セグメンテーション・インド音楽
(09:42:02) [中野倫靖] インド音楽毎年一定以上
(09:42:05) [中野倫靖] 15:メロディ
(09:42:11) [中野倫靖] 16:ネットワーク
(09:42:21) [中野倫靖] コラボ、トポロジー
(09:42:25) [中野倫靖] 18:音楽サービス
(09:42:32) [中野倫靖] 19:判断・脳
(09:42:37) [中野倫靖] EEG
(09:42:49) [中野倫靖] 20: 音源分離・辞書学習
(09:43:28) [中野倫靖] 再審議法を積極的に:専門家の判断(ユーザスタディ)からデータドリブンアプローチへ
(09:43:34) [中野倫靖] 最新技法
(09:44:33) [中野倫靖] Q:自動作曲の中で、品質が高くて、ばらつきが大きいといたが、それをどう判断しているのか
(09:45:21) [中野倫靖] 品質とは何か、バラエティとは何かを議論すべき
(09:45:23) [中野倫靖] モーツァルト作品を3小節単位で切り貼りしたら3小節のクオリティはモーツァルトクオリティ
(09:45:31) [中野倫靖] ただし、モーツァルト的なモノしかできない
(09:45:42) [中野倫靖] Q:主観をどう組み込むか?
(09:45:53) [中野倫靖] 楽器経験が豊かな人を連れてきて評価する方法はあると思う
(09:46:29) [中野倫靖] Q:生成系タスクでのDNNの用いられ方はどうか?
(09:46:44) [中野倫靖] 音楽の生成クオリティはまだまだ
(09:46:49) [中野倫靖] リズムがDNNだとやりにくい
(09:46:53) [中野倫靖] 局所的に見ると正しい
(09:47:08) [中野倫靖] 楽曲構造が出ない
(09:47:41) [中野倫靖] Q:画像だとCNN?音楽だとどれがありか傾向がある?
(09:47:42) [中野倫靖] RNN
(09:47:45) [中野倫靖] が多い
(09:47:56) [中野倫靖] 画像にキャプション付けたり、自然言語を付与するのはRNN
(09:48:07) [中野倫靖] 言語は単語というものを繋ぐというやりやすさがある
(09:48:21) [中野倫靖] 音楽の場合、音符一個一個に意味がなくて、それを階層的にやる必要がある
(09:48:27) [中野倫靖] 非同期しながら重なっているところが扱えていない
(09:48:53) [中野倫靖] 音楽と情報検索(帆足啓一郎、KDDI研究所)
(09:49:44) [中野倫靖] 音楽検索の研究動向
(09:49:54) [中野倫靖] 黎明期(2000年):音響特徴ベース、ISMIR開始
(09:50:19) [中野倫靖] 変遷期(2000年代半ば):メタ情報ベース
(09:50:27) [中野倫靖] Last.fm、Webマイニング
(09:50:31) [中野倫靖] ソーシャルタグ、再生履歴
(09:50:50) [中野倫靖] 現在:研究テーマが多様化
(09:51:11) [中野倫靖] ISMIR2000タグクラウド
(09:51:39) [中野倫靖] kmusic,
(09:51:44) [中野倫靖] music, information, retrieval
(09:51:50) [中野倫靖] ISMIR2015タグクラウド
(09:51:57) [中野倫靖] music, +色々
(09:52:13) [中野倫靖] model, audio,
(09:52:20) [中野倫靖] 音楽配信サービスの変遷
(09:52:35) [中野倫靖] ダウンロード型⇒ストリーミング型
(09:52:47) [中野倫靖] サービス変遷による検索の変化
(09:53:10) [中野倫靖] 特定の曲を探したい(ダウンロード型)⇒今聴きたい曲を流して欲しい(ストリーミング)
(09:53:33) [中野倫靖] Google play music音楽のある生活・ランニング編
(09:53:40) [中野倫靖] www.youtube.com/wa...
(09:54:09) [中野倫靖] ランニング用BGM
(09:54:26) [中野倫靖] 最近の音楽検索?
(09:54:44) [中野倫靖] 30秒で3回:ラストスパート、癒やされたい、エナジー前回
(09:54:47) [中野倫靖] エナジー全快
(09:54:54) [中野倫靖] エナジー全開
(09:54:57) [中野倫靖] ()
(09:55:03) [中野倫靖] 何が違う?
(09:55:12) [中野倫靖] ダウンロード型サービス:厳密性・正確誌を重視
(09:55:20) [中野倫靖] ストリーミング型:発見性・ユーザ体験を重視
(09:55:55) [中野倫靖] 後者の特徴:クエリが曖昧(ユーザ自身も定義できない)、周辺状況によって精度・満足度が変化(同じ楽曲リストでも再生順序によって印象が変わる)
(09:56:12) [中野倫靖] ストリーミングサービスでの検索方法
(09:56:19) [中野倫靖] 同じテーマの楽曲を集めた「チャンネル」を選択
(09:56:55) [中野倫靖] アーティスト関連、テイラースウィフトでもそれ以外のアーティストも
(09:57:06) [中野倫靖] コンテキスト関連:洋楽気分で夏気分ヒートアップ
(09:57:16) [中野倫靖] 「チャンネル」の作り方(推測)
(09:57:30) [中野倫靖] 再生履歴に基づくレコメンド(協調フィルタリング)
(09:57:33) [中野倫靖] 人手による選曲
(09:57:42) [中野倫靖] Songza社
(09:57:58) [中野倫靖] これでいいの?
(09:58:11) [中野倫靖] 検索関連の研究テーマ(私見)
(09:58:27) [中野倫靖] 「チャンネル」の自動生成:楽曲特徴、周辺状況(曜日、時間帯、天気)
(09:59:04) [中野倫靖] 「検索」させない検索
(09:59:11) [中野倫靖] 検索の仕方が分からない受動的ユーザを助ける
(09:59:18) [中野倫靖] ユーザの状況・思考をそのまま検索クエリか
(09:59:21) [dsk_saito] 「冷静に考えればよくわからない」ってことは「チャンネル」って結構ボワッとしたものになるから、評価は難しいよね。
(09:59:36) [中野倫靖] 音楽ストリームの評価:流れている曲が合っているか。満足度、体験をどう評価するか。
(10:00:00) [中野倫靖] 音楽とヴィジュアライゼーション(伊藤貴之、お茶大)
(10:01:47) [中野倫靖] 大規模な情報の俯瞰
(10:02:19) [中野倫靖] 要約、定量化が難しいもの(感性・主観)、対話操作
(10:02:27) [中野倫靖] gakkyoku /
(10:02:36) [中野倫靖] 楽曲・奏者集合の分布の可視化
(10:02:40) [中野倫靖] 特定楽曲の進行・構造の可視化
(10:03:16) [中野倫靖] 音楽可視化のサーベイ論文
(10:03:29) [中野倫靖] donald, holm, itoh
(10:03:39) [中野倫靖] 音楽情報の可視化技術の分類
(10:03:43) [中野倫靖] 1曲?集合_
(10:03:47) [中野倫靖] 専門家向け?一般向け?
(10:03:50) [中野倫靖] 楽譜?音響_
(10:03:53) [中野倫靖] 表現形式?
(10:03:57) [中野倫靖] 対話処理の有無?
(10:04:06) [中野倫靖] clan
(10:04:17) [中野倫靖] MusiCube: 音楽推薦結果の可視化
(10:05:31) [中野倫靖] 気に入った曲が赤、気に入らなかった曲は青
(10:05:46) [中野倫靖] 散布図で表示することによって、ユーザがどれを好きになって、どれを好きにならなかったかを
(10:06:01) [中野倫靖] 見た時とみなかった時で、ユーザの好き嫌いが変わる
(10:06:16) [中野倫靖] 速くシステムがユーザの好みを学習する(性能が上がる)
(10:06:50) [中野倫靖] 被験者の類似度を視覚的に確認できる
(10:06:57) [中野倫靖] Colorscore
(10:07:01) [中野倫靖] 大きな1曲の構造を可視化する
(10:07:21) [inuchi] Cubeってことは、立方体?
(10:08:28) [inuchi] つくってもらったw
(10:09:10) [中野倫靖] 音楽定額配信時代のインタフェース、ビジュアルアプリ、アナログ時代の音楽鑑賞手段(ジャケ買いなど)
(10:09:34) [中野倫靖] 開発環境の充実、評価基準の確立、キラーアプリの確立、研究者コミュニティの形成
(10:09:45) [中野倫靖] 可視化は日本ではマイナー
(10:10:01) [中野倫靖] 音楽とWeb(濱崎雅弘、産総研)
(10:10:16) [inuchi] 音楽可視化コミュニティ...つくりましょう。^ー^
(10:10:46) [中野倫靖] Webで変わる音楽体験:音楽を発信する手段、聞く手段、情報源、コミュニケーションの場
(10:11:26) [中野倫靖] 手軽に発信、膨大な音楽を楽しむ、手軽に情報を探せる、色々な人(仲間)を探せる
(10:12:28) [中野倫靖] アーティスト名を間違えたりして覚えていても、同じ間違いをしている人がいるから見つけられたりする
(10:12:34) [inuchi] wwww
(10:13:29) [中野倫靖] ソーシャルデータ基盤としてのWeb、サービス基盤としてのWeb
(10:13:45) [中野倫靖] 楽譜や音響信号からは獲得困難な利き手の解釈や反応を得られる
(10:13:57) [中野倫靖] ユーザ参加による研究推進、Webサービスによる成果発表
(10:14:16) [中野倫靖] ソーシャルタグ⇒ジャンル推定、マイクロブログ⇒人気度推定
(10:14:59) [中野倫靖] コメント分析:視聴者のコメントで検索できる
(10:15:14) [inuchi] wwww
(10:15:14) [中野倫靖] うらやましい声、ギター頑張れ、みたいな素直な反応で検索できる
(10:15:31) [dsk_saito] ギターがんばれw
(10:15:50) [中野倫靖] Songrium コメント分析 comment.songrium.j...
(10:16:12) [中野倫靖] Songle songle.jp/
(10:16:19) [中野倫靖] Web
(10:16:24) [中野倫靖] Webネイティブな音楽
(10:16:42) [dsk_saito] コンテンツの発表と評価が同じプラットホーム(Web)に乗ってるから実現できるってことだろうな...
(10:16:42) [中野倫靖] Webで生まれ、視聴され、フィードバックを受け、派生が生まれる音楽
(10:17:02) [inuchi] ネイティブなのかなー。
(10:17:09) [中野倫靖] VOCALOID音楽@ニコニコ動画、が典型的
(10:17:21) [中野倫靖] オリジナル楽曲を公開、派生、重畳コメントによるフィードバック
(10:17:25) [中野倫靖] Webネイティブ音楽とは
(10:17:33) [中野倫靖] new original songs are first released on the web
(10:17:57) [中野倫靖] creators do not hesitate to create and release derivative works of original songs on the web
(10:18:11) [中野倫靖] creators can publicly receive feedback on the web
(10:18:15) [中野倫靖] Hamasaki, WWW 2014
(10:18:35) [中野倫靖] 音楽とWeb:膨大なコンテンツ、コミュニティ、ネット+デジタル
(10:19:04) [中野倫靖] 技術的なチャレンジ:膨大さを楽しめる技術、音楽コミュニティを楽しむ技術、ネット+デジタルを楽しむ技術
(10:19:22) [中野倫靖] 膨大さを楽しむ:可視化、作業用BGM
(10:19:38) [中野倫靖] 音楽視聴支援サービスSongrium
(10:19:47) [inuchi] きれい。
(10:19:47) [中野倫靖] Songrium - つながりを用いた新しい音楽鑑賞を songrium.jp/
(10:19:49) [後藤真孝] songrium.jp/
(10:20:12) [中野倫靖] 音楽ウェブコミュニティを3D可視化
(10:20:15) [後藤真孝] doc.songrium.jp/ma...
(10:20:24) [中野倫靖] Songrium3D ボカロ音楽が創る宇宙 songrium.jp/map/3d...
(10:20:34) [中野倫靖] 点一つ一つが曲
(10:20:40) [中野倫靖] 3次元マッピングした
(10:20:46) [中野倫靖] 派生作品も可視化
(10:20:56) [中野倫靖] たくさんある楽曲の現象を可視化
(10:21:03) [中野倫靖] Webコミュニティの時間方向を俯瞰
(10:21:18) [中野倫靖] Songrium 超歴史プレーヤ - 全カテゴリ bubble.songrium.jp...
(10:21:28) [中野倫靖] Songrium バブルプレーヤ - VOCALOID楽曲の歴史をバブルアニメーションでふりかえる songrium.jp/bubble
(10:21:46) [後藤真孝] doc.songrium.jp/ch...
(10:22:00) [中野倫靖] Songrium RelayPlay
(10:22:10) [中野倫靖] 05.pdf www.wiss.org/WISS2...
(10:22:33) [中野倫靖] 【初音ミク】 だんだん高くなる 【オリジナルMV】 - Songrium 歌声分析 songrium.jp/sings/...
(10:22:38) [中野倫靖] リレー再生
(10:22:53) [中野倫靖] 歌手を切り替えながら再生
(10:23:02) [後藤真孝] ongacrest.jp/sympo...
(10:23:05) [中野倫靖] OngaCRESTで発表
(10:23:07) [中野倫靖] 〆切本日
(10:23:22) [中野倫靖] OngaCRESTシンポジウム2016「音楽情報処理研究が切り拓いた世界」 in東京 - パスマーケット passmarket.yahoo.c...
(10:23:34) [中野倫靖] OngaCRESTシンポジウム2016「音楽情報処理研究が切り拓いた世界」開催のご案内 | OngaCREST Project (JST CREST) ongacrest.jp/sympo...
(10:23:54) [中野倫靖] Q:ダウンロード型とストリーミング型の売り上げ?
(10:24:16) [中野倫靖] 移行は進んでいる。国内だとCDなどを売っていて少し異なるかも知れないが。
(10:24:37) [中野倫靖] Q:ビジネスモデルは研究者が作るべきだと思うか?
(10:24:51) [inuchi] そうしろとw
(10:27:11) [中野倫靖] Q:研究者コミュニティが言っていることが伝わっているか?
(10:27:15) [中野倫靖] 研究者は未来を見ている
(10:27:45) [中野倫靖] 未来の提案をすると、現実と異なってサービス展開しにくい場合がある
(10:27:56) [中野倫靖] 提案はしてめげるな
(10:28:05) [inuchi] 「めげるな」
(10:28:41) [中野倫靖] Q:Googleで音楽関連のサービスをやってるのはISMIRなどコミュニティメンバー。appleも。
(10:28:54) [中野倫靖] 研究業界の成果がやっと広がってきた
(10:28:57) [中野倫靖] spotifyなど
(10:30:43) [中野倫靖] Q:音楽可視化は可視化コミュニティで発表されているのか?
(10:31:04) [中野倫靖] あまり音楽の話はされにくい
(10:31:58) [中野倫靖] Q:マンパワーが必要?一学生が参入できるか。
(10:32:48) [中野倫靖] 研究データは色々世の中にあるので、やれることはある
(10:32:50) [中野倫靖] 多角化。
(10:33:00) [中野倫靖] 音楽とヒューマン・コンピュータ・インタラクション(竹川佳成、未来大)
(10:33:14) [中野倫靖] 世間を賑わすさまざまなHCI
(10:33:33) [中野倫靖] HMD、ウォッチ、度r-ん、深度センサ、VR、AR、、、
(10:33:59) [中野倫靖] CHIの推移:膨大な投稿数
(10:34:27) [中野倫靖] 楽曲・楽器制作⇒練習⇒披露⇒視聴⇒制作
(10:34:35) [中野倫靖] ループ
(10:34:56) [中野倫靖] Max/MSP, ProjectionPiano, 竹管、songle
(10:35:16) [中野倫靖] Max/MSP (1980, M. Puckette)
(10:35:27) [中野倫靖] ビジュアルプログラミング
(10:35:37) [中野倫靖] NIMEやICMCの作品にて多数利用
(10:35:45) [中野倫靖] 芸術家にも受けいれられ、多数利用されている
(10:36:28) [中野倫靖] 作編曲支援:UPIC(Xenakis, 1978), Hyperscore (M. Farbood, 2002), Garageband (Apple, 2004)
(10:36:58) [中野倫靖] 楽器製作支援(古典楽器の拡張):V-piano, Avant Grand, Mobile Clavier, Unit Musical Instrument
(10:37:35) [中野倫靖] 利便性を上げよう(Mobile Clavier)演奏を簡単化( Unit Musical Instrument)
(10:37:44) [中野倫靖] 楽器製作支援:新しいデザインの楽器
(10:38:06) [中野倫靖] since its beginning in 2001 as a CHi, ...
(10:38:10) [中野倫靖] NIME
(10:39:19) [中野倫靖] 人⇒ジェスチャ⇒入力⇒処理⇒出力⇒メディア⇒人
(10:39:41) [中野倫靖] フィジカルコンピューティングからデジタル・ファぶりケーション
(10:40:01) [中野倫靖] maker bot 3dprinter, 2-string ...
(10:40:05) [中野倫靖] sketching in hardware
(10:40:39) [中野倫靖] 練習支援:ProjectionPiano
(10:41:18) [中野倫靖] 補助からの離脱方法:省察×視線計測、曖昧/虚偽情報の提示×AR、補助情報の削減×タブレット、段階的な情報提示×RMI
(10:41:30) [中野倫靖] kumaki, edmedia 2016
(10:41:36) [中野倫靖] 竹川ら, 2015
(10:41:42) [中野倫靖] 竹川ら, 2016
(10:41:55) [中野倫靖] 音楽におけるHCIの貢献
(10:42:10) [中野倫靖] 新しい表現の創出・表現力の拡大、利便性の拡大、人の能力そのものの向上
(10:42:24) [中野倫靖] 音楽とロボット(水本武志、ホンダ・リサーチ・インスティチュート・ジャパン)
(10:42:58) [中野倫靖] 音楽とロボットの研究の特徴:身体性、非言語コミュニケーション、参加型エンタテインメント
(10:43:32) [中野倫靖] 音楽表現と進退動作に深い関係がある, Richie09
(10:43:42) [中野倫靖] 異文化・異世代交流の菊花K
(10:43:46) [中野倫靖] きっかけ
(10:43:56) [中野倫靖] 人とのインタラクションの有無:なし/あり
(10:44:07) [中野倫靖] ロボットの音楽表現:楽器演奏・舞踏・歌唱
(10:44:25) [中野倫靖] 共演者ロボットの問題
(10:44:41) [中野倫靖] ロボット特有の要求条件を満足した上での問題
(10:44:53) [中野倫靖] 同期レベル:リズム同期、楽譜位置の同期、演奏表現の同期
(10:45:20) [中野倫靖] ロボット特有の要求条件:時間的制約(時間遅れが伴うので予測が必要)、雑音への頑健性(モータ音)
(10:45:40) [中野倫靖] 問題設定:入力=人の打楽器、出力=演奏に同期した演奏、仮定=四拍子
(10:46:01) [中野倫靖] 問題:予測したモータ制御が必要、人もロボットに引き込まれる(=相互引き込み)
(10:46:04) [中野倫靖] 課題
(10:46:17) [中野倫靖] 解決策:結合振動子系による合奏のモデル化
(10:46:26) [中野倫靖] 複数の振動子が相互作用する系のモデル
(10:46:34) [中野倫靖] 人のリズム近くのモデルにも使われている
(10:46:39) [中野倫靖] リズム知覚
(10:46:57) [中野倫靖] 合奏モデル:各振動子を各共演者に割り当て共演者のタイミングを予測
(10:47:04) [中野倫靖] 予測誤差46%削減
(10:47:14) [中野倫靖] テルミン演奏ロボット:
(10:47:41) [中野倫靖] 演奏システム:モデルベース制御によってハードウェアはそのままで様々なロボットに移植可能
(10:48:07) [中野倫靖] clara rockmore
(10:48:12) [中野倫靖] youtubeで検索!
(10:48:36) [中野倫靖] リズムに合わせる共演者ロボット:手拍子に合わせてテルミン演奏
(10:49:42) [中野倫靖] 音楽ロボット研究の様々な問題:合奏の開始・終了の同期、共演者の演奏動作の統合、複数人合奏でのリーダー推定、複数人合奏中の楽譜位置推定・リズム構造推定・感情豊かな表現
(10:49:52) [中野倫靖] 音楽情報処理が基盤
(10:50:01) [中野倫靖] ビートトラック、楽譜追従、自動伴奏
(10:50:22) [中野倫靖] +ロボットの供給条件:リアルタイム性能、耐雑音性
(10:51:14) [中野倫靖] ome more thing: 3人で。人+人+ロボット
(10:51:26) [中野倫靖] 奥のロボットは?
(10:51:32) [中野倫靖] Nao
(10:51:47) [中野倫靖] 音楽と脳科学(寺島裕樹、NTT)
(10:51:52) [inuchi] みえない。(internet
(10:52:08) [中野倫靖] 機械学習と脳科学
(10:52:10) [inuchi] ?
(10:52:31) [中野倫靖] 音楽と脳科学(と情報科学)
(10:52:34) [inuchi] 声を小さくしてw
(10:52:42) [inuchi] みえました。(internet
(10:53:17) [中野倫靖] 音楽(音波)⇒脳(の情報処理)⇒ゆたかな経験
(10:53:24) [中野倫靖] どのような情報処理?
(10:53:37) [中野倫靖] 脳科学と情報科学:二つの接点
(10:53:45) [中野倫靖] 脳活動の解析、脳活動の理解(情報処理モデル)
(10:53:57) [中野倫靖] 音楽・スピーチに反応する聴覚野と行列分解
(10:54:11) [中野倫靖] 脳活動の”無仮説”解析
(10:54:24) [中野倫靖] 仮説が強い研究が多かった⇒データドリブンでやろう
(10:54:42) [中野倫靖] Norman-Haignere & McDermott 15 Neuron
(10:54:56) [中野倫靖] 165種の自然音を聞かせる
(10:55:00) [中野倫靖] レーティング
(10:55:04) [中野倫靖] 一部に音楽・スピーチ
(10:55:20) [中野倫靖] 165×11065(ボクセル数)の行列が得られる
(10:55:28) [中野倫靖] 活動行列の行列分解
(10:55:57) [@hoahoa] 自分の講演だん。各講演者の微妙な時間オーバーが積み重なって全体進行が…汗 #sigmus twitter.com/hoahoa...
(10:55:59) [中野倫靖] Component5, 6がスピーチと音楽に関係
(10:56:35) [中野倫靖] 前側に音楽、横側にスピーチ。単純な周波数に反応
(10:57:11) [中野倫靖] 脳活動の理解(情報処理モデル)、聴覚野の倍音・ピッチ選択制と自然音のスパース符号化(terachima 2012 NIPS)
(10:57:17) [中野倫靖] 聴覚野の階層性と深層学習
(10:57:23) [中野倫靖] 聴覚野と倍音・ピッチ
(10:57:32) [中野倫靖] 視覚野と全然違う(?)
(10:57:41) [中野倫靖] 倍音、Missing fundamental
(10:58:14) [中野倫靖] 視覚野と聴覚野の際の源:学習則は共通;入力が違う
(10:58:21) [中野倫靖] 自然画像のスパース符号化
(10:58:32) [中野倫靖] 一次視覚野の符号化は自然画像に最適
(10:58:45) [中野倫靖] Olshausen & Field 96 Nature
(10:58:53) [中野倫靖] 自然画像≠自然音
(10:59:11) [中野倫靖] 自然画像から相関を計算すると、近いと似てるけど遠いと似ていない
(10:59:22) [中野倫靖] 自然音の場合、オクターブ差が現われる
(10:59:40) [中野倫靖] 学習を共通で行うと、画像は局在、音は非局在
(10:59:54) [中野倫靖] 画像は複雑細胞、音はピッチ
(11:00:10) [中野倫靖] なぜ視覚の話?
(11:00:20) [中野倫靖] 大脳新皮質の計算原理?
(11:00:32) [中野倫靖] 機能が違うのになぜ同じハードウェアでできるのか
(11:00:42) [中野倫靖] 視覚野の階層性:ネオコグニトロン
(11:00:51) [中野倫靖] 視覚野の階層性と深層学習
(11:01:26) [中野倫靖] Alex+ SfN15, Cosyne16
(11:02:46) [中野倫靖] (ユーザ数22人)
(11:03:00) [中野倫靖] Q:ロボット研究に参入するのは難しい
(11:03:46) [中野倫靖] 簡単に演奏するならロボットとテルミン買えばできる。もっと本格的にやる場合は、ロボットの人達と一緒にやるとよい。
(11:04:16) [中野倫靖] Q:ロボットが目的なのか手段なのか。
(11:04:34) [中野倫靖] コミュニケーションのモデルや相手を予測するモデルにも使える
(11:04:35) [中野倫靖] Q
(11:04:52) [中野倫靖] 聴覚の話では時系列な階層性が有ると思いますが、それは研究があるか?
(11:04:55) [中野倫靖] 本質的。
(11:05:07) [中野倫靖] 時系列の研究はいろいろある
(11:05:10) [中野倫靖] 結構最近
(11:05:26) [中野倫靖] それが音楽と関係があるかといわれると、限られてくるという印象
(11:05:34) [中野倫靖] 規則性とか不規則性とか、それくらいの話がメインの段階
(11:07:45) [中野倫靖] Q:スピーチと音楽を聴く時の活動部位が違う、聴覚野とウェルニッケ野、スピーチと読書をしているとき、スピーチと音楽を聴いているとき、で違いがあると、音楽と言語の違いが分かるかも知れないが、そういう研究はあるか
(11:08:21) [中野倫靖] 言語の起源と関係がある話だと思う。
(11:09:15) [中野倫靖] Q:音楽と活動部位について
(11:09:22) [中野倫靖] どんな刺激を与えても反応はする
(11:09:26) [中野倫靖] どういう塊で反応するか
(11:09:40) [中野倫靖] 調性とは違う
(11:09:54) [中野倫靖] speechの方はmusic混ざってる(Vocal入り)
(11:11:06) [中野倫靖] Q:ロボットとの最後のセッションでロボット一緒に演奏している人は気分良いのか
(11:11:17) [中野倫靖] カラオケっぽいのか、人間と一緒に演奏しているような共感が生まれるのか?
(11:11:28) [中野倫靖] 本音から行くと、「やっと動いた」という感じ
(11:11:31) [中野倫靖] ちゃんと弾けてると楽しい
(11:11:43) [中野倫靖] IROSでデモをセッションして、観客にギター弾いてもらった
(11:11:47) [中野倫靖] かなり楽しそうだった
(11:12:14) [中野倫靖] Q:ロボットの動きの演出に応じて、未来がありそう
(11:12:22) [中野倫靖] ノリノリならこっちも楽しそう
(11:14:36) [@knoike] #sigmus 11:17から.17分おし. twitter.com/knoike...
(11:15:46) [inuchi] おつかれさまです。^ー^
(11:20:24) [濱崎] メモ、お疲れ様です。ありがたいです
(11:20:28) [中野倫靖] ありがとうございます!
(11:20:56) [平井辰典] ○○新博士セッション○○
(11:21:41) [平井辰典] 「新博士さんいらっしゃい!」
(11:21:47) [ふかひれ] きましたー
(11:22:08) [平井辰典] 司会:竹川佳成(公立はこだて未来大学)登壇者:植村あい子(無所属),奥村健太(名古屋工業大学),高道慎之介(東京大学),中村友彦(セコム株式会社),平井辰典(駒澤大学),森尻有貴(東京学芸大学),矢澤櫻子(NTT メディアインテリジェンス研究所)
(11:22:44) [後藤真孝] OngaCRESTシンポジウム2016 ongacrest.jp/sympo... の懇親会付きチケットが今朝売り切れてしまったのですが、急遽、若干追加しました。もし断念していた方は、追加で懇親会チケットを申し込み頂ければ、既にお申し込みの懇親会なしチケットをキャンセルさせて頂きます。どうぞよろしくお願い致します。
(11:23:35) [knoike] このチャットシステム,マウスホイールの回転に対してのスクロール追随がよく
(11:23:45) [ふかひれ] 既存の楽器をインターフェースの観点から分析すると、不便・使いにくい・使いにくさに愛情が宿る・職人技がかっこいい、とかありそう。一方で楽器が創られた時代当時のインターフェース観が反映されてたりするんですかね。
(11:24:23) [knoike] ないので,なおしたほうがいいと思います.
(11:24:34) [中野倫靖] ユーザ数が28人に増えた!
(11:24:45) [中野倫靖] (10) 新博士パネルディスカッション「新博士さんいらっしゃい!」 >> 注目記事司会:竹川佳成(公立はこだて未来大学)
(11:24:57) [平井辰典] パネルセッションの趣旨:新博士のプロモーション、博士課程進学への情報提供
(11:25:09) [inuchi] 上の「自動スクロール」入れてますけど。快適です。^ー^>追従
(11:26:12) [ふかひれ] 全員苦笑w
(11:26:30) [inuchi] 真に?
(11:26:35) [dsk_saito] D進どうですか企画
(11:26:40) [中野倫靖] 植村あい子(無所属)
(11:26:51) [中野倫靖] 早稲田大学
(11:27:14) [中野倫靖] 博士論文:クロマベクトルを用いた音楽の分析とその応用
(11:27:34) [中野倫靖] 基礎:独自ベクトルの検討、音楽圧縮への影響
(11:27:44) [knoike] > inuchi 自動スクロールは使っています.そういうことではなくて,手動で戻ったり送ったりするときの話です.自動スクロールのOn/Off 状態とは無関係に一般的なWebシステムとは違ってしまっている,ということです.
(11:27:49) [中野倫靖] 応用:音楽番組からの楽曲区間抽出、ライブ音源の楽曲同定
(11:28:05) [inuchi] なるほど。
(11:28:12) [中野倫靖] 奥村健太(名古屋工業大学)
(11:28:18) [ふかひれ] クロマベクトル:オクターブを無視した音名ごとのエネルギーを表わした12次元ベクトル。和音構成音をおおむね表わすので、和音認識や曲の構造解析・類似度計算に使われる。
(11:28:50) [中野倫靖] 博士論文:演奏表情と楽譜情報の関連付けに基づく鍵盤楽器演奏の統計的モデル化に関する研究
(11:29:40) [中野倫靖] フィジカルセキュリティ
(11:30:04) [knoike] 奥村さんのシステム,興味あるのだけど,Webシステムになったりしないかな.Sinsy のように.
(11:30:58) [中野倫靖] 高道慎之介(東京大学)
(11:31:20) [中野倫靖] D論のモチベーション:人と人、人とコンピュータの違いを超えた音声生成
(11:31:31) [中野倫靖] 奈良先端大修了
(11:31:39) [中野倫靖] 音声合成、音声変換
(11:32:29) [中野倫靖] 中村友彦(セコム株式会社)
(11:32:43) [中野倫靖] 東京大学、修士~博士修了
(11:33:00) [@SythonUK] 高専はいいぞ #sigmus twitter.com/Sython...
(11:33:07) [中野倫靖] 博士論文の内容:音源分離、分解された成分を個別に加工し信号に変換
(11:33:22) [dsk_saito] セコム(研究)してますか?
(11:33:56) [中野倫靖] 位相を考慮して信号に直す
(11:34:08) [中野倫靖] スペクトログラムの冗長性を活用
(11:34:22) [中野倫靖] 長調を短調にしたりい
(11:34:25) [中野倫靖] したり
(11:34:33) [ふかひれ] 嵯峨山先生:嵯峨山茂樹 計数工学科システム情報旧第一研究室の先生 音声認識・音声合成の研究キャリアの後音楽研究参入。自動採譜・自動作曲・自動伴奏など。現在明治大学教授。
(11:34:43) [中野倫靖] 平井辰典(駒澤大学)
(11:34:55) [中野倫靖] 早稲田大学、博士修了
(11:35:34) [中野倫靖] 博士論文の内容:計算機を通じた人とコンテンツとの関わり方を創作、鑑賞、インタラクションの観点から具体的研究事例を交えつつ整理
(11:35:42) [中野倫靖] 物理学科
(11:36:12) [中野倫靖] 物理は地道な作業が多かった
(11:36:40) [itoyama] 物理からは逃げられない
(11:36:54) [ふかひれ] 大学に入ると化学が物理に、物理が数学に、数学が論理学になるイメージ
(11:37:01) [中野倫靖] 森島研究室で音楽研究ができた
(11:37:30) [dsk_saito] 人間、いつになったら物理から逃れられるのか....
(11:38:02) [中野倫靖] 未踏で音楽の研究ができた
(11:38:38) [中野倫靖] コンテンツを対象に創作支援、鑑賞支援。
(11:38:49) [伊藤@お茶] 数学は哲学とも言いますね
(11:39:21) [中野倫靖] 森尻有貴(東京学芸大学)
(11:39:41) [中野倫靖] UCL Institute of Education UoL (PhD)
(11:39:57) [中野倫靖] 演奏の自己評価と他者評価の評価基準における音楽的要素の関連
(11:42:50) [中野倫靖] 矢澤櫻子(NTT メディアインテリジェンス研究所)
(11:42:56) [ふかひれ] たしかに自分の演奏評価のポイントと他社の演奏評価のポイントが同じなのかどうか、考えてみるとよくわからないです。
(11:43:04) [中野倫靖] 筑波大で博士修了
(11:43:09) [ふかひれ] 他社->他者
(11:43:18) [中野倫靖] 人間と計算機が同じように音楽を理解するようなシステムの構築
(11:43:30) [中野倫靖] 暗意実現モデル
(11:44:15) [中野倫靖] 人と同じように音楽を分析、似た曲を見つける、新しい音楽を創造できるコンピュータ
(11:44:54) [中野倫靖] 疑問
(11:45:01) [inuchi] ?
(11:45:04) [中野倫靖] お金に困らない?
(11:45:18) [dsk_saito] 高橋メソッドが投下されている
(11:45:37) [中野倫靖] どういう工夫や経験をしてきたのか
(11:45:47) [中野倫靖] 典型的なパターンは?
(11:45:52) [中野倫靖] 奨学金
(11:46:22) [dsk_saito] 100万ぐらいは丸儲け(返済半額免除の場合)
(11:46:27) [中野倫靖] 第1種だったので、返す必要はあるが、まじめにやっていれば半免くらいは可能
(11:46:31) [中野倫靖] 授業料免除
(11:46:38) [中野倫靖] 寮に入れば安い
(11:47:04) [ふかひれ] 暗意実現モデル:(Implication Realization Model) Eugene Narmoure が議論した、メロディが一連の音の後にどう続くのかを予測するモデル。音の連続性や典型的なパターンが記号化されて整理されている。上がって下がる、続けて上行する、など。
(11:47:17) [中野倫靖] 学振
(11:47:25) [dsk_saito] 寮の整備状況は結構大学毎に依存しそうだが....
(11:47:36) [itoyama] 日本学術振興会 特別研究員
(11:47:39) [inuchi] ノシ
(11:47:53) [ふかひれ] むしろ他のことができない
(11:48:03) [dsk_saito] 額面20万(ただし税金はひかれる)
(11:48:19) [ふかひれ] 税金とは何かを考えさせられる
(11:48:28) [中野倫靖] 学会の論文賞にたくさん応募
(11:48:32) [ふかひれ] 賞金ハンター!
(11:48:33) [dsk_saito] 賞金ハンター笑
(11:48:56) [中野倫靖] 未踏
(11:49:34) [中野倫靖] 助手になる
(11:51:15) [ふかひれ] EU離脱でイギリスは学費が高くなる<=EUの補助とかかな。
(11:52:35) [yukara] すごい体力だ
(11:53:05) [ふかひれ] 計画的
(11:53:17) [dsk_saito] ちなみにジャーナルなくても通る事はありますよ。
(11:54:30) [伊藤@お茶] 社会人博士学生が圧倒的に多くて自分も論文博士(=進学してない)なのでこの話めっちゃ勉強になる
(11:55:19) [平井辰典] bulk.co.jp/bloghom...
(11:57:59) [中野倫靖] ずっと研究室にいるの?
(11:58:01) [dsk_saito] 生活パターンの話?
(11:59:53) [ふかひれ] 世界の話聞けて楽しい
(12:01:45) [ふかひれ] イギリスの研究者の育て方
(12:04:07) [ふかひれ] サバイバル能力
(12:05:04) [中野倫靖] 外に出る
(12:05:06) [中野倫靖] コラボレーション
(12:05:21) [ふかひれ] 平井さんは国際会議のたびにそこで初めて会った同世代の海外の人と仲良くなってごはんに行ってる印象がある。
(12:06:54) [ふかひれ] 優雅だ
(12:07:57) [ほあし] 私も自席を離れて社内のゴロゴロできるスペースで仕事することある
(12:08:25) [ふかひれ] 生態について
(12:08:46) [dsk_saito] 結婚w
(12:08:52) [ふかひれ] 生態はいいから研究の話をしろと
(12:09:25) [伊藤@お茶] 質問者から司会者(=指導教員)へのブーメラン
(12:10:11) [poke] p値
(12:10:15) [ふかひれ] 研究と心中しなきゃ、という印象を修士課程の人にもたれてるんですかね。
(12:10:28) [ふかひれ] あまり健全でない気が。
(12:12:57) [平井辰典] 結婚については新博士ではなくもう少し上の世代の方たちに聞いてみたいですね
(12:15:14) [ふかひれ] 自分の年齢 - 22
(12:15:46) [ふかひれ] 自分の年齢 - 23
(12:15:55) [平井辰典] 共著もありですかね?
(12:16:02) [中野倫靖] 博士って修飾できるの?
(12:16:09) [中野倫靖] 就職
(12:17:09) [ふかひれ] 宣伝活動:トークの旅 海外の研究機関に講演会を開いてもらうお願いをする
(12:17:29) [中野倫靖] 縁が大事
(12:17:48) [ふかひれ] コンタクトとるとき、Cc で教授の名前をいれる
(12:18:55) [ふかひれ] 開発寄りは枠がないと言われるが、研究だと修士より博士を見てくれる。
(12:18:58) [dsk_saito] 研究関係の企業就職なら博士号はWelcome
(12:18:59) [Matsubara] 時間があったら,博士時代の研究テーマではなく,もう少し根本的な研究疑問を聞きたいなぁ。今後、解き明かしたいリサーチクエスチョン・持っている仮説を聞きたい。
(12:20:16) [ふかひれ] 自分の興味が何かの根本を考えると、就職先はたくさんある。
(12:20:32) [ふかひれ] 自分の興味の根本が何かを考えると
(12:20:55) [ほあし] 会社入ったらいずれ研究テーマ変わるしね。。
(12:21:49) [yukara] 就職失敗したDの方を召喚して理由を聞いたら対策に役立ちそう。
(12:22:04) [伊藤@お茶] むしろ自分が会社にいるときにはいい形で研究テーマの移り方ができることが重要な気がした
(12:23:15) [中野倫靖] 友達が減るの?
(12:23:33) [ふかひれ] アウトロー感を自称してかっこつけちゃう、ってことじゃないのかな。。
(12:23:57) [hashida] なんちゅう質問だ。。
(12:24:06) [dsk_saito] 「友達はもともといない(キリッ)」とかないのかな....
(12:24:23) [ふかひれ] 0からは減らない、と
(12:24:26) [Matsubara] 音楽の研究をすることが如何に学術的・社会的に重要なテーマであるか、そしてそれを他の人に説明できることは、Dを取る時にも学位取得後も大事と思う。
(12:25:34) [ほあし] 「友達の定義による」←博士っぽい
(12:26:25) [ふかひれ] Matsubaraさんに共感しながらも、音楽研究に来たら音楽研究の意義を強く主張しないといけない、というのも少し強制しすぎな感じもする。なんか党議拘束みたいな。
(12:26:34) [yukara] そもそも博士進学と就職で人と会う機会の増減はあんま変わらなそう
(12:26:48) [nameless] 研究会での交流を友達と言えるかは微妙な気もするけどw
(12:27:14) [dsk_saito] 結局個々の人付き合いの精度(濃度)では? 薄い付き合いの人数を数えるだけ無駄だし。
(12:28:25) [ふかひれ] なにかおもしろい話!
(12:28:37) [ほあし] 闇をえぐってきたw
(12:29:34) [ふかひれ] ちょっと音楽研究してみました、っていう「チャラい」研究者がもっと増えてほしいなあ、って気もする。
(12:31:10) [伊藤@お茶] 平井さんの話を聞いてて、そういえば海外の複数の研究者からも「あなたは日本でいいじゃない、私も日本人だったらアメリカになんて留学しなかった」と聞いたのを思い出した。
(12:31:52) [Matsubara] ふかひれ>入り口として,単に音楽が好きだから研究しました,とか持っている技術を音楽に適用してみました,というのはアリと思います。Ph.D.取る上で研究の意義などの説明も要求されることはありますね。学位がさらっと取って、学位取得後に考える必要が出てくる場合もありますけれど。
(12:32:00) [nameless] オタク文化で日本を選ぶ際の「油田は動かせない」という名言がありますからね
(12:32:04) [ふかひれ] 自分の価値観と向き合う経験
(12:32:36) [Matsubara] 裏 新博士セッションw
(12:34:10) [Matsubara] 確かにちゃら
(12:34:50) [Matsubara] 確かにちゃらイ研究者が出てもよいですね。ニコニコ学会とか研究してみたとか良いモーブメントですね
(12:51:33) [@knoike] #sigmus 昨日もそうだったけれど,離れているときに楽しい(有意義な)議論があったっぽい. t.co/R8PtBDT81p twitter.com/knoike...
(13:30:07) [@forthshinji] 発表おわた。あとは夜の裏・新博士セッション。 #sigmus twitter.com/forths...
(13:36:31) [@forthshinji] 「セコム(研究)してますか?」 #sigmus twitter.com/forths...
(13:36:53) [tnkmr] 踊らない方の警備会社
(13:38:00) [@yukara13] デモ部屋があいてないらしい #sigmus twitter.com/yukara...
(13:49:30) [中野倫靖] (11) 視線情報を活用した楽譜追跡システムの評価◎寺崎栞里, 竹川佳成, 平田圭ニ (公立はこだて未来大)
(13:50:02) [中野倫靖] 従来の自動伴奏は打鍵情報(音高、打鍵の強さ)で演奏箇所を推定
(13:50:30) [中野倫靖] 視線は譜面を先読み
(13:52:08) [原] 回帰分析で視線のブレを除去、外れ値などは計算対象外
(13:52:10) [中野倫靖] 視線情報のノイズ除去。回帰分析。
(13:52:22) [中野倫靖] 外れ値を除去
(13:52:37) [中野倫靖] 演奏者は音符をまとまり毎に見ている(川崎、1982)
(13:52:47) [中野倫靖] DPマッチングによる演奏箇所の候補検出
(13:52:52) [yukara] 視線位置が劇的に変わらないという仮定が入ってるってことかな
(13:54:57) [中野倫靖] 演奏推定箇所の決定(照合器)、候補音が複数有る場合、視線と組み合わせて楽譜追跡
(13:55:03) [中野倫靖] 一番視線に近い候補を演奏箇所
(14:00:00) [中野倫靖] どれくらいのレベルの演奏者なのだろうか。視線で先読みするのは誰もがそうなのか?
(14:02:02) [中野倫靖] 視線導入時は96.8%(2秒以内に正解したら正しいと判定)
(14:05:14) [中野倫靖] ピアノ初級者以上7名
(14:08:15) [中野倫靖] Q:組み合わせるときにルールベースでやっているが、中間表現で統合した方がよさそう。今どこを弾いているかを潜在変数。HMMとか線形動的システム。状態空間モデルで解いてみる等。
(14:09:01) [中野倫靖] Q:なぜ中上級者を使ったのか。
(14:09:21) [中野倫靖] フレーズでまとまりを見られるなどの技能が必要だったため。
(14:09:33) [中野倫靖] Q:初級者の方が必要としている機能であるように感じる。
(14:12:29) [yukara] 楽譜外を見てるときは別にしたほうがよさそう
(14:15:50) [中野倫靖] Q:DPマッチングで視線とどこを弾いているかを統合できそう。DPマッチングの候補が誤るとこけそうだが、そういう場合に視線を使うような統合が面白そう。
(14:16:12) [中野倫靖] Q:推定時間が2秒以内であれば正解とした理由は?自動伴奏システムを構築するために必要な時間なのか。
(14:16:38) [中野倫靖] (質問を一つ聞き逃しました。。。)
(14:16:45) [中野倫靖] (12) 頷き動作による自動譜めくりシステムでの合図とリズムノリの判別◎地曳はるか, 齋藤康之 (木更津工業高等専門学校), 中村栄太 (京都大), 嵯峨山茂樹 (明治大)
(14:17:37) [中野倫靖] 演奏者が自分で譜めくりするが、演奏の妨げになることがある
(14:17:58) [中野倫靖] 譜めくり係を付けることがあるが、練習が必要で、譜めくり係がミスする場合がある
(14:19:03) [平井辰典] 自動譜めくり機「フメクール」
(14:19:05) [dsk_saito] ドイツの会社で「フメクール」とは? ドイツ語でもそういう単語があるの?
(14:19:30) [yukara] piaScore とかもあるな
(14:19:43) [中野倫靖] 自動化された自動譜めくり:フメクール、フェアリー
(14:20:29) [中野倫靖] ジェスチャ認識による自動譜めくり
(14:20:38) [中野倫靖] 宇奈月をしたら譜めくり
(14:20:43) [中野倫靖] 頷きをしたら
(14:21:59) [中野倫靖] 鼻の位置を認識
(14:23:18) [中野倫靖] 静止、下向き、上向きを状態とするHMM
(14:24:25) [yukara] うなずくとき以外むっちゃ動けなかったりしないんだろうか
(14:24:48) [中野倫靖] そもそもなぜ頷き動作なのか。
(14:25:03) [zawazaw] 観測尤度はどう設計されているのか?
(14:25:19) [tnkmr] ノッてきたら楽譜をめくられちゃったりするのだろうか
(14:25:39) [平井辰典] Haar-likeだと頷きすぎたときに顔が検出できなくなりそう
(14:25:41) [中野倫靖] 下を見るときの動作を含む場合でも、頷いたときのみめくられる
(14:25:42) [yukara] 楽譜をもどす機能がないとキツそう
(14:25:50) [zawazaw] ピアニストが譜めくりを指示する合図が慣習的な頷きであるからだと 思われます > 中野さん
(14:26:13) [@plusadd] 今はなき、piaScore のジェスチャー譜めくりも比較に加えて欲しかったな。 #sigmus twitter.com/plusad...
(14:26:22) [中野倫靖] 課題:鼻が画像内にある、複数人、リズム乗り、コーダ、ダ・カーポ、楽譜の見開き
(14:26:35) [中野倫靖] リズムに乗っている時と頷きの判別
(14:27:30) [中野倫靖] そうなんですね > zawazaw様
(14:28:15) [中野倫靖] リズム乗りの方が、譜めくり指示よりも浅い頷き
(14:29:58) [yukara] 一定時間は連続でめくられらない制約いれて、むっちゃうなずきまくればいいんじゃないだろうか
(14:31:08) [tnkmr] HMMで定式化しているなら,楽譜追跡と尤度関数で結合させたらいいのかな
(14:32:27) [原] なるほど
(14:33:11) [中野倫靖] Q:なぜ頷きか
(14:33:23) [中野倫靖] なるべく道具を必要としないように。PCならカメラがある。
(14:33:31) [中野倫靖] Q:横向きとかは?
(14:33:37) [中野倫靖] 横向きだと演奏しづらい
(14:33:49) [中野倫靖] Q:観測尤度は?
(14:34:13) [中野倫靖] Q:Δ、ΔΔも有効そう
(14:34:56) [中野倫靖] Q:頷いているのかノってるのか人間でも分からないので、インタラクションを入れてみると良いのでは。
(14:35:10) [中野倫靖] Q:演奏者と譜めくり者の間ではインタラクションはない?
(14:35:21) [中野倫靖] 頷きとともに目線を送る。
(14:35:56) [中野倫靖] Q:次のページの最初の方角を見るなどの追加キュー。
(14:36:00) [中野倫靖] 今後の課題。
(14:36:31) [中野倫靖] Q:認識の精度について教えて欲しい。10回中2回。性能評価は詳しくやっていない?
(14:36:40) [中野倫靖] 実際使ってみた中。
(14:37:42) [中野倫靖] Q:首を傾けると譜めくりできるシステムがある
(14:37:51) [中野倫靖] Q:人間が見ていても分からないときもある?
(14:38:09) [中野倫靖] 頷きが軽微な演奏者の場合は、できない
(14:38:59) [中野倫靖] Q:演奏している人を大量に集めるとか
(14:39:27) [中野倫靖] Q:タイミングが早いかどうかは識別している?HMMは時刻は見ていない?
(14:40:46) [1052] 実際の譜めくりは、譜めくりをする人が身を乗り出して楽譜を手に取って、その状態でピアニストが頷きを行うので、
(14:40:51) [1053] このシステムでもコンピュータ側からの譜めくりの合図があれば用意にシステムが使えそう。
(14:40:57) [1054] このシステムでもコンピュータ側からの譜めくりの合図があれば用意にシステムが使えそう。
(14:41:16) [中野倫靖] Q:誰がいつ使用?
(14:41:18) [中野倫靖] 練習時
(14:41:30) [中野倫靖] Q:練習時なら、譜を戻るのも必要そう
(14:42:21) [平井辰典] 顔向き推定をするか顔器官検出までした方がよさそうですね。
(14:43:14) [中野倫靖] (13)タテ線譜と初心者向けピアノ運指のSMFからの自動生成   佐藤 陸,中村 栄太,齋藤 康之,阿方 俊,五十嵐 優,嵯峨山 茂樹
(14:43:14) [tnkmr] 髪を検出すればよいかと思ったけど,それだとスキンヘッドの人は認識できないしなあ
(14:43:42) [中野倫靖] (17) 演奏者の楽譜の休止区間における自動伴奏のテンポ制御◎長野亜美, 齋藤康之 (木更津工業高等専門学校), 中村栄太 (京都大), 嵯峨山茂樹 (明治大)※諸事情により発表順と論文掲載順が異なりますので、ご注意下さい。
(14:44:29) [中野倫靖] 自動伴奏システムEurydice
(14:44:42) [中野倫靖] テンポ変化、弾き直し、弾き飛ばし
(14:44:59) [中野倫靖] 急な休止、演奏間違い、トリルなど装飾音の任意性・即興性
(14:45:02) [中野倫靖] を許容
(14:46:19) [中野倫靖] 演奏者が休止時のテンポ制御、休止前のテンポを保持
(14:46:33) [中野倫靖] タップ動作によるテンポ制御
(14:46:53) [中野倫靖] 演奏に使用しないキー(タップキー)は音を出力せずに順次新興
(14:48:18) [中野倫靖] タップキー:曲中で使用しない音の中で、一番高い音か低い音
(14:49:09) [中野倫靖] あれ。↑の条件だと、鍵盤の右端か左端になることが多かったりしないでしょうか?
(14:49:36) [zawazaw] 跳躍がしんどくなるくらい、即座に伴奏パートを制御したくなるのかな...
(14:50:33) [原] C3〜D5だったら B2 or E5ということですかね
(14:50:44) [中野倫靖] それだったら「」
(14:50:50) [原] (曲中で使用しない音の中で〜)
(14:50:58) [中野倫靖] それだったら、条件文が不十分に感じます
(14:51:02) [原] そうですね
(14:51:11) [中野倫靖] 基本的なことが分からなくなったんですが、休止=伴奏がメインで演奏している時、ということでしょうか。
(14:54:02) [中野倫靖] 図3に書いてありました。伴奏が主体となる部分ですね。
(14:56:26) [中野倫靖] タップ継続バージョン:ずっとタップが必要。演奏者に負担。
(14:56:55) [中野倫靖] タップ中断バージョン:途中でタップ動作を行わなくてもテンポが引き継がれる
(14:59:30) [中野倫靖] Q:タップキーは一つなのか?ピアニストだと一つがやりやすい?
(14:59:46) [中野倫靖] 経験者にとっては一つがやりやすいが、初心者は複数でも良いかも、
(15:00:24) [中野倫靖] Q:キーによって、テンポの変更の度合いを変更できたりしないのか?このキーだと+5、このキーだと+10など。
(15:00:37) [中野倫靖] 演奏の情報を反映するため、そういった機能的なキーはない。
(15:00:53) [中野倫靖] Q:休止中にやる意義
(15:01:02) [中野倫靖] 休止前にゆっくり入ったとたんに伴奏が速くなることがある
(15:01:38) [中野倫靖] Q:人間の演奏の場合で、伴奏のテンポが変わるのはどういう状況か。
(15:02:04) [中野倫靖] 人間の場合のインタラクション。
(15:02:22) [中野倫靖] 楽譜に指示された通りに、伴奏が速くなることがある。
(15:03:13) [中野倫靖] Q:小指でタップしてリズムが取れるのか?
(15:03:28) [中野倫靖] 小指に限定すると初心者はリズムを刻みにくい。
(15:04:09) [中野倫靖] 被験者実験において、一番遠い鍵盤は、抑えやすく、2,3の指で取れていた
(15:05:25) [中野倫靖] Q:使ってない区間でテンポが判定したら離せば良い時、何音叩けば良いのか?
(15:05:30) [中野倫靖] 2,3回で問題ない。
(15:05:42) [中野倫靖] no waitingモード
(15:05:56) [中野倫靖] non-waiting
(15:07:06) [中野倫靖] Q:急に2倍以上、半分の速度になった場合は、どうなるのか?一度離したと認識される?
(15:07:22) [中野倫靖] waitingモードだと離したとみなされる可能性がある
(15:07:39) [中野倫靖] non-waitingモード、伴奏がずっと再生される仮定のモードを使えば良さそう。
(15:08:18) [中野倫靖] Q:Eurydiceの自動伴奏の必然性なのか?Eurydiceならではの問題?一般的な問題?
(15:08:37) [中野倫靖] Eurydiceの改善手法という発表ではある。
(15:08:54) [中野倫靖] Q:Eurydiceにこだわらなければ発展可能性があるかもしれないと思った。
(15:09:22) [中野倫靖] Q:タップ中断でも弾き直しは可能か?
(15:09:23) [中野倫靖] 可能
(15:10:36) [中野倫靖] Eurydice特有の問題か?という質問に対して、Eurydiceはどこでもジャンプしてしまうので、タップキー(楽譜外音)を定めた。
(15:10:57) [中野倫靖] 15:30-16:00デモセッション概要発表座長: 阪上大地(コルグ)
(15:31:12) [itoyama] フレーズ生成や転旋を動的に行う楽曲生成アルゴリズムの構築 黒田元気,伊藤彰教(東京工科大学),渡邉賢悟(渡辺電気株式会社),伊藤謙一郎(東京工科大学)
(15:31:30) [itoyama] タテ線譜と自動伴奏システムEurydice によるピアノ初心者向け演奏システム 齋藤康之,長野亜美,佐藤陸(木更津高専),中村栄太(京都大学),阿方俊,五十嵐優(昭和音楽大学),嵯峨山茂樹(明治大学)
(15:31:52) [yukara] 30分もあるし、全然1分発表じゃなくてもよかったような
(15:32:54) [itoyama] 音楽音響信号を対象としたグルーピング階層構造分析システム 澤田隼,竹川佳成,平田圭二(公立はこだて未来大学)
(15:33:48) [itoyama] 視線情報を活用した楽譜追跡システム 寺崎栞里,竹川佳成,平田圭二(公立はこだて未来大学)
(15:34:57) [itoyama] 小説を構成する単語群とその小説に合うとされる音楽の相関関係について 西村綾乃,伊藤貴之(お茶の水女子大学)
(15:36:14) [itoyama] パフォーミングアートの現場活動における音楽情報処理技術の浸透へ向けてーダンスの例ー 橋田光代(相愛大学),西村拓一(産業技術総合研究所)
(21:03:03) [@shigeyuki_hirai] #sigmus の夜のディスカッション開始〜(裏・新博士セッション) (@ 東京理科大学野田キャンパスセミナーハウス) t.co/vUQL7HRN0m twitter.com/shigey...
(21:34:43) [@shigeyuki_hirai] #sigmus の夜のディスカッションがわけわからん状態にwwww @ 東京理科大学野田キャンパス t.co/2UP4A6OKI9 twitter.com/shigey...
(21:38:38) [@shigeyuki_hirai] ちょっと待って、この場にいるの、平#が最年長っぽくないか? #sigmus ってそんなコミュニティだったか? twitter.com/shigey...
(09:08:38) [平井辰典] (15) 視聴覚統合ビートトラッキングとリアルタイムコード認識を用いたダンス共演ロボット ◎大喜多美里, 坂東宜昭, 糸山克寿, 吉井和佳 (京都大)
(09:19:48) [yukara] シュールだ
(09:31:06) [平井辰典] (16) 適合フィードバックに基づく好みを反映したダンス編集手法 ◎柿塚亮 (早稲田大), 佃洸摂, 深山覚 (産総研), 岩本尚也 (早稲田大), 後藤真孝 (産総研), 森島繁生 (早稲田大)
(09:35:44) [hashida] 受付用のモニタリングシステム欲しい。。会場から離れているところで中継NGだとどうにもならない(T-T)
(10:16:19) [平井辰典] (13) タテ線譜と初心者向けピアノ運指のSMF からの自動生成  佐藤陸 (木更津工業高等専門学校), 中村栄太 (京都大), ○齋藤康之(木更津工業高等専門学校), 阿方俊, 五十嵐優 (昭和音楽大), 嵯峨山茂樹 (明治大)
(10:19:26) [平井辰典] タテ線譜はエクセルで手動作成していた → 電子楽譜からタテ線譜を自動生成
(10:46:19) [平井辰典] (18) 統計的に学習可能な自動ジャズセッションシステムのための数理モデル・演奏特徴量・事例活用の検討  ◎保利武志, 中村和幸, 嵯峨山茂樹 (明治大)
(10:53:00) [yukara] 出力って音符?
(11:19:55) [itoyama] (19) 自動合奏のための演奏タイミング結合モデル ○前澤陽 (ヤマハ株式会社)
(11:21:05) [yukara] 会場の音響、音量上がらないんだろうか
(11:27:24) [tnkmr] 演奏同士のアライメントの適当さを評価するモジュールを独立させた感じなのかな
(11:31:41) [itoyama] カエル合唱の結合振動子モデルで似た式を見たような
(13:11:26) [zawazaw] 確かに、カエル合唱で使われているKuramoto modelを\theta=0でテイラー展開したものと解釈することもできます。 Kuramoto modelは音楽ではビート位相に使われますが、楽譜の「位置」に対して適用しようとすると、おおよそ提案するモデルのようなものに帰着します > itoyama さん
(13:12:26) [zawazaw] Kuramoto modelにおける、 各々の振動子が持つ固有振動数が、合奏パートの「デフォルトテンポ」に相当し、結合係数が提案モデルの結合係数に相当します
(13:45:20) [yukara] pythonで実装したい
(13:46:14) [zawazaw] あるみたいです>yukara
(13:46:15) [zawazaw] github.com/JeremyC...
(13:46:36) [平井辰典] (21) NMF vs PLCA: 多重音生成過程に対する無限因子モデルと無限混合モデル  ○吉井和佳, 中村栄太,糸山克寿 (京都大), 後藤真孝 (産総研)
(13:47:09) [平井辰典] 研究の背景:音楽音響信号の音源分離には行列因子分解が広く利用
(13:47:49) [平井辰典] NMF(非負値行列分解), PLCA(確率的潜在要素解析)
(13:48:25) [平井辰典] 行列因子分解(matrix factorization):ある行列を二つの行列の積で近似(低ランク近似)
(13:48:35) [yukara] >zawazaw リアルタイムのほうです~
(13:49:00) [平井辰典] 非負値制約に基づく行列分解:NMF, PLCA
(13:49:15) [平井辰典] NMFはもともと画像のアルゴリズム
(13:50:56) [平井辰典] NMFではコスト関数の設計が重要→データの生成過程を考えてあげなければいけない
(13:51:19) [平井辰典] 潜在変数モデル:「観測変数」の背後に「潜在変数」が存在することを仮定
(13:52:41) [平井辰典] 潜在変数モデル:段階的なデータの生成過程を表現。潜在変数を確率的に生成、観測変数を確率的に生成、ベイズモデルではパラメータも確率的に生成
(13:53:31) [平井辰典] 混合モデル(mixture model):あるサンプルはいずれか一つの因子のみに依存する
(13:53:56) [平井辰典] 因子モデル(factor model):各サンプルは複数の因子の組み合わせで得られる
(13:54:35) [平井辰典] 混合モデルは「分類」のための確率モデル。因子モデルは「分解」のためのモデル
(13:55:44) [平井辰典] 混合モデルの例:混合ガウスモデル(GMM)。K個のガウス分布を準備し、ガウス分布を確率的に選択してサンプルを生成。和が確率分布の足し合わせになっている。
(13:56:42) [平井辰典] 因子モデルの例:主成分分析(PCA)、因子分析(FA)。K個の基底ベクトルを準備。重み付きで足し合わせてからサンプルを生成。確率変数を足し合わせ。
(13:57:05) [平井辰典] 混合モデルと因子モデルはSumの位置が違う
(13:57:24) [平井辰典] 音源分離にはどちらを使う?理論的には「因子モデル」が妥当→NMF
(13:57:36) [平井辰典] 現実には「混合モデル」も提案→PLCA
(13:58:21) [平井辰典] 因子モデルを無限化する際の基本的な方針:ガンマ過程、ベータ過程
(13:58:45) [平井辰典] (ノンパラ化するには無限を仮定)
(13:59:17) [平井辰典] Gamma Process NMF:無限個の基底に対する重みを導入してスパース学習
(13:59:45) [平井辰典] Beta Process NMF:無限個のバイナリ変数を導入してスパース学習
(14:02:23) [平井辰典] ノンパラベイズNMFの問題点:最大の基底数を決めて打ち切り近似が必要な解法しか提案されていない。計算機では実際に無限を扱うことはできないため。
(14:03:17) [平井辰典] 混合モデルに基づく音源分離:混合モデルを音源分離に使うにはトリックが必要(重ね合わせるということができないため)
(14:03:44) [平井辰典] 各サンプルはいずれかの音源に分離される。各フレームでは複数の音源が同時に存在できるようにしたい。
(14:03:48) [平井辰典] 巣ペクトログラムを
(14:04:02) [平井辰典] スペクトログラムをサンプル毎のヒストグラムに分解
(14:04:31) [平井辰典] 離散分布とヒストグラム:ヒストグラムは離散分布(サイコロ)から確率的に生成されると仮定
(14:05:13) [平井辰典] 二次元平面上の離散分布:音量子(sound quantum)を投げ入れると平面内のどこかで止まるという捉え方
(14:06:07) [平井辰典] 二次元平面上の「混合」離散分布:色分けする。どこに止まるかは「対応する色のサイコロ」を振って決める
(14:07:12) [平井辰典] PLCAの確率モデル:二次元平面上の離散分布(各色のサイコロ)を定位。これらを足し合わせることで混合離散分布に定式化。
(14:07:31) [平井辰典] 分布とヒストグラムの違い:分布は足して1になるけどヒストグラムはそういう制約はない。
(14:08:50) [平井辰典] ノンパラメトリックベイズ拡張:ディリクレ過程を使う。中華料理店過程(CRP)
(14:09:40) [平井辰典] ディリクレプロセスPLCAを定式化:二次元混合離散分布の事前分布としてディリクレ過程を導入
(14:10:44) [平井辰典] 周辺化ギブスサンプリング:実効的な基底数K+を増減させながらパラメータの推定が可能→最大基底数で打ち切る近似が不要で効率的
(14:11:50) [平井辰典] 音量子への割り当てを順番にサンプリング
(14:12:56) [平井辰典] 音量子の色の割り当てを解除したり更新したりすることで、基底数を増やしたり減らしたりして探索
(14:14:06) [平井辰典] 実験:GaP-NMF(VB)とDP-PLCAを比較
(14:14:45) [平井辰典] NMFでK+=7、PLCAでK+=4
(14:15:09) [平井辰典] (3音の人工データで実験)
(14:15:21) [平井辰典] PLCAでは、3音+打楽器的な成分
(14:15:59) [平井辰典] 実データでやると、PLCAの方が基底数を少なく見積もった
(14:16:37) [平井辰典] 今後の課題:「音量子」の概念に対する物理的な裏付け(e.g. フォノン)
(14:20:51) [tnkmr] PLCAは結局全体の音量を別にして扱うので,スケール不変なだけでは?
(14:37:04) [yossy] PLCAやKL-NMFはスケール不変ではないです。ヒストグラムのスケールが大きくなればなるほど、基底数が大きくなります。原理上の問題ですね。
(14:37:37) [yossy] IS-NMFはスケール不変です。理論的も妥当ですが、局所解が多くてあまり使われません。
(15:12:57) [@hiromu1996] 音楽情報科学研究会で学生奨励賞とベストプレゼンテーション賞を頂きました!!!ありがとうございます!!! (さっきまで期末試験だったので先に失礼しました...) #SIGMUS twitter.com/hiromu...
(15:14:04) [原健太] ↑ 矢倉くん反応している
(16:23:14) [@zawazaw] ベストプレゼン賞受賞しました!関係者の皆様、議論いただいたみなさま、ありがとうございます。#sigmus twitter.com/zawaza...
(18:10:48) [@hf149] 5月に開催された音学シンポジウム2016 #sigmus での「画像情報における特徴表現」はこちらです。音学の皆様、公開が遅れすみません。t.co/y4cWDaQYkT twitter.com/hf149/...
(18:41:25) [@miru2016] 特別企画【MIRU x KIKU】いかがでしたでしょうか?音情報学と画像情報学、良い意味で垣根を下げてWin-Winの関係を継続しましょう。講演者の皆様お疲れさまでした! #MIRU2016 #sigmus twitter.com/miru20...
(14:42:34) [@ipsj_sigmus] 第113回研究会の発表申し込み締切を【8月18日(木)】まで延長しました.ぜひご参加ください.t.co/Sy26MH5FCB #sigmus twitter.com/ipsj_s...
(15:40:11) [@ipsj_sigmus] 【参加案内】第113回研究会 (10/14,15@国民宿舎能登小牧台) の参加案内を掲載しました.今回は全参加者に事前申込が必要です!9/23申込締切ですのでご注意ください. t.co/5UKVsYLYN2 #sigmus twitter.com/ipsj_s...
(14:37:28) [@ipsj_sigmus] 第113回研究会 (10/14,15@国民宿舎能登小牧台) の宿泊費は、一般11,000円、学生8,000円です。 t.co/5UKVsZ3AbC #sigmus twitter.com/ipsj_s...
(14:39:21) [@ipsj_sigmus] 【第113回研究会】10/14は、以下の電車の西岸駅(のと鉄道七尾線)到着に合わせて送迎バスを準備しています。[西岸駅13:13着, 西岸駅13:41着] t.co/5UKVsZ3AbC #sigmus twitter.com/ipsj_s...
(09:59:32) [@hoahoa] つぶやき遅れましたが、MUS113@七尾に参加中。今回は #sigmus 参加者が圧倒的少数派でアウェイ感ハンパない twitter.com/hoahoa...
(10:08:43) [@hoahoa] そんな中、次は吉井先生の招待講演です! #sigmus twitter.com/hoahoa...
(11:20:42) [@hoahoa] 舌好調で盛りだくさんの招待講演。さすがでした #sigmus twitter.com/hoahoa...
(16:34:27) [@ipsj_sigmus] 【発表募集 1/12〆切】第114回研究会(2017/2/27,28@ヤマハ株式会社 本社)の発表募集を行っています.奮ってご参加下さい.t.co/siiQIphYxM #sigmus twitter.com/ipsj_s...
(15:06:46) [@ipsj_sigmus] 【オーガナイズドセッション公募 12/23〆切】第114回研究会(2017/2/27,28@ヤマハ株式会社 本社)におけるオーガナイズドセッションの公募を行っています.奮ってご応募下さい.t.co/siiQIphYxM #sigmus twitter.com/ipsj_s...
(14:34:08) [@ipsj_sigmus] 【発表募集 1/12 〆切】第114回研究会(2017/2/27,28@ヤマハ株式会社 本社)の発表申し込み締め切りが今週木曜に迫っております.奮ってご参加下さい.t.co/siiQIphYxM #sigmus twitter.com/ipsj_s...
(23:02:57) [@risgk] 音楽情報科学研究会 » 第114回 音楽情報科学研究会 発表募集 t.co/1yXsixct5O #SIGMUS twitter.com/risgk/...
(20:56:57) [@risgk] 音楽情報科学研究会 » 第114回 音楽情報科学研究会 発表募集 t.co/1yXsixct5O #SIGMUS twitter.com/risgk/...
(16:00:41) [@ipsj_sigmus] 【参加案内】第114回研究会(2017/2/27,28@ヤマハ株式会社 本社)の参加案内を掲載しました. 研究会の直前に企画しているヤマハ掛川ピアノ工場見学の申込が2月9日〆切となっております.ご注意ください. t.co/qJbHk5Qr0y #sigmus twitter.com/ipsj_s...
(13:47:09) [@ipsj_sigmus] 【参加案内】第114回研究会(2017/2/27,28@ヤマハ株式会社 本社)の参加案内を更新しました. ヤマハ掛川ピアノ工場見学の申込締切は明日2月9日,懇親会の申込締切は2月19日です.ご注意ください. t.co/qJbHk682p8 #sigmus twitter.com/ipsj_s...
(21:27:04) [@risgk] 音楽情報科学研究会 » 第114回 音楽情報科学研究会 参加案内 t.co/1yXsixu4uo #SIGMUS twitter.com/risgk/...
(23:36:51) [@hidekikawahara] @hidekikawahara タグをつけ忘れた。#SIGMUS twitter.com/hideki...
(23:48:49) [@chiteico] UTAUクラスタのレジェンド勢が学会生放送実況(?)でワイワイやっていたころのTogetterを発見。 「歌声情報処理最前線!」 のハッシュタグ( #sigmus )TL - Togetterまとめ t.co/Z6IDxHswjI togetter_jpさんから twitter.com/chitei...
(21:42:23) [@ipsj_sigmus] 【参加案内】第114回研究会(2017/2/27,28@ヤマハ株式会社 本社)の参加案内に会場への来場方法,及び近場のレストラン情報へのリンクを掲載しました。参加をお考えの方は,ぜひご確認ください。 t.co/qJbHk5Qr0y #sigmus twitter.com/ipsj_s...
(06:54:02) [@risgk] 音楽情報科学研究会 » 第114回 音楽情報科学研究会 参加案内 t.co/uL70OloP3z #SIGMUS twitter.com/risgk/...
(09:36:28) [@tetsurokitahara] #i2017 のポスター、ほぼ印刷完了。#i2017 の直前が #sigmus で今週しか時間が取れないということがスッポリ頭から抜けていた。アブナイアブナイ…。 twitter.com/tetsur...
(22:28:23) [@hidekikawahara] SIGMUS用のムービーを準備中。Youtubeチャンネルを開設。数式とMATLABコードも準備中。間に合え!自分。 t.co/QnvEnUpN6U #SIGMUS t.co/AODLLLJlPA twitter.com/hideki...
(22:33:16) [@hidekikawahara] チャンネルとリンクの両方を置くとリンクが優先されるみたいなので、もう一度。 #SIGMUS t.co/3MfBUHBTfN twitter.com/hideki...
(22:37:49) [@knoike] 河原英紀先生の YouTube チャンネル! すごい時代だーーー. t.co/3XGFegJdxH t.co/kKQnPh8OfX twitter.com/knoike...
(23:01:26) [@heiga_zen] YouTube channel of Prof. Hideki Kawahara, who invented the STRAIGHT vocoder. t.co/rfAQuBPb38 twitter.com/heiga_...
(01:08:29) [@hidekikawahara] SIGMUS 94と2012春の音響学会用に作ったiBookが読めなくなっていたので、フォーマット更新。今回のSIGMUS 114の背景として利用可。 t.co/QfSsnHVOQI ただし、XSXや波形の対称性に… t.co/MQxUDzjCO5 twitter.com/hideki...
(23:05:16) [@hoahoa] 明日は #sigmus のため浜松へ。産学連携セッションでMCします。現地行かれる方、よろしくお願いします。行かれない方はニコ生中継をお楽しみください。 twitter.com/hoahoa...
(03:19:05) [@hidekikawahara] Revisiting aperiodicity estimation for speech technology #sigmus #speechanalysis t.co/gpHpIbB8qe @SlideShareさんから 誤字修正 twitter.com/hideki...
(09:38:31) [@hidekikawahara] 今日のSIGMUSでの発表のスライドをSlideshareに載せました。 t.co/Ece8kSABcD MacやWindowsでは正常ですが、iPadとiPhoneでは、スライドとムービーの順序が乱れていました。謎。 #SIGMUS twitter.com/hideki...
(11:30:44) [@tetsurokitahara] 浜松到着。自動でない改札通るの20年ぶりぐらいかも。 #sigmus t.co/aSocsptUSr twitter.com/tetsur...
(11:46:20) [@hidekikawahara] 今日のSIGMUSの発表用に用意したムービーを作るMATLAB scriptと関数群を以下に置きました。このフォルダーだけで動作するはずです。 t.co/H8JXDS9617 movieGenForSIGMUS114を実行すると素材ができます。 #sigmus twitter.com/hideki...
(12:20:11) [@inuchi2] ゴリラクリームなう。 #SIGMUS t.co/KStirmlxBe twitter.com/inuchi...
(12:51:00) [@hoahoa] さすが、立派な佇まいだなぁ…ってことで、#sigmus 会場に到着。 (@ ヤマハ株式会社 本社 in 浜松市中区, 静岡県) t.co/rEvAxgC1cw t.co/syedx3YfQR twitter.com/hoahoa...
(13:07:49) [@tetsurokitahara] 始まりました! #sigmus twitter.com/tetsur...
(13:13:25) [平井辰典] こんにちは
(13:14:00) [平井辰典] ~~~~~~~~~~~~~~~~~~~SIGMUS114@浜松~~~~~~~~~~~~~~~~~~~~~~~~~~~
(13:14:32) [平井辰典] (1) 独奏認識誤りに頑健な音響入力伴奏システム 〇足立 亜里紗、堀内 靖雄、黒岩 眞吾(千葉大学)
(13:27:13) [平井辰典] (2) DPマッチングのコストに視線情報を反映させた楽譜追跡手法の提案 〇寺崎 栞里、竹川 佳成、平田 圭ニ(公立はこだて未来大学)
(13:27:35) [平井辰典] 目的:視線情報と打鍵情報を組み合わせた頑健かつ高速な抱く府追跡システムの構築
(13:27:55) [@hidekikawahara] MATLABの実装の背景で書いていたメモを以下におきました。 t.co/V1zKLoyXuD … 派手に間違っているところがそのまま残っています。恥ずかしいけれども、晒します。反省材料です。後で消すかも。。。。。 #SIGMUS twitter.com/hideki...
(13:28:02) [平井辰典] 課題:演奏の不確定要素への対応(誤打鍵,跳躍,繰り返し等)
(13:28:32) [平井辰典] 本研究:視線のノイズを除去するためにHMM,視線尤度をDPマッチングと組み合わせ
(13:29:24) [平井辰典] 従来の自動伴奏システム:DPマッチングによる手法(Dannenberg, 1984),HMMによる手法(中村ら,2013)⇒これらは打鍵情報で演奏か所を推定
(13:29:36) [平井辰典] 本研究では,視線情報と打鍵情報を組み合わせる
(13:30:17) [平井辰典] 視線に注目した理由:演奏者が演奏する際には,演奏するよりも先に演奏箇所を見るという特性があり,演奏箇所の推定に活用できるため
(13:30:57) [平井辰典] これまでの視線を活用した楽譜追跡:打鍵情報から演奏箇所の候補を検出⇒視線に夜演奏箇所の推定
(13:31:05) [平井辰典] (SIGMUS112で発表)
(13:31:22) [平井辰典] これまでの方法の問題点:視線のノイズによる楽譜追跡精度の低下
(13:31:38) [平井辰典] そこで,視線の動きを予測するHMM(視線モデル)を導入
(13:32:13) [平井辰典] 打鍵情報のみに偏った演奏箇所候補を検出していた ⇒ 視線尤度をDPマッチングのコストに追加
(13:32:50) [平井辰典] システム構成:視線追跡情報を視線モデルに入れる,打鍵情報はDPマッチング用のデータ(視線尤度も加える)
(13:33:30) [平井辰典] 視線ノイズが及ぼす楽譜追跡精度への影響:サッケード(物体を近くするとき視線が高速に揺れる現象)
(13:34:13) [平井辰典] 視線モデル:視線の生データから正しい視線の位置を推定するHMM(視線ノイズの除去と視線尤度の算出が目的)
(13:35:05) [平井辰典] 視線尤度を反映させたDPマッチング
(13:39:07) [平井辰典] 実験:SIGMUS112で報告したシステムとの比較
(13:47:55) [平井辰典] (3) スマートタンバリン:音と光で場を盛り上げるカラオケ支援システム 〇栗原 拓也(日本大学)、横溝 有希子、竹腰 美夏、馬場 哲晃(首都大学東京)、北原 鉄朗(日本大学)
(13:49:41) [平井辰典] カラオケとは,自己表現,コミュニケーション,余暇の場と機会の提供
(13:49:51) [平井辰典] 本研究ではカラオケでのコミュニケーションに注目
(13:50:28) [平井辰典] カラオケにおけるコミュニケーションとは,歌い手が歌で表現して聴き手は参加しない
(13:50:48) [平井辰典] 30人中27人がカラオケで退屈に感じたことがあると回答
(14:27:48) [平井辰典] 究極の目的:より人間らしい歌声合成
(14:27:59) [平井辰典] そのためには人間らしさの冷涼化が必要
(14:28:04) [平井辰典] 定量化
(14:28:25) [平井辰典] VOCALOIDの歌声と人間の歌声の違いを探れば人間らしさの本質がわかる
(14:28:40) [平井辰典] 深層学習の優れた自動特徴抽出能力に注目
(14:29:55) [平井辰典] データセット:VOCALOIDの歌声合成音(男声,女声),人間の歌声(社内独自データ,MIR-1k)
(14:30:46) [平井辰典] 実験1:オートエンコーダ(人間の歌声の振幅スペクトルで)
(14:31:28) [平井辰典] ⇒いろいろなモデルを試してみた結果,LSTMが品質が良かったが中身がわかりにくい
(14:32:35) [平井辰典] 実験2:分類器(VOCALOIDの歌声か人間の歌声かを識別)
(14:32:49) [平井辰典] ⇒振幅スペクトルで分類して,精度は90%ぐらい
(14:33:11) [平井辰典] F0とラウドネスでも識別はうまくいく
(14:33:29) [平井辰典] 実験3:GAN
(14:35:22) [平井辰典] VOCALOIDの声を入力したとき,スペクトルの見た目は変わっているが,音はあまり変わらなかった
(14:35:47) [平井辰典] 分類器を固定してみたらノイズが多くなってあまりうまくいかなかった
(14:37:20) [平井辰典] 固定分類器のGANでF0,ラウドネス
(14:37:33) [平井辰典] 実験4:F0からの生成ネットワーク
(14:38:43) [平井辰典] 実験5:1対1マッピング
(14:39:24) [平井辰典] 学習データ⇒教師:人間,入力:VOCALOID,両方の歌声,歌詞,メロディ,タイミングが同じ
(15:12:50) [ほあし] test
(15:46:56) [平井辰典] (7) スペクトログラムの階層的クラスタリングを用いたグルーピング構造分析について 〇澤田 隼、竹川 佳成、平田 圭二(公立はこだて未来大学)
(16:22:19) [@hoahoa] つぶやきテスト。#sigmus twitter.com/hoahoa...
(16:39:37) [@nkmrshnsk] これからヤマハで学会パネルディスカッション。 #sigmus twitter.com/nkmrsh...
(16:41:18) [@z_me_8] パネルディスカッション楽しみです♪ #sigmus twitter.com/z_me_8...
(16:47:12) [@plusadd] そろそろ始まるよー! 質問は #sigmus で受付中! t.co/gqvxmzcZAu twitter.com/plusad...
(16:53:29) [@z_me_8] 使ってもらえる研究って本当に難しいですよね…。 #sigmus twitter.com/z_me_8...
(17:02:15) [@inuchi2] ジョイル? #sigmus twitter.com/inuchi...
(17:19:20) [@plusadd] オンライン楽器レッスン Joyle ジョイル です! t.co/4NJ3Ffh7kZ t.co/kifu86kB1w twitter.com/plusad...
(17:21:00) [@plusadd] 話しすぎた・・・ごめんなさい。。 #sigmus twitter.com/plusad...
(17:51:00) [@inuchi2] KAGURA って他の楽器とセッションもできるのかな。サックスとか、ギターとか。^_^ #sigmus twitter.com/inuchi...
(17:53:07) [@akinori_ito] 賞の取り方が参考になる #sigmus twitter.com/akinor...
(17:53:31) [@inuchi2] いいなー、賞金稼ぎ。 #sigmus twitter.com/inuchi...
(18:03:46) [@nanashi_mus] 結局、研究をイノベーションにつなげるべきなの?聞いてると研究がイノベーションにつながると楽しかったり嬉しかったりするけど、そのために何かするべきだみたいな話にはなってないよね #sigmus twitter.com/nanash...
(18:19:13) [@seihonjo] 日本人の起業モチベーションは「仲間にうける」が突出しているので、音楽系の研究は他の研究分野よりも事業化に向いているように思います。#sigmus twitter.com/seihon...
(18:23:24) [@inuchi2] 学生がんばって!^_^ #sigmus twitter.com/inuchi...
(18:25:12) [@z_me_8] 学生の有利さを確かに活かせてる人少ないですよね…。 猶予期間というよりチャレンジ期間とかだと思います。 #sigmus twitter.com/z_me_8...
(18:52:18) [@12Mana04] @seihonjo 本條先生、#sigmusってなんですか??💡興味があります! twitter.com/12Mana...
(00:53:33) [@plusadd] 本日の #sigmus パネルディスカッション発表資料です!/「役に立つ研究に向けて」 - 音楽情報処理学会 第114回 パネルディスカッション資料 t.co/vcXNGKwbay twitter.com/plusad...
(05:10:39) [@knoike] #sigmus ニコ生,なんか,途中からすごくノイズ入り.1時間44分あたりから.バリバリ. twitter.com/knoike...
(05:13:47) [@knoike] 河原先生のキャッチコピーは,「Tool maker 参上」 #sigmus twitter.com/knoike...
(05:22:34) [@knoike] 「もし,(思いついたばかりの)STRAIGHT というアイデアへのこだわりがなかったら,2001年にはできていた」 #sigmus twitter.com/knoike...
(06:04:37) [@knoike] GLCM のことが直感的に理解できていないのだけど,休符の存在と長い音とが区別付くのだろうか? #sigmus twitter.com/knoike...
(06:05:00) [@knoike] この「再現率」「適合率」の算出方法って,一般的なのだろうか? #sigmus twitter.com/knoike...
(06:13:09) [@knoike] この手法でタイムスパン木は,できるかもしれないけれど,結構,たいへんかも... .さらに PRPR もやろうとするとどうやるのだろう? 和声の安定性. #sigmus twitter.com/knoike...
(06:23:09) [@knoike] 澤田さんの音響信号 GTTM GPR,5月SIGMUSデモでも感じたけれど,GPR とはちょっと違う分析方法のような感じ.GTTM にヒントを得た階層的な構造分析,という印象. #sigmus twitter.com/knoike...
(06:25:59) [@knoike] ご質問にもあったけれど,音色や,音色が同じでも音量(パワー)にかなり強く影響されてしまいそう.GPRには音量使うルールもあるので捨てるわけにはいかないので,パワーの影響をピッチの影響とは別にコントロールできるといいのかも.GLCMでできるのかどうかわからないけれど.#sigmus twitter.com/knoike...
(06:26:29) [@knoike] あと,テンポ変動に弱そうなので,そこをどうされるご予定なのか. #sigmus twitter.com/knoike...
(06:29:15) [@knoike] 否定的なことばかり書いてしまった(^^;)けれど,GTTM分析をする上で,ピッチ抽出もNote On/Off 時刻の抽出も端折って,時間-周波数スペクトルを短冊状にして類似度算出でやる,というのは私には思いつかなかったので「おぉっ,なるほど!」と5月に思いました. #sigmus twitter.com/knoike...
(06:31:05) [@knoike] このまま GTTM と同じ結果が出ることを目指すのも一つの方針ですが,「GTTM にヒントを得た(別の)階層的な分析手法」という方針を取るのもよいかと思いました.何か使い途を想定した上で. #sigmus twitter.com/knoike...
(06:38:34) [@knoike] ということで,音響信号から GTTM 分析をできるようにしたいと思っていた自分にとっては,個人的に澤田さんのお仕事には注目して(期待して)おります. #sigmus twitter.com/knoike...
(08:02:59) [@akinori_ito] 2017/2/27 音楽情報科学研究会1日目まとめ #sigmus t.co/19S1HWgbWI twitter.com/akinor...
(08:50:55) [平井辰典] ~~~~~~~~~~~~~~SIGMUS114(2日目)~~~~~~~~~~~~~~~~~~~
(09:23:12) [@z_me_8] 二日目なう #sigmus twitter.com/z_me_8...
(09:24:51) [平井辰典] (11) ニューラルネットワークによる楽器の音色の識別 〇山田 雅之、守田 了(山口大学)
(09:29:17) [@nkmrshnsk] 昨日の #sigmus のパネルディスカッションは言いたい放題言い過ぎてしまったけど(いつものことながら)、懇親会ではそれがよかったと評判よかったのでほっとしました。 twitter.com/nkmrsh...
(09:33:37) [@nkmrshnsk] プレゼンの表紙の背景にあったレゴで作ったミーティングテーブルはこれです。 t.co/Ux0YdauPCw #sigmus twitter.com/nkmrsh...
(09:46:27) [平井辰典] (12) 歌声の習熟度を関連する周波数特性に基づく音響特徴量の特定個人の長期的変化 〇吉田 祥、香山 瑞恵、池田 京子(信州大学)、山下 泰樹(長野県工科短期大学校)、伊東 一典(信州大学)、浅沼 和志(国立長野工業高等専門学校)
(09:49:33) [@hoahoa] 昨日の #sigmus パネルディスカッションは概ね好評だったようで、企画担当者としては一安心。パネリストとしてセッションを盛り上げていただいた小池さん(@plusadd)、中村さん(@nkmrshnsk)、ヤマハの松本さん、どうもありがとうございましたm(_ _)m twitter.com/hoahoa...
(10:47:55) [@ejiwarp] Revisiting aperiodicity estimation for speech technology #sigmus t.co/qnjsgNCbL2 twitter.com/ejiwar...
(11:45:34) [@z_me_8] 小節ごとではなくて、GTTMで分解したフレーズごとにやってみるとうまくいくのかな? #sigmus twitter.com/z_me_8...
(12:27:56) [@m_mina] The latest 黒猫新聞! t.co/w3sNQ8AV68 Thanks to @HomeiMiyashita @LunarModule7 @YMORI805 #sigmus #kyosan twitter.com/m_mina...
(13:01:15) [@kyonsandayo] 【ニコ生視聴中】第114回音楽情報科学研究会(SIGMUS)2日目(午後) #nicoch2604071 #sigmus t.co/yzc3xfkfKY twitter.com/kyonsa...
(14:50:49) [@z_me_8] 音響トラブルなう #sigmus twitter.com/z_me_8...
(14:52:19) [未来大:齋藤] ツイッターでも連携しています!
(14:53:51) [@plusadd] 音楽の自動生成における感動について、こちらの「5.1 音楽がもたらす要素」にまとまっている。 /未来を切り拓く音楽情報処理 t.co/W5K4UZ8h4k #sigmus twitter.com/plusad...
(14:59:41) [@plusadd] 最初の内声の簡略化の例に出ていた ショパンのOp.28-20について、後半には内声にメロディーを持つところが出てくるけど、そこは簡略されない? #sigmus twitter.com/plusad...
(15:12:40) [@plusadd] ミスタッチが発生するのは、ミスタッチした部分の難しさにあるというより、その手前までの指や腕の準備の仕方にあるのではないかな。つまりミスタッチ部分より、その前部分に(も)注目したほうが良いのでは。 #sigmus twitter.com/plusad...
(15:15:38) [平井辰典] (22) モバイル端末のブラウザ間で実現する即興的音楽演奏の教育支援アプリケーション〇横山 裕、岩井 将行(東京電機大学)
(15:16:00) [平井辰典] 背景:音楽教育では音楽づくりが取り上げられにくい
(15:16:12) [平井辰典] 情報技術を活用して音楽づくりを推進
(15:17:34) [平井辰典] 関連研究:タブレットデバイスを用いたコード演奏学習支援アプリケーション:Android端末を用いたコード学習
(15:17:55) [平井辰典] NETDUETTO:ネットワークを介した音楽セッション
(15:18:25) [平井辰典] 関連研究を踏まえて,導入が簡単で操作がわかりやすく,複数人で演奏しやすい,演奏者を補助するアプリを開発
(15:19:16) [平井辰典] Webアプリケーションを作った
(15:21:48) [平井辰典] アプリケーションの機能:①演奏機能,②スケール設定機能,③BPM設定機能,④プレイヤー状況表示機能
(15:22:40) [平井辰典] ここでの「音楽づくり」というのは何を指しているんでしょう?
(15:25:02) [平井辰典] 評価:応答速度が速いか?改善点は何があるか?
(15:25:19) [平井辰典] 速度計測方法:Socket通信のデータの往復時間
(15:26:16) [平井辰典] 応答速度は100~150ms程度
(15:27:13) [平井辰典] アンケートの結果はおおむね良かった
(15:29:05) [平井辰典] 200msの応答速度で体感で後れを感じる人は少ない
(15:34:20) [未来大:齋藤] 先ほどのシステム、ここにアクセスできるURL貼っていただけるととても嬉しいですね
(15:35:42) [平井辰典] (23) 最適な多視点カメラワークを自動生成する遠隔ピアノレッスン支援システムの設計と実装〇松井 遼太、竹川 佳成、平田 圭二(公立はこだて未来大学)
(15:37:25) [平井辰典] 鍵盤の周囲に7台のカメラを配置
(15:37:39) [平井辰典] 演奏に合わせてカメラワークを自動的に行うシステム
(15:38:33) [平井辰典] 遠隔でレッスンを行う際の問題点:互いの打鍵位置が見えないため指導が煩わしくなってしまう
(15:39:50) [平井辰典] 楽譜への指示は対面レッスンの場合は直接指示できるが,遠隔だと見えてるのは自分の楽譜だけなので指摘箇所が瞬時にはわかりづらい
(15:40:27) [平井辰典] 手や指の視覚的な把握も難しい
(15:40:33) [@inuchi2] 音楽つくるんなら、聞く人の評価なんか気にしないで、自分の中にあるものを表現してほしい。^_^ #sigmus twitter.com/inuchi...
(15:42:03) [@inuchi2] 音楽聴くんなら、並んでる音を聞くんじゃなくて、その向こうにあるものを聞きたい。 #sigmus twitter.com/inuchi...
(15:43:13) [平井辰典] システムの設計方針:対面環境と同様の指導やコミュニケーションができるようにする.支持箇所を理解するまでの時間の短縮.カメラ視点数と注視点の選択のトレードオフを解消
(15:43:31) [@inuchi2] 映像にあう音楽とか、作ってみたい。 #sigmus twitter.com/inuchi...
(15:43:39) [平井辰典] システム構成:教師側,生徒側に複数カメラとプロジェクタ
(15:45:53) [平井辰典] FFNNによる視点の予測
(15:48:52) [平井辰典] ルールベースによるカメラ制御:繰り返し部分は全く同じカメラワーク,カメラ切り替えタイミングの候補は毎小節頭,一度切り替えたら最低2小節間は切り替えない
(15:49:49) [平井辰典] 今後の課題:カメラ予測の正解率の改善(現在68.1%)
(15:55:15) [ほあし] 実際の現場を経験しているならではの良コメント>小池さん
(15:57:59) [平井辰典] (24) Strummer:インタラクティブなギターコード練習システム〇有賀 竣哉(東京大学)、後藤 真孝(産業技術総合研究所)、矢谷 浩司(東京大学)
(15:58:16) [未来大:齋藤] (Q)松井くんのシステムは送受信しているデータが多そうですが、レイテンシ的には大丈夫なのでしょうか?
(15:58:20) [平井辰典] 簡単でよく出てくるコードから練習したい
(15:58:45) [平井辰典] 自分が好きな曲の中でよく出てきて簡単なコードを含む曲から練習したい
(15:58:56) [平井辰典] 一人ひとりにフレキシブルな練習メニューを作る
(15:59:22) [平井辰典] アプローチ:Chord primariness&Song primarinessという指標を使う
(15:59:35) [平井辰典] CP:難易度(簡単),よく出てくる
(15:59:57) [平井辰典] コードの難易度は二名の経験者で180種のコードをスコア付け
(16:00:03) [平井辰典] 一致率は52.2%
(16:00:30) [平井辰典] CPは横軸に難易度,縦軸に頻度(自分が好きな楽曲集合内での頻度)
(16:01:03) [平井辰典] 原点に近い方がCPが高い
(16:01:11) [@plusadd] 遠隔レッスンは、研究レベルでは Pianolens や Teomirn のように AR/VR の利用を前提にしても良い気がする。いつか来る未来。 #sigmus twitter.com/plusad...
(16:02:39) [平井辰典] コード遷移は2万種類以上あってその遷移の難易度をスコア付けするのは難しい
(16:02:59) [平井辰典] 線形回帰モデルを作ってコード遷移難易度を推定
(16:03:36) [平井辰典] SP:CP&遷移難易度&音価(1小節に1コード or 2コード)
(16:04:37) [平井辰典] SPには「曲をどれだけ弾けるようになりたいか」という要素も入るのではないでしょうか
(16:05:05) [平井辰典] Billboardデータセットを利用
(16:05:45) [平井辰典] SP evaluation:ベースラインとしてコード難易度の和(TCD)を設定
(16:05:54) [平井辰典] SP vs TCD
(16:06:27) [平井辰典] 指標:k%-playerble(今まで学んだコードでどれだけ弾くことができるか)
(16:06:53) [平井辰典] SPがTCDを上回る
(16:07:07) [平井辰典] 少ない数の練習曲で多くの楽曲をカバーできる
(16:07:29) [平井辰典] Strummer:SPとCPが高い順に曲・コードを提供
(16:07:42) [平井辰典] ユーザの演奏をリアルタイムに解析
(16:08:19) [平井辰典] システム実演!
(16:11:48) [平井辰典] User test:5人のギター初心者が1日1時間5日間
(16:12:06) [平井辰典] 平均で全体の78.1%のコードを正しく弾けた
(16:24:04) [未来大:齋藤] 次セッションの齋藤の発表資料はこちらになります → goo.gl/NHwyJ5
(16:24:41) [未来大:齋藤] 開発したシステムはこちら → 180.43.174.135/g21...
(16:25:10) [未来大:齋藤] システムの使い方説明はこちら → youtu.be/eWhja1Hv2...
(18:46:47) [@hoahoa] 北原主査、二年間お疲れ様でした。#sigmus t.co/C2dxaUA9nA twitter.com/hoahoa...
(18:58:39) [@hoahoa] そして私も本年度で静かに #sigmus 運営委員を退きます。いろいろと記憶の彼方ですが、幹事時代含めて6年間お世話になりました。 twitter.com/hoahoa...
(21:20:03) [@inuchi2] 打ち上げまで終わりました!^_^ #sigmus t.co/ak2WVeyGGM twitter.com/inuchi...
(23:43:55) [@akinori_ito] 2017/2/28 音楽情報科学研究会2日目 #sigmus t.co/13ksC52GRl twitter.com/akinor...
(19:09:12) [@Shun_40] 遅れましたが、先日のSIGMUSの発表で用いた資料をアップしました。すぐには無理ですが、システムの公開も検討してみたいです。 #sigmus t.co/Yxc9CbaGkM twitter.com/Shun_4...
(08:42:22) [@yo2mori_fms] SIGMUS研究会への参加は自身が学部生であるからこそ得られたものが多く、とても有意義であったと思います 研究におけるストーリーの構築、 プレゼンテーションのノウハウ、 そして何よりも多くの先生や院生、企業の方々とお話させていただいたことで視野が広がりました #sigmus twitter.com/yo2mor...
(09:32:46) [@shionome] 【ニコ生視聴中】第3回アクセシビリティ研究会(SIGAAC)コミュニケーション支援・学習支援 (09:30~11:10) #nicoch2604071 #sigmus t.co/KrUskmRApO twitter.com/shiono...
(10:21:35) [@ja3rno] 【ニコ生視聴中】第3回アクセシビリティ研究会(SIGAAC)コミュニケーション支援・学習支援 (09:30~11:10) #nicoch2604071 #sigmus t.co/AXzWwZRjBf twitter.com/ja3rno...
(15:24:35) [@tetsurokitahara] 司会は #sigmus 関係者の竹川さんと森勢さん #ipsjone #IPSJ twitter.com/tetsur...
(22:48:43) [@ipsj_sigmus] 【発表募集】音学シンポ2017(第115回研究会)(2017/6/17,18@お茶の水女子大学)の発表募集締切が4/21に迫ってきました。奮ってお申込みください。t.co/bLze4zxuRZ #sigmus twitter.com/ipsj_s...
(03:01:59) [@forthshinji] 締切もうすぐ!! t.co/jMio1RF76J twitter.com/forths...
(22:08:36) [@ipsj_sigmus] 【発表募集】音学シンポ2017(第115回研究会)(2017/6/17,18@お茶の水女子大学)の発表募集締切が4/27まで延長されました。t.co/bLze4zxuRZ #sigmus twitter.com/ipsj_s...
(12:42:56) [@tetsurokitahara] 積極的な発表申込をよろしくお願いします! t.co/wcFdyVqn8a twitter.com/tetsur...
(23:00:00) [@michikachira] 音楽情報科学研究会 » コラム:第1回「シリアス・ミュージックとしてのコンピュータ音楽」 t.co/SKzV5WZhqG #SIGMUS twitter.com/michik...
(09:23:04) [@1T0T] ご来場いただく方は以下の注意事項と地図もご覧ください! t.co/gTE918ahmw t.co/K8QfkOi0EQ twitter.com/1T0T/s...
(22:34:49) [@phykm] 音楽情報科学研究会 » 音学シンポジウム2017(第115回 音楽情報科学研究会)参加案内 t.co/ffWSMhm0Hx #SIGMUS twitter.com/phykm/...
(21:45:28) [@cafe_on_the] 再び告知 「状態空間モデルと現代制御理論を用いた可変電気・機械特性スピーカー」 #SIGMUS@お茶の水女子大(6/17(土)) #ポスター発表 twitter.com/cafe_o...
(21:45:47) [@cafe_on_the] 概要(1/3) スピーカーの状態空間モデルを用いてボイスコイル電流・ダイアフラム位置・ダイアフラム速度等を推定し,その内部状態を考慮したフィードフォワード制御を行うことにより, #SIGMUS@お茶の水女子大(6/17(土)) #ポスター発表 twitter.com/cafe_o...
(21:46:08) [@cafe_on_the] 概要(3/3) 制御はデジタル信号処理で行うため,各パラメータは独立して変更可能で,物理的には実現困難な特性も容易かつ安定に作り出すことができる. #SIGMUS@お茶の水女子大(6/17(土)) #ポスター発表 twitter.com/cafe_o...
(19:03:49) [@1T0T] 明日からの音学シンポジウムにいらっしゃる皆様、しつこいようですが会場の注意事項を再送いたします。会場クソ暑いかもしれませんので服装にもお気をつけください。 t.co/gTE917SFXW #sigmus twitter.com/1T0T/s...
(19:04:53) [@1T0T] 講演会場 #sigmus t.co/enwIvFPbQr twitter.com/1T0T/s...
(19:05:40) [@1T0T] 講演会場に行く途中このドアを拝むとご利益があります #sigmus t.co/yfxQmYmi9Q twitter.com/1T0T/s...
(19:16:59) [@1T0T] ポスター会場 #sigmus t.co/SFw490rlO8 twitter.com/1T0T/s...
(19:19:50) [@ishiiakira] え? ポスターボードに1つづつ椅子があるなんて、なんと贅沢な… t.co/et8weaKUMr twitter.com/ishiia...
(20:17:49) [@1T0T] 4年前のシンポジウムの懇親会で「こんどは平日に来てください」と言ったにもかかわらず再び土日になってしまってすみません>誰となく #sigmus twitter.com/1T0T/s...
(20:18:15) [@1T0T] 4年前のシンポジウムの懇親会で「こんどは平日にこのキャンパスに来てください」と言ったにもかかわらず再び土日になってしまってすみません>誰となく #sigmus twitter.com/1T0T/s...
(00:12:17) [@hoahoa] #sigmus 関係者がじわじわ東京に集まってるのはそゆことですね。すんません、今回は参加見合わせます。。 twitter.com/hoahoa...
(09:02:35) [@dsk_saito] 音学シンポジウム開始です。盛り上がっていきましょう! t.co/2kMQHXwuy0 #sigmus twitter.com/dsk_sa...
(09:07:24) [@tachisto] スピーチチェインからのスピーチジャマー。ですよね〜 #sigmus twitter.com/tachis...
(09:08:45) [@tachisto] DAF効果のドーパミン仮説? #sigmus twitter.com/tachis...
(09:11:25) [@kyama0321] 情報処理学会 音学シンポジウム2017に参加中。ニコニコ動画でも観れます。 t.co/25Anu97jWr #sigmus twitter.com/kyama0...
(09:14:27) [@dakiyamasan] この困難、全部ワシやないか!! #sigmus twitter.com/dakiya...
(09:15:01) [@tachisto] 吃音者における弓状束の接続の乱れ・・・? #sigmus twitter.com/tachis...
(09:26:52) [@kyama0321] 発表プログラムはこちらから t.co/fHUbLupGM7 #sigmus twitter.com/kyama0...
(09:27:30) [@akinori_ito] captiOnline #sigmus t.co/pF9gPJJThM twitter.com/akinor...
(09:27:33) [@1T0T] 2階入り口のこれ、弊学校歌の音階らしいと聞きました #sigmus twitter.com/1T0T/s...
(09:28:18) [@1T0T] 写真貼り忘れ #sigmus t.co/so1b2PuxNq twitter.com/1T0T/s...
(09:31:57) [@tachisto] ニコ動だと音と映像のずれが、あ・た #sigmus twitter.com/tachis...
(09:32:18) [@dsk_saito] 特殊泊でマガーク効果的にやるのって結構珍しい気がするが、どうだろう #sigmus twitter.com/dsk_sa...
(09:33:57) [@tachisto] 原著はマガークとマクドナルドなのに・・・マクドナルドさん・・・ #sigmus twitter.com/tachis...
(09:34:07) [@yukara13] 圧倒的寝坊である #sigmus twitter.com/yukara...
(09:34:42) [@dsk_saito] 「すけすけだぜ!」をプロジェクションマッピングで再現する感じか(違 #sigmus twitter.com/dsk_sa...
(09:45:44) [@dsk_saito] 音声コミュニケーション調査研究委員会のコンセプト、非常に良いと思います。 #sigmus twitter.com/dsk_sa...
(09:45:49) [@kyama0321] 上智大学の荒井先生の発表。NHKの「えいごであそぼ with Orton」の英語発音実験の装置などを監修中。 t.co/71bTcNW8aW #sigmus twitter.com/kyama0...
(09:47:24) [@kyama0321] 音声コミュニケーション調査研究委員回のスペシャルセッション@音響学会、発表したいんだけど僕のタイミングが悪くて出せてない #sigmus twitter.com/kyama0...
(09:49:48) [@dsk_saito] Acoustic-Phonetics Demonstrations ( t.co/6btDf1bwOH ) #sigmus twitter.com/dsk_sa...
(09:51:45) [@dakiyamasan] 声道模型のSTLファイル #sigmus twitter.com/dakiya...
(09:51:56) [@kyama0321] 荒井先生、3Dプリンタ作成による声道模型を実演中。凄く大きい音 #sigmus twitter.com/kyama0...
(09:52:13) [@akinori_ito] 声道模型の3Dモデル #sigmus t.co/812QTJuWfc twitter.com/akinor...
(09:52:43) [@dakiyamasan] 声道模型のデモ良さがある #sigmus twitter.com/dakiya...
(09:54:51) [@dakiyamasan] 声道模型の3Dプリンタ出力 t.co/6zaVgpEuyv #sigmus twitter.com/dakiya...
(09:55:21) [@tachisto] 音声生成の構成論的アプローチか #sigmus twitter.com/tachis...
(09:55:56) [@dsk_saito] 声道模型、すごくいい! #sigmus twitter.com/dsk_sa...
(09:56:05) [@kyama0321] [b]-[m]-[w] モデルの次は [r]-[l]-[b]-[m]-[w]モデル。今年の夏のInterspeech 2017で発表予定。 #sigmus twitter.com/kyama0...
(09:57:23) [@kyama0321] 去年のポスター発表@某terspeech 2016でも荒井先生のポスター前はめちゃめちゃ人気やった。研究者が音に集まってた。 #sigmus twitter.com/kyama0...
(09:59:38) [@dsk_saito] 歌う声道模型! #sigmus twitter.com/dsk_sa...
(09:59:39) [@kyama0321] 荒井先生のデモ、もはや声道モデルベースのシンセサイザーを演奏しているようである。 #sigmus twitter.com/kyama0...
(10:01:56) [@tachisto] 鳥の鳴管模型も作って欲しい・・・ #sigmus twitter.com/tachis...
(10:02:14) [@akinori_ito] 荒井先生の講演,面白かった #sigmus twitter.com/akinor...
(10:27:34) [@dsk_saito] あたかもその場にいるような感覚、それが臨場感。 #sigmus twitter.com/dsk_sa...
(10:30:47) [@akinori_ito] 今年の音学シンポの特別講演,よく見たら音楽の話がないな #sigmus twitter.com/akinor...
(10:33:51) [@yukara13] 音空間ちくみ #sigmus twitter.com/yukara...
(10:41:35) [@dsk_saito] 出た、HRTF #sigmus twitter.com/dsk_sa...
(10:51:28) [@dsk_saito] まぶたはあるが、耳蓋はない。たしかに。 #sigmus twitter.com/dsk_sa...
(10:55:07) [@kyama0321] 聴覚ディスプレイの略語はVAD (Virtual Auditory Display) 。音声区間検出のVAD (Voice Activity Detection) とごっちゃになりそう。 #sigmus twitter.com/kyama0...
(10:58:58) [@yukara13] 警備員さんの視線が怖い #sigmus twitter.com/yukara...
(11:01:53) [@kokuju] DNNでHRTFを近似できそう.既に誰かやってるかもしれない #sigmus twitter.com/kokuju...
(11:04:01) [@dakiyamasan] HRTF界隈日本人多めっぽいな #sigmus twitter.com/dakiya...
(11:07:13) [@kyama0321] 聴覚ディスプレイによる固定音源の定位は、遅延時間が 60~80 ms 以下なら影響なし。 #sigmus twitter.com/kyama0...
(11:12:26) [@kyama0321] 聴覚ディスプレイ分野はモバイル端末との連携が必要。特にネットワーク通信をどれだけ遅延なく行えるか。現在の注目はエッジコンピューティング。 #sigmus twitter.com/kyama0...
(11:13:16) [@dakiyamasan] 確かこのアルゴリズム,市販のインパルス応答畳み込み系のリバーブプラグインが採ってた気がする #sigmus twitter.com/dakiya...
(11:22:16) [@tomo3u3u] 【ニコ生タイムシフト予約(2017/06/17 08:30開始)】 #nicoch2604071 #sigmus 第115回音楽情報科学研究会(SIGMUS)1日目(午前) t.co/2Re0hLSfCU twitter.com/tomo3u...
(11:25:17) [@dakiyamasan] 空間的折り返しひずみのシミュレーション.良いな.こういうのできるようになりたい #sigmus twitter.com/dakiya...
(11:32:24) [@kyama0321] 音学シンポジウムなのでオーケストラの配置についての空間音響的考察や空間効果を意識した楽曲についての紹介 #sigmus twitter.com/kyama0...
(11:35:37) [@dakiyamasan] チャイコフスキーのイタリア奇想曲とかは第一バイオリンと第二バイオリンの定位移動が結構成功してると思う #sigmus twitter.com/dakiya...
(11:41:15) [@kyama0321] これから怒涛のポスター発表紹介プレゼン #sigmus twitter.com/kyama0...
(11:58:09) [@1T0T] ポスター会場(2階)から講演会場(7階)までわずか100段です #sigmus twitter.com/1T0T/s...
(12:59:40) [@daichi_a] お茶大理学部3号館7階から見る景色。これだけキャンパス内緑があっても、やっぱり空気が都心何だよなぁ。毎日通っている人達は感じないのだろうけど。#sigmus t.co/v9hOoLmWBt twitter.com/daichi...
(14:34:23) [@hirai_lab] 本日、音学シンポジウム2017(第115回音楽情報科学研究会)にて、本研究室のM2川勝が「擦り音に着目した水場におけるインタフェース」と題して研究発表をしています。 #sigmus t.co/ToMJ8VNH6o twitter.com/hirai_...
(14:49:23) [@daichi_a] お茶大理学部3号館7階から見る景色。これだけキャンパス内緑があっても、やっぱり空気が都心何だよなぁ。毎日通っている人達は感じないのだろうけど。#sigmus t.co/Zzf9IBXaT3 twitter.com/daichi...
(15:28:03) [@daichi_a] アマガエルの合唱は郡知能的に生成されているらしい。となると、その研究のためには個体の位置推定が必要、という話。雨が降ると興奮して合唱にならなくなるらしい。これは面白い。#sigmus t.co/VZVMpH6qhI twitter.com/daichi...
(16:25:10) [@fuzzysphere] #sigmus 参加 t.co/qhhtbZCCTb twitter.com/fuzzys...
(16:34:50) [@dakiyamasan] 本日最後のチュートリアル講演と本講演 #sigmus twitter.com/dakiya...
(16:53:07) [@mzmttks] t.co/xIQgYQdIU2 #sigmus twitter.com/mzmttk...
(16:55:36) [@yukara13] 素晴らしいチュートリアルだ #sigmus twitter.com/yukara...
(16:57:54) [@kyama0321] まっくぶっくでいんぱるすれすぽんすをそくていでも #sigmus twitter.com/kyama0...
(16:59:14) [@akinori_ito] いまのIR測定ソフトどこにあった? #sigmus twitter.com/akinor...
(16:59:18) [@mzmttks] t.co/1dlhDXvcHN #sigmus twitter.com/mzmttk...
(17:02:17) [@akinori_ito] これだ #sigmus t.co/b48ieKcY2M t.co/sDSuo6czq6 twitter.com/akinor...
(17:02:28) [@mzmttks] t.co/cK9cvh3aXO #sigmus twitter.com/mzmttk...
(17:08:51) [@kokuju] なんか音を出して頑張って測定する #sigmus twitter.com/kokuju...
(17:15:30) [@dsk_saito] ISO3382: 残響時間の測定方法の規格 #sigmus twitter.com/dsk_sa...
(17:23:38) [@dsk_saito] 測定に関するやる気の凄さ.... #sigmus twitter.com/dsk_sa...
(17:26:01) [@tachisto] 超多点アレイはマイクの校正どうするんやろ。気合いかな。 #sigmus twitter.com/tachis...
(17:31:57) [@kyama0321] dcGCは dynamic compressive gammachirp filterbank (動的圧縮型ガンマチャープフィルタバンク)の略です #sigmus twitter.com/kyama0...
(17:33:23) [@kyama0321] 「関西中」のマイクを集めてコンサート会場でサラウンド録音 #sigmus twitter.com/kyama0...
(18:00:00) [@kyama0321] 懇親会モードに入りつつある #sigmus twitter.com/kyama0...
(18:06:18) [@1T0T] シンポジウムの語源は「いっしょに酒を飲む」だそうです  t.co/GbUE7P01qh #sigmus #前にも言った twitter.com/1T0T/s...