2019年7月24日
の編集
Top
/
2019年7月24日
[
トップ
] [
編集
|
差分
|
履歴
|
添付
|
リロード
] [
新規
|
一覧
|
検索
|
最終更新
|
ヘルプ
]
-- 雛形とするページ --
島部/menu/template
[[FrontPage]] **司会)山元・書記)横井 [#j9a02a5e] ***開始)15:00・終了)17:00 [#ga6365ee] ***欠席)なし・遅刻)なし [#b0a66143] ***議事録 [#g79e25d5] //###########ここから#############// 麻生さんの発表 -(小野田)この研究におけるLSTMの使い方はどうするか --まだ決めてないが、クラスタリングや回帰分析などができるので、やってみて決める。 -(横井)売りサインと買いサイン同時の時の処理 --ほかの所で考えるかも、まだ決めてない -(沼田)なぜこのテクニカル指標を選んだか --有名なものを取り上げた。 -(山元)指標は全部実装するのか1つだけ使うのか --とりあえず全部で予測してみる -(奥原)入力テーブル(ルール)はいるのか --無いよりはいい。 -自動売買のクローズするときはどうするか --まだ考えていない。 -これは、どの時間刻みでデータを取っているか --分足です。 -昔のヒストリカルデータとそこからのティックを組み合わせることで現在までの1つのデータになる。 -とりあえずスタートからゴールまでのやることの順序を決定 --懸念している所があって、分足データとティックデータを組み合わせると時間関係が変になってLSTMなどがうまくいかないのではないか -時間も学習用のデータとして扱うのか --扱う -LSTMでない他の予測手法などを使う --今問題となっているのは時間をどのように扱うか --とりあえずLSTMを使ってみないと分からない -シグナルが来た時の買いか売りかの判断を --twitterのデータの使い方をティックと分足でデータ量が極端に変わるからおかしくなるのではないか -分足の場合は15分45秒にtwitterのデータが来たら16分のところにデータを入れる。 -ティックの場合は15分45秒にtwitterのデータ来たら16分○秒のところすべてにデータを入れる。 -データからルール出すまでで9割仕上がるとおもう。 小野田さんの発表 -(麻生)word2vecではない手法をつかうのか --Pytorchの本に載っていた手法を使う。なぜなら、そのままではできなかったことと簡単な手法だと精度が悪くなる可能性があるため。 -(横井)GPUからCPUに変更しただけでできた理由 --いろいろな原因があると思う -(沼田)今後ビッグデータを使うときのGPUの使用方法 --一番いいのはメモリを増やすことだが、まずはGPUの勉強が必要 -(山元)特許のkeywordsはどうとってくるか --keywordを自動抽出して表示する -(奥原)3ページの図は自分のプログラムはどうとったか --キーワードは東大のひとのやつで、他はクローリング -GPUからCPUに変えて動かないのは別の要因だと思う --自分はベクトルの変数がプログラムが終了したあともメモリ上に残っていて動かないと思う --ほかにも原因あるかも -ほかの研究室のGPUでできるかどうか試すとかという提案 -今のCPUのやり方で進めるのでいいと思う -この発表は自分の研究のどの部分か --機械学習の部分を発表した --今回のPyTorchの特徴量ベクトルは「リンゴ-赤=なし」みたいな感じ コメント 奥原 -研究会は休まないように 研究会後議事録 -(奥原)直交表使うよりは小野田さんのDEAの研究の方法のほうが結果がよさそうなので山元さんと小野田さんと話し合って研究を決めたいと思う。 //###########ここまで#############//
タイムスタンプを変更しない
[[FrontPage]] **司会)山元・書記)横井 [#j9a02a5e] ***開始)15:00・終了)17:00 [#ga6365ee] ***欠席)なし・遅刻)なし [#b0a66143] ***議事録 [#g79e25d5] //###########ここから#############// 麻生さんの発表 -(小野田)この研究におけるLSTMの使い方はどうするか --まだ決めてないが、クラスタリングや回帰分析などができるので、やってみて決める。 -(横井)売りサインと買いサイン同時の時の処理 --ほかの所で考えるかも、まだ決めてない -(沼田)なぜこのテクニカル指標を選んだか --有名なものを取り上げた。 -(山元)指標は全部実装するのか1つだけ使うのか --とりあえず全部で予測してみる -(奥原)入力テーブル(ルール)はいるのか --無いよりはいい。 -自動売買のクローズするときはどうするか --まだ考えていない。 -これは、どの時間刻みでデータを取っているか --分足です。 -昔のヒストリカルデータとそこからのティックを組み合わせることで現在までの1つのデータになる。 -とりあえずスタートからゴールまでのやることの順序を決定 --懸念している所があって、分足データとティックデータを組み合わせると時間関係が変になってLSTMなどがうまくいかないのではないか -時間も学習用のデータとして扱うのか --扱う -LSTMでない他の予測手法などを使う --今問題となっているのは時間をどのように扱うか --とりあえずLSTMを使ってみないと分からない -シグナルが来た時の買いか売りかの判断を --twitterのデータの使い方をティックと分足でデータ量が極端に変わるからおかしくなるのではないか -分足の場合は15分45秒にtwitterのデータが来たら16分のところにデータを入れる。 -ティックの場合は15分45秒にtwitterのデータ来たら16分○秒のところすべてにデータを入れる。 -データからルール出すまでで9割仕上がるとおもう。 小野田さんの発表 -(麻生)word2vecではない手法をつかうのか --Pytorchの本に載っていた手法を使う。なぜなら、そのままではできなかったことと簡単な手法だと精度が悪くなる可能性があるため。 -(横井)GPUからCPUに変更しただけでできた理由 --いろいろな原因があると思う -(沼田)今後ビッグデータを使うときのGPUの使用方法 --一番いいのはメモリを増やすことだが、まずはGPUの勉強が必要 -(山元)特許のkeywordsはどうとってくるか --keywordを自動抽出して表示する -(奥原)3ページの図は自分のプログラムはどうとったか --キーワードは東大のひとのやつで、他はクローリング -GPUからCPUに変えて動かないのは別の要因だと思う --自分はベクトルの変数がプログラムが終了したあともメモリ上に残っていて動かないと思う --ほかにも原因あるかも -ほかの研究室のGPUでできるかどうか試すとかという提案 -今のCPUのやり方で進めるのでいいと思う -この発表は自分の研究のどの部分か --機械学習の部分を発表した --今回のPyTorchの特徴量ベクトルは「リンゴ-赤=なし」みたいな感じ コメント 奥原 -研究会は休まないように 研究会後議事録 -(奥原)直交表使うよりは小野田さんのDEAの研究の方法のほうが結果がよさそうなので山元さんと小野田さんと話し合って研究を決めたいと思う。 //###########ここまで#############//
テキスト整形のルールを表示する