安藤_backup
の履歴(No.41)
[
トップ
] [
新規
|
一覧
|
検索
|
最終更新
|
ヘルプ
]
履歴一覧
差分
を表示
現在との差分
を表示
ソース
を表示
安藤_backup
へ行く。
1 (2020-10-02 (金) 15:32:27)
2 (2020-10-02 (金) 15:56:04)
3 (2020-10-09 (金) 17:10:24)
4 (2020-10-15 (木) 16:42:42)
5 (2020-10-23 (金) 16:44:03)
6 (2021-02-08 (月) 15:54:23)
7 (2021-02-09 (火) 19:55:25)
8 (2021-02-15 (月) 19:11:53)
9 (2021-02-22 (月) 18:16:00)
10 (2021-02-22 (月) 21:22:23)
11 (2021-02-24 (水) 17:00:01)
12 (2021-02-24 (水) 19:49:20)
13 (2021-03-03 (水) 17:02:48)
14 (2021-03-11 (木) 13:44:36)
15 (2021-03-31 (水) 20:17:30)
16 (2021-04-02 (金) 20:31:18)
17 (2021-04-05 (月) 18:04:01)
18 (2021-04-07 (水) 17:40:57)
19 (2021-04-08 (木) 17:25:26)
20 (2021-04-08 (木) 20:39:31)
21 (2021-04-15 (木) 18:44:33)
22 (2021-04-19 (月) 18:20:33)
23 (2021-04-20 (火) 20:13:08)
24 (2021-04-27 (火) 20:20:05)
25 (2021-04-28 (水) 15:18:55)
26 (2021-05-13 (木) 14:21:13)
27 (2021-06-21 (月) 21:40:25)
28 (2021-09-03 (金) 15:31:08)
29 (2021-09-03 (金) 15:47:33)
30 (2021-09-13 (月) 13:02:44)
31 (2021-10-11 (月) 20:28:57)
32 (2021-10-13 (水) 12:14:19)
33 (2021-10-19 (火) 20:30:53)
34 (2021-11-10 (水) 13:10:00)
35 (2021-11-10 (水) 13:10:34)
36 (2021-11-12 (金) 11:06:14)
37 (2021-11-19 (金) 11:07:29)
38 (2021-12-09 (木) 19:48:27)
39 (2021-12-18 (土) 01:29:13)
40 (2021-12-21 (火) 12:49:55)
41 (2021-12-23 (木) 18:53:14)
42 (2021-12-29 (水) 16:14:27)
43 (2022-01-05 (水) 15:26:58)
44 (2022-01-12 (水) 12:33:39)
45 (2022-01-12 (水) 17:56:59)
46 (2022-01-17 (月) 10:39:38)
47 (2022-01-17 (月) 18:12:15)
48 (2022-01-18 (火) 10:43:43)
49 (2022-01-31 (月) 10:24:52)
50 (2022-02-15 (火) 19:59:32)
51 (2022-02-16 (水) 13:57:12)
52 (2022-02-21 (月) 16:54:52)
53 (2022-02-24 (木) 18:32:04)
54 (2022-02-28 (月) 16:02:14)
55 (2022-03-02 (水) 12:57:01)
FrontPage
技術資料書く
facedetect
モザイク
tex
B3後期
月曜日
火曜日
水曜日
木曜日
金曜日
1-2
データ処理工学
3-4
大規模通信システム工学
英語特別演習4
5-6
電子情報工学特別講義
実験
専門ゼミ
7-8
ユビキタス通信工学
9-10
技術者倫理
11-12
B4前期
月曜日
火曜日
水曜日
木曜日
金曜日
1-2
3-4
5-6
研究会
7-8
研究会
9-10
11-12
安藤の研究会
安藤の卒業研究
卒論ゼミ
メモ
中間発表
apache submarine pytorch tensorflow https://translate.google.com/translate?depth=1&hl=ja&prev=search&pto=aue&rurl=translate.google.com&sl=en&sp=nmt4&u=https://github.com/apache/submarine/blob/master/docs/userdocs/yarn/YARNRuntimeGuide.md slave2~4 と master2 CentOS7 Wi-Fiドライバ カーネルアプデ不要? https://papairoiro.blogspot.com/2018/09/centos75nuc5ppyhwifi.html?m=1 BigDL ディープラーニング+spark https://github.com/intel-analytics/BigDL-Tutorials CentOS7へsparkをインストール https://qiita.com/sugimount/items/8f44808409d1518b8424 むこう 5679 DELLPC有線で繋げない→DNSも固定する 192.168.0.1 python make install まで https://mgubaidullin.github.io/deeplearning4j-docs/ja/quickstart dl4jインスト https://qiita.com/tamura__246/items/3893ec292284c7128069 3/2 wikiに書くこと https://ishiis.net/2017/03/12/intel-bigdl-install/ でbigdlのビルド,mevan,spark(3.0.2)のインストール https://bigdl-project.github.io/master/#ScalaUserGuide/run/ でsparkとbigdlの環境変数設定,シェルを起動 3/11 cat /proc/cpuinfo | grep processorでコア数確認 https://bigdl-project.github.io/master/#ScalaUserGuide/run/のビルド済みのライブラリであるBIGDLを使う。リリースページから、自分のsparkのバージョンにあったBIGDLをDLする。 sparkプログラムとして実行でメモリが足りてないエラー →VMのメモリを設定から増やす sparkインストールurl http://ftp.riken.jp/net/apache/spark/spark-3.0.2/spark-3.0.2-bin-hadoop2.7.tgz master1 sparkshellまで vggサンプルlocal $SPARK_HOME/bin/spark-submit --master local[1] --class com.intel.analytics.bigdl.models.vgg.Train \ $BIGDL_HOME/lib/bigdl-SPARK_3.0-0.12.1-jar-with-dependencies.jar \ -f $HOME/cifar10 \ -b 4 vggサンプルスタンドアロンクラスタ $SPARK_HOME/bin/spark-submit --master spark://slave80:7077 --executor-cores 2 --total-executor-cores 2 --class com.intel.analytics.bigdl.models.vgg.Train $BIGDL_HOME/lib/bigdl-SPARK_3.0-0.12.1-jar-with-dependencies.jar -f $HOME/cifar10 -b 4 ?????????????????? $SPARK_HOME/bin/spark-submit --master spark://slave80:7077 --executor-cores 2 --total-executor-cores 2 --class com.intel.analytics.bigdl.models.vgg.Train $BIGDL_HOME/lib/bigdl-SPARK_3.0-0.12.1-jar-with-dependencies.jar -f $HOME/cifar10 -b 4 mnistサンプルlocal train $SPARK_HOME/bin/spark-submit --master local[1] --driver-class-path $BIGDL_HOME/lib/bigdl-SPARK_3.0-0.12.1-jar-with-dependencies.jar --class com.intel.analytics.bigdl.models.lenet.Train $BIGDL_HOME/lib/bigdl-SPARK_3.0-0.12.1-jar-with-dependencies.jar -f ./mnist -b 1 --checkpoint ./model
mnistサンプルlocal test $SPARK_HOME/bin/spark-submit \--master local[1] \--class com.intel.analytics.bigdl.models.lenet.Test \./dist-spark-3.0.0-scala-2.12.10-all-0.12.1-dist/lib/bigdl-SPARK_3.0-0.12.1-jar-with-dependencies.jar \-f ./mnist \--model ./model/20210405_163107/model.900001 \-b 1 mnistサンプルstandarone train $ $SPARK_HOME/bin/spark-submit --master spark://master1:7077 \--executor-cores 1 \--total-executor-cores 2 \--driver-class-path $BIGDL_HOME/lib/bigdl-SPARK_3.0-0.12.1-jar-with-dependencies.jar \--class com.intel.analytics.bigdl.models.lenet.Train \./dist-spark-3.0.0-scala-2.12.10-all-0.12.1-dist/lib/bigdl-SPARK_3.0-0.12.1-jar-with-dependencies.jar \-f ./mnist \-b 12 \--checkpoint ./model 一般物体検出YOLOの分散深層学習による性能評価 https://ipsj.ixsq.nii.ac.jp/ej/?action=pages_view_main&active_action=repository_view_main_item_detail&item_id=191420&item_no=1&page_id=13&block_id=8 Darknet53を用いたImageNetによる一般物体認識とYOLOv3を用いた物体検出の分散深層学習 https://ipsj.ixsq.nii.ac.jp/ej/?action=pages_view_main&active_action=repository_view_main_item_detail&item_id=194795&item_no=1&page_id=13&block_id=8 sparkエラー↓ WARN TaskSchedulerImpl: Initial job has not accepted any resources; check your cluster UI to ensure that workers are registered and have sufficient resources 対処法 https://translate.google.com/translate?hl=ja&sl=en&u=https://kb.databricks.com/clusters/spark-job-not-starting.html&prev=search&pto=aue やること hadoopのcore-site.xmlとhdfs-site.xmlを参照してsparkは動く。hadoopモンテカルロ法の時設定した上二つ+(yarnも設定,mapredファイルは無し)のファイルを変更しないとstandaroneクラスタ上でBIGDLのサンプルやsparkshellドキュメンテーションの例は動かない。設定ファイルの見直し(いまは<configuration></configuration>以外何も書いてない、でも動く)、他PCのsparkBIGDL環境構築 slave4,80 master 8 でlenettrain $SPARK_HOME/bin/spark-submit --master spark://slave8:7077 \--executor-cores 1 \--total-executor-cores 2 \--driver-class-path $BIGDL_HOME/lib/bigdl-SPARK_3.0-0.12.1-jar-with-dependencies.jar \--class com.intel.analytics.bigdl.models.lenet.Train \./dist-spark-3.0.0-scala-2.12.10-all-0.12.1-dist/lib/bigdl-SPARK_3.0-0.12.1-jar-with-dependencies.jar \-f ./mnist \-b 4 \--checkpoint ./model
並列GPUでBEAT マルチGPU(PC1台) pytorch https://qiita.com/m__k/items/87b3b1da15f35321ecf5 ×並列GPUでcifar10-cnn(クラウドサービスTensorflow-gpu&Keras https://developers.wonderpla.net/entry/2018/01/09/110000 torch.nn.DataParallel→1つのマシンで複数のGPU並列 やること 1.データベース作成2つ 2.多目的最適化の定式化を書く、変数を当てはめる 3.多目的PSOの例題を解く 4.多目的PSOを山本さんの制約付きに改良する 5.並列分散 16日までにデータベース 20日までに多目的最適化PSOの定式化 24日までに3の数値実験まで Web情報を活用した自動献立作成における制約条件を考慮した多目的粒子群最適化の並列分散処理 11/8 データベースの数値を多目的最適化にセットする 多目的最適化をMOPSOで解く 11/15 並列処理 パレート会から対話型で解を出す 11/22 11/29 プロトtypeの完成 12月本論書く、システムの最終版 12月以降検証評価 システムで建てた献立の栄養素の評価、一週間分の評価、写真撮ってもらう、同じ人で使ってる人と使ってない人で比較する 1月本論の赤ペン 1 はじめに 1.1 本研究の背景 1.2 本研究の目的 1.3 本論文の概要 2 自動献立作成の概要 2.1 自動献立作成支援システムの概要 2.2 Web上のレシピデータを活用 2.3 多目的最適化による自動献立作成 3 制約条件を考慮できる多目的PSO 3.1 粒子群最適化による解法 3.2 並列分散処理による解法 4 提案手法 5 数値実験並びに考察 5.1 実験概要および結果 5.2 考察 6 おわりに pyswarm × pyGMO 〇 pymoo ×? レシピにおける食材名と食材データベースでの食材名が微妙に違う場合→文字列の類似度を出して決める(pythonのdifflib) そもそも食材データベースにない食材 →食材名をショッピングサイトの検索エンジン(楽天市場の食品カテゴリ?)にかけて価格と量をその都度スクレイピングしてデータベースに加える? 混合整数最適化問題(0-1変数で割り当て表現) 12/24 NSGA2を献立作成に使う ライブラリortoolpyのaddbinvars()で0-1変数の作成