戸田_backup
の履歴(No.19)
[
トップ
] [
新規
|
一覧
|
検索
|
最終更新
|
ヘルプ
]
履歴一覧
差分
を表示
現在との差分
を表示
ソース
を表示
戸田_backup
へ行く。
1 (2023-10-05 (木) 16:17:35)
2 (2023-10-05 (木) 16:20:56)
3 (2023-10-12 (木) 15:54:16)
4 (2023-12-15 (金) 13:05:49)
5 (2023-12-22 (金) 11:59:35)
6 (2024-02-20 (火) 16:10:47)
7 (2024-06-12 (水) 15:45:11)
8 (2024-06-26 (水) 13:03:17)
9 (2024-06-27 (木) 20:10:27)
10 (2024-06-28 (金) 15:11:06)
11 (2024-07-01 (月) 16:40:23)
12 (2024-07-03 (水) 15:05:30)
13 (2024-07-04 (木) 19:03:35)
14 (2024-07-05 (金) 13:49:47)
15 (2024-07-09 (火) 10:58:43)
16 (2024-07-10 (水) 16:31:07)
17 (2024-07-18 (木) 20:17:37)
18 (2024-07-24 (水) 15:20:46)
19 (2024-07-25 (木) 17:36:16)
20 (2024-08-02 (金) 15:40:31)
21 (2024-08-07 (水) 16:00:35)
22 (2024-09-25 (水) 12:49:24)
23 (2024-09-30 (月) 13:16:10)
24 (2024-10-02 (水) 16:40:37)
25 (2024-10-11 (金) 13:38:29)
26 (2024-10-15 (火) 16:40:13)
27 (2024-10-18 (金) 15:34:28)
28 (2024-10-18 (金) 19:02:56)
29 (2024-10-23 (水) 13:48:12)
30 (2024-10-24 (木) 13:29:53)
31 (2024-10-24 (木) 22:47:10)
32 (2024-10-27 (日) 19:10:12)
33 (2024-10-28 (月) 14:12:05)
34 (2024-11-06 (水) 18:03:26)
35 (2024-11-11 (月) 14:46:18)
36 (2024-11-19 (火) 16:54:01)
37 (2024-11-20 (水) 12:04:41)
38 (2024-11-20 (水) 15:54:37)
39 (2024-11-26 (火) 11:21:09)
40 (2024-12-24 (火) 10:34:42)
41 (2025-01-10 (金) 11:37:49)
42 (2025-01-10 (金) 18:08:16)
43 (2025-01-16 (木) 11:28:15)
44 (2025-01-17 (金) 11:23:31)
FrontPage
研究会
研究会(戸田)
専門ゼミ
専門ゼミ(戸田)
引き継ぎ
引き継ぎ(戸田)
中間発表ポスター
中間発表(戸田)
B3 後期授業
月曜日
火曜日
水曜日
木曜日
金曜日
1-2
プログラミング言語
研究会
3-4
英語特別演習3
オペレーションズ・リサーチ
研究会
5-6
情報システム工学特別講義
卒研1
卒研1
卒研1
7-8
卒研1
研究会
技術者倫理
9-10
研究会
11-12
メモ
replace前: C:/Users/Owner/fx-trading_system replace後: C:/Users/sigma/Desktop/fx-trading_system replaceショートカットキー: ctrl + h データとるやつ AttributeErrorの原因 pandasのバージョン 1.3.5だと動く 木下さん プログラム動かす順番 データとるやつ→高田さんのind→causal→buysell→Trade py -3.8 -m pip install MetaTrader5 MT5 銘柄一覧 https://xem-fx.com/currency-pair/
木下さんの卒研のデータとるやつを動かすときのコピペ
start python cop_data.py & start python eurusd_data.py & start python gbpjpy_data.py & start python gold_data.py & start python JP225_data.py & start python oil_data.py & start python tick_data.py & start python uk100_data.py & start python us30_data.py
木下さんの卒研のindを動かすときのコピペ
start python indi_BBAND.py & start python indi_DMI.py & start python indi_EMA.py & start python indi_LINE.py & start python indi_MACD.py & start python indi_RSI.py & start python indi_STOCH.py
大谷さんの卒研のindを動かすときのコピペ
start python indi_BBAND.py & start python indi_DMI.py & start python indi_EMA.py & start python indi_MACD.py & start python indi_RSI.py & start python indi_STOCH.py & start python indi_ULTOSC.py
コピペ
from flask import Flask, render_template, request, redirect, url_for, session import csv import os import pandas as pd import tkinter as tk from tkinter import messagebox from pyvis.network import Network import json import re zikeiretu = pd.read_csv("csv/fusion_data_forVARLiNGAM.csv") app = Flask(__name__) app.secret_key = 'your_secret_key' # セッションの安全性のためのキーを設定 print(zikeiretu[["Day"]]) @app.route("/page/<node_label>") def page(node_label): # Remove (t) or (t-1) from node_label node_label_cleaned = re.sub(r'\(t(?:-1)?\)', '', node_label) # Redirect to the cleaned URL return redirect(url_for("page", node_label=node_label_cleaned)) @app.route('/') def home(): def scraping(): from selenium import webdriver from selenium.webdriver.common.by import By import time from selenium.webdriver.chrome.service import Service from selenium.webdriver.chrome.service import Service as ChromeService from webdriver_manager.chrome import ChromeDriverManager from pathlib import Path import pandas as pd import os start_year = 2000 options = webdriver.ChromeOptions() #options.add_argument('--headless') options.add_argument('--no-sandbox') options.add_argument('--disable-dev-shm-usage') dldir_path = Path('csv') # csv という名前のフォルダとする dldir_path.mkdir(exist_ok=True) # なければ作成 download_dir = str(dldir_path.resolve()) # 絶対パスを取得 print("download_dir: " + download_dir) options.add_experimental_option('prefs', { # Chrome のオプションに 'download.default_directory': download_dir # 絶対パスで指定 }) service = Service(executable_path='webdriver/chromedriver.exe') driver = webdriver.Chrome(service=service, options=options) driver.implicitly_wait(10) # for i in range(1,3): # print(i) # driver.get("https://www.stat-search.boj.or.jp/") # elem = driver.find_element(By.XPATH, '//*[@id="toukei_4"]/a') # elem.click() # elem = driver.find_element(By.XPATH, '//*[@id="toukei_4"]/ul/li['+str(i)+']/a') # elem.click() # elem_tenkai = driver.find_element(By.XPATH, '//*[@id="menuSearchTabpanel"]/div[2]/div[1]/div[2]/input') # elem_tenkai.click() # elem_check = driver.find_element(By.XPATH, '//*[@id="menuSearchDataCodeList"]/tbody/tr[1]/td/label') # elem_check.click() # elem = driver.find_element(By.XPATH, '//*[@id="menuSearchTabpanel"]/div[2]/div[2]/div[4]/a') # elem.click() # elem_start_year = driver.find_element(By.XPATH, '//*[@id="fromYear"]') # start_year = elem_start_year.send_keys(start_year) # elem = driver.find_element(By.XPATH, '//*[@id="resultArea"]/div[4]/ul/li[1]/a') # elem.click() # handle_array = driver.window_handles # driver.switch_to.window(handle_array[i]) # elem = driver.find_element(By.XPATH, '/html/body/div[2]/div/div[2]/table/tbody/tr[2]/td[5]/a') # elem.click() # handle_array = driver.window_handles # driver.switch_to.window(handle_array[i+1]) # elem = driver.find_element(By.XPATH, '/html/body/div[2]/div/div/div/table/tbody/tr/td/a') # elem.click() url=driver.get("https://indexes.nikkei.co.jp/nkave/index/profile?idx=nk500av") click_elem = driver.find_element(By.XPATH, '/html/body/div[1]/div/main/section[3]/div/nav/ul/li[2]/a').get_attribute('href') driver.get(click_elem) time.sleep(3) os.remove('csv/nwe.csv') old_csv = "csv/nikkei_500_stock_average_daily_jp.csv" new_csv = "csv/nwe.csv" os.rename(old_csv,new_csv) # click_elem = driver.find_element(By.XPATH, '/html/body/div[1]/div/main/section[3]/div/nav/ul/li[2]/a').get_attribute('href') # click_elem # driver.get(click_elem) # for i in range(30): /html/body/div[1]/div/main/section[3]/div/nav/ul/li[2]/a # click_elem.click() # elem = driver.find_element(By.XPATH, '//*[@id="fourvalue_timeline"]/tbody') # print(elem.text) file_path = "csv/nwe.csv" try: df = pd.read_csv(file_path, encoding='cp932') # エンコーディングを適切なものに変更 df["データ日付"] = pd.to_datetime(df["データ日付"], errors='coerce', format='%Y/%m/%d') except UnicodeDecodeError as e: print(f"CSVファイルの読み込みエラー: {e}") except ValueError as ve: print(f"日付の変換エラー: {ve}") df["データ日付"] = pd.to_datetime(df["データ日付"], format='%Y/%m/%d') df = df.set_index('データ日付') #不必要なカラムを削除。今回の指数の値は全て終値で示します。 df = df.drop(['始値', '高値', '安値'], axis=1) df = df.sort_index(ascending=True) #名前の変更 df.rename(columns={'終値':'Nikkei500','業種別(水産)終値':'Fishery', '業種別(鉱業)終値':'Mining', '業種別(建設)終値':'Construction', '業種別(食品)終値':'Foods',\ '業種別(繊維)終値':'Fiber','業種別(パルプ・紙)終値':'Pulp & paper', '業種別(化学)終値':'Chemicals', '業種別(医薬品)終値':'Pharmaceuticals',\ '業種別(石油)終値':'Petroleum','業種別(ゴム)終値':'Rubber', '業種別(窯業)終値':'Glass & Ceramics','業種別(鉄鋼)終値':'Steel','業種別(非鉄・金属)終値':'Nonferrous metals',\ '業種別(機械)終値':'Machinery','業種別(電気機器)終値':'Electric machinery','業種別(造船)終値':'Shipbuilding','業種別(自動車)終値':'Automotive',\ '業種別(輸送用機器)終値':'Transportation instruments','業種別(精密機器)終値':'Precision instruments', '業種別(その他製造)終値':'Other manufacturing','業種別(商社)終値':'Trading companies',\ '業種別(小売業)終値':'Retail','業種別(銀行)終値':'Banking','業種別(その他金融)終値':'Other financial services','業種別(証券)終値':'Securities',\ '業種別(保険)終値':'Insurance','業種別(不動産)終値':'Real estate','業種別(鉄道・バス)終値':'Railway/bus','業種別(陸運)終値':'Land transport',\ '業種別(海運)終値':'Marine transport', '業種別(空運)終値':'Air transport', '業種別(倉庫)終値':'Warehousing', '業種別(通信)終値':'Communications',\ '業種別(電力)終値':'Electric power', '業種別(ガス)終値':'Gas', '業種別(サービス)終値':'Services'}, inplace=True) pd.set_option('display.max_rows', None) pd.set_option('display.max_columns', None) # dfの最後の行を削除 df = df.drop(df.index[-1]) scraping() def kyoki_word_network(): got_net = Network(height="1000px", width="95%", bgcolor="#FFFFFF", font_color="black", notebook=True, directed=True) print(zikeiretu) got_data = pd.read_csv("ultra_kekka.csv")[:2000] sources = got_data['from'] targets = got_data['to'] weights = got_data['effect'] unique_nodes = set(sources) | set(targets
やること
優先順位 1.スクショ 2.蒲田さんの3Dの図と図6の結果を絡める 3.スクショの結果と2の考察と絡める 4.蒲田さんのプログラムをノートPCで動かせるようにする 大谷さんのデモを動かす 木下さんverのfision_data_forVARlingam.csvを作成する