#author("2024-08-07T04:30:06+02:00","","") #author("2024-08-07T04:30:16+02:00","","") [[小澤の技術資料]] ~ とりあえずの中間発表テーマ「複製・競合動径基底関数ネットワークの教師なし学習への適用」~ ~ Dale則を考慮したシナプス可塑性方程式の解析~ ・奥原さんの「Dale則を考慮したシナプス可塑性方程式の解析」にあるプログラムの修正版 #ref(prog.py,,プログラム); ・シナプス可塑性とは:「脳内には、ニューロンと呼ばれる神経細胞がシナプスを介してつながっていて、電子回路のようなネットワークをつくって情報を伝達しています。 電子回路と大きく違うのは、このニューロン同士を接続するシナプスは、その人がさまざまなことを経験したり学習したりすることで、それを記憶し、変化するということ。ニューロンから受け取った情報をそのまま流すのではなく、シナプスを大きくしたり小さくしたりすることで、情報の伝わりやすさを操作しているのです。このシナプスの変化を、『シナプスの可塑性』といいます。」(https://www.toyo.ac.jp/link-toyo/life/synapticplasticity/)~ ~ ・Dale則とは:1つのニューロンは生化学的に単一な性質であり、シナプス間感度が興奮性であるか抑制性であるかは送り出すニューロンによって決まるという法則。(現代では多少修正されている可能性**要チェック)~ ・Dale則の破れ:1つのニューロンから興奮性伝達物質を放出することもあれば抑制性伝達物質を放出することもある(らしい)~ ~ ・Hebb則とは:シナプス可塑性における基本法則。ただし、基本法則のまま適用すると、シナプス間感度が変化し続けた場合に発散するため、様々な仮定が設けられており、それが各モデルの特徴となることが多い。~ ~ ・隷従化原理とは:神経科学や制御理論の分野で使用される概念で、ある部分系(subsystem)が他の部分系に強く影響を受け、その動作が制約されることを指す。神経科学や制御理論の分野で特に重要な概念であり、複雑なシステムやネットワークの理解に役立つ。~ ~ ・シナプス可塑性方程式における競合と分岐の章では、(5)式の微分方程式を解いた前提で進んでるっぽい~ ~ 適者生存型学習則を適用した競合動径基底関数ネットワーク~ ・RBFN(動径基底関数ネットワーク)とは:人工ニューラルネットワークの一種で、主に回帰や分類などの問題に使用される。RBFNは、入力データと出力データの非線形関係をモデル化するために設計される。~ ~ ・Lyapunov関数とは:ダイナミカルシステムの安定性を解析するために使用される数学的なツール。特に、システムの状態が時間とともに安定するかどうかを判断するために使われる。 #ref(Lyapunov.png,,30%)~ ・ターミナルアトラクタとは:ダイナミカルシステムにおける概念の一つで、特定の初期条件から出発したシステムの軌跡が最終的に到達し、そこに留まる状態や集合のことを指す。~ (ばねの振動を考えると、減衰が大きい場合、最終的に静止する場所がターミナルアトラクタに該当する) #ref(ターミナルアトラクタ.png,,30%)~ 環境の変化に適応できる複製・競合動径基底関数ネットワーク~