センサとマイコン(Arduino, Raspberry Pi)による行動分類
・USBマイクで音声認識
マイクに話しかけ(英語限定)音声入力でテキスト化する。以下は単純なテキスト化
ラズパイにUSBマイクをぶっさし、音声をテキスト変換するAPIをインスト―ルする
pip install Speechrecognition
続いてプログラムをターミナル上で実行する
python recmic.py
実行すると「samething say」と表示されるので何か答える。
・rasberry pi カメラで画像認識
カメラの使い方
Auduinoとラズパイを連結して情報を得る
ラズパイ、PCで使うコード
#ref(): File not found: "sensa.py" at page "カメラと音声"
#ref(): File not found: "server2.py" at page "カメラと音声"
.ラズパイに入れるモジュール(他多数)
opencv matplotlib scikit-learn graph-marker
・PCに入れるnltkリソース
python
>>>import nltk
>>>download('averaged_perceptron_tagger')
>>>download('wordnet')
>>>download('universal_tagset')
.他
gspread oauth2client
・プログラム修正点
#ref(): File not found: "19.PNG" at page "カメラと音声"
#ref(): File not found: "20.PNG" at page "カメラと音声"
server2.pyの133行目、sensaK.pyの42行目の下線のIPアドレスを自身のパソコンのIPに変更する。
PC側でserver2.pyがうまく軌道できたら
[available to connect: 192.168.0.205]の文字が表示されるのですぐラズパイの方でsensaK.pyを起動する。
上手くいけばラズパイもPCにもAuduinoで取得したデータ(数値)が表示され、ラズパイ側にはカメラ画像、PC側にセンサのグラフがリアルタイムで更新される。