ArduCam-ロゴ

Pico4ML-BLETinyML開発キット
QVGAカメラ、Bluetoothモジュール、LCDを備えたRP2040ボード
画面、オーディオ、リセットボタンなど
SKU:B0330
取扱説明書

ArduCam B0330 Pico4ML BLETinyMLDevキット-カバー

導入

Arducam Pico4ML-BLEは、RP4マイクロコントローラー、IMU、およびディスプレイと統合されたPico2040MLに基づいてBLEモジュールを拡張します。 今回のアップグレードにより、Bluetooth通信機能を備えた機械学習キットになります。 事前にトレーニングされた3つのTensorFlowLiteMicroexが含まれていますamp人物検出、魔法の杖、ウェイクワード検出などのファイル。 モデルを構築、トレーニング、デプロイすることもできます。

仕様

ArduCam B0330 Pico4MLBLETinyML開発キット-仕様

1 マイクロコントローラ ラズベリーパイRP2040
2 国際ミュー ICM-20948
3 カメラモジュール HiMax HMO1 B0、最大QVGA(320 x240©60fps)
4 Bluetoothモジュール BT5.0
5 画面 0.96インチLCDSPIディスプレイ(160 x 80、ST7735)
6 営業巻tage 3.3V
7 入力ボリュームtage VBUS:5V +/- 10%。 VSYS Max:5.5V
8 寸法 51×21ミリ

クイックスタート

Pico4ML-BLEにドラッグアンドドロップするだけで、コードの記述を開始する前でもすべてが機能していることを確認できる、ビルド済みのバイナリがいくつか用意されています。

事前トレーニング済みモデル

ウェイクワード検出Pico4ML-BLEが、オンボードマイクと事前にトレーニングされた音声検出モデルを使用して、誰かが「はい」または「いいえ」と言っているかどうかを常にオンにするウェイクワード検出を提供するデモ。
魔法の杖(ジェスチャ検出)
Pico4ML-BLEが、IMUと事前にトレーニングされたジェスチャ検出モデルを使用して、「ウィング」、「リング」、「スロープ」のXNUMXつのジェスチャのいずれかでいくつかのタイプの呪文を唱えるデモ。
人物検出
Pico4ML-BLEがHimaxHM01B0カメラモジュールを使用している人の存在の確率を予測するデモ。

初回使用

に行く https://github.com/ArduCAM/pico-tflmicro/tree/main/bin ページ、そしてあなたは.uf2を見つけるでしょう file■3つの事前トレーニング済みモデルの場合。

ウェイクワード検出

  1. 対応するuf2をクリックします。 file 「micro_speech.uf2」
  2. 「ダウンロード」ボタンをクリックしてください。 これ file コンピュータにダウンロードされます。
  3. Raspberry Piまたはラップトップを手に取り、Pico4ML-BLEのBOOTSELボタンを押したまま、マイクロUSBケーブルのもう一方の端をボードに接続します。
  4. ボードが接続されたらボタンを離します。RPI-RP2と呼ばれるディスクボリュームがデスクトップにポップアップ表示されます。
  5. ダブルクリックして開き、UF2をドラッグアンドドロップします file それに。 ボリュームが自動的にアンマウントされ、画面が点灯します。
  6. Pico4ML-BLEを近づけて、「はい」または「いいえ」と言います。 画面に対応する単語が表示されます。

魔法の杖(ジェスチャ検出)

  1. 対応するuf2をクリックします。 file 「pico4ml_ble_magic_wand.uf2」
  2. 「ウェイクワード検出の使用」で説明した2番目からXNUMX番目の手順を繰り返して、.ufXNUMXで画面を照らします。 file 魔法の杖のために。
  3. Pico4ML-BLEをW(ウィング)、O(リング)、またはL(スロープ)の形にすばやく振ります。 画面に対応するマークが表示されます。

人物検出

  1. 対応するuf2をクリックします。 file 「person_detection_int8.uf2」
  2. 「ウェイクワード検出の使用」で説明した2番目からXNUMX番目の手順を繰り返して、.ufXNUMXで画面を照らします。 file 人の検出用。
  3. Pico4ML-BLEを持って画像をキャプチャします。 画面には、画像と人物の存在確率が表示されます。

次は何か

エッジインパルスで魔法の杖を作る
増加したBluetoothは、ワイヤレスデータの収集、トレーニング、およびモデルの更新を設計することで実装するのに役立ちます。 web クライアントベース WebBLE。 収集されたデータは、変換スクリプトを介してEdge Impulseで読み取れる形式に変換され、モデルの転送学習が実行されます。 カスタムワンドプロジェクトをビルドするには、ドキュメントページを参照してください。 https://www.arducam.com/docs/pico/arducam-pico4mltinymldevkit/how-to-build-a-magic-wand-with-edge-impulse-on-arducam-pico4ml-ble/#26-gesture-recording

自分でモデルを作成する
RaspberryPi4BまたはRaspberryPi4を使用してPico400ML-BLEで独自のモデルを開発している場合は、以下を参照してください。 https://github.com/ArduCAM/pico-tflmicro
ソース file 3D印刷可能なエンクロージャーの場合3Dプリンターをお持ちの場合は、ソースを使用してPico4ML-BLE用の独自のエンクロージャーを印刷できます。 file 以下のリンクで: https://www.arducam.com/downloads/UC-798-Pico4ML-BLE-CASE.zip

お問い合わせ

メールアドレス: support@arducam.com
Webサイト: www.arducam.com
スカイプ: 持っていく
ドク: arducam.com/docs/pico/

ドキュメント / リソース

ArduCam B0330 Pico4ML-BLE TinyML 開発キット [pdf] 取扱説明書
B0330、Pico4ML-BLE TinyML開発キット、B0330Pico4ML-BLETinyML開発キット

参考文献

コメントを残す

あなたのメールアドレスは公開されません。 必須項目はマークされています *