歡迎光臨
每天分享高質量文章

如何使用 Android Things 和 TensorFlow 在物聯網上應用機器學習 | Linux 中國

探索如何將 Android Things 與 Tensorflow 整合起來,以及如何應用機器學習到物聯網系統上。學習如何在裝有 Android Things 的樹莓派上使用 Tensorflow 進行圖片分類。
— Francesco Azzola


致謝
編譯自 | 
https://www.survivingwithandroid.com/2018/03/apply-machine-learning-iot-using-android-things-tensorflow.html
 
 作者 | Francesco Azzola
 譯者 | qhwdw 共計翻譯:140 篇 貢獻時間:270 天

探索如何將 Android Things 與 Tensorflow 整合起來,以及如何應用機器學習到物聯網系統上。學習如何在裝有 Android Things 的樹莓派上使用 Tensorflow 進行圖片分類。

這個專案探索瞭如何將機器學習應用到物聯網上。具體來說,物聯網平臺我們將使用 Android Things,而機器學習引擎我們將使用 Google TensorFlow

現如今,Android Things 處於名為 Android Things 1.0 的穩定版本,已經可以用在生產系統中了。如你可能已經知道的,樹莓派是一個可以支援 Android Things 1.0 做開發和原型設計的平臺。本教程將使用 Android Things 1.0 和樹莓派,當然,你可以無需修改程式碼就能換到其它所支援的平臺上。這個教程是關於如何將機器學習應用到物聯網的,這個物聯網平臺就是 Android Things Raspberry Pi。

物聯網上的機器學習是最熱門的話題之一。要給機器學習一個最簡單的定義,可能就是 維基百科上的定義[1]

機器學習是電腦科學中,讓計算機不需要顯式程式設計就能去“學習”(即,逐步提升在特定任務上的效能)使用資料的一個領域。

換句話說就是,經過訓練之後,那怕是它沒有針對它們進行特定的程式設計,這個系統也能夠預測結果。另一方面,我們都知道物聯網和聯網裝置的概念。其中前景最看好的領域之一就是如何在物聯網上應用機器學習,構建專家系統,這樣就能夠去開發一個能夠“學習”的系統。此外,還可以使用這些知識去控制和管理物理物件。在深入瞭解 Android Things 的細節之前,你應該先將其安裝在你的裝置上。如果你是第一次使用 Android Things,你可以閱讀一下這篇如何在你的裝置上安裝 Android Things[2] 的教程。

這裡有幾個應用機器學習和物聯網產生重要價值的領域,以下僅提到了幾個有趣的領域,它們是:

◈ 在工業物聯網(IIoT)中的預見性維護
◈ 消費物聯網中,機器學習可以讓裝置更智慧,它透過調整使裝置更適應我們的習慣

在本教程中,我們希望去探索如何使用 Android Things 和 TensorFlow 在物聯網上應用機器學習。這個 Adnroid Things 物聯網專案的基本想法是,探索如何去構建一個能夠識別前方道路上基本形狀(比如箭頭)並控制其道路方向的無人駕駛汽車。我們已經介紹了 如何使用 Android Things 去構建一個無人駕駛汽車[3],因此,在開始這個專案之前,我們建議你去閱讀那個教程。

這個機器學習和物聯網專案包含如下的主題:

◈ 如何使用 Docker 配置 TensorFlow 環境
◈ 如何訓練 TensorFlow 系統
◈ 如何使用 Android Things 去整合 TensorFlow
◈ 如何使用 TensorFlow 的成果去控制無人駕駛汽車

這個專案起源於 Android Things TensorFlow 影象分類器[4]

我們開始吧!

如何使用 Tensorflow 影象識別

在開始之前,需要安裝和配置 TensorFlow 環境。我不是機器學習方面的專家,因此,我需要找到一些快速而能用的東西,以便我們可以構建 TensorFlow 影象識別器。為此,我們使用 Docker 去執行一個 TensorFlow 映象。以下是操作步驟:

1、 克隆 TensorFlow 倉庫:

  1. git clone https://github.com/tensorflow/tensorflow.git

  2. cd /tensorflow

  3. git checkout v1.5.0

2、 建立一個目錄(/tf-data),它將用於儲存這個專案中使用的所有檔案。

3、 執行 Docker:

  1. docker run -it \

  2. --volume /tf-data:/tf-data \

  3. --volume /tensorflow:/tensorflow \

  4. --workdir /tensorflow tensorflow/tensorflow:1.5.0 bash

使用這個命令,我們執行一個互動式 TensorFlow 環境,可以掛載一些在使用專案期間使用的目錄。

如何訓練 TensorFlow 去識別影象

在 Android Things 系統能夠識別影象之前,我們需要去訓練 TensorFlow 引擎,以使它能夠構建它的模型。為此,我們需要去收集一些影象。正如前面所言,我們需要使用箭頭來控制 Android Things 無人駕駛汽車,因此,我們至少要收集四種型別的箭頭:

◈ 向上的箭頭
◈ 向下的箭頭
◈ 向左的箭頭
◈ 向右的箭頭

為訓練這個系統,需要使用這四類不同的影象去建立一個“知識庫”。在 /tf-data 目錄下建立一個名為 images 的目錄,然後在它下麵建立如下名字的四個子目錄:

◈ up-arrow
◈ down-arrow
◈ left-arrow
◈ right-arrow

現在,我們去找圖片。我使用的是 Google 圖片搜尋,你也可以使用其它的方法。為了簡化圖片下載過程,你可以安裝一個 Chrome 下載外掛,這樣你只需要點選就可以下載選定的圖片。別忘了多下載一些圖片,這樣訓練效果更好,當然,這樣建立模型的時間也會相應增加。

擴充套件閱讀

◈ 如何使用 API 去整合 Android Things[5]
◈ 如何與 Firebase 一起使用 Android Things[6]

開啟瀏覽器,開始去查詢四種箭頭的圖片:

TensorFlow image classifier

每個類別我下載了 80 張圖片。不用管圖片檔案的副檔名。

為所有類別的圖片做一次如下的操作(在 Docker 介面下):

  1. python /tensorflow/examples/image_retraining/retrain.py \

  2. --bottleneck_dir=tf_files/bottlenecks \

  3. --how_many_training_steps=4000 \

  4. --output_graph=/tf-data/retrained_graph.pb \

  5. --output_labels=/tf-data/retrained_labels.txt \

  6. --image_dir=/tf-data/images

這個過程你需要耐心等待,它需要花費很長時間。結束之後,你將在 /tf-data 目錄下發現如下的兩個檔案:

☉ retrained_graph.pb
☉ retrained_labels.txt

第一個檔案包含了 TensorFlow 訓練過程產生的結果模型,而第二個檔案包含了我們的四個圖片類相關的標簽。

如何測試 Tensorflow 模型

如果你想去測試這個模型,去驗證它是否能按預期工作,你可以使用如下的命令:

  1. python scripts.label_image \

  2. --graph=/tf-data/retrained-graph.pb \

  3. --image=/tf-data/images/[category]/[image_name.jpg]

最佳化模型

在 Android Things 專案中使用我們的 TensorFlow 模型之前,需要去最佳化它:

  1. python /tensorflow/python/tools/optimize_for_inference.py \

  2. --input=/tf-data/retrained_graph.pb \

  3. --output=/tf-data/opt_graph.pb \

  4. --input_names="Mul" \

  5. --output_names="final_result"

那個就是我們全部的模型。我們將使用這個模型,把 TensorFlow 與 Android Things 整合到一起,在物聯網或者更多工上應用機器學習。標的是使用 Android Things 應用程式智慧識別箭頭圖片,並反應到接下來的無人駕駛汽車的方向控制上。

如果你想去瞭解關於 TensorFlow 以及如何生成模型的更多細節,請檢視官方檔案以及這篇 教程[7]

如何使用 Android Things 和 TensorFlow 在物聯網上應用機器學習

TensorFlow 的資料模型準備就緒之後,我們繼續下一步:如何將 Android Things 與 TensorFlow 整合到一起。為此,我們將這個任務分為兩步來完成:

☉ 硬體部分,我們將把電機和其它部件連線到 Android Things 開發板上
☉ 實現這個應用程式

Android Things 示意圖

在深入到如何連線外圍部件之前,先列出在這個 Android Things 專案中使用到的元件清單:

☉ Android Things 開發板(樹莓派 3)
☉ 樹莓派攝像頭
☉ 一個 LED 燈
☉ LN298N 雙 H 橋電機驅動模組(連線控制電機)
☉ 一個帶兩個輪子的無人駕駛汽車底盤

我不再重覆 如何使用 Android Things 去控制電機[3] 了,因為在以前的文章中已經講過了。

下麵是示意圖:

Integrating Android Things with IoT

上圖中沒有展示攝像頭。最終成果如下圖:

Integrating Android Things with TensorFlow

使用 TensorFlow 實現 Android Things 應用程式

最後一步是實現 Android Things 應用程式。為此,我們可以復用 Github 上名為 TensorFlow 圖片分類器示例[4] 的示例程式碼。開始之前,先克隆 Github 倉庫,這樣你就可以修改原始碼。

這個 Android Things 應用程式與原始的應用程式是不一樣的,因為:

☉ 它不使用按鈕去開啟攝像頭影象捕獲
☉ 它使用了不同的模型
☉ 它使用一個閃爍的 LED 燈來提示,攝像頭將在 LED 停止閃爍後拍照
☉ 當 TensorFlow 檢測到影象時(箭頭)它將控制電機。此外,在第 3 步的迴圈開始之前,它將開啟電機 5 秒鐘。

為了讓 LED 閃爍,使用如下的程式碼:

  1. private Handler blinkingHandler = new Handler();

  2. private Runnable blinkingLED = new Runnable() {

  3.  @Override

  4.  public void run() {

  5.    try {

  6.     // If the motor is running the app does not start the cam

  7.     if (mc.getStatus())

  8.       return ;

  9.     Log.d(TAG, "Blinking..");

  10.     mReadyLED.setValue(!mReadyLED.getValue());

  11.     if (currentValue <= NUM_OF_TIMES) {

  12.       currentValue++;

  13.       blinkingHandler.postDelayed(blinkingLED,

  14.                       BLINKING_INTERVAL_MS);

  15.     }

  16.     else {

  17.      mReadyLED.setValue(false);

  18.      currentValue = 0;

  19.      mBackgroundHandler.post(mBackgroundClickHandler);

  20.     }

  21.   } catch (IOException e) {

  22.     e.printStackTrace();

  23.   }

  24.  }

  25. };

當 LED 停止閃爍後,應用程式將捕獲圖片。

現在需要去關心如何根據檢測到的圖片去控制電機。修改這個方法:

  1. @Override

  2. public void onImageAvailable(ImageReader reader) {

  3.  final Bitmap bitmap;

  4.   try (Image image = reader.acquireNextImage()) {

  5.     bitmap = mImagePreprocessor.preprocessImage(image);

  6.   }

  7.   final List<Classifier.Recognition> results =

  8.      mTensorFlowClassifier.doRecognize(bitmap);

  9.   Log.d(TAG,

  10.    "Got the following results from Tensorflow: " + results);

  11.   // Check the result

  12.   if (results == null || results.size() == 0) {

  13.     Log.d(TAG, "No command..");

  14.     blinkingHandler.post(blinkingLED);

  15.     return ;

  16.    }

  17.    Classifier.Recognition rec = results.get(0);

  18.    Float confidence = rec.getConfidence();

  19.    Log.d(TAG, "Confidence " + confidence.floatValue());

  20.    if (confidence.floatValue() &lt; 0.55) {

  21.     Log.d(TAG, "Confidence too low..");

  22.     blinkingHandler.post(blinkingLED);

  23.     return ;

  24.    }

  25.    String command = rec.getTitle();

  26.    Log.d(TAG, "Command: " + rec.getTitle());

  27.    if (command.indexOf("down") != -1)

  28.       mc.backward();

  29.    else if (command.indexOf("up") != -1)

  30.       mc.forward();

  31.    else if (command.indexOf("left") != -1)

  32.       mc.turnLeft();

  33.    else if (command.indexOf("right") != -1)

  34.       mc.turnRight();

  35. }

在這個方法中,當 TensorFlow 傳回捕獲的圖片匹配到的可能的標簽之後,應用程式將比較這個結果與可能的方向,並因此來控制電機。

最後,將去使用前面建立的模型了。複製 assets 檔案夾下的 opt_graph.pb 和 reatrained_labels.txt 去替換現在的檔案。

開啟 Helper.java 並修改如下的行:

  1. public static final int IMAGE_SIZE = 299;

  2. private static final int IMAGE_MEAN = 128;

  3. private static final float IMAGE_STD = 128;

  4. private static final String LABELS_FILE = "retrained_labels.txt";

  5. public static final String MODEL_FILE = "file:///android_asset/opt_graph.pb";

  6. public static final String INPUT_NAME = "Mul";

  7. public static final String OUTPUT_OPERATION = "output";

  8. public static final String OUTPUT_NAME = "final_result";

執行這個應用程式,並給攝像頭展示幾種箭頭,以檢查它的反應。無人駕駛汽車將根據展示的箭頭進行移動。

總結

教程到此結束,我們講解瞭如何使用 Android Things 和 TensorFlow 在物聯網上應用機器學習。我們使用圖片去控制無人駕駛汽車的移動。


via: https://www.survivingwithandroid.com/2018/03/apply-machine-learning-iot-using-android-things-tensorflow.html

作者:Francesco Azzola[9] 譯者:qhwdw 校對:wxy

本文由 LCTT 原創編譯,Linux中國 榮譽推出

贊(0)

分享創造快樂

© 2024 知識星球   網站地圖