Quantcast
Channel: その後のその後
Viewing all articles
Browse latest Browse all 314

「Core ML Tools実践入門」という本を書きました #技術書典

$
0
0

iOS×機械学習といえばCore ML。既製のCore MLモデルを扱うのは非常に簡単なのですが、

  • TensorFlowやKeras等の機械学習ツールで作成した独自モデルをCore MLモデルに変換したい
  • モデルサイズを小さくしたい
  • 複数サイズの入力をサポートしたい
  • オンデバイスで更新できるようにしたい

等々、つまり 自分でCore MLモデルをつくりたい・カスタマイズしたい場合にはCore ML Tools(coremltools)を使いこなすことが不可欠です。

が、こんなに重要なツールなのに意外にも情報が少なく、日本語情報どころか英語の公式ドキュメントすら全然網羅的ではありません

というわけで自分で勉強しつつ書いた本がこちらです1

f:id:shu223:20200309090337j:plain

Core ML Toolsの利用方法を実践形式でさまざまなモデルをつくりながら学んでいきます。最初はわずか2行のコードで変換することからはじめてCore ML Toolsに入門しつつ、もっと高度な変換方法や、モデルのサイズを縮小する方法、パイプラインを構築する歩法、オンデバイスで学習できるようにする方法等も解説していきます。

また巻末には「逆引きリファレンス」も収録しています。開発の現場で「どう書くんだっけ?」となったときに大いに役立つことでしょう。

A5版、150ページ。サンプルコードはGitHubよりダウンロード可能です。普段は電子版だけで2300円のところ、3月いっぱい開催される「技術書典 応援祭」期間中のみ紙+電子セット2000円で販売しています。40部しかないのでお早めに!

techbookfest.org

目次

第1章 準備

  • 1.1 Core ML Toolsとは
  • 1.2 Kerasとは
    • 1.2.1 KerasとCore ML Tools
    • 1.2.2 tf.kerasとスタンドアロン版Keras
  • 1.3 Keras/TensorFlow/Core ML Toolsの環境構築

第2章 Core ML Toolsはじめの一歩

  • 2.1 2行のコードで学習済みモデルをロードする
  • 2.2 2行のコードでCore MLモデルに変換する
  • 2.3 変換したモデルを.mlmodelファイルとして保存

第3章 Core MLモデル作成の基礎

  • 3.1 HDF5ファイルを読み込む
  • 3.2 Core MLモデルに変換する
  • 3.3 Core MLモデルの入力の型を変更する
  • Core MLモデルから自動生成されるSwiftコード
  • Visionはどのように画像分類モデルを判定するか?

第5章 オンデバイス学習 - UpdatableなCore MLモデルの作成

  • 5.1 モデルのパーソナライゼーション
  • 5.2 ベースとなるモデルの作成
  • 5.3 Updatableなモデルに変換する
  • 5.4 損失関数をセットする
  • 5.5 最適化アルゴリズムをセットする
  • 5.6 エポック数をセットする
  • 5.7 モデルを保存する

第6章 オンデバイス学習 - iOSで学習

  • 6.1 MLUpdateTask
    • 6.1.1 mlmodelc
    • 6.1.2 MLBatchProvider, MLArrayBatchProvider
    • 6.1.3 MLTask
    • 6.1.4 オンデバイスモデル更新タスクの全体感
  • 6.2 学習データの準備
  • 6.3 学習タスクの実行
  • 6.4 オンデバイスで学習したモデルを保存する / MLUpdateContext, MLWritable
  • 6.5 推論処理の実行

f:id:shu223:20200309090819g:plain

第7章 TensorFlowモデルの変換 - 基礎編

  • 7.1 tfcoreml
  • 7.2 tfcoremlを用いたCore MLモデルへの変換(最小実装)
    • 7.2.1 学習済みモデル(.pbファイル)を読み込む
    • 7.2.2 出力テンソルの名前を取得する
    • 7.2.3 tfcoremlを用いて変換する
  • 7.3 より扱いやすいCoreMLモデルに変換する
    • 7.3.1 クラスラベルを指定する
    • 7.3.2 入力の型を画像に変更する
  • 7.4 iOSで推論を実行
  • 7.5 入力画像の前処理を指定する

第8章 TensorFlowモデルの変換 - 画風変換モデル

  • 8.1 学習済みモデルからグラフ定義を読み込む
  • 8.2 変換に必要なグラフの情報を取得する
    • 8.2.1 入力テンソルの名前を取得する
    • 8.2.2 出力テンソルの名前を取得する
  • 8.3 tfcoremlを用いて変換する
    • 8.3.1 入力テンソルのshapeを指定する
  • 8.4 Core MLモデルの出力の型を変更する
  • 8.5 iOSで画風変換を実行
    • 8.5.1 複数の入力を持つCore MLモデルをVisionで使う
    • 8.5.2 出力画像を取得する

f:id:shu223:20200309090946g:plain

第9章 Flexible Shape - 超解像モデル

  • 9.1 Flexible Shapeとは/使いどころ
  • 9.2 超解像モデルをCore MLモデルに変換する
  • 9.3 Flexible Shapeを適用する
  • 9.4 iOS側での推論処理の実行

第9章 Core MLモデルのサイズを小さくする

  • 9.1 本章で利用する感情認識モデルについて
  • 9.2 重みを16ビット化する
    • 9.2.1 16ビット化が推論結果の精度に与える影響
    • 9.2.2 Core MLモデルを16ビット化する手順
  • 9.3 クォンタイズ
  • 9.4 iOSでの推論結果の比較
  • 9.5 さらなるモデルサイズ削減
    • 9.5.1 ルックアップテーブルを利用した量子化
    • 9.5.2 モデルの一部を共通化

第10章 パイプラインモデルとリンクモデル(Linked Model)

  • 10.1 パイプラインの構築
    • 10.1.1 coremltools.models.pipelineモジュール
    • 10.1.2 PipelineClassifierオブジェクトの生成
    • 10.1.3 パイプラインにモデルを追加
    • 10.1.4 MLModel オブジェクト生成
  • 10.2 リンクモデル(LinkedModel)
    • 10.2.1 リンクモデルとは/リンクモデルを使用するメリット
    • 10.2.2 パイプラインとリンクモデル
    • 10.2.3 リンクモデルの作成方法
  • CreateMLのモデルはなぜ小さいのか
    • CreateMLとパイプライン
    • Vision FeaturePrint

第11章 モデルの可視化

  • 11.1 Netron
  • 11.2 coremltoolsのvisualize_spec
  • 11.3 TensorBoard
    • 11.3.1 TensorFlowモデルのグラフを可視化
    • 11.3.2 Kerasでの学習状況を可視化
  • 11.4 Kerasのplot_model

付録A coremltools逆引きリファレンス

  • A.1 MLModelオブジェクトを生成する
    • A.1.2 .mlmodelファイルから生成する
    • A.1.1 Specから生成する
  • A.2 モデルのSpecを取得する
    • A.2.1 .mlmodelファイルから取得する
    • A.2.2 MLModelオブジェクトから取得する
  • A.3 .mlmodelファイルの保存・読み込み
    • A.3.1 .mlmodelファイルを読み込む
    • A.3.2 .mlmodelファイルとして保存する
  • A.4 NeuralNetworkBuilderを生成する
  • A.5 モデルの中身を調べる
    • A.5.1 モデルを可視化(ビジュアライズ)する
    • A.5.2 モデルのバージョン(Specification Version)を確認する
    • A.5.3 Specをログに出力する
    • A.5.4 ネットワークの情報をログに出力する
    • A.5.5 NeuralNetworkBuilderでモデルの入力・出力形式を確認する
    • A.5.6 モデルのレイヤー一覧を出力する
    • A.5.7 モデルの中間層の入出力形式を調べる
  • A.6 Core MLモデルにクラスラベルを与える
    • A.6.1 ラベル文字列の配列を渡す
    • A.6.2 クラスラベルファイルのパスを渡す
  • A.7 モデルの入力・出力をカスタマイズする
    • A.7.1 入力・出力名を指定する
    • A.7.2 変換時に入力の型を画像型にする
    • A.7.3 変換済みモデルの入力・出力の型を画像型にする
    • A.7.4 入力テンソルのshapeを指定する
    • A.7.5 入力画像の前処理を指定する
  • A.8 モデルサイズを圧縮する
    • A.8.1 重みを16ビット(半精度)化する
    • A.8.2 重みをクォンタイズする
  • A.9 オンデバイス学習関連
    • A.9.1 モデルがUpdatableかどうかを調べる
    • A.9.2 Updatableなレイヤー一覧を出力
    • A.9.3 Updatableなモデルに変換する
    • A.9.4 学習で使用する損失関数をセットする
    • A.9.5 損失関数のサマリを確認する
    • A.9.6 学習で使用する最適化アルゴリズム(オプティマイザ)をセットする
    • A.9.7 最適化アルゴリズムを確認する
    • A.9.8 エポック数をセットする
  • A.10 FlexibleShape関連
    • A.10.1 FlexibleShapeの適用可否を確認する
    • A.10.2 入力・出力の画像サイズを範囲で指定する
    • A.10.3 入力・出力に複数の画像サイズを指定する
  • A.11 misc.
    • 利用中のcoremltoolsのバージョンを確認する

付録B Kerasでカスタムモデル作成

  • B.1 モデルのネットワークを定義する
    • B.1.1 Sequential モデル(とKeras functinal API)
    • B.1.2 Conv2D
    • B.1.3 MaxPooling2D
    • B.1.4 Dropout
    • B.1.5 Flatten
    • B.1.6 Dense
    • B.1.7 モデルのサマリを確認
  • B.2 モデルのコンパイル
    • B.2.1 損失関数
    • B.2.2 最適化アルゴリズム
    • B.2.3 評価関数
  • B.3 モデルの学習
  • B.4 評価
  • B.5 モデルの保存

  1. 日本語でのCore ML Tools専門書は初ですし、今後も出てこないと思います。


Viewing all articles
Browse latest Browse all 314

Trending Articles