著:坪井祐太、海野裕也、鈴木潤
発行:講談社 機械学習プロフェッショナルシリーズ
サイト
Amazon
この頃言語処理が流行っていると聞いたので、所属ゼミを選んだりするときに
私も初めて見ようかと思い買った一冊(しかし結局言語処理を専門にはしなかったのでお蔵入りとなった)。
従来の統計的言語処理に比べると深層学習による言語処理では(データさえあれば)
モジュールごとに機能を設計したりチューニングをしたり必要がない分シンプルで、
素人でも扱いやすくなっているらしい。
本書は大学や企業研究所で実績ある著者らが執筆に携わっているだけあり、
基礎から最先端にほど近い内容までが初学者にもわたりやすくかみ砕いて
説明されていると感じた。
特に内容が割かれているのは学習ベースの単語分散表現であるword2vecと
系列処理ニューラルネットであるLong short-term memory (LSTM) であり、これだけでも
アイディア次第でいろいろなことができそうだと思った。
一方でどちらかというとお勉強向きの本で、サンプルコードが少ないため動かしたりしながら
演習形式で学びたい人には向かないかもしれない。
対話や質疑応答のような興味深い人工知能技術が紹介されているので、
デモ程度の遊べるレベルの日本語事前学習モデルなどが同梱してあるとなおよかったと思った。
加えて私が読んだとき(2020)にはLSTMより新しいGoogle製のTransformerとBERTがブームになっていて、
執筆時期のため仕方がないとは思うがそれらが全く触れられていないのは残念。
しかし深層学習の基礎は変わっていないと思うので本書で学んだ後論文やブログで
それら新技術にフォローアップしていけばよいと思う。