AI教科書を読むだけでは手が届かないところを掻いてあげたい!
矛盾も間違いもあるChatGPTに教わりながら正しくAIプログラムを作る方法
|
|
清水 美樹 著
2023年 9月27日発売
A5判
240ページ
定価 \2,970(本体 \2,700)
|
ISBN978-4-7775-2268-2 C3004 \2700E
|
|
AIの「うわべに書かれた内容だけでは分からない仕組み」を、ChatGPTにも質問しながら、詳しく学ぶ。
たとえば、「より高次元の特徴空間に写像する」とは何なのか?!「活性化関数により非線形な特徴を学習できる」「モデルの収束」とは?「ヘッセ行列」とは結局何をしたいのか?!など。
|
|
■ 主な内容 ■ |
■「手書き文字判別」の謎を解く
- AIプログラミング、何から始める?
- 手書き数字の画像を判別するPythonコード
- 取得した画像データを描画させるコード
- 作成したAIモデルで画像を判別
- ロジスティック回帰に迫る
- 最適化手法に迫る
■「サポートベクターマシン」とは何かに迫る
- 「SVM」のコードに「SVC」と書かれている件
- 「サポートベクターマシン」の最初の一歩が大変だ
- いよいよ「サポートベクター」とは?
■AIの重要概念、「特徴」「次元」「線形」…など
- なぜ「高次元」が必要なのか?
- 「線形分離不可能」を「可能」にするには
- 「3次元空間に写像して境界面で切る」意味
- 「カーネル関数」について、ちょっとでも理解したい
■最も簡単な深層学習の「構造」
- 手書き数字を深層学習で判定するプログラム
- 深層学習実行上の用語
- 深層学習で手書き文字判定のために使うもの
- 深層学習の「非線形関数」に迫る
■最も簡単な深層学習の「最適化」
- モデルのコンパイル
- 深層学習の「損失関数」
- 深層学習の最適化手法
- 深層学習の出力層のソフトマックス関数
- 最も基本的な深層学習で、それでも気になる用語
■画像処理に強い、深層学習「畳み込み層」
- 「畳み込み型ニューラルネットワーク」とは
- 「フィルタ(カーネル)」について考える
- 「2次元配列」の出力をどう処理するのか
- 「特徴マップ」をどう評価するのか
- 畳み込み型モデルの最後には全結合層がくる
■自然言語の深層学習
- 「自然言語」の解析手法
- 「トランスフォーマー」とは、ザックリと何か
- 「セルフアテンション」のキモなる3つのベクトル
- 関連性を使ってどうするのか
- 今さらながら、トランスフォーマーに流されるデータ
- 「トランスフォーマー」はどうやって文を作成するのか
|
本書内容に関するご質問は、こちら
本書のサポートページはこちら.
|
|
|