Artificial Intelligence (AI)
人間の知性を必要とするタスクを機械に実行させることを目指す学問領域。
196 用語 · 15 カテゴリ
すべてのAI用語(英語標準用法)とシンプルな定義。
人間の知性を必要とするタスクを機械に実行させることを目指す学問領域。
明示的にプログラムするのではなく、データから学習するAIのサブ分野。
複数の層を持つニューラルネットワークを用いた機械学習の手法。
チェスのプレイなど、特定の一つのタスクに特化したAI。
人間と同様に、あらゆる知的タスクをこなせると仮定される汎用AI。
使用箇所: ch.16
あらゆる領域で人間の知性をはるかに超えると仮定されるAI。
ルールと形式論理に基づく古典的なAIのアプローチ。
データから学習した数学的な表現。
学習済みモデルが予測を行うフェーズ。
モデルがデータから学習するフェーズ。
入力と正解ラベルのペアを使って学習する手法。
ラベルなしデータから隠れた構造を見つける学習手法。
モデルがデータ自身からラベルを自動生成して学習する手法。
使用箇所: ch.06
試行錯誤と報酬を通じて学習する手法。
使用箇所: ch.08
あるタスクで学習済みのモデルを別の類似タスクに転用する手法。
ごく少数のサンプルから学習する手法。
学習時にサンプルを見ることなく、未知のタスクをこなす能力。
新しいタスクに素早く適応できるよう、モデルを訓練する「学習する方法を学ぶ」手法。
データを中央サーバに集めず、分散した環境でモデルを学習する手法。
以前に学んだタスクを忘れずに、新しいタスクを継続的に学習する手法。
生物のニューロンに着想を得た、ネットワークの基本演算ユニット。
並列に処理されるニューロンの集合。
ニューロン間の接続を重み付けするパラメータ。
重み付き和に加えられる定数項。
ニューロンの出力に適用される非線形関数。
最も広く使われる活性化関数の一つ。max(0, x) を計算する。
ベクトルを確率分布に変換する関数。
入力から出力を計算する前向きの処理。
重みを更新するための勾配を計算するアルゴリズム。
使用箇所: ch.06
誤差を最小化するために重みを調整するアルゴリズム。
使用箇所: ch.01, ch.03, ch.04, ch.05, ch.06, ch.08, ch.14, ch.21
予測と正解の間の誤差を測る関数。
分類タスクで標準的に使われる損失関数。
重みの更新を制御するアルゴリズム(Adam、SGD など)。
勾配降下法における更新ステップの大きさ。
使用箇所: ch.06
トレーニングデータセット全体を一度処理すること。
まとめて処理されるデータのサブセット。
情報が一方向にのみ流れるネットワーク。
全結合層を持つ古典的なフィードフォワードネットワーク。
畳み込みフィルタを使って画像処理に特化したネットワーク。
内部状態を保持しながらシーケンスを処理するネットワーク。
使用箇所: ch.04
長期的な依存関係を記憶できるよう改良されたRNN。
使用箇所: ch.04
アテンション機構に基づくアーキテクチャ。2017年以降、AIの主流となっている。
使用箇所: ch.01, ch.02, ch.04, ch.05, ch.07, ch.08, ch.10, ch.15, ch.17, ch.18, ch.20, ch.21
シーケンス内の各位置が他のすべての位置に注目できる機構。
使用箇所: ch.01, ch.03, ch.04, ch.05, ch.07, ch.08, ch.09, ch.15, ch.17, ch.18, ch.21
複数のアテンション機構を並列に実行する手法。
翻訳や生成タスクで使われる古典的なアーキテクチャ。
使用箇所: ch.15
トランスフォーマーに単語の順序情報を与える手法。
使用箇所: ch.05
現代のLLMで広く使われる回転式位置エンコーディング。
使用箇所: ch.05
学習を安定させるために、いくつかの層をスキップして接続するショートカット。
学習を安定させるための正規化手法。
複数の特化したサブモデルを選択的に活性化するアーキテクチャ。
使用箇所: ch.05
段階的にノイズを除去しながら画像を生成する生成モデル。
生成器と識別器の2つのネットワークが競い合う生成モデル。
画像に適用されたトランスフォーマーアーキテクチャ。
長いシーケンス処理においてトランスフォーマーの代替となるアーキテクチャ。
機械による言語処理を扱う学問領域。
使用箇所: ch.15
テキストをトークンと呼ばれる単位に分割する処理。
モデルが処理する基本単位(単語、サブワード、または文字)。
使用箇所: ch.01, ch.02, ch.03, ch.04, ch.05, ch.06, ch.07, ch.08, ch.09, ch.10, ch.11, ch.12, ch.13, ch.14, ch.15, ch.17, ch.18, ch.19, ch.20, ch.21
広く使われているトークナイゼーションアルゴリズム。
使用箇所: ch.02
他の代表的なトークナイゼーションアルゴリズム。
使用箇所: ch.02
モデルが認識できるトークンの全集合。
単語やトークンを高密度なベクトルで表現したもの。
使用箇所: ch.01, ch.03, ch.04, ch.05, ch.10, ch.11, ch.15, ch.21
単語のエンベディングを生成する古典的な手法。
文脈に応じて変化するエンベディング。
テキスト中の人名や地名などのエンティティを識別する処理。
テキストの感情的なトーンを検出する処理。
音声をテキストに変換する技術。
テキストを音声に変換する技術。
使用箇所: ch.15
単語の連なりが現れる確率をモデル化するモデル。
数十億語のデータで学習された巨大な言語モデル。
使用箇所: ch.01, ch.02, ch.03, ch.04, ch.05, ch.06, ch.07, ch.08, ch.09, ch.10, ch.11, ch.12, ch.13, ch.15, ch.16, ch.17, ch.18, ch.20
多様なタスクに再利用できる汎用的な大規模モデル。
テキスト、画像、音声などのコンテンツを生成できるAI。
大量の生データを使って行う初期学習。
事前学習済みモデルを特定タスク向けに追加調整する手法。
使用箇所: ch.01, ch.08, ch.09, ch.11, ch.13, ch.14, ch.17, ch.19, ch.20
人間の指示に従えるようにファインチューニングする手法。
人間のフィードバックを用いてモデルを改善する強化学習手法。
RLHFを簡略化した代替アライメント手法。
一連の原則に基づいてモデルをアライメントする手法。
使用箇所: ch.08
モデルに与えるテキストの入力。
使用箇所: ch.01, ch.07, ch.08, ch.09, ch.10, ch.11, ch.12, ch.17, ch.18, ch.21
会話開始前にモデルに与える全般的な指示。
効果的なプロンプトを設計する技術。
使用箇所: ch.12
モデルに段階的に推論させるよう促す手法。
プロンプト内にいくつかの例を含める手法。
プロンプト内の例からモデルが学習する能力。
モデルが一度に処理できるテキストの量。
応答のランダム性を制御するパラメータ(低いほど決定的、高いほど創造的)。
確率の高い上位kトークンの中からサンプリングする手法。
累積確率がp%に達するトークン群からサンプリングする手法。
常に最も確率の高いトークンを選ぶデコーディング手法。
使用箇所: ch.07
複数の候補シーケンスを並列に探索する手法。
使用箇所: ch.07
モデルが事実ではないが、もっともらしい情報を生成してしまう現象。
モデルが回答前に外部ドキュメントを検索して参照する手法。
エンベディングを保存・検索するためのデータベース。
単語の完全一致ではなく、意味の類似度で検索する手法。
回答前に長い推論を行うよう最適化されたLLM。
テキスト、画像、音声など複数の入力形式を扱えるモデル。
テキストと画像の両方を理解するモデル。
テキストから画像を生成する技術。
低ランク行列を使った軽量なファインチューニング手法。
使用箇所: ch.14
メモリ効率を高めるためにLoRAと量子化を組み合わせた手法。
パラメータ効率の良いファインチューニング手法の総称。
使用箇所: ch.14
複数のステップとツールを通じて目標を達成するAIシステム。
モデルが外部の関数やAPIを呼び出す能力。
使用箇所: ch.11
推論とアクションを交互に繰り返すエージェントのパターン。
使用箇所: ch.11
エージェントが目標をサブタスクに分解する能力。
複数のエージェントが協力・連携するシステム。
LLMにツールを接続するための標準プロトコル。
使用箇所: ch.11
エージェントがコンピュータを操作する能力。
使用箇所: ch.11
環境の中で自律的に行動するAI。
モデルの学習や評価に使用するデータの集合。
学習・調整・評価にそれぞれ使われるデータ分割。
各サンプルに対応する正解データ。
データに正解ラベルを付与する作業。
既存データを変換して人工的にデータを増やす手法。
AIなどによって人工的に生成されたデータ。
モデルへの入力変数。
使用箇所: ch.20
有用な特徴量を手動で設計・作成すること。
カテゴリをバイナリベクトルで表現するエンコーディング手法。
運用データが学習時のデータから徐々に乖離していく現象。
テストデータの情報が学習に漏れ込み、評価結果が実態より良く見える問題。
学習率やバッチサイズなど、学習前に設定するパラメータ。
データを複数に分割して繰り返し評価するモデル検証手法。
モデルが学習データを記憶しすぎて、未知のデータに対する汎化性能が低下する現象。
使用箇所: ch.06
モデルが単純すぎてデータのパターンを捉えられない状態。
過学習を防ぐための各種テクニック。
使用箇所: ch.06
学習中にランダムにニューロンを無効化する正則化手法。
検証誤差が悪化し始めたら学習を早期に終了する手法。
勾配が小さくなりすぎてモデルが学習できなくなる問題。
新しいタスクを学習するときに以前のタスクの知識を忘れてしまう問題。
大きなモデルの知識を小さなモデルに転移させる手法。
使用箇所: ch.21
不要な重みを削除してモデルを軽量化する手法。
重みの数値精度を下げてモデルを圧縮する手法。
モデルのサイズ、データ量、計算量と性能の関係を表す経験則。
正しく予測できたサンプルの割合。
正と予測したサンプルのうち、実際に正であった割合。
実際に正であるサンプルのうち、正と予測できた割合。
適合率と再現率の調和平均。
予測結果と正解を対比した表形式の評価指標。
分類器の性能を評価するための曲線とその下の面積。
言語モデルの不確かさを示す指標(低いほど良い)。
機械翻訳や自動要約の品質を評価する指標。
生成画像の品質を測定する指標。
モデルを比較するための標準化されたテスト(MMLU、HumanEval など)。
使用箇所: ch.16
モデルの弱点を発見するために行う敵対的テスト。
環境の中で意思決定を行うエンティティ。
エージェントが行動する世界。
エージェントの戦略(状態 → 行動の対応)。
ある行動の良さを示す数値シグナル。
Q値の推定に基づく強化学習アルゴリズム。
RLHFでも広く使われる代表的な強化学習アルゴリズム。
新しい行動を試すことと、既知の良い行動を活用することのジレンマ。
エージェントが意図しない方法で報酬関数を悪用する現象。
使用箇所: ch.11
画像や映像を扱うAIの分野。
画像にカテゴリを割り当てるタスク。
画像内の物体を位置特定し分類するタスク。
画像の各ピクセルにクラスラベルを付与するタスク。
画像内のテキストを認識する技術。
代表的な物体検出モデル。
汎用的な画像セグメンテーションモデル。
複数の画像からシーンの3D表現を学習する手法。
AIが人間の価値観と一致した目標を追求するようにすること。
AIを信頼性が高く安全にすることを目指す研究分野。
モデルを騙すように設計された悪意ある入力。
LLMの安全制限を迂回しようとする試み。
使用箇所: ch.08
プロンプトに悪意ある指示を埋め込む攻撃手法。
使用箇所: ch.12
データまたはモデルの予測に含まれる偏り。
アルゴリズムによる意思決定における公平性。
モデルがなぜその判断を下したかを理解できる能力。
ニューラルネットワークの内部動作を詳細に研究する分野。
個人情報を数学的に保護するプライバシー手法。
AIによって生成・改ざんされたコンテンツ。
モデルの実際の目標と意図された目標のずれ。
人間の評価を基に応答の品質を予測するモデル。
AIの統治と規制のための枠組み。
AI処理で広く使われるグラフィックプロセッサ。
Googleが設計したAI専用のチップ。
NvidiaのGPU向け並列計算プラットフォーム。
1秒あたりの浮動小数点演算回数を示す指標。
複数のマシンに分散してモデルを学習する手法。
同じ重みを使いながら、各GPUで異なるデータを処理する並列化手法。
モデルを複数のGPUに分割して学習する並列化手法。
主要なディープラーニングフレームワーク。
モデル、データセット、MLツールを提供するプラットフォーム。
フレームワーク間でモデルを交換するための標準フォーマット。
組み込みデバイス上で直接実行されるAI。
モデルが応答を返すまでの時間。
使用箇所: ch.18
1秒あたりに処理できる推論の数。
機械学習に適用されたDevOpsの実践手法。
モデルが一定の規模に達したときに突然現れる予期しない能力。
使用箇所: ch.19
モデルサイズ、データ量、計算量を増やしてより良い性能を得ること。
重みが公開されているモデル。
最先端の性能を持つモデル。
効率性を重視した小型の言語モデル。
学習や意思決定のループに人間を組み込む設計。
エージェントが環境の変化を予測するために持つ内部モデル。
物理的なロボットなどに搭載されたAI。
モデルの能力、限界、バイアスを記載した説明書。