AI用語解説(和文・英文索引)

AI用語解説(和文・英文索引),アイキャッチ

ニュースや仕事でよく耳にするAIの言葉を、むずかしい表現を避けてわかりやすい説明を心がけました。和文・英数字索引から調べたい用語を探せますので、学習や業務での理解を深める際にご活用ください。

和文索引

ア行

アウトプットインジケーター

AIが学習や処理を行った結果を、数値や指標として表したものです。モデルがどれだけ正しく動いているかを評価するために使われます。たとえば分類タスクで用いられる正答率や誤差率、損失関数の値などが代表例です。研究や開発では、これらの数値を比較してモデルの改良効果を検証します。
関連用語: パラメータ、評価指標、ディープラーニング

アクセシビリティ

障害の有無や利用環境にかかわらず、誰もがサービスを使えるようにするという考え方です。AI分野では、多様な利用者を支援するための重要な要素として位置づけられています。たとえば音声生成AIによる読み上げ機能や、画像生成AIを使った視覚支援などがその一例です。開発段階からアクセシビリティを考慮することは、社会的包摂や法的基準にも関わる重要な視点です。
関連用語: インターネットリテラシー、プライバシー保護

アルゴリズム

問題を解決するための手順や計算方法のことです。AIでは「どのようにデータから学習するか」を決める仕組みそのものを指します。たとえばニューラルネットワークやディープラーニングなどの手法もアルゴリズムに含まれます。適切なアルゴリズムを選ぶことは、AIの性能や得意分野を大きく左右する重要な工程です。
関連用語: ニューラルネットワーク、強化学習、自己注意力

意匠権

デザインや形状を保護する法律上の権利です。AIが自動生成した画像や製品デザインにも適用できるかが議論されており、法的な扱いが注目されています。たとえば企業がAI生成デザインを意匠登録して独占利用するケースが想定されています。AI技術そのものではなく、生成物と社会のルールを結びつける用語です。
関連用語: 知的財産権、著作権、商標権

インストラクション

AIに与える「指示」や「命令文」のことです。特に生成AIでは、出力を望む方向に導くために重要な役割を持っています。たとえば「要約して」「表にして」などの指示をプロンプトに含めることで、回答形式や内容を制御できます。意図どおりの応答を得るには、適切なインストラクション設計が欠かせません。
関連用語: プロンプト、プロンプティング、出力指示

インターネットリテラシー

インターネットを安全かつ適切に利用するための知識や判断力です。AIが生成する情報を正しく理解・活用するための基礎的な力としても求められます。たとえば偽情報やディスインフォメーションを見分ける力が含まれ、SNSや検索サービスの利用でも重要になります。情報社会を安心して活用するために欠かせないスキルです。
関連用語: 情報リテラシー、偽情報、プライバシー保護

インプットデータ

AIに学習させるために与える入力データのことです。文章・画像・音声など大量のデータが使われ、AIの性能や出力の正確さはこの質と量に大きく左右されます。たとえばChatGPTは膨大なテキストを読み込むことで自然な文章生成を実現しています。データの品質管理はAI開発において最も基本的かつ重要な工程です。
関連用語: データセット、事前学習、ファインチューニング

ヴァーナー・ヴィンジ

アメリカのSF作家で、AIが人間の知能を超える未来を「シンギュラリティ(技術的特異点)」として語った人物です。この考えは後にレイ・カーツワイルらによっても発展させられ、AI研究や未来予測の議論に大きな影響を与えました。科学技術と社会の関係を考える上で欠かせない存在とされています。
関連用語: シンギュラリティ、AGI、AI効果

AIガイドライン

日本政府や欧州連合などが定める、AIの開発・利用において守るべき原則をまとめた指針です。公平性・透明性・プライバシー保護などが盛り込まれ、AIを安全に社会実装するための枠組みとなっています。
関連用語: 人間中心のAI社会原則、プライバシー保護、説明可能なAI(XAI)

AI社会原則

日本政府が定めた、AI利用に関する基本原則です。人間中心、プライバシー尊重、説明責任、公平性などを掲げ、社会にAIを受け入れるための基盤となっています。AIガイドライン策定の根拠にもなっています。
関連用語: 人間中心のAI社会原則、AIガイドライン、プライバシー保護

AIとロボットの相違

AIは「知能」に関する技術、ロボットは「身体」を持つ機械を指します。AIを搭載したロボットもありますが、両者は必ずしも同じではありません。たとえば工場の自動化機械はロボット、ChatGPTはAIです。
関連用語: 人工知能、ロボット、AGI

エキスパートシステム

人間の専門知識をルールとして組み込み、判断を行うAIの一種です。1980年代の第二次AIブームを代表する技術で、医療診断や設備故障の原因推定などに活用されました。現在主流のディープラーニングとは異なり、知識を事前に人間が定義する方式を採っていました。
関連用語: ルールベース、ニューラルネットワーク、第二次AIブーム

エッジAI

AIをクラウドではなく端末などエッジ機器側で動かす技術です。ネットに頼らず、現場で即時に処理できます。自動運転やスマート家電などで使われています。
関連用語: IoT、クラウドコンピューティング、ニューラルネットワーク

エンコーダー

AIモデル内で入力データを内部表現(特徴ベクトル)に変換する部分です。Transformerモデルなどで使われ、入力を圧縮して意味情報を抽出します。対になるデコーダーは、内部表現を出力に変換します。
関連用語: デコーダー、自己注意力、Transformerモデル

オーバーフィッティング

AIが学習用データを覚えすぎてしまい、新しいデータに対応できなくなる現象です。練習問題は完璧でも模試に対応できない受験生に例えられます。過学習とも呼ばれ、AI研究で基本的な課題のひとつです。防ぐためにドロップアウトやデータ拡張などの手法が使われます。
関連用語: 過学習、汎化性能、ドロップアウト

オムニモーダルモデル

テキスト・画像・音声・動画といった複数の情報形式を同時に扱うAIモデルです。従来のマルチモーダルより広範囲で、人間のように多様な情報を統合的に理解・生成できます。たとえばGPT-4oは音声や画像も含めてリアルタイムに会話できる能力を持ちます。次世代AIの主要な方向性として注目されています。
関連用語: マルチモーダル、自己注意力、Transformerモデル

重み

ニューラルネットワークにおける計算パラメータです。入力データの重要度を数値で表し、学習によって少しずつ最適化されていきます。たとえば画像分類AIでは、輪郭や色など特徴ごとに異なる重みが設定されます。精度を高めるために勾配降下法などで繰り返し調整されます。
関連用語: パラメータ、重み付け、学習率

重み付け

データや特徴に対して影響度を調整することです。ニューラルネットワークでは、誤差を減らすために重みが自動で更新されます。たとえば正解に近い判断には重みを強め、間違った判断には弱めるといった調整が行われます。学習精度を高めるために欠かせない工程です。
関連用語: 勾配降下法、パラメータ、学習率

音楽生成AI

メロディや伴奏を自動で作曲するAIです。大量の音楽データを学習し、既存曲のパターンを応用して新しい曲を生み出します。作曲支援やBGM制作、広告音楽などに活用されており、MIDIファイルなど楽譜形式を扱う技術も利用されます。創作活動を支援するAIとして注目されています。
関連用語: 生成AI、動画生成AI、音声生成AI

音声生成AI

文字データから自然な音声を合成するAIです。テキスト読み上げやナビ音声、キャラクターの声などに利用されています。ディープラーニングを使うことで感情や話し方まで再現できるようになり、アクセシビリティやコンテンツ制作の分野で広く活用されています。
関連用語: 音楽生成AI、画像生成AI、マルチモーダル

カ行

回帰型ニューラルネットワーク

英語では「Recurrent Neural Network(RNN)」と呼ばれる、時系列データを扱うのが得意なAIモデルです。文章や音声のように順番に意味があるデータを処理でき、過去の情報を記憶しながら次を予測する仕組みを持ちます。翻訳や音声認識、文字起こしなどに広く利用されてきましたが、近年はTransformerモデルに主役の座を譲りつつあります。
関連用語: RNN、LSTM、Transformerモデル

過学習

AIが学習用データを丸暗記してしまい、新しいデータに対応できなくなる現象です。研究では「汎化性能の低下」と表現され、オーバーフィッティングとも呼ばれます。精度が高いように見えても実用性が低下するため、AI研究における基本的な課題のひとつです。ドロップアウトなどの対策が用いられます。
関連用語: オーバーフィッティング、汎化性能、ドロップアウト

画像生成AI

テキストや写真をもとに新しい画像を作るAIです。Stable DiffusionやDALL·Eなどが代表例で、広告やデザイン支援、漫画の原案づくりなどに活用されています。入力した文章をもとに多様な絵柄や構図を自動生成できる点が特徴です。
関連用語: 生成AI、動画生成AI、音楽生成AI

画像分類

画像認識の一種で、画像をあらかじめ決めたカテゴリに分類する技術です。猫/犬など複数クラスにラベル付けします。大量の画像データでニューラルネットワークを学習させて行います。
関連用語: 画像認識、分類モデル、CNN

機械学習

AIにデータを学習させ、経験からパターンを見つけ出して予測や分類を行う技術です。
明示的にルールを教えるのではなく、データから自動的に法則を見つけます。ディープラーニングも機械学習の一種です。
たとえばスパムメール判定や需要予測などに活用されています。
関連用語: 教師あり学習、教師なし学習、ディープラーニング

機械翻訳

AIがある言語の文章を別の言語に自動翻訳する技術です。Transformerモデルが主流で、文脈を考慮して自然な訳ができます。DeepLやGoogle翻訳などで広く使われています。
関連用語: 自然言語処理、自己注意力、Transformerモデル

強化学習

人間が「良い回答」「悪い回答」を評価し、その結果をもとにAIを調整する学習手法です。報酬を与えて正しい行動を強化していくしくみで、自然で望ましい応答を生み出すのに役立ちます。ただし評価基準の設定次第では、幻覚を助長するリスクもあります。
関連用語: 教師あり学習、教師なし学習、RLHF

教師あり学習/教師なし学習

正解付きデータで学習させるのが教師あり学習、正解なしデータから構造を見つけるのが教師なし学習です。
前者は分類や予測、後者はグループ分けや特徴抽出に使われます。たとえばスパム判定は教師あり、クラスタリングは教師なし学習で行われます。
関連用語: 機械学習、強化学習、半教師あり学習

汎化性能

AIモデルが未学習の新しいデータでも正しく動ける力です。過学習が起きると汎化性能が下がります。実用性を判断する重要な指標です。
関連用語: 過学習、評価指標、正則化

勾配降下法

機械学習で誤差を最小にするためにパラメータを少しずつ調整する最適化手法です。山を下るように誤差の谷を探すイメージです。ニューラルネットワークなどほぼ全ての学習に使われています。
関連用語: 学習率、ハイパーパラメータ、パラメータ

検索拡張(RAGなど)

Retrieval-Augmented Generation(RAG)など、生成AIに検索機能を組み込む手法です。事前知識だけでなく外部情報を参照して回答を生成します。最新情報や事実に基づく応答が可能になります。
関連用語: 生成AI、ハルシネーション、RAG

クラスタリング

教師なし学習の一種で、似たデータ同士をグループ分けする手法です。あらかじめラベルがないデータから構造を見つけるために使われます。たとえば購買履歴データから顧客タイプを分類するなどに使われます。
関連用語: 教師なし学習、特徴量、主成分分析

サ行

識別器

AIが「これはAかBか」と分類するための仕組みです。入力データがどのクラスに属するかを見分ける役割を持ちます。たとえば「猫か犬か」を判断する画像分類モデルが典型例です。生成AIでは、識別器が生成結果を判定し、生成器と競い合う形で学習を進めるGANに使われています。
関連用語: 生成器、GAN、分類モデル

次元削減

大量の特徴量(データの説明要素)を、情報をできるだけ失わずに少ない次元に圧縮する手法です。複雑なデータ構造を単純化して計算負荷を減らす目的で使われます。たとえば、高次元のデータを2次元に可視化して傾向を分析する際に用いられます。
関連用語: 特徴量、主成分分析、クラスタリング

自己回帰モデル

過去の出力を次の入力として利用し、順番に予測をつなげていくモデルです。文章を一語ずつ生成していく言語モデルなどが代表例で、ChatGPTなどの大規模言語モデルにも使われています。文脈を保ちながら連続的に生成できる点が特徴です。
関連用語: 自然言語生成、言語モデル、RNN

自己注意力

文章や画像の中で「どの部分が重要か」をAI自身が見極める仕組みです。Transformerモデルの中心技術として導入され、単語同士の関係を的確に捉えられるようになりました。たとえば長文の翻訳では、離れた単語同士のつながりを考慮して自然な訳文を生成できます。この仕組みにより、従来のRNN系モデルよりも精度と効率が大きく向上しました。
関連用語: Transformerモデル、ニューラルネットワーク、注意機構

自然言語処理

人間が使う自然な言葉(日本語や英語など)をコンピュータに理解させる技術です。言語データを対象に、意味解析や文脈理解、要約などを行います。翻訳、検索、感情分析など幅広い応用があり、AI分野の中心的な領域です。
関連用語: NLP、自然言語生成、機械翻訳

自然言語処理タスク

自然言語処理が扱う具体的な課題の総称です。文章分類、機械翻訳、質問応答、要約などが含まれます。それぞれに異なるモデルや評価指標が用いられ、AI研究の多くはこれらのタスクごとに性能を比較して進められています。
関連用語: 自然言語処理、NLP、質問応答

自然言語生成

コンピュータが人間らしい文章を生み出す技術です。大量の言語データを学習したモデルが、文脈を考えながら自然な文章を作成します。ChatGPTなどが代表例で、要約や物語生成、キャッチコピー作成などに活用されています。
関連用語: 自然言語処理、自己回帰モデル、テキスト生成AI

質問応答

ユーザーの質問に対してAIが適切な答えを返す仕組みです。検索エンジンやチャットボットに組み込まれており、生成AIの進化によって精度が大きく向上しました。単なる検索結果の提示ではなく、文脈を理解して回答を構成する能力が求められます。
関連用語: 自然言語処理、自然言語生成、チャットボット

シナプス

脳の神経細胞同士をつなぐ接続部分のことです。AI研究では「人工ニューロンをつなぐ仕組み」に例えられ、ニューラルネットワークの発想のもとになっています。実際の生物学的構造ではありませんが、学習による重みの変化を説明する比喩として広く使われます。
関連用語: ニューラルネットワーク、人工ニューロン、重み

主成分分析

次元削減の代表的な手法で、大量の特徴量を少ない要素に圧縮する方法です。データの傾向をつかんだり、可視化や前処理にも使われます。たとえば顔画像の特徴を「輪郭・目・口」など少数の軸にまとめて分析します。
関連用語: 次元削減、特徴量、クラスタリング

出力指示

AIに「どういう形式で答えてほしいか」を伝える指示のことです。たとえば「箇条書きでまとめて」や「専門用語を使わずに説明して」など、出力形式を指定します。プロンプト設計の重要な要素で、意図した結果を得るために欠かせません。
関連用語: プロンプト、インストラクション、プロンプティング

商標権

商品名やロゴマークなどを保護するための法律上の権利です。AIが自動生成した名称やロゴが既存の商標と重なる場合、権利侵害にあたる可能性があります。生成AIの普及により、法的な扱いが注目されている分野です。
関連用語: 知的財産権、著作権、意匠権

情報リテラシー

情報を正しく読み解き、活用する力のことです。AIが生成したコンテンツを信じるかどうか判断するためにも必要です。真偽の見極めや出典の確認などが含まれ、インターネットリテラシーと並んで基礎的なスキルとされています。
関連用語: インターネットリテラシー、偽情報、プライバシー保護

シンギュラリティ

AIが人間の知能を超え、社会や文明に大きな変化をもたらすとされる「技術的特異点」のことです。ヴァーナー・ヴィンジやレイ・カーツワイルらが提唱し、未来予測の議論でよく取り上げられます。到来時期は2045年頃とされることが多いですが、科学的な確実性はありません。
関連用語: ヴァーナー・ヴィンジ、レイ・カーツワイル、AGI

人工知能

人間の知的な働きをコンピュータで再現しようとする技術や研究分野の総称です。学習、推論、認識、生成などの能力を持ち、幅広い分野で応用されています。近年は大規模言語モデルの登場によって急速に進化しています。
関連用語: 機械学習、ニューラルネットワーク、ディープラーニング

人工ニューロン

脳の神経細胞をまねて作られた計算単位です。多数の人工ニューロンを組み合わせることでニューラルネットワークを構成し、データを学習・認識します。重みを調整して出力を変化させる仕組みが特徴です。
関連用語: ニューラルネットワーク、シナプス、重み

深層学習(ディープラーニング)

ニューラルネットワークを多層に重ねた学習手法です。大量のデータを使って特徴を自動的に抽出できるのが特徴で、画像認識や音声認識、機械翻訳などで飛躍的な進歩をもたらしました。第三次AIブームの中心技術でもあります。
関連用語: ニューラルネットワーク、特徴学習、第三次AIブーム

深層偽造

ディープフェイクとも呼ばれる、AIを使った偽動画や偽音声の生成技術です。芸能人や政治家の顔を合成した偽動画などが例で、悪用によるなりすましやフェイクニュースが問題視されています。検出技術の開発も進められています。
関連用語: ディープフェイク、GAN、情報リテラシー

スピアフィッシング

特定の個人や企業を狙い撃ちにする詐欺メール攻撃です。信頼関係を装って情報を盗み出す手口で、AIが本物そっくりの文面を自動生成するリスクも高まっています。サイバーセキュリティ分野で重要な脅威とされています。
関連用語: フィッシング詐欺、ソーシャルエンジニアリング、マルウェア

制限付きボルツマンマシン

確率的に学習を行うニューラルネットワークの一種です。2000年代に深層学習の基礎技術として注目されましたが、現在はTransformer系モデルに主役の座を譲っています。特徴抽出や次元削減にも使われていました。
関連用語: ニューラルネットワーク、ディープラーニング、特徴学習

事前学習

生成AIの基盤をつくるために行う大規模な学習段階です。膨大なテキストを読み込み、「次に来る言葉の確率」を学習することで、知識や表現力の土台を身につけます。ただし統計的な限界から誤答(幻覚)が生じやすい段階でもあります。
関連用語: ファインチューニング、インプットデータ、ハルシネーション

正則化

機械学習で過学習を防ぐためにモデルの複雑さを抑える手法です。複雑すぎるモデルは訓練データに過剰適合するため、制約をかけます。たとえばドロップアウトやL1・L2正則化が代表的です。
関連用語: 過学習、汎化性能、ドロップアウト

タ行

ダートマス会議

1956年にアメリカ・ダートマス大学で開かれた研究会です。ここで「人工知能(AI)」という言葉が初めて提案され、AI研究の出発点とされます。コンピュータによる知的活動の再現が議論され、後のAIブームの土台を築きました。
関連用語: 人工知能、第一次AIブーム、AI効果

第一次AIブーム

1950年代後半〜1960年代にかけて起きた、初期のAI研究の盛り上がりです。単純な推論やチェスなどのゲームプレイが可能になり「すぐに人間を超える」と期待されました。しかし計算資源やデータが不足し、実用化に至らず停滞しました。
関連用語: ダートマス会議、第二次AIブーム、エキスパートシステム

第二次AIブーム

1980年代に起きたAI研究の活発化です。エキスパートシステムが中心となり、人間の知識をルールとして組み込む方式が広がりました。ただし知識の入力や更新に膨大な手間がかかり、限界を迎えて失速しました。
関連用語: エキスパートシステム、ルールベース、第一次AIブーム

第三次AIブーム

2010年代に始まったディープラーニングの台頭によるAIの大進化です。画像認識や音声認識の精度が飛躍的に向上し、現在のChatGPTのような大規模言語モデルにつながっています。データと計算資源の増加が後押しとなりました。
関連用語: ディープラーニング、ニューラルネットワーク、Transformerモデル

畳み込みニューラルネットワーク

英語では「Convolutional Neural Network(CNN)」と呼ばれる、画像処理に強いAIモデルです。画像の局所的な特徴を抽出して分析でき、写真の中から顔を認識したり物体を分類したりできます。スマホの顔認証や自動運転など身近な応用も多いです。
関連用語: CNN、ディープラーニング、画像認識

知的財産権

発明・デザイン・著作物など、創作活動から生まれた成果を守る権利の総称です。AIが生み出した生成物をどう扱うかが大きな社会的論点になっています。著作権や特許権など、複数の法律で構成されています。
関連用語: 著作権、意匠権、商標権

知的財産権の種類

著作権、特許権、意匠権、商標権などを指します。生成AIの普及によって、これら従来の法律がどこまでAI生成物に適用されるかが問題視されています。
関連用語: 知的財産権、AIと法律、生成AI

注意機構

Attention Mechanismとも呼ばれ、入力データ中の重要な部分に注目させる仕組みです。Transformerモデルで導入され、自己注意力の基盤になっています。たとえば翻訳で、関連性の高い単語同士に高い重みをつけます。
関連用語: 自己注意力、Transformerモデル、RNN

長期記憶

AIにおける記憶の仕組みのひとつです。従来のモデルは短期的に文脈を保持するだけでしたが、過去の情報を長く覚える仕組みの研究も進んでいます。人間が経験を蓄積して活用する発想に近い概念です。
関連用語: RNN、LSTM、メモリ機構

著作権

小説・音楽・映像などの創作物を守る権利です。AIが作った生成物を「著作物」とみなせるか、既存作品を学習に使うことが合法かなどが議論されています。AI時代の創作活動と法律をつなぐ重要なテーマです。
関連用語: 知的財産権、意匠権、商標権

ディープフェイク

AIによって作られる偽の映像や音声です。たとえば「実在しない人物が話している動画」を生成できます。エンタメや研究には使える一方、なりすまし詐欺や偽ニュースへの悪用が懸念されています。
関連用語: 深層偽造、GAN、情報リテラシー

ディープラーニング

ニューラルネットワークを多層に重ねた学習方法です。大量データを使って特徴を自動的に抽出でき、画像認識や音声認識、翻訳など幅広く使われています。第三次AIブームを牽引した中心技術です。
関連用語: ニューラルネットワーク、特徴学習、第三次AIブーム

ディスインフォメーション

意図的に流される虚偽情報のことです。AIが生成した偽ニュース記事や改ざん画像も含まれ、世論操作などに悪用される恐れがあります。真偽の確認や情報リテラシーの向上が重要です。
関連用語: 偽情報、情報リテラシー、フェイクニュース

データ拡張

機械学習で学習データを人工的に増やす手法です。過学習防止や精度向上のために使われます。たとえば画像を回転・反転してバリエーションを増やします。
関連用語: データセット、汎化性能、ドロップアウト

データセット

AIの学習に使う大量のデータのまとまりです。モデルの性能はデータセットの質と量に大きく依存します。偏ったデータを使うと差別的な出力になるなど、品質管理が非常に重要です。
関連用語: インプットデータ、事前学習、ファインチューニング

テキスト生成AI

文章を自動で作るAIです。ChatGPTやClaudeなどが代表例で、ニュース要約やキャッチコピー作成、シナリオ生成などに活用されています。自然な文章を大量に生成できることが特徴です。
関連用語: 自然言語生成、自己回帰モデル、生成AI

テキスト契約

契約書をテキストデータとして処理し、AIが解析や自動生成を行う取り組みです。法務分野で業務効率化を進める手法のひとつで、リスク抽出や条項チェックにも応用されています。
関連用語: 生成AI、自然言語処理、AIと法律

敵対的生成ネットワーク

英語では「GAN(Generative Adversarial Network)」と呼ばれ、2つのAIを競わせて学習させる手法です。生成器と識別器が互いに性能を高め合うことで、リアルな画像や音声を作り出せます。画像生成AIの基盤技術のひとつです。
関連用語: GAN、識別器、画像生成AI

デコーダー

入力を理解して出力に変換するAIモデル内の仕組みです。Transformerモデルなどで使われ、入力情報を文章や画像などに再構成します。逆に入力を内部表現に変える部分はエンコーダーと呼びます。
関連用語: エンコーダー、Transformerモデル、自己注意力

デジタル市民権

デジタル社会で市民が持つべき権利や責任を示す考え方です。AIやインターネットを正しく使いこなす力もこの一部とされます。教育やガイドライン整備などで推進が進められています。
関連用語: インターネットリテラシー、情報リテラシー、AIガイドライン

特徴学習

AIがデータから重要な特徴を自動的に見つけ出すことです。従来は人間が「どの特徴を使うか」を選んでいましたが、ディープラーニングではAI自身が特徴を抽出できます。画像や音声など複雑なデータに強い手法です。
関連用語: ディープラーニング、次元削減、ニューラルネットワーク

特徴量

機械学習でデータを表すために抽出した数値的要素です。どんな特徴を使うかでモデルの精度が大きく変わります。たとえば顔認識では「目と目の距離」などが特徴量になります。
関連用語: 特徴学習、次元削減、主成分分析

動画生成AI

テキストや画像をもとに動画を生成するAIです。静止画を動かしたり新しい映像を作り出したりでき、広告や映画制作、教育分野でも応用が進んでいます。処理負荷が大きく、高速化や品質向上の研究が活発です。
関連用語: 画像生成AI、音楽生成AI、生成AI

特許権

発明を保護するための法律上の権利です。AIが発明した技術に特許を与えるべきかどうかが国際的に議論されています。AIと人間のどちらを「発明者」とするかが論点です。
関連用語: 知的財産権、著作権、意匠権

ドロップアウト

ニューラルネットワークの学習中に、一部のノードをランダムに無効化する手法です。過学習を防ぎ、汎化性能を高める目的で使われます。シンプルで効果的な正則化手法として広く用いられています。
関連用語: 過学習、汎化性能、正則化

ナ行

偽情報

事実とは異なる情報のことです。意図的に広められる場合はディスインフォメーションと呼ばれます。AIが自動生成した文章や画像が誤解を招くケースも増えており、真偽を見極める力が求められています。SNSやニュースサイトでの拡散が早いため、社会的影響も大きいとされています。
関連用語: ディスインフォメーション、情報リテラシー、フェイクニュース

ニューラルネットワーク

人間の脳の神経細胞(ニューロン)の仕組みを模した計算モデルです。多数の人工ニューロンを層状に結びつけ、データからパターンを学習します。ディープラーニングの基盤技術であり、画像認識や音声認識など現代AIの中心的な仕組みです。
関連用語: 人工ニューロン、シナプス、ディープラーニング

人間中心のAI社会原則

AIを人間の尊厳や権利を尊重しながら活用するための基本的な考え方です。
内閣府が策定したもので、日本におけるAIガイドラインの土台となっています。
公平性・透明性・説明責任・プライバシー保護などを重視し、AIの開発・運用・利用すべてにおいて、人間が主導的立場を保つべきだと示しています。
関連用語: AIガイドライン、プライバシー保護、倫理的AI

ノード

ニューラルネットワークを構成する基本単位です。入力を受け取り計算を行い、出力を次に伝える役割を担います。人工ニューロンとほぼ同義で、多数のノードを組み合わせることで複雑な処理や学習が可能になります。
関連用語: 人工ニューロン、シナプス、重み

ノーフリーランチ定理

「どんな問題にも万能に対応できる学習アルゴリズムは存在しない」という定理です。つまり、AIの手法は課題ごとに最適なものを選ぶ必要があるということを示しています。万能なAIは理論的に作れない、という重要な前提として知られています。
関連用語: アルゴリズム、機械学習、評価指標

ハ行

ハイパーパラメータ

AIモデルの学習に関わる設定値のことです。たとえば学習率や層の数、バッチサイズなどが該当します。これらは学習の前に人間が決める必要があり、結果に大きく影響します。料理でいえば「火加減」や「調味料の分量」のようなもので、最適化には試行錯誤が必要です。
関連用語: パラメータ、学習率、勾配降下法

パブリシティ権

有名人や個人が、自分の名前・顔・声といった「商業的価値」を守る権利です。音声生成AIや画像生成AIで人物を模したコンテンツを作る際、この権利を侵害する恐れがあります。生成技術の発展とともに、法的な配慮が強く求められています。
関連用語: 著作権、商標権、プライバシー権

パラメータ

ニューラルネットワーク内部で学習される数値です。入力の重要度を表す重みや、出力を調整するバイアスなどが含まれます。ChatGPTのような大規模モデルでは数千億単位のパラメータがあり、モデルの能力を大きく左右します。
関連用語: 重み、ハイパーパラメータ、ディープラーニング

ハルシネーション

生成AIが、もっともらしいが事実ではない内容を出力してしまう現象です。たとえば「存在しない論文を引用する」といったケースがあります。事前学習での統計的限界や評価基準の偏りが原因とされ、研究者や利用者にとって重要な課題となっています。
関連用語: 事前学習、強化学習、評価指標

※ハルシネーションの原因については、こちらの記事も参考にされてください。
▶︎ ハルシネーションの原因は、事前学習の限界と評価基準

半教師あり学習

データの一部だけに正解ラベルが付いていて、残りはラベルなしという状況で学習させる手法です。少ないラベル付きデータで効率よく学習できるため、コスト削減や省力化に役立ちます。大量のラベル付けが難しい分野で活用されています。
関連用語: 教師あり学習、教師なし学習、強化学習

ピクセル

画像を構成する最小単位の点のことです。画像生成AIや画像認識AIは、このピクセルのパターンを解析して特徴を抽出します。ピクセル単位での処理精度が、生成結果や認識精度に直結します。
関連用語: 画像認識、畳み込みニューラルネットワーク、特徴学習

評価指標

AIモデルの性能を数値で測るための指標です。正答率、再現率、F値などがあります。タスクに応じて最適な指標を選びます。
関連用語: アウトプットインジケーター、汎化性能、精度

ファインチューニング

すでに事前学習を終えたモデルに対して、特定のデータで追加学習を行う手法です。たとえば汎用AIに医療データを与えて「医療相談に特化したAI」にするような使い方が代表例です。少ないデータで効率的に専門性を高められます。
関連用語: 事前学習、生成AI、LLM

フィッシング詐欺

実在の企業やサービスを装ってパスワードやクレジットカード情報を盗み出す手口です。生成AIで本物そっくりのメールや偽サイトを作るのが容易になり、被害リスクが増しています。メールやリンクの真偽を確認する力が求められます。
関連用語: スピアフィッシング、ソーシャルエンジニアリング、マルウェア

不正競争の類型

競争相手を不当に害する行為のパターンを指します。営業秘密の持ち出しや商品表示の模倣などが含まれます。生成AIが作ったコンテンツがこれに該当するかどうかは、新しい法的論点になっています。
関連用語: 不正競争防止法、営業秘密、著作権

不正競争防止法

不正な競争行為を取り締まる日本の法律です。生成AIによるコンテンツの無断利用や営業秘密の流出などが問題となった場合、この法律が適用されることがあります。AI時代に合わせた法整備も進められています。
関連用語: 営業秘密、不正競争の類型、知的財産権

ブラックボックス化

AIの内部処理が外から理解できなくなることを指します。特にディープラーニングのように多数のパラメータを持つモデルでは、なぜその判断に至ったかを人間が説明できない場合があります。
たとえば画像認識AIが「猫」と判断しても、どの特徴を根拠にしたかが分からないといった状況です。
医療や金融など判断根拠の説明が求められる分野では、この問題がリスクとして注目されています。

分類モデル

AIが入力データをあらかじめ定めたカテゴリに分類するモデルです。
スパム/非スパム、犬/猫といった二値や多クラス分類に使われます。
たとえば感情分析などが代表例です。
関連用語: 識別器、教師あり学習、評価指標

マ行

マルウェア

コンピュータに害を与える目的で作られた不正プログラムの総称です。ウイルスやスパイウェア、ランサムウェアなども含まれます。AIそのものの仕組みではありませんが、AI技術を使って検出したり、逆にマルウェア生成に悪用されたりする可能性があります。
関連用語: マルウェア対策、ランサムウェア、スピアフィッシング

マルウェア対策

マルウェアの侵入や被害を防ぐための取り組みです。ウイルス対策ソフトやファイアウォールに加え、最近ではAIを利用した不審な動作の検知も行われています。行動パターンを学習することで未知の攻撃にも対応できるようになっています。
関連用語: マルウェア、ランサムウェア、セキュリティ

マルチモーダル

テキスト・画像・音声など複数の種類のデータを同時に扱うAIのことです。たとえば「写真を見て、その説明文を作る」といった処理が可能です。ChatGPTやClaudeなど最新モデルもこの方向に進化しており、人間に近い情報処理ができるようになっています。
関連用語: オムニモーダルモデル、自己注意力、Transformerモデル

メモリ機構

AIモデルに過去の情報を長期的に保持させるための仕組みです。従来のRNNやLSTMは短期記憶しかできませんでしたが、近年は長期的に文脈を覚える研究が進んでいます。たとえば長時間の対話で前の発言内容を覚えておく用途に使われます。
関連用語: LSTM、長期記憶、RNN

ヤ行

要配慮個人情報

人種・信条・病歴・犯罪歴など、特にデリケートで取り扱いに注意が必要な個人情報のことです。個人情報保護法でも特に厳しく規制されており、漏洩や誤用は重大な人権侵害につながります。生成AIが学習や出力に用いる際は、匿名化やマスキングなどの安全対策が欠かせません。
関連用語: 個人情報、匿名加工情報、プライバシー保護

ラ行

ランサムウェア

感染したPCやサーバー内のデータを暗号化し、「元に戻したければ金を払え」と脅迫するマルウェアの一種です。AI自体の仕組みではありませんが、近年はAIを用いて攻撃パターンを検知・防御する取り組みも進められています。標的型攻撃に用いられることが多く、被害額も大きくなりがちです。
関連用語: マルウェア、マルウェア対策、スピアフィッシング

ルールベース

人間があらかじめ定めた「もしAならB」という規則に従って動くAIの仕組みです。エキスパートシステムが代表例で、第二次AIブームの中心技術でした。明確な条件判断には強い一方、知識の更新や柔軟な対応が苦手で、現在主流のディープラーニングとは対照的です。
関連用語: エキスパートシステム、第二次AIブーム、ディープラーニング

レイ・カーツワイル

アメリカの発明家・未来学者です。AIの進化によって2045年頃にシンギュラリティ(技術的特異点)が到来すると予測したことで知られています。ヴァーナー・ヴィンジと並び、AIの未来像や社会的影響を語る上で欠かせない人物です。
関連用語: シンギュラリティ、ヴァーナー・ヴィンジ、2045年問題

ワ行

脆弱性

コンピュータやソフトウェアに存在するセキュリティ上の弱点のことです。AIシステムにも脆弱性があり、攻撃者に悪用されると不正アクセスや情報漏洩につながります。AI導入の拡大に伴い、設計段階から脆弱性を防ぐ「セキュア開発」が重視されています。
関連用語: マルウェア、ランサムウェア、セキュリティ

プライバシー

個人の生活や情報を他人に勝手に利用されない権利のことです。生成AIが収集・分析するデータには個人情報が含まれることが多く、適切な管理と保護が欠かせません。誤用や漏洩が起きた場合、重大な権利侵害につながります。
関連用語: 個人情報、プライバシー保護、要配慮個人情報

プライバシー設定

SNSやアプリで、自分の情報をどこまで公開するかを決める仕組みです。生成AIサービスを使う際も、自分のデータが学習に使われるかどうかを確認することが大切です。適切な設定で情報の外部流出を防げます。
関連用語: プライバシー、プライバシー保護、情報リテラシー

プライバシー保護

個人情報や利用履歴を適切に扱い、利用者の権利を守る取り組みです。生成AIの開発・運用では、匿名加工情報や暗号化など技術的対策と、個人情報保護法などの法的ルールの両面から配慮が必要です。国際的な規制整備も進められています。
関連用語: 個人情報、要配慮個人情報、プライバシー

ブラックメール

脅迫や恐喝を目的としたメールのことです。生成AIによって自然な文章を簡単に作れるようになったため、本物らしい脅迫メールが自動生成されるリスクが高まっています。詐欺や恐喝に悪用される可能性があり、警戒が必要です。
関連用語: スピアフィッシング、フィッシング詐欺、ソーシャルエンジニアリング

プレテキスト

ソーシャルエンジニアリング攻撃の一種で、虚偽の理由(プレテキスト)を使って相手をだまし情報を引き出す手口です。生成AIによるなりすましにも応用される懸念があります。信頼関係を装うことで被害者に気づかれにくいのが特徴です。
関連用語: ソーシャルエンジニアリング、フィッシング詐欺、情報リテラシー

プレトレーニング

大規模言語モデルなどで行われる、事前学習(Pre-training)のことです。ChatGPTのような生成AIは、この工程で大量のデータから一般的な知識を獲得します。その後、特定分野向けにファインチューニングを行います。
関連用語: 事前学習、ファインチューニング、LLM

プロンプティング

生成AIに「どう答えてほしいか」を伝える指示テクニックです。質問や指示の工夫次第で、出力の質が大きく変わります。効果的な活用には、段階的に指示を与えるなどのコツが必要です。
関連用語: プロンプト、インストラクション、出力指示

プロンプト

生成AIに与える入力文や指示文のことです。ChatGPTでは、ユーザーが入力するテキストがプロンプトにあたります。「要約して」「物語風に書いて」など、出力内容を左右する重要要素です。
関連用語: プロンプティング、インストラクション、出力指示

文書生成

AIが文章を自動で作ることです。ニュース記事、広告コピー、小説の一部など、人間が行う執筆作業を支援する形で使われます。ChatGPTやClaudeなどの登場で精度が飛躍的に高まりました。
関連用語: テキスト生成AI、自然言語生成、自己回帰モデル

文書分類

大量のテキストをテーマごとに仕分ける技術です。自然言語処理(NLP)の代表的タスクで、スパムメールの判定やレビューの自動分類などに使われています。教師あり学習で行われることが多いです。
関連用語: 自然言語処理、分類モデル、教師あり学習

文脈

言葉や文章の前後関係のことです。AIが文脈を理解することで、より自然で適切な返答や翻訳が可能になります。自己注意力やRNNなど、文脈を扱う技術がAI進化の鍵になっています。
関連用語: 自然言語処理、自己注意力、RNN

ベイト攻撃

「おとり」を使った攻撃手法です。たとえば感染ファイルをUSBメモリに偽装して置き、それを拾った人がPCに差し込むことで被害を受けるというものです。AIが直接関わるわけではありませんが、サイバーセキュリティの脅威として理解が必要です。
関連用語: ソーシャルエンジニアリング、マルウェア、スピアフィッシング

英数字索引(A〜Z行)

A行

AI

「Artificial Intelligence(人工知能)」の略です。人間の知的活動をコンピュータで模倣・再現しようとする技術や研究分野を指します。自然言語処理や画像認識など幅広い応用があり、現代社会に広く浸透しています。
関連用語: 人工知能、機械学習、ディープラーニング

ANI

「Artificial Narrow Intelligence(特化型人工知能)」の略です。翻訳や画像認識のように、特定の作業だけを得意とするAIを指します。現在実用化されているAIのほとんどがこの段階にあり、AGI(汎用人工知能)とは異なります。
関連用語: AGI、AIのレベル分類、人工知能

AGI

「Artificial General Intelligence(汎用人工知能)」の略です。特定の作業に限らず、人間のように幅広い知識や能力を発揮できるAIを指します。現在のAIはまだ特化型(ANI)にとどまっており、AGIは研究上の目標とされています。実現には推論力や創造力など複数分野の統合が必要です。
関連用語: ANI、人工知能、シンギュラリティ

ASI(Artificial Superintelligence)

人類の知能をはるかに超えると想定されるAIのことです。まだ実在せず、未来予測や倫理的議論の中で登場します。
到達した場合は、科学技術や社会構造を根本的に変えると考えられていますが、制御不能リスクも指摘されています。
関連用語: AGI、シンギュラリティ、2045年問題

ALBERT

「A Lite BERT」の略で、Googleが開発したBERTモデルの軽量化版です。パラメータ共有や次文予測タスク削除などで効率化を図り、性能を保ったまま計算資源を削減しています。
関連用語: BERTモデル、RoBERTa、Transformerモデル

A Lite BERT

ALBERTの正式名称です。BERTを小型化して学習効率を高めたモデルを指します。軽量化によってモバイル環境などでも使いやすくなっています。
関連用語: ALBERT、BERTモデル、Transformerモデル

B行

BERTモデル

Googleが2018年に発表した自然言語処理モデルです。Transformerモデル構造を使い、文脈を双方向に理解できるのが特徴です。検索・翻訳・要約など幅広いタスクで精度を大きく向上させました。
関連用語: Transformerモデル、ALBERT、RoBERTa

C行

ChatGPT

OpenAIが開発したChatGPTは、大規模言語モデル(GPTモデル)を基盤にした対話型AIです。人間らしい文章を理解・生成でき、質問応答、文章作成、要約、プログラミング支援など多用途に活用されています。自然な会話能力が特徴です。
関連用語: GPTモデル、自然言語生成、自己回帰モデル

Claude

Anthropicが開発したClaudeは、安全性や倫理面に配慮した設計が特徴の対話型AIです。長文処理や推論精度に優れ、ChatGPTと並ぶ代表的な大規模言語モデルです。企業での業務支援や文書作成にも広く使われています。
関連用語: GPTモデル、ChatGPT、自然言語処理

CNN

「Convolutional Neural Network(畳み込みニューラルネットワーク)」の略です。画像内の局所的な特徴を抽出するのが得意で、顔認証や物体検出、自動運転カメラなどに使われています。ディープラーニングを代表するモデルです。
関連用語: 畳み込みニューラルネットワーク、ディープラーニング、画像認識

Code Interpreter

ChatGPTに搭載されている機能のひとつで、コードを実行して計算やデータ分析を行えます。Python環境で動作し、プログラミング知識がなくても高度な処理を依頼できます。ファイル解析やグラフ作成にも活用されています。
関連用語: ChatGPT、Python、データ分析

Context

文脈や前後関係を意味する用語です。自然言語処理において、AIが文脈を正しく捉えることで自然で適切な応答や翻訳が可能になります。自己注意力やRNNなど、文脈を扱う技術はAI進化の鍵です。
関連用語: 自然言語処理、自己注意力、RNN

F行

Few-Shotプロンプティング

少数の例を与えて生成AIに学習させる指示方法です。たとえば「この質問にはこう答える」という例を2〜3個示してから本題を入力すると、出力が安定しやすくなります。大量のデータを用意しなくても精度を高められる点が特徴です。
関連用語: Zero-Shotプロンプティング、プロンプティング、自己回帰モデル

G行

GAN

「Generative Adversarial Network(敵対的生成ネットワーク)」の略です。生成器と識別器という2つのAIを競わせることで、リアルな画像や音声を生み出します。ディープフェイクや画像生成AIの基盤技術として知られています。
関連用語: 画像生成AI、識別器、ディープフェイク

Gemini

Googleが開発したGeminiは、大規模言語モデルとマルチモーダル処理に強みを持つ最新世代のAIです。ChatGPTやClaudeと並ぶ代表的モデルで、言語理解や推論、画像・音声・動画を統合した処理が可能です。
関連用語: ChatGPT、Claude、マルチモーダル

GPTモデル

「Generative Pre-trained Transformer」の略で、Transformerモデル構造を基盤とした大規模言語モデルです。大量のテキストを事前学習して自然な文章を生成できます。ChatGPTの中核を担う仕組みです。
関連用語: ChatGPT、自己回帰モデル、事前学習

GPT-1

OpenAIが2018年に発表した初代GPTモデルです。大規模言語モデルという概念を提示しましたが、性能は限定的でした。後のGPTシリーズ発展の土台となりました。
関連用語: GPT-2、GPT-3、GPTモデル

GPT-2

2019年にOpenAIが公開したGPTモデル第2世代です。文章生成の自然さが大きく進歩し、「偽ニュースを量産できるのでは」と懸念され、公開が段階的に行われました。
関連用語: GPT-1、GPT-3、GPTモデル

GPT-3

2020年にOpenAIが発表したGPTモデル第3世代です。1750億のパラメータを持ち、Few-Shotプロンプティングに対応できる性能を示しました。自然な文章生成で注目を集めました。
関連用語: GPT-2、GPT-3.5、GPTモデル

GPT-3.5

OpenAIがGPTモデル第3世代を改良して開発したモデルです。ChatGPTの初期バージョンに搭載され、会話の自然さが向上しました。広く一般に利用されるきっかけとなりました。
関連用語: GPT-3、GPT-4、ChatGPT

GPT-4

2023年にOpenAIが公開したGPTモデル第4世代です。推論力・安全性・多言語対応が大幅に強化され、複雑な課題解決が可能になりました。多くの大規模言語モデルの基準となっています。
関連用語: GPT-3.5、GPT-4o、ChatGPT

GPT-4o

OpenAIが発表したGPTモデル第4.1世代にあたるGPT-4oです。マルチモーダルに対応し、テキストだけでなく音声や画像も統合的に扱えます。リアルタイム対話にも対応し、ChatGPTに搭載されています。
関連用語: GPT-4、ChatGPT、マルチモーダル

GPTs

ChatGPT内でユーザーが独自に作れる「カスタムAIアシスタント」のことです。特定の指示や知識を組み込み、自分専用のGPTを構築できます。業務効率化や個人の作業支援などに活用されています。
関連用語: ChatGPT、プロンプティング、自己回帰モデル

I行

Input Data

AIに学習させるために与える入力データのことです。テキスト・画像・音声などが含まれ、AIの性能はこのデータの質と量に大きく左右されます。「どんなデータを食べさせるか」が極めて重要とされます。
関連用語: インプットデータ、データセット、事前学習

InstructGPT

OpenAIが開発したInstructGPTは、指示(インストラクション)に従って出力するよう訓練されたGPTモデルです。RLHF(人間のフィードバックによる強化学習)を用いて調整され、のちのChatGPTにつながりました。
関連用語: ChatGPT、RLHF、Instruction

Instruction

AIに与える命令や指示文のことです。単なる質問ではなく、「要約して」「例を交えて説明して」といった形で与えることで、出力の方向性をコントロールできます。プロンプトの中に含める形で使われます。
関連用語: プロンプト、プロンプティング、出力指示

L行

LLM

「Large Language Model(大規模言語モデル)」の略です。大量のテキストを学習し、人間のように自然な文章を理解・生成できます。ChatGPTやClaude、Geminiなどが代表例で、要約・翻訳・質問応答など幅広い用途に使われています。
関連用語: GPTモデル、事前学習、自然言語処理

LSTM

「Long Short-Term Memory(長短期記憶)」の略です。RNN(回帰型ニューラルネットワーク)の改良型で、長い文章の文脈を覚えるのが得意です。Transformerモデル登場以前は自然言語処理や音声認識で広く使われていました。
関連用語: RNN、Transformerモデル、自己注意力

M行

Malware

不正な目的で作られたソフトウェアの総称です。ウイルスやスパイウェア、ランサムウェアなどが含まれます。AIはその検知や防御に活用される一方、攻撃側に悪用されるリスクもあります。
関連用語: マルウェア、マルウェア対策、セキュリティ

Masked Language Model

BERTモデルで採用された学習方法のひとつです。文章中の単語を一部マスク(隠す)して、AIに「何が入るか」を当てさせます。これにより文脈理解の力が身につき、自然言語処理の精度が向上しました。
関連用語: BERTモデル、MLM、Next Sentence Prediction

MIDIファイル

音楽データを記録するファイル形式のひとつです。音楽生成AIでは、楽譜のようにメロディやリズムを生成・編集するためにMIDI形式が使われます。演奏データとして軽量で扱いやすい特徴があります。
関連用語: 音楽生成AI、音声生成AI、マルチモーダル

MLM

「Masked Language Model」の略です。BERTモデル系列の自然言語処理モデルで用いられる学習方式を指します。単語を隠して予測させることで、双方向の文脈理解を学習します。
関連用語: Masked Language Model、BERTモデル、自然言語処理

N行

Next Sentence Prediction

BERTモデルの学習で使われたタスクのひとつです。ある文の後に別の文が自然につながるかどうかを判定させます。文と文の関係を理解する力を養う目的で導入されましたが、現在は使われないことも多いです。
関連用語: BERTモデル、Masked Language Model、NSP

NLP

「Natural Language Processing(自然言語処理)」の略です。人間が使う自然な言葉をコンピュータに理解・処理させる技術です。翻訳・要約・質問応答・感情分析など、多くのAIサービスに使われています。
関連用語: 自然言語生成、自己注意力、LLM

NSP

Next Sentence Predictionの略です。BERTモデルにおいて、文のつながりを理解するために使われたタスクです。文脈理解を補強する目的で利用されましたが、後継モデルでは省かれることもあります。
関連用語: BERTモデル、Masked Language Model、Next Sentence Prediction

O行

Output Indicator

AIが学習や処理を行った結果を数値や指標として表すものです。正答率・精度・損失関数の値などが含まれ、モデルがどれだけうまく動いているかを示します。性能を評価・改善するうえで欠かせません。
関連用語: アウトプットインジケーター、評価指標、精度

R行

RAG(Retrieval-Augmented Generation)

生成AIに検索機能を組み込んだ仕組みです。質問に答える前に外部データベースや検索エンジンから情報を取得し、その内容をもとに回答を生成します。最新情報や事実に基づいた応答ができる一方、検索結果が不十分だとハルシネーションが残ることもあります。
関連用語: 生成AI、ハルシネーション、検索拡張

Reinforcement Learning from Human Feedback

略してRLHFと呼ばれます。人間の評価をフィードバックとして取り入れ、強化学習を用いてAIを望ましい出力に近づける手法です。ChatGPTの性能を大きく高めた技術として知られています。
関連用語: 強化学習、InstructGPT、ChatGPT

RLHF

Reinforcement Learning from Human Feedbackの略です。生成AIに人間の好ましい/好ましくない回答例を学習させ、出力を人間の基準に近づけます。安全性や一貫性の向上に役立っています。
関連用語: Reinforcement Learning from Human Feedback、強化学習、InstructGPT

RNN

「Recurrent Neural Network(回帰型ニューラルネットワーク)」の略です。文章や音声などの時系列データを扱うのが得意で、過去の情報を記憶しながら次を予測できます。LSTMなどの発展系があり、Transformerモデル登場前に広く使われました。
関連用語: LSTM、自己回帰モデル、Transformerモデル

RoBERTa

Meta(旧Facebook)が開発した自然言語処理モデルです。BERTモデルを改良し、学習データ量と学習時間を大幅に増やすことで精度を向上させました。文章理解タスクで高い性能を示し、多くの派生モデルに影響を与えています。
関連用語: BERTモデル、ALBERT、Transformerモデル

S行

Self-Attention

文章やデータの中で「どの部分が重要か」をAIが自動で判断する仕組みです。Transformerモデルの中心技術で、離れた単語同士の関係性も的確にとらえられます。これにより長文の理解や自然な翻訳が可能になりました。
関連用語: 自己注意力、Transformerモデル、自然言語処理

T行

Temperature

生成AIが文章を作る際の「ランダムさ(創造性)」を調整するハイパーパラメータです。数値が低いと安定して無難な答えになり、高いと多様で意外性のある答えが出やすくなります。創造性と正確性のバランスを決める重要な設定です。
関連用語: Top-p、ハイパーパラメータ、プロンプティング

Top-p

生成AIの出力を制御するハイパーパラメータです。確率の高い単語から順に合計確率がp(例:0.9)を超えるまで候補を選び、その中から次の単語を生成します。出力の多様性を調整するために使われます。
関連用語: Temperature、ハイパーパラメータ、プロンプティング

Transformerモデル

Googleが2017年に発表したAIモデル構造です。Self-Attentionを使い、従来のRNNより効率的に文脈を理解できます。BERTモデルやGPTモデルなど、現在の大規模言語モデルの土台となっています。
関連用語: BERTモデル、GPTモデル、Self-Attention

Transformerモデル以降の派生モデル

Transformerモデルをベースにした多様な派生モデル群を指します。BERTモデル、GPTモデル、RoBERTa、ALBERTなどがあり、自然言語処理の性能を飛躍的に高め、AI研究の主流となっています。
関連用語: Transformerモデル、BERTモデル、GPTモデル

V行

VAE

「Variational Autoencoder(変分オートエンコーダ)」の略です。データを圧縮しつつ新しいデータを生成できる生成モデルの一種です。画像生成AIなどで使われ、GANと並ぶ代表的な手法とされています。
関連用語: GAN、画像生成AI、生成モデル

X行

XAI(説明可能なAI / eXplainable AI)

AIの判断根拠を人間に分かる形で示す技術や研究分野です。
ブラックボックス化したAIに対して、出力の理由を可視化することで信頼性や安全性を高める狙いがあります。
たとえば、画像分類AIがどの部分を見て判断したかをヒートマップで表示する手法がXAIにあたります。
法規制や倫理基準への対応にも欠かせない要素とされています。

関連用語: ブラックボックス化、AIガイドライン、情報リテラシー

Z行

Zero-Shotプロンプティング

例をひとつも与えずに生成AIにタスクを実行させる指示方法です。「この文章を英語に翻訳して」と直接指示するだけで対応できるのは、大規模言語モデル(LLM)の力によるものです。大量の事前知識に基づいて推論します。
関連用語: Few-Shotプロンプティング、プロンプティング、自己回帰モデル

数字索引

2045年問題

レイ・カーツワイルらが提唱した予測で、2045年頃にAIが人間の知能を超え、社会が大きく変わるとされるシナリオです。シンギュラリティ(技術的特異点)の代表的な年として言及されますが、実現時期については研究者の間で意見が分かれています。
関連用語: シンギュラリティ、レイ・カーツワイル、AGI

関連記事