AI
エッジAIラボ
GLOSSARY

エッジAI用語集

専門用語を初心者にもわかりやすく解説。「それ何?」がなくなるエッジAI辞書です。

📘

基礎

9

エッジAI

Edge AI
基礎

クラウド(インターネット上のサーバー)ではなく、手元のデバイス(スマホ・PC・Raspberry Piなど)でAIを動かす技術のこと。データを外部に送る必要がないため、プライバシーが守られます。

このサイトでの使われ方

このサイトのデモはすべてエッジAI。あなたのカメラ映像や音声がサーバーに送られることは一切ありません。

関連:クラウドAIオンデバイス推論

クラウドAI

Cloud AI
基礎

データをインターネット経由でサーバーに送り、サーバー上でAI処理を行う方式。ChatGPTやGoogle翻訳がこの方式です。高性能だが、通信が必要でプライバシーの懸念があります。

このサイトでの使われ方

エッジAIとの違いを理解することで、用途に応じた最適な選択ができるようになります。

関連:エッジAIAPI

AIモデル

AI Model
基礎

AIが「何かを判断する」ためのプログラムのこと。例えるなら、料理のレシピのようなもの。大量のデータから「こういう入力にはこう答える」というパターンを学習した結果がモデルです。

このサイトでの使われ方

デモで使っている「物体検出モデル」や「音声認識モデル」は、すべてあなたのブラウザにダウンロードされて動きます。

関連:推論学習パラメータ

推論

(すいろん)Inference
基礎

学習済みのAIモデルを使って、新しいデータに対して答えを出すこと。例えば、カメラに映った物体が「猫」であると判定する処理が推論です。学習(トレーニング)とは違い、軽い処理で済みます。

このサイトでの使われ方

エッジAIでは、この推論をあなたのデバイス上で行います。ハードウェアの推論性能(TOPS)が高いほど、速く正確に判定できます。

関連:学習TOPSAIモデル

学習(トレーニング)

Training
基礎

大量のデータを使って、AIモデルに「パターン」を覚えさせること。何万枚もの写真を見せて「これが猫」「これが犬」と教える作業です。膨大な計算が必要で、通常はクラウドで行います。

このサイトでの使われ方

エッジデバイスでは学習は難しいですが、学習済みモデルを使った推論は十分にできます。

関連:推論AIモデル

API

Application Programming Interface
基礎

ソフトウェア同士がデータをやり取りするための窓口。ChatGPTのAPIを使うと、自分のアプリからChatGPTの機能を呼び出せますが、通常は利用量に応じて料金がかかります。

このサイトでの使われ方

エッジAIはAPIが不要。ブラウザ上で直接AIが動くので、従量課金もサーバー契約も不要で完全無料です。

関連:クラウドAI

レイテンシ(遅延)

Latency
基礎

入力してから結果が返ってくるまでの待ち時間のこと。クラウドAIではデータの送受信に時間がかかりますが、エッジAIはデバイス内で処理するため、ほぼ待ち時間ゼロです。

このサイトでの使われ方

カメラ映像のリアルタイム処理や、自動運転のような即座の判断が必要な場面では、低レイテンシが命です。

関連:リアルタイム処理

リアルタイム処理

Real-time Processing
基礎

データが入ってきた瞬間に処理して結果を返すこと。目安として、映像処理では1秒間に15〜30回以上処理できれば「リアルタイム」と呼ばれます。

このサイトでの使われ方

物体検出やポーズ推定のデモでは、カメラ映像をリアルタイムで処理しています。

関連:レイテンシFPS

オンデバイス

On-device
基礎

処理をすべて手元のデバイス(スマホ・PC)の中で完結させること。インターネット接続が不要で、データが外に出ないため安全です。

このサイトでの使われ方

このサイトのデモはすべてオンデバイス。一度モデルをダウンロードすれば、オフラインでも使えます。

関連:エッジAIプライバシー
🔧

ハードウェア

10

TOPS

Tera Operations Per Second
ハードウェア

AIチップの計算速度を表す単位。1 TOPSは「1秒間に1兆回の計算」ができるという意味。数字が大きいほど、AIの処理が速くなります。スマホは約10〜15 TOPS、専用チップは40 TOPS以上。

このサイトでの使われ方

ハードウェアを選ぶ際の最重要指標。物体検出をリアルタイムで動かすには最低4 TOPS程度必要です。

関連:NPU推論AIアクセラレータ

NPU

Neural Processing Unit
ハードウェア

AI計算に特化した専用チップ。通常のCPUやGPUとは違い、AIの推論処理を超高速・超低消費電力で実行できるよう設計されています。最新スマホやPCに内蔵されつつあります。

このサイトでの使われ方

Raspberry Pi AI HAT+のHailo-8はNPUの一種。NPU搭載デバイスを選ぶと、AIの動作が劇的に速くなります。

関連:TOPSGPUTPU

GPU

Graphics Processing Unit
ハードウェア

もともと画像描画用のチップですが、大量の並列計算が得意なためAIの処理にも使われます。NVIDIA製GPU(GeForce, Jetson)がAI分野では特に有名です。

このサイトでの使われ方

Jetson Orin NanoにはNVIDIA GPUが搭載されており、本格的なAI開発ができます。

関連:NPUCUDA

TPU

Tensor Processing Unit
ハードウェア

Google が開発したAI専用チップ。Google Coral USB AcceleratorにはEdge TPUが搭載されており、USB接続するだけでAI推論を高速化できます。

このサイトでの使われ方

Coral USBは約1万円と手頃で、Raspberry Piに挿すだけでAI推論が10倍以上速くなります。

関連:NPUGPUTOPS

VPU

Vision Processing Unit
ハードウェア

画像・映像処理に特化したAIチップ。Intel Movidius や OAK-DカメラのMyriad Xが代表例。カメラ映像のAI処理を省電力で行えます。

このサイトでの使われ方

OAK-D Liteカメラにはこのチップが内蔵されており、カメラ単体でAI物体検出ができます。

関連:NPUGPU

SBC(シングルボードコンピュータ)

Single Board Computer
ハードウェア

手のひらサイズの基板1枚でできたコンピュータ。Raspberry PiやJetsonが代表例。安価(1〜3万円)でLinuxが動き、カメラやセンサーを接続してAI開発ができます。

このサイトでの使われ方

エッジAIを実機で始める最初の一歩として最も人気のあるデバイスカテゴリです。

関連:Raspberry PiJetson

AIアクセラレータ

AI Accelerator
ハードウェア

既存のコンピュータに追加して、AI処理を高速化するための拡張デバイス。USB接続タイプ(Coral USB)やM.2スロットタイプ(Hailo-8)があります。

このサイトでの使われ方

Raspberry Piだけでは遅いAI処理も、アクセラレータを追加すればリアルタイムで動くようになります。

関連:TOPSNPUTPU

AIゲートウェイ

AI Gateway
ハードウェア

複数のIoTセンサーからのデータを集約し、現場でAI処理するための中継デバイス。工場や店舗に設置して、カメラ映像の分析や異常検知をクラウドに送らず現場で行います。

このサイトでの使われ方

Jetson Orin NanoやRaspberry Pi + AI HAT+をAIゲートウェイとして活用する企業が増えています。

関連:エッジAIIoT

IoT

Internet of Things
ハードウェア

モノのインターネット。センサーやカメラなどの機器をネットワークに接続し、データを収集・活用する仕組み。スマート家電や工場のセンサーなどが例です。

このサイトでの使われ方

IoTデバイスにエッジAIを組み込むことで、クラウド不要でリアルタイムにデータ分析ができます。

関連:AIゲートウェイセンサー

TinyML

Tiny Machine Learning
ハードウェア

マイコン(Arduino、ESP32等)のような超小型・超低消費電力のデバイスでAIを動かす技術。消費電力が数mWで、電池で何ヶ月も動作できます。

このサイトでの使われ方

Arduino Nano 33 BLEやXIAO ESP32S3はTinyML対応。ジェスチャー認識や音声コマンドをバッテリー駆動で実現できます。

関連:マイコンエッジAI
💻

ソフトウェア

5

フレームワーク

Framework
ソフトウェア

AIアプリを作るための「道具箱」のようなもの。TensorFlow.jsやMediaPipeがこれにあたります。ゼロからコードを書く代わりに、フレームワークの機能を使って効率的にAIを動かせます。

このサイトでの使われ方

このサイトのデモは4種類のフレームワーク(TensorFlow.js, MediaPipe, Transformers.js, WebLLM)を使っています。

関連:TensorFlow.jsMediaPipe

TensorFlow.js

ソフトウェア

Googleが開発した、ブラウザ上でAIを動かすためのフレームワーク。画像認識や物体検出のモデルが豊富に揃っています。このサイトの物体検出・画像分類デモで使用。

このサイトでの使われ方

ブラウザAIの最も歴史があるフレームワーク。学習資料が豊富で初心者の学習にも最適です。

関連:フレームワークMediaPipe

MediaPipe

ソフトウェア

Googleが開発した、リアルタイムの映像解析に特化したフレームワーク。顔認識・手の検出・ポーズ推定・背景除去などが超高速に動きます。

このサイトでの使われ方

このサイトのポーズ推定・背景除去デモで使用。スマホでもヌルヌル動く軽さが特徴です。

関連:TensorFlow.jsフレームワーク

ONNX

Open Neural Network Exchange
ソフトウェア

異なるAIフレームワーク間でモデルを共有するための共通フォーマット。PyTorchで学習したモデルをONNX形式に変換すれば、ブラウザやスマホでも動かせます。

このサイトでの使われ方

Transformers.jsはONNX形式のモデルを使います。ONNX形式なら、デバイスを問わず幅広く動作します。

関連:Transformers.jsフレームワーク

CUDA

Compute Unified Device Architecture
ソフトウェア

NVIDIA製GPUでAI計算を高速に行うための技術。Jetsonシリーズやゲーミング用GeForce GPUで利用でき、AI開発の業界標準です。

このサイトでの使われ方

Jetson Orin NanoはCUDA対応なので、PC向けに開発したAIモデルをそのままエッジで動かせます。

関連:GPUJetson
🧠

モデル

5

パラメータ

Parameters
モデル

AIモデルが学習した「知識」の量を表す数値。「1.5Bパラメータ」は15億個の数値を持つモデルという意味。パラメータが多いほど賢いですが、動作に必要なメモリも増えます。

このサイトでの使われ方

エッジデバイスではメモリが限られるため、少ないパラメータで高精度なモデル(小型モデル)が重要です。

関連:AIモデル量子化

量子化

(りょうしか)Quantization
モデル

AIモデルのサイズを小さくする技術。通常のモデルは高精度な数値(32ビット)を使いますが、これを8ビットや4ビットに圧縮します。例えるなら、高画質写真をJPEGに圧縮するイメージ。精度はわずかに下がりますが、サイズは1/4〜1/8になります。

このサイトでの使われ方

量子化されたモデルなら、Raspberry Piやスマホのようなメモリが少ないデバイスでもAIが動きます。

関連:パラメータ蒸留

蒸留(知識蒸留)

(じょうりゅう)Knowledge Distillation
モデル

大きくて賢いAIモデル(先生)の知識を、小さなモデル(生徒)に教え込む技術。DeepSeek-R1-Distill-Qwen-1.5Bは、671Bの巨大モデルの能力を1.5Bの小型モデルに蒸留した例です。

このサイトでの使われ方

蒸留のおかげで、スマホやRaspberry Piでも「大きなAIに近い能力」を使えるようになりました。

関連:量子化パラメータ

LLM(大規模言語モデル)

Large Language Model
モデル

ChatGPTのような、テキストで会話できるAI。大量の文章を学習して、人間のような受け答えができます。最近は小型化が進み、ブラウザやスマホでも動くLLMが登場しています。

このサイトでの使われ方

このサイトのチャットAIデモでは、WebGPUを使ってブラウザ内でLLMを動かしています。

関連:パラメータWebGPU

マルチモーダル

Multimodal
モデル

テキストだけでなく、画像・音声・動画など複数の種類のデータを同時に理解できるAIのこと。例えば写真を見せて「これは何?」と聞くと答えてくれるAIがマルチモーダルです。

このサイトでの使われ方

Gemma 3-1Bなどのマルチモーダルモデルは、エッジデバイスでも画像+テキストの処理ができます。

関連:LLMAIモデル
🌐

ブラウザ技術

4

WebGPU

ブラウザ技術

ブラウザからGPU(グラフィックチップ)の計算力を使うための最新技術。これにより、ブラウザ上でもAIの高速な計算が可能に。Chrome・Edgeの最新版で利用できます。

このサイトでの使われ方

チャットAIデモはWebGPUを使って動作します。WebGPU対応ブラウザなら、ブラウザだけでLLMが動きます。

関連:WebAssemblyGPU

WebAssembly (WASM)

WebAssembly
ブラウザ技術

ブラウザ上でC++などの高速なプログラムを動かすための技術。通常のJavaScriptより高速に処理でき、AIモデルの推論もブラウザ内でスムーズに実行できます。

このサイトでの使われ方

音声認識や画像分類のデモはWASMで動作。WebGPU非対応のブラウザでもAIが使えます。

関連:WebGPUWebGL

WebGL

ブラウザ技術

ブラウザで3DグラフィックやGPU計算を行うための技術。WebGPUより古い技術ですが、ほぼすべてのブラウザで動作するため互換性が高いです。

このサイトでの使われ方

TensorFlow.jsはデフォルトでWebGLを使用。古いPCやスマホでもAIデモが動く理由です。

関連:WebGPUWebAssembly

FPS

Frames Per Second
ブラウザ技術

1秒間に何回画面を更新(処理)できるかを表す数値。映像のAI処理では、15FPS以上あればスムーズ、30FPS以上なら快適と言われます。

このサイトでの使われ方

物体検出やポーズ推定のデモがカクカクする場合は、FPSが低い状態。より高性能なデバイスやアクセラレータで改善できます。

関連:リアルタイム処理TOPS