エッジAI用語集
専門用語を初心者にもわかりやすく解説。「それ何?」がなくなるエッジAI辞書です。
基礎
9語エッジAI
クラウド(インターネット上のサーバー)ではなく、手元のデバイス(スマホ・PC・Raspberry Piなど)でAIを動かす技術のこと。データを外部に送る必要がないため、プライバシーが守られます。
このサイトでの使われ方
このサイトのデモはすべてエッジAI。あなたのカメラ映像や音声がサーバーに送られることは一切ありません。
クラウドAI
データをインターネット経由でサーバーに送り、サーバー上でAI処理を行う方式。ChatGPTやGoogle翻訳がこの方式です。高性能だが、通信が必要でプライバシーの懸念があります。
このサイトでの使われ方
エッジAIとの違いを理解することで、用途に応じた最適な選択ができるようになります。
AIモデル
AIが「何かを判断する」ためのプログラムのこと。例えるなら、料理のレシピのようなもの。大量のデータから「こういう入力にはこう答える」というパターンを学習した結果がモデルです。
このサイトでの使われ方
デモで使っている「物体検出モデル」や「音声認識モデル」は、すべてあなたのブラウザにダウンロードされて動きます。
推論
学習済みのAIモデルを使って、新しいデータに対して答えを出すこと。例えば、カメラに映った物体が「猫」であると判定する処理が推論です。学習(トレーニング)とは違い、軽い処理で済みます。
このサイトでの使われ方
エッジAIでは、この推論をあなたのデバイス上で行います。ハードウェアの推論性能(TOPS)が高いほど、速く正確に判定できます。
学習(トレーニング)
大量のデータを使って、AIモデルに「パターン」を覚えさせること。何万枚もの写真を見せて「これが猫」「これが犬」と教える作業です。膨大な計算が必要で、通常はクラウドで行います。
このサイトでの使われ方
エッジデバイスでは学習は難しいですが、学習済みモデルを使った推論は十分にできます。
API
ソフトウェア同士がデータをやり取りするための窓口。ChatGPTのAPIを使うと、自分のアプリからChatGPTの機能を呼び出せますが、通常は利用量に応じて料金がかかります。
このサイトでの使われ方
エッジAIはAPIが不要。ブラウザ上で直接AIが動くので、従量課金もサーバー契約も不要で完全無料です。
レイテンシ(遅延)
入力してから結果が返ってくるまでの待ち時間のこと。クラウドAIではデータの送受信に時間がかかりますが、エッジAIはデバイス内で処理するため、ほぼ待ち時間ゼロです。
このサイトでの使われ方
カメラ映像のリアルタイム処理や、自動運転のような即座の判断が必要な場面では、低レイテンシが命です。
リアルタイム処理
データが入ってきた瞬間に処理して結果を返すこと。目安として、映像処理では1秒間に15〜30回以上処理できれば「リアルタイム」と呼ばれます。
このサイトでの使われ方
物体検出やポーズ推定のデモでは、カメラ映像をリアルタイムで処理しています。
オンデバイス
処理をすべて手元のデバイス(スマホ・PC)の中で完結させること。インターネット接続が不要で、データが外に出ないため安全です。
このサイトでの使われ方
このサイトのデモはすべてオンデバイス。一度モデルをダウンロードすれば、オフラインでも使えます。
ハードウェア
10語TOPS
AIチップの計算速度を表す単位。1 TOPSは「1秒間に1兆回の計算」ができるという意味。数字が大きいほど、AIの処理が速くなります。スマホは約10〜15 TOPS、専用チップは40 TOPS以上。
このサイトでの使われ方
ハードウェアを選ぶ際の最重要指標。物体検出をリアルタイムで動かすには最低4 TOPS程度必要です。
NPU
AI計算に特化した専用チップ。通常のCPUやGPUとは違い、AIの推論処理を超高速・超低消費電力で実行できるよう設計されています。最新スマホやPCに内蔵されつつあります。
このサイトでの使われ方
Raspberry Pi AI HAT+のHailo-8はNPUの一種。NPU搭載デバイスを選ぶと、AIの動作が劇的に速くなります。
GPU
もともと画像描画用のチップですが、大量の並列計算が得意なためAIの処理にも使われます。NVIDIA製GPU(GeForce, Jetson)がAI分野では特に有名です。
このサイトでの使われ方
Jetson Orin NanoにはNVIDIA GPUが搭載されており、本格的なAI開発ができます。
TPU
Google が開発したAI専用チップ。Google Coral USB AcceleratorにはEdge TPUが搭載されており、USB接続するだけでAI推論を高速化できます。
このサイトでの使われ方
Coral USBは約1万円と手頃で、Raspberry Piに挿すだけでAI推論が10倍以上速くなります。
VPU
画像・映像処理に特化したAIチップ。Intel Movidius や OAK-DカメラのMyriad Xが代表例。カメラ映像のAI処理を省電力で行えます。
このサイトでの使われ方
OAK-D Liteカメラにはこのチップが内蔵されており、カメラ単体でAI物体検出ができます。
SBC(シングルボードコンピュータ)
手のひらサイズの基板1枚でできたコンピュータ。Raspberry PiやJetsonが代表例。安価(1〜3万円)でLinuxが動き、カメラやセンサーを接続してAI開発ができます。
このサイトでの使われ方
エッジAIを実機で始める最初の一歩として最も人気のあるデバイスカテゴリです。
AIアクセラレータ
既存のコンピュータに追加して、AI処理を高速化するための拡張デバイス。USB接続タイプ(Coral USB)やM.2スロットタイプ(Hailo-8)があります。
このサイトでの使われ方
Raspberry Piだけでは遅いAI処理も、アクセラレータを追加すればリアルタイムで動くようになります。
AIゲートウェイ
複数のIoTセンサーからのデータを集約し、現場でAI処理するための中継デバイス。工場や店舗に設置して、カメラ映像の分析や異常検知をクラウドに送らず現場で行います。
このサイトでの使われ方
Jetson Orin NanoやRaspberry Pi + AI HAT+をAIゲートウェイとして活用する企業が増えています。
IoT
モノのインターネット。センサーやカメラなどの機器をネットワークに接続し、データを収集・活用する仕組み。スマート家電や工場のセンサーなどが例です。
このサイトでの使われ方
IoTデバイスにエッジAIを組み込むことで、クラウド不要でリアルタイムにデータ分析ができます。
TinyML
マイコン(Arduino、ESP32等)のような超小型・超低消費電力のデバイスでAIを動かす技術。消費電力が数mWで、電池で何ヶ月も動作できます。
このサイトでの使われ方
Arduino Nano 33 BLEやXIAO ESP32S3はTinyML対応。ジェスチャー認識や音声コマンドをバッテリー駆動で実現できます。
ソフトウェア
5語フレームワーク
AIアプリを作るための「道具箱」のようなもの。TensorFlow.jsやMediaPipeがこれにあたります。ゼロからコードを書く代わりに、フレームワークの機能を使って効率的にAIを動かせます。
このサイトでの使われ方
このサイトのデモは4種類のフレームワーク(TensorFlow.js, MediaPipe, Transformers.js, WebLLM)を使っています。
TensorFlow.js
Googleが開発した、ブラウザ上でAIを動かすためのフレームワーク。画像認識や物体検出のモデルが豊富に揃っています。このサイトの物体検出・画像分類デモで使用。
このサイトでの使われ方
ブラウザAIの最も歴史があるフレームワーク。学習資料が豊富で初心者の学習にも最適です。
MediaPipe
Googleが開発した、リアルタイムの映像解析に特化したフレームワーク。顔認識・手の検出・ポーズ推定・背景除去などが超高速に動きます。
このサイトでの使われ方
このサイトのポーズ推定・背景除去デモで使用。スマホでもヌルヌル動く軽さが特徴です。
ONNX
異なるAIフレームワーク間でモデルを共有するための共通フォーマット。PyTorchで学習したモデルをONNX形式に変換すれば、ブラウザやスマホでも動かせます。
このサイトでの使われ方
Transformers.jsはONNX形式のモデルを使います。ONNX形式なら、デバイスを問わず幅広く動作します。
CUDA
NVIDIA製GPUでAI計算を高速に行うための技術。Jetsonシリーズやゲーミング用GeForce GPUで利用でき、AI開発の業界標準です。
このサイトでの使われ方
Jetson Orin NanoはCUDA対応なので、PC向けに開発したAIモデルをそのままエッジで動かせます。
モデル
5語パラメータ
AIモデルが学習した「知識」の量を表す数値。「1.5Bパラメータ」は15億個の数値を持つモデルという意味。パラメータが多いほど賢いですが、動作に必要なメモリも増えます。
このサイトでの使われ方
エッジデバイスではメモリが限られるため、少ないパラメータで高精度なモデル(小型モデル)が重要です。
量子化
AIモデルのサイズを小さくする技術。通常のモデルは高精度な数値(32ビット)を使いますが、これを8ビットや4ビットに圧縮します。例えるなら、高画質写真をJPEGに圧縮するイメージ。精度はわずかに下がりますが、サイズは1/4〜1/8になります。
このサイトでの使われ方
量子化されたモデルなら、Raspberry Piやスマホのようなメモリが少ないデバイスでもAIが動きます。
蒸留(知識蒸留)
大きくて賢いAIモデル(先生)の知識を、小さなモデル(生徒)に教え込む技術。DeepSeek-R1-Distill-Qwen-1.5Bは、671Bの巨大モデルの能力を1.5Bの小型モデルに蒸留した例です。
このサイトでの使われ方
蒸留のおかげで、スマホやRaspberry Piでも「大きなAIに近い能力」を使えるようになりました。
LLM(大規模言語モデル)
ChatGPTのような、テキストで会話できるAI。大量の文章を学習して、人間のような受け答えができます。最近は小型化が進み、ブラウザやスマホでも動くLLMが登場しています。
このサイトでの使われ方
このサイトのチャットAIデモでは、WebGPUを使ってブラウザ内でLLMを動かしています。
マルチモーダル
テキストだけでなく、画像・音声・動画など複数の種類のデータを同時に理解できるAIのこと。例えば写真を見せて「これは何?」と聞くと答えてくれるAIがマルチモーダルです。
このサイトでの使われ方
Gemma 3-1Bなどのマルチモーダルモデルは、エッジデバイスでも画像+テキストの処理ができます。
ブラウザ技術
4語WebGPU
ブラウザからGPU(グラフィックチップ)の計算力を使うための最新技術。これにより、ブラウザ上でもAIの高速な計算が可能に。Chrome・Edgeの最新版で利用できます。
このサイトでの使われ方
チャットAIデモはWebGPUを使って動作します。WebGPU対応ブラウザなら、ブラウザだけでLLMが動きます。
WebAssembly (WASM)
ブラウザ上でC++などの高速なプログラムを動かすための技術。通常のJavaScriptより高速に処理でき、AIモデルの推論もブラウザ内でスムーズに実行できます。
このサイトでの使われ方
音声認識や画像分類のデモはWASMで動作。WebGPU非対応のブラウザでもAIが使えます。
WebGL
ブラウザで3DグラフィックやGPU計算を行うための技術。WebGPUより古い技術ですが、ほぼすべてのブラウザで動作するため互換性が高いです。
このサイトでの使われ方
TensorFlow.jsはデフォルトでWebGLを使用。古いPCやスマホでもAIデモが動く理由です。
FPS
1秒間に何回画面を更新(処理)できるかを表す数値。映像のAI処理では、15FPS以上あればスムーズ、30FPS以上なら快適と言われます。
このサイトでの使われ方
物体検出やポーズ推定のデモがカクカクする場合は、FPSが低い状態。より高性能なデバイスやアクセラレータで改善できます。