※購入先、ダウンロードへのリンクにはアフィリエイトタグが含まれており、それらの購入や会員の成約、ダウンロードなどからの収益化を行う場合があります。

Teachable Machineの使い方完全ガイド|画像・音声・ポーズでAIモデル作成

AIに興味はあるものの、「難しそう」「プログラミングが必要なのではないか」と感じて、最初の一歩を踏み出せていない方は少なくありません。
そのような中で注目されているのが、Teachable Machineです。Teachable Machineは、専門的な知識やコードを書かずに、画像・音声・ポーズといった身近なデータからAIモデルを作成できるツールであり、教育現場やワークショップ、社内のアイデア検証など、幅広い場面で活用されています。

しかし実際には、「どんなことができるのか分からない」「うまく認識しない」「作ったあと、どう使えばよいのか迷う」といった壁に直面するケースも多く見られます。Teachable Machineは手軽である一方、基本的な考え方やコツを押さえていないと、思った成果が得られにくい側面もあります。

本記事では、Teachable Machineの基本的な仕組みから、失敗しにくいモデルの作り方、精度を高めるための考え方、さらに作成後の活用方法や運用時の注意点までを、初めての方にも分かりやすく整理いたします。
「短時間でAIの仕組みを体験したい」「確実に動くデモを作りたい」「授業や研修で失敗したくない」という方にとって、全体像を把握し、安心して取り組むための指針となる内容です。

※本コンテンツは「記事制作ポリシー」に基づき、正確かつ信頼性の高い情報提供を心がけております。万が一、内容に誤りや誤解を招く表現がございましたら、お手数ですが「お問い合わせ」よりご一報ください。速やかに確認・修正いたします。

Teachable Machineとは何か

Teachable Machineでできることと向く用途

Teachable Machineは、機械学習の中でも「分類」に特化した体験を、ノーコードで実現できる点が大きな特徴です。分類とは、入力された情報をいくつかのカテゴリ(クラス)に振り分けることを指します。たとえば、カメラ画像から「グー」「チョキ」「パー」を判定する、マイク入力から「拍手」「口笛」「無音」を判定する、といった形です。

Teachable Machineで取り組みやすい代表例は以下の通りです。

  • 教育用途:データ収集→学習→推論というAIの基本プロセスを、短時間で体験させたい場合

  • イベント・展示:来場者がカメラやマイクで参加し、結果が画面に反映されるインタラクティブ体験を作りたい場合

  • 社内PoC:本格実装の前に「その条件で認識できそうか」を素早く試し、企画判断の材料を集めたい場合

  • 個人制作:作品の入力インターフェースとして、ジェスチャーや音声を使った操作を試したい場合

一方で、以下のような用途は、Teachable Machine単体では期待通りにいかないことが多いです。

  • 物体検出(位置の特定):画像中のどこに物があるかを枠で示すような用途

  • 複雑な予測(回帰):売上予測や需要予測のように連続値を予測する用途

  • 高精度が必須の判定:医療・法務・安全装置など、誤判定が重大事故につながる用途

Teachable Machineは「成功体験を短時間で得る」ことに向きますが、同時に「適用範囲を理解して使う」ことが重要です。まずは分類の基本を掴み、次に必要に応じてより専門的なモデルや開発手法へ進む、という入口として非常に有用です。

Teachable Machineの3種類のプロジェクトの選び方

Teachable Machineには主に、画像音声ポーズの3種類のプロジェクトがあり、最初の選択が体験の成否を左右します。選び方の基本は「入力デバイス」と「分類したい対象」の対応を明確にすることです。

  • 画像プロジェクト:カメラ画像や画像ファイルを入力にし、見た目で分類する

  • 音声プロジェクト:マイク音声や音声サンプルを入力にし、音の特徴で分類する

  • ポーズプロジェクト:カメラ映像から身体の姿勢や動きを推定し、動きのパターンで分類する

迷った場合は、特に授業・体験会では画像プロジェクトが最も安定しやすいです。理由は、①題材が豊富、②撮り直しが容易、③参加者が違いを作りやすい、④騒音など外乱の影響が比較的少ない、という点にあります。

一方で、目的が明確なら他の選択肢も有効です。

  • 「拍手でスタート、口笛で停止」などの体験なら音声が適しています。

  • 身体表現(ダンス、ジェスチャー)や、画面操作を手で行いたい場合はポーズが適します。

重要なのは、クラス間の違いがはっきり出せる題材を選ぶことです。たとえば「明らかに違う音」「明らかに違う形」「明らかに違う姿勢」は成功しやすい一方、「似ているもの同士」「変化が小さい姿勢」「環境音に埋もれる音」は難易度が上がります。

Teachable Machineに必要な環境と準備物

Teachable Machineを安定して使うために、事前準備は非常に重要です。特に教育・イベントでは、当日のトラブルを避けるために、必要物と前提条件を整理しておく必要があります。

最低限、以下を用意することを推奨いたします。

  • PC(推奨):タブレットでも可能な場合がありますが、入力や画面共有を考えるとPCが安定です。

  • Webブラウザ:基本的に最新のブラウザ(Chrome等)を推奨いたします。

  • Webカメラ:内蔵カメラでも可能ですが、画角や固定が必要なら外付けが便利です。

  • マイク(音声プロジェクトの場合):内蔵でも可能ですが、教室や会場では外付けの方が安定しやすいです。

  • 安定したネットワーク:モデルの作成や共有リンク利用を想定する場合、ネットワーク制限の有無は必ず確認してください。

また、授業や研修での成功率を上げるために、以下の準備も推奨いたします。

  • 題材の統一:例として「色カード」「じゃんけん」「特定のジェスチャー」など、短時間で分かる題材を用意する

  • 環境の整備:背景を無地にする、照明を安定させる、騒音を抑える

  • 予備プラン:通信が不安定な場合や時間が押した場合に備え、学習済みモデルを用意する

特にカメラ・マイクの利用は、権限設定や利用許可が必要になります。初回利用時は「許可」を求めるダイアログが出るため、参加者が迷わないよう、事前に案内文やスクリーンショットを用意しておくと円滑です。

Teachable Machineでモデルを作る手順

Teachable Machineでクラス設計を決めるコツ

モデル作成で最も重要な設計が「クラス設計」です。クラス設計とは、AIに識別させたいカテゴリをどう分けるか、どこまでを同じクラスに含め、どこからを別クラスにするかを決める作業です。ここが曖昧だと、データを増やしても精度が安定しません。

失敗しにくいクラス設計の原則は以下の通りです。

  1. クラス間の差が大きいこと
    たとえば「グー」と「パー」は見た目の差が大きいため成功しやすいです。逆に「似た色の小物」などは難易度が上がります。

  2. 各クラスの中でバリエーションを持たせられること
    同じクラスでも、距離・角度・明るさが少し変わっても同じ判定になってほしいため、最初からバリエーションが集めやすい題材が望ましいです。

  3. 最初はクラス数を抑えること
    初回は2〜3クラスに絞り、確実に成功させる方が学びが深まります。クラスを増やすのは、成功した後でも十分です。

また、教育・ワークショップでは「無音」「何もしない」「その他」など、誤作動を止めるためのクラスを用意することも有効です。たとえば音声では「無音」クラスを入れる、画像では「手を映さない」クラスを入れる、といった形です。これにより、モデルが常に何かのクラスに分類してしまう状態を抑え、体験が安定します。

Teachable Machineで学習データを集める手順

Teachable Machineの精度は、学習データでほぼ決まると言っても過言ではありません。ポイントは「枚数」だけでなく「偏りを減らす」ことです。偏りが大きいと、モデルは本質ではない特徴(背景や光など)を手がかりにしてしまい、環境が変わった途端に外れる可能性が高まります。

ここでは、画像プロジェクトを例に、確実に進める手順を示します。

  1. プロジェクトを作成し、クラスを作る
    まずは2〜3クラスを作り、名称を分かりやすく設定します(例:グー、チョキ、パー)。

  2. 各クラスでデータを集める
    Webカメラで撮影する場合、同じ姿勢の連続撮影だけに偏らないよう注意します。

  3. 条件を少しずつ変えて集める
    たとえば、距離を変える、角度を変える、照明を少し変える、人物を変える、背景を少し変える、といった具合です。

  4. 不足をテストで見つけて追加する
    いきなり大量に集めるのではなく、「テスト→不足発見→追加」のループが最も効率的です。

枚数の目安は題材と環境で変わりますが、最初は各クラス20〜50例程度を起点にし、テスト結果に応じて増やすことを推奨いたします。重要なのは、誤判定しやすい条件を見つけ、その条件のデータを重点的に追加することです。

音声・ポーズの場合も基本は同様ですが、外乱が増えるため、特に以下に留意してください。

  • 音声:会場の騒音、反響、マイクの位置の違いが影響します。無音や環境音のクラスを用意すると安定しやすいです。

  • ポーズ:画角、身体の映り方、服装、背景が影響します。参加者の身長差やカメラ位置を想定し、バリエーションを確保してください。

Teachable Machineでトレーニングとテストを行う手順

データを集めたら、トレーニング(学習)を行い、プレビュー(テスト)で確認します。この工程は「学習したモデルが、想定どおりの条件で動くか」を確認するために欠かせません。

進め方の基本は以下の通りです。

  1. トレーニングを実行する
    学習を開始し、完了まで待ちます。学習時間はデータ量や環境によって変動します。

  2. プレビューで動作を確認する
    カメラやマイク入力で実際に判定させ、意図したクラスに分類されるか確認します。

  3. 誤判定のパターンを観察する
    「どの条件で外れるか」を記録します。たとえば「背景が暗いとパーがチョキになる」など、具体的な状況として把握します。

  4. 不足データを追加して再学習する
    誤判定が起きた状況に近いデータを追加し、再トレーニングします。

ここで重要なのは、誤判定があったときに「枚数が足りない」と即断しないことです。枚数不足よりも、背景・照明・距離・角度・クラス設計の問題であるケースが多いからです。次章のチェックリストに沿って原因を切り分けると、改善が早まります。

Teachable Machineの精度を上げる方法

Teachable Machineで精度が落ちる典型原因

Teachable Machineで精度が落ちる原因は、概ね次のカテゴリに整理できます。これを理解しておくと、改善が非常に効率的になります。

  • 背景依存:背景の模様や物体を手がかりにしてしまう

  • 照明依存:明暗や影の出方が変わると別物として扱ってしまう

  • 距離・角度依存:真正面・近距離だけで学習し、斜め・遠距離で崩れる

  • クラス設計の曖昧さ:クラス間の差が小さく、境界が不明瞭

  • データの偏り:特定の人物・特定の持ち方・特定の音量に偏る

  • 外乱の混入:音声なら環境音、画像なら他人の手や影などが混ざる

たとえば画像分類でありがちな失敗は、「Aクラスは机の上、Bクラスは壁の前」で撮影したため、AIが対象ではなく背景を覚えてしまうケースです。この場合、対象を正しく持っていても背景が変わると外れます。改善には「背景を揃える」「背景が異なるデータを両クラスに入れる」などが必要です。

Teachable Machineで改善するためのチェックリスト

ここでは、改善を最短化するためのチェックリストを提示いたします。誤判定が多い場合、上から順番に潰していくと効果的です。

  • クラス間の違いは十分か:見た目・音・姿勢の差が小さすぎないか

  • 背景の偏りはないか:特定クラスだけ特定背景になっていないか

  • 照明条件を含めたか:明るい・暗い・影がある等の条件を含めたか

  • 距離のバリエーションはあるか:近い・中間・遠いを混ぜたか

  • 角度のバリエーションはあるか:左右や上下の傾き、手の向きを変えたか

  • 個人差を含めたか:複数人、利き手、手の大きさなどを含めたか

  • 誤判定条件のデータを追加したか:外れた状況を再現して追加したか

  • 音声ならノイズ対策をしたか:無音・環境音クラス、マイク距離の差を含めたか

運用上のコツは、「追加するデータを闇雲に増やす」のではなく、外れる条件を狙って追加することです。たとえば「暗いと外れる」なら暗い条件のデータを各クラスに追加します。「距離が変わると外れる」なら距離を変えて各クラスを撮り直します。これにより、改善が局所的かつ確実になります。

Teachable Machineで題材別に効く撮影と収集の工夫

題材ごとに、精度を上げるためのポイントは変わります。ここでは代表的な題材での工夫を整理いたします。

じゃんけん(画像)

  • 手を画面中央に固定しすぎない(上下左右に少しずらした例を入れる)

  • 手の向きや角度を変える(斜め、少し回転)

  • 背景を無地に寄せる(机上を片付ける、布を敷く)

  • 複数人で撮影する(手の大きさや形の違いを含める)

カード分類(画像:赤・青・黄など)

  • 光の反射を避ける(光沢紙は反射で色が変わる)

  • カメラの自動露出で色味が変わるため、明暗条件を混ぜる

  • 背景に同系色が入らないようにする(赤カード+赤背景は難易度が上がる)

拍手・口笛(音声)

  • マイク距離を変える(近距離だけでなく遠距離の例も入れる)

  • 騒音がある環境で使うなら、その環境音を含めたデータを入れる

  • 無音クラスや環境音クラスを用意し、誤作動を抑える

手を挙げる・腕を組む(ポーズ)

  • カメラ位置を固定し、上半身が十分に映る距離を確保する

  • 身長差や服装の違いを想定し、複数人のデータを混ぜる

  • 背景を整理し、身体の輪郭が認識しやすい条件を作る

このように、題材に応じて「外れやすい要因」を先回りしてデータに織り込むことで、当日の成功率が大きく上がります。

Teachable Machineのエクスポートと活用方法

Teachable Machineのエクスポート形式と選び方

Teachable Machineで作ったモデルは、作るだけで終わりではなく、外部での活用によって価値が高まります。エクスポートの選択肢を目的別に整理し、迷いを減らします。

目的推奨メリットつまずき点
Webで動かすTensorFlow.jsブラウザ上で動かしやすい、デモに向くファイル直開きでは動かない場合がある
共有して使うホスティング共有リンクURLで読み込めるため配布が容易公開範囲・リンク管理が必要
オフラインで持つダウンロード手元に保存し再利用しやすい実行環境の整備が必要
Scratch連携共有リンク利用が多い教育現場で扱いやすい学内ネット制限に注意

ここで押さえるべき観点は、「誰が」「どこで」「どの端末で」「どんな制約のもとで」使うかです。授業なら配布と再現性が重要、社内PoCなら説明しやすさが重要、個人制作なら自由度が重要、というように優先順位が変わります。

また、共有リンクは便利ですが、安易に公開すると想定外の範囲に拡散する可能性があります。教育・社内利用では、配布範囲、利用期間、削除・更新のルールを決めておくことを推奨いたします。

Teachable MachineをWebで使う流れ

Webでの活用は、概念としては「モデルを読み込む→入力を与える→推論結果(確率など)を受け取る」の流れです。実装に踏み込む場合も、考え方自体はシンプルです。

Web活用の基本フロー(概念)

  1. Teachable Machineでモデルを作成し、エクスポート形式を決めます。

  2. モデルを共有リンクとして使うか、ダウンロードしてプロジェクトに含めます。

  3. Webページ側でモデルを読み込みます。

  4. カメラ・マイクなどの入力を取得し、モデルに渡します。

  5. 返ってきた各クラスの確率を使い、画面表示や動作(音を鳴らす、キャラクターを動かす等)に反映します。

ここでつまずきやすい点は、以下です。

  • ローカルファイル直開きの制約:ブラウザのセキュリティ制約により、ファイル直開きでは読み込みがブロックされる場合があります。簡易サーバで配信する形が安定します。

  • カメラ・マイク権限:HTTPS環境を要求される場合や、権限が拒否される場合があります。

  • 端末差:同じコードでも、端末性能やブラウザ差で挙動が変わることがあります。

授業・イベントでWeb実装まで行う場合は、当日運用を考え、最初は「結果を表示する」レベルに留め、拡張は次回以降にする方が成功しやすいです。

Teachable MachineをScratchで使う流れ

Scratch連携は、教育用途で特に効果が高い活用方法です。理由は、AIモデルが「入力装置」として機能し、Scratchの作品づくりに直結するためです。たとえば、じゃんけん判定でゲームを作る、拍手でキャラクターをジャンプさせる、ポーズで操作する、といった作品に発展させられます。

Scratch連携の一般的な流れ

  1. Teachable Machineでモデルを作成し、安定するまでテストします。

  2. 共有リンク等、Scratch側が参照できる形でモデルを用意します。

  3. Scratchで拡張機能を追加し、モデルを読み込ませます。

  4. 推論結果(クラス判定)をトリガーとして、Scratchのスプライトや演出を制御します。

注意点として、Scratch連携はネットワーク環境の影響を受けやすいです。学校・社内ネットワークでは、外部サイトや特定ドメインがブロックされている場合があります。その場合、当日に「読み込めない」問題が起こり得ますので、必ず事前検証を実施してください。

Teachable Machineの注意点とトラブル対処

Teachable Machine利用時のプライバシーと同意

Teachable Machineはカメラ・マイクを扱うケースが多いため、教育・社内利用ではプライバシー配慮と同意が必須です。特に未成年を対象とする場合は、撮影・録音の扱いを明確にし、必要に応じて保護者への説明や同意取得を行う必要があります。

推奨する運用ルール例は以下の通りです。

  • 顔を写さない題材を選ぶ:手、物体、カードなど、個人識別につながりにくい題材を優先する

  • 背景を整理する:名札、資料、個人情報が写り込まないようにする

  • 共有リンクの配布範囲を限定する:クラス内、社内など最小限にする

  • 利用期間を決める:イベント後にリンクを放置しない

  • 録音内容に注意する:音声プロジェクトでは、個人名や会話が混ざる状況を避ける

また、参加者には「AIはデータに依存するため、条件が変わると外れる」ことを説明しておくと、誤判定が出た際も学習として前向きに捉えられます。

Teachable Machineで動かない時の切り分け

当日トラブルで多いのは、モデル以前に「環境・権限・ネットワーク」です。以下の順で切り分けると、復旧が早くなります。

  • ブラウザの権限:カメラ・マイクの許可が有効か(拒否していないか)

  • デバイス占有:別アプリ(会議ツール等)がカメラを使用していないか

  • ネットワーク:回線が不安定で読み込みが終わらない、あるいは外部アクセスが制限されていないか

  • 共有リンク:リンク先にアクセスできるか、URLの入力ミスがないか

  • ブラウザ差:別ブラウザや別端末で再現するか(環境依存の可能性確認)

  • ローカル実行の制約:ファイル直開きではなくサーバ配信が必要な形になっていないか

授業・研修では、進行を止めないことが最重要です。そのため、以下の「保険」を用意すると成功率が上がります。

  • 学習済みモデル(完成品)を用意し、最悪はそれを使って作品づくりに進める

  • 複数題材を用意し、うまくいかない題材は切り替える

  • 参加者端末で難しい場合、講師端末でデモし、参加者は観察と改善提案に回す

Teachable Machineの運用ルールと共有リンク管理

共有リンクやモデルデータの運用は、便利さとリスクが表裏一体です。以下の観点でルール化することを推奨いたします。

  • 配布範囲の明確化:誰に共有するか(クラス内のみ、社内のみ等)

  • 再利用の方針:次回も使うのか、毎回作り直すのか

  • 管理責任の所在:リンクの作成者・管理者を決める

  • 削除・更新のルール:一定期間後に無効化する、更新時は旧リンクを停止する等

教育目的では「共有リンクをクラス内だけで使い、公開しない」運用が一般に安全です。成果発表として公開する場合は、データの写り込みや音声内容を再点検し、個人情報が含まれていないことを確認してください。

Teachable Machineのよくある質問

学習に必要な枚数の目安はどれくらいですか

目安としては、まず各クラス20〜50例程度から始め、テスト結果に応じて増やす方法を推奨いたします。重要なのは枚数そのものよりも、条件のバリエーション偏りの是正です。
たとえば「暗いと外れる」「距離が変わると外れる」といった失敗条件が見つかった場合、その条件のデータを各クラスに追加して再学習する方が、闇雲に枚数を増やすより効果的です。

誤判定が多い時は何から見直せばよいですか

以下の順で見直すと改善が早いです。

  1. クラス設計:クラス間の差が十分か、境界が曖昧ではないか

  2. 背景・照明:特定クラスだけ背景が違う、明暗が偏っている等がないか

  3. 距離・角度:真正面・近距離だけになっていないか

  4. 失敗条件の追加データ:外れた状況を再現してデータを追加したか

  5. 個人差・外乱:複数人のデータ、音声なら騒音条件を含めたか

特に画像では背景依存が原因になりやすいため、背景を揃える、背景の異なるデータを両クラスに入れる、といった対策が有効です。

エクスポート後にどこで動かせますか

目的によって使い分けが必要です。

  • Webで動かす:ブラウザ上で推論し、デモや作品に組み込みやすいです。

  • 共有して使う:共有リンクを用いると配布が容易です。

  • オフラインで持つ:ダウンロードして手元で管理できますが、実行環境の整備が必要です。

  • Scratch連携:教育用途で特に相性が良く、作品づくりに直結します。

どの方法でも、当日運用や配布のしやすさを考慮し、最初はシンプルな構成から始めることを推奨いたします。

学校や社内で使う際の注意点はありますか

注意点は大きく3つです。

  1. プライバシーと同意:顔や音声を扱う場合の同意取得、写り込み防止、録音内容への配慮

  2. ネットワーク制限:外部サイトや共有リンクへのアクセス制限の有無、当日の通信安定性

  3. 共有リンク管理:配布範囲、利用期間、削除・更新ルールの策定

特に教育現場では、顔を写さない題材(手、カード、物体)を採用し、共有リンクの公開範囲を限定する運用が安全です。