バックプロパゲーションを専用回路で走らせようとした1993年──PhilipsのUS5517598Aが記述していた問題意識
AI・機械学習特許 #2(LeCun CNN重み共有特許 US5067164A)では、1989年のBell Labsが「重み共有」という発想を先取りしていた話を書いた。
今回は「学習の計算そのものをハードウェアに焼こうとした」という別の問いを立てた特許を掘る。
結論を先に
特許番号:US5517598A タイトル:Error back-propagation method and neural network system 出願:1993年1月28日 成立:1996年5月14日 発明者:Jacques A. Sirat(1名) Original Assignee:US Philips Corp Legal Status:Expired(維持費未納)
バックプロパゲーションは1986年にRumelhartらが発表し、ニューラルネットの「学習方法」として確立した。では1993年にこんな問いが立てられた。「この計算を、ソフトウェアではなくハードウェアの回路として実装できないか」
その問いに答えようとしたのがこの特許だ。Philipsの研究者Jacques A. Siratが設計したのは、フォワードパス(推論)と同じ構造のプロセッサ群で、誤差逆伝播(学習)を並列実行するハードウェアアーキテクチャだ。
現代のGPUやTPUは「AI学習の計算を専用ハードウェアで高速化する」という問題を解決している。この特許はその問いの先行例として読める。ただし設計の前提は根本的に異なる。「専用ハードウェアで学習を実行したい」という問題意識の共通性であり、技術的継承の証拠ではない。
技術的継承と問題意識の共有を分けて読む。
この特許は現代のGPU学習アーキテクチャそのものではない。ただし「推論と学習を同一ハードウェアで実行する」「転置行列という数学的構造をそのまま回路に対応させる」という問題意識は、現代のAIアクセラレータが前提にしている課題と重なっている。「技術的に受け継がれた」ではなく「驚くほど似た課題に先に到達した」という読み方が正確だ。
1. どう選んだか
Week 1テーマ「AI・機械学習特許」の中から、深層学習の計算基盤に関わる特許を選んだ。LeCun系(CNN重み共有 ep17、接線ベクトル ep18、多解像度 ep19)の次として、「学習計算そのものをどうハードウェアで実現するか」という問いに取り組んだ特許を探した。
候補DB(PA-008)に「ZISC記事の補完に最適」と記録されていた。IBM ZISCの特許(Patent Archaeology #1、ep02)は推論専用チップだった。US5517598Aは同時期(1993年)に「学習もハードウェアで」という別の問いを立てていた。二つを並べると、1990年代前半のニューラルネットハードウェア研究の広がりが見えてくる。
[STEP 1] 候補DB(~/ai-archaeology/db/candidates.tsv)からPA-008を選定(総合優先度15)
[STEP 2] 特許番号US5517598AをGoogle Patentsで確認
[STEP 3] WebFetchでAbstract・Claim 1・技術内容を取得(フルテキスト確認済み)
[STEP 4] 選定理由:「バックプロパゲーションのハードウェア実装」という問いがZISC(推論)と対になる
一次資料到達状況:Google PatentsからAbstract・Claim 1・技術内容をWebFetch経由で取得・確認済み。Description全文の逐語確認は未実施。
2. 特許の核心
Google Patentsの記述から技術内容を整理するとこうなる。
ニューラルネットワークシステムでのエラー逆伝播用の方法および装置。第1グループの処理装置が解決ステップ(推論)を実行し、第2グループの類似した処理装置が中央処理装置で計算されたエラーを逆伝播させながら訓練ステップを実行する。第1グループのシナプス係数行列Cijと第2グループの転置行列Tjiが同時に更新される。シナプス係数の更新は乗算器と加算器により実行可能である。
設計の中心は「2グループの分業」だ。
第1グループ:フォワードパス(推論)を担うプロセッサ群。入力データを受け取り、シナプス係数Cijで重み付けして出力を計算する。
第2グループ:バックワードパス(誤差逆伝播)を担うプロセッサ群。中央処理装置が計算した誤差(エラー信号)を受け取り、転置行列Tji(Cijの転置)を使って誤差を後ろから前の層へ伝える。
二つのグループが「同一構造」で設計されているのが核心だ。フォワードパスと同じ型のプロセッサがバックワードパスも実行できる。これにより「推論用の回路と学習用の回路を別々に設計しなくてよい」という設計上の利点が生まれる。
なぜ転置行列なのか。 バックプロパゲーションの数学的構造として、誤差を逆方向に伝えるときは前向き計算の重み行列Cの転置行列C^Tを使うことが数学的に決まっている(Rumelhart et al., 1986が示した基本的な性質)。この特許はその数学的構造をハードウェアに直接対応させた。
Claim 1にはK層の連続層、各層ニューロンの出力状態Vjkの決定、読み取り/書き込み係数メモリ(シナプス係数をRAMに保持)、入力データの線形結合による出力生成という構造が明記されている。
3. 現代との翻訳表
| US5517598A(1993年) | 現代のGPU/AI学習 | 評価 |
|---|---|---|
| 転置行列Tji = Cij^Tで誤差を逆伝播 | GPU上でのW^T × δ(勾配計算の転置行列演算) | 類似(数学的構造は同じ、実装基盤が根本的に異なる) |
| 同一構造プロセッサで推論と学習を実行 | 同一GPUで推論(forward)と学習(backward)を実行 | 類似(問題意識は共通、実装は全く異なる) |
| 乗算器と加算器でシナプス係数を更新 | CUDAでのMAC演算(積和演算)による重み更新 | 類似(演算の本質は積和演算、ハードウェア規模は根本的に別) |
| 専用ハードウェア回路で学習を実行 | Google TPU / Habana Gaudi / Cerebras等のAIアクセラレータ | 類似(「学習専用ハードウェア」という問題意識が重なる) |
| 中央処理装置が誤差を計算して各プロセッサに伝達 | CPU→GPU間の勾配計算スケジューリング | 比喩(「計算と制御が分離している」という方向性が近い) |
この対応表の読み方について補足する。
1行目と3行目は「数学的に同一の計算」を扱っている。バックプロパゲーションで転置行列を使うことと、重みを積和演算で更新することは、1986年のRumelhart論文が示した数学から来ている。この特許も現代のGPU実装も、同じ数学的構造を実装している。ただし「ハードウェアのアーキテクチャ」は全く異なる。
4行目が最も興味深い対応だ。Philipsが1993年に問うた「学習計算を専用ハードウェアで」という問いは、GoogleがTPUを発表した2016年まで約23年を要した。この特許がTPUの設計に影響したという根拠は今回の一次資料確認では見つかっていない。問題意識の先行例として読む。
5行目の「中央処理装置が誤差を計算」と現代の分散学習(多数GPUノードの勾配平均化)は、規模も構造も異なる。「制御と計算が分離している」という方向性が近いという比喩レベルの対応として読む。
4. なぜ一般の技術語りでは参照されにくいか(推測)
二つの理由が考えられる。いずれも推測であり、一次資料で確認した事実ではない。
理由1:AI冬の時代の末尾に出願された
1987〜1993年頃、ニューラルネット研究は第2次AIブーム後の停滞期にあった。この特許が出願された1993年は、その末尾にあたる。当時は「ニューラルネットが大規模に実用化される」という確信が研究者の間でも薄かった。専用ハードウェアへの投資を正当化するには、ニューラルネットの将来性への確信が必要だった。その確信がまだなかった。
理由2:GPUという「別の道」が来た
AlexNet(2012年)が示したのは「ニューラルネット学習の計算を、専用回路ではなくGPU(汎用並列計算機)でやると速い」という事実だった。GPUという答えが先に来た後、1993年のアナログ的な専用回路アーキテクチャは参照される機会を失った。
この特許が製品化されたかどうかも今回の確認では不明だ。PhilipsがUS5517598Aを実際に製品として展開したという記録には到達できていない。
5. AI考古学的な意味
スマホが顔認証で開く。翻訳アプリが一瞬で動く。画像生成AIが写実的な絵を作る。これらはすべて「訓練済みモデル」が前提だ。そのモデルを訓練するための計算は、現代ではGPUやTPUという専用ハードウェアが担っている。
「学習の計算をハードウェアで実行したい」という問いは、2016年のGoogle TPUを一つのマイルストーンとして広く知られるようになった。しかしその問い自体は1993年にすでにPhilipsの研究者が立てていた。
LLM登場以前は、英語の特許文書を読んで設計の問題意識を抽出するコストが高すぎた。Jacques A. Siratが何を問い、どう設計したかを一次資料から確認するには、今回のようなWebFetch+整理という作業が必要だった。それがAI考古学が成立する理由だ。
6. 落とし穴
落とし穴1:この特許をTPUの「前身」と言い切らない
Google TPUはTensorFlow行列演算を大量のMatrix Multiplication Unitで並列実行する設計だ。US5517598Aの「2グループのプロセッサと転置行列」という構造とは根本的に異なる。「学習専用ハードウェアという問題意識が重なる」という言い方が正確で、「前身」「祖先」という言葉は使わない。
落とし穴2:Jacques A. Siratを「Philips社員」と断言しない
Original AssigneeがUS Philips Corpであることは確認済みだが、Siratの所属(Philips Research Laboratoriesの研究者か外部発明者か等)は今回の一次資料確認では確認できていない。
落とし穴3:「バックプロパゲーションを初めてハードウェア化した特許」と言わない
1993年時点で同様の試みが他にも存在した可能性がある。先行特許や競合研究者の記録には今回到達できていない。「一つの先行例」として読む。
厳密にはこう
確認済みの事実 Google Patentsより:US5517598A / 出願1993-01-28 / 成立1996-05-14 / 発明者Jacques A. Sirat(1名)/ Original Assignee US Philips Corp / Legal status: Expired(Fee Related)/ Abstract全文確認済み / Claim 1確認済み(K層の連続層、シナプス係数行列Cij、転置行列Tji、読み書き係数メモリ、線形結合計算)/ 技術内容:2グループの処理装置(推論・学習)、転置行列による誤差逆伝播、乗算器と加算器によるシナプス係数更新
著者の解釈 「現代のGPU/TPU学習との問題意識が重なる」は著者の解釈。技術的継承の一次資料(Google TPU設計文書からUS5517598Aへの言及など)は今回確認していない。「AI冬の時代」「GPUという別の道」という忘れられた理由も推測であり、当時のPhilips内部の記録には到達できていない。
比喩・アナロジー 対応表5行目(中央処理装置と分散学習の勾配集約)は比喩レベル。「専用ハードウェアで学習を実行」とTPUの対応は類似レベル(問題意識は共通、設計は別物)と評価した。
未確認 Philipsでの製品化の有無 / Description全文の逐語確認 / Forward citations件数 / 同時期の競合特許との比較 / Jacques A. Siratの所属・経歴 / 訴訟履歴 / Expired年月の詳細(1996年成立から20年で2016年頃と推定されるが未確認)
この比較が破綻する点 「転置行列の使用が同じ」は数学的には正確だが、現代のGPU学習は数千〜数万コアが行列演算を並列実行する設計であり、この特許の「2グループのプロセッサ」という規模の前提が根本的に異なる。スケールの違いは量的な差ではなく、設計思想そのものの違いをもたらしている。「同じ数学を実装している」は事実だが「同じ設計アーキテクチャ」は言いすぎになる。
参考リンク:
- 元特許:US5517598A on Google Patents
- AI・機械学習特許 #2(発掘ノート):LeCun CNN重み共有 US5067164A(1989年)
- Patent Archaeology #1(発掘ノート):IBM ZISC US5717832(1995年)