AI ARCHAEOLOGY
忘れられた長文発掘ノート
PATENT ARCHAEOLOGY #12026-05-01

30年前にIBMが取った『命令を持たないAIチップ』特許を、Claudeに読ませてみた

ZISC US5717832(1998年成立、2015年失効)— 今のNPU/TPUの重要な前史が、誰にも知られず公開ドメインで眠っていた

第1回(Introduction)で「LLMに人間が読まない長文を読ませて差を取る」というメタ手法の話をしました。今回からは、それを実際にやります。

このシリーズ「Patent Archaeology」の第1回として、米国の失効特許1件を本当に Claude に読ませてみた発掘ログを公開します。

結論を先に

1995年に IBM が出願した『Zero Instruction Set Computer(命令を持たないAIチップ)』の特許は、現在完全にパブリックドメインです。 そして設計思想の方向性が、いま「最先端」と言われている NPU/TPU と驚くほど重なっています

公報番号:US 5,717,832 発明者:Andre Steimle, Pascal Tannhof, Guy Paillet(IBM フランス研究所) 出願:1995年6月7日(優先日 1994年7月28日) 発行:1998年2月10日 失効:2015年6月7日(Expired – Lifetime)

30年前のIBM特許のどこに今と同じ仕組みが書いてあるのか」を、Claude にフルテキストを読ませて引き出した結果が、この記事です。

1. 1件をどう選んだか(再現できるパイプライン)

私が今日やった工程:

1. Google Patents で検索:
   "neural network chip" assignee:"International Business Machines"
   filing:1990-2000 status:"Expired"
2. 結果からタイトルが派手なものを目視で5件ピックアップ
3. WebFetch で Google Patents の各ページから
   - Title / Abstract / Claim 1 / Status / Forward citations
   を取得
4. Claude に「この5件の中で、現代の NPU/TPU 論文と一番類似性が高いものはどれか、
   その理由つきで」と聞く
5. 1件に絞る

5件中で頭一つ抜けていたのが ZISC こと US 5,717,832 でした。理由:

  • Zero Instruction Set Computer」という挑発的な命名(CISC/RISCに次ぐ第3のアーキテクチャを名乗っている)
  • Radial Basis Function(RBF)ニューラルネットを半導体ハードウェアに直接焼いた最初期の特許の一つ
  • 36ニューロンを1チップに集積、複数チップをカスケード接続して数千ニューロン規模
  • 完全に失効済み(2015年6月7日でライフタイム終了)

2. 特許の正体(Claude に要約させた結果)

私が WebFetch でこの特許を取りに行き、Claude に投げた最初のプロンプトはこれです:

この特許の以下を全部抽出してください:
1. 特許番号、発行日、出願日、発明者、所有者
2. 失効状態(Status: Expired か否か)と失効日
3. Abstract(要約)
4. 主要な Claim 1(独立クレーム1)
5. 解決した問題は何か
6. 提案する解決手段の仕組み
   (ニューロン構造、距離計算、分類カテゴリーなど)
7. 適用されている分野・産業
8. 引用された関連技術
9. この特許が引用されている件数(forward citations)
10. 主要なFigure(図面)の説明と、
    どの図が一番その仕組みを表しているか

返ってきた要点(生のまま引用):

解決した問題

  • マイクロコントローラ監督への依存を排除
  • ニューロン数増加に伴うI/Oパッド制限の克服
  • ニューロン間通信の柔軟性不足
  • 複雑なソートアルゴリズムの必要性削減
  • スケーラビリティの欠如

解決手段:RBFベースの3層構造

  • 入力層:入力ベクトルコンポーネント受信
  • 隠れ層:ニューロン回路群(各回路が距離Dを計算)
  • 出力層:カテゴリ分類結果

主要メカニズム

  • 各ニューロンは独立したR/Wメモリで原型ベクトル保存
  • Manhattan距離 または Square距離で類似度判定
  • 局所影響フィールド(AIF)を動的に調整
  • Daisy Chain 回路でニューロン状態管理
  • 局所応答を OR 回路で集約し全体応答生成

これを最初に読んだとき、3行目で背筋が冷えました。

3. なぜ「気持ち悪いほど近い」のか

上の要約を、いまの NPU/TPU の設計語彙に対応させると、問題意識の重複がよく見えます:

ZISC(1995年特許)現代のNPU/TPU
Manhattan距離/Square距離L1/L2 distance(同じものです)
各ニューロンに独立R/Wメモリで原型ベクトルデータ近傍での演算(CIMの先行課題設定)
Daisy Chain でニューロン状態管理並列制御一般(Systolic arrayとは構造が異なるが、問題意識は共通)
局所応答を OR 回路で集約Reduction tree
マイクロコントローラ監督なしで自律動作専用処理ユニット化(CPUからの独立という問題意識)
36ニューロン×カスケードで数千規模スケーラブル並列化(Many-core設計の先行例)

現代のNPUの基本原理は、1995年に IBM フランス研究所がほぼ全部書いていた」は言い過ぎかもしれません。ZISC は RBFベースの分類チップ、現代の TPU は大規模行列積アクセラレータ — 設計対象はかなり異なります。ただし、「専用ハードウェアでニューラル処理を自律化する」という問題意識の次元では、驚くほど早かったのは事実です。

特に「マイクロコントローラ監督への依存を排除」という1行。Jeff Dean が2017年に発表した TPU の論文は、「データセンターの推論を CPU に依存させると遅すぎる」という同じ方向の問題をより大規模な文脈で再発見し、業界に衝撃を与えました。(なお TPU 論文自体は、ホストから命令を受けるコプロセッサとして位置づけており、厳密な意味の「監督なし」とは異なります。)それでもニューラル処理を汎用 CPU から切り離すという問題意識を、ZISC は22年早く持っていたと言えます。

4. なぜ忘れられたのか(推測)

ここから先は推測です(出典は私の推論で、特許文書には書いていません)。

1990年代のニューラルネットチップは、市場を作れませんでした。理由は3つ:

  1. 学習データがなかった:ImageNet(2009)以前で、本格的に学習させるベンチマークが存在しない
  2. 学習アルゴリズムが弱かった:誤差逆伝播法はあったが、RBFを大規模学習に乗せる効率的な手法が未成熟
  3. チップを買うアプリケーションがなかった:当時の OCR や音声認識はソフトウェア側の精度がまだ低く、ハードウェア加速の出番が少なかった

結果、IBMはこの技術を商用化しきれず、2013年に IN2H2 という会社に譲渡しています。IN2H2 はその後 General Vision / CogniMem として ZISC 系チップを細々と売り続けますが、業界主流にはならない。

そして2015年、特許が失効した瞬間、この設計図は誰でも使える状態になりました。

その3年後、2018年から始まる NPU/TPU ブームで、業界は ZISC と問題意識が重なる仕組みを「新しい発明」として再発見します。Google Patents の Cited by には後発特許からの引用は存在するものの、学術主流の DNN アクセラレータ研究では直接引用されていない。

5. AI考古学的な意味

ここに本連載の核心があります。

「失効した特許の中には、20-30年早すぎただけで本当はもう答えだったアイデアが眠っている」

これは Gipp が物販で気づいたことと、構造的に同じです。違うのは、応用先が「Amazon の物販」ではなく「現代AI技術への翻訳ノート」だということ。

ZISC の特許文書は、現代の NPU エンジニアが読むと「自分が今書いている論文の親世代」が見える資料になっています。これを翻訳して提示すれば:

  • 半導体クラスタの読者:「30年前にIBMがやってた」という新鮮な驚き
  • AI研究者:「自分のRBF実装の歴史的位置」を再発見
  • 一般読者:「AIは新しいものという神話」のほぐし

3層全部に刺さります。鮮度ゼロが武器になる典型例です。

6. 落とし穴(私が今日ハマったもの)

落とし穴1:失効状態の確認

Google Patents の「Status」欄は信頼できますが、ライフタイム失効と権利放棄失効は意味が違います

  • Lifetime expiration:20年経って自然失効(自由に使える)
  • Abandonment:特許権者が更新料を払わず失効(自由に使える)
  • Lapsed for fees:料金未払い → 復活される可能性あり

ZISC の場合は Expired - Lifetime だったので問題なし。この確認を怠ると、生きている特許を「失効している」と誤読する事故が起きます。

落とし穴2:所有権の譲渡履歴

ZISC は IBM → IN2H2(2013年譲渡)→ 失効(2015年)と所有が移っています。失効後はパブリックドメインなので問題ないが、譲渡先の会社が現在も類似の派生特許を持っている可能性は別に確認が必要です。General Vision / CogniMem の現行特許を見る必要があります。

落とし穴3:Forward citations を見落とした

私は今日この特許の forward citations(この特許を引用している後発特許)の数を確認しませんでした。本来は「この特許がどれだけ後の業界に影響を与えたか」の指標になります。次回からは取得プロンプトに forward citations を含めます。

7. プロンプトについて

本連載の初期7本で使ったClaudeプロンプトの全文は、第7回 Templates および書籍第1版(Booth) に集約しています。2026年5月以降の新規エピソードでは、読者層に合わせてプロンプトセクションを省略しています。

8. このシリーズの次

  • Patent Archaeology #2:1980年代の自然言語処理関連の失効特許(IBM Candide系統?)— LLMの直系の祖先を1件発掘
  • Patent Archaeology #3:1990年代の積層メモリ/TSV関連特許 — HBMの前史

毎回、必ず1件、実際に Claude に読ませた発掘ログとして公開します。

おわりに

ZISC のことを知ったのは、Google Patents で「expired neural network chip 1990s」と打って眺めていたときでした。「Zero Instruction Set Computer」という名前が画面に出てきたとき、笑ってしまいました。そんなアーキテクチャがあったなんて、業界誌でも見たことがない

IBM フランス研究所の3人と、Guy Paillet という個人発明家。彼らは1994年にこの設計を出願し、2015年に特許が失効するまで、商業的に大きな成功を見ることはありませんでした。

でも、設計図は残った。

そして今日、Claude が読み解いて、私が日本語に翻訳した。30年遅れで、彼らの仕事は届くべきところに届く可能性が、ようやく出てきた。

これがAI考古学です。


厳密にはこう

確認済みの事実:

  • Google Patents から US5717832A のフルテキスト取得・Claude による読解
  • 出願日(1995年6月7日)・発明者3名(Steimle/Tannhof/Paillet)・失効日(2015年6月7日・Lifetime)を確認
  • RBFベースの3層構造(入力層・隠れ層・出力層)、Manhattan距離、Daisy Chain、AIF の主要メカニズムを確認
  • Google Patents の Cited by に後発特許からの引用が存在することを確認

著者の解釈:

  • ZISCと現代NPU/TPUの「問題意識の重複」という読みは著者の解釈。技術的直系関係の主張ではなく問題方向性の類比
  • 「学術主流のDNNアクセラレータ研究では直接引用されていない」は著者の観測(Forward citations件数の網羅的確認は未実施)

比喩・アナロジー:

  • 「Daisy Chain ≒ 並列制御(問題意識は共通)」「各ニューロンR/W ≒ データ近傍演算(CIMの先行課題設定)」は概念レベルの類比。設計として同一ではない
  • 「マイクロコントローラ監督なし」と「Google TPU のCPU依存削減」は方向性の類比。TPUはホストから命令を受けるコプロセッサとして設計されており、ZISC的な「完全自律動作」とは異なる

未確認:

  • Forward citations の件数(Google Patentsで確認可能だが今回は未集計)
  • IN2H2/General Vision/CogniMem の現行特許ポートフォリオ
  • ZISC の商用導入実績の詳細(販売台数・顧客名・用途)

この比較が破綻する点:

  • ZISCはRBFベースのプロトタイプ分類チップ(固定プロトタイプへの距離計算)、現代TPUは大規模行列積アクセラレータ。計算対象・規模・設計思想が根本的に異なる
  • 「Systolic array」と「Daisy Chain」は設計として別物。データフロー構造(Systolic)と直列状態管理(Daisy Chain)の機能は重ならない

参考リンク:


[次回予告] Patent Archaeology #2:1980年代後半のIBM Candide統計的機械翻訳特許 — LLMの直系の祖先