AIの“学び方”は、ざっくり2種類ある

AIがどうやって賢くなるのか?と聞かれたら、
答えはこのふたつのどちらか、またはその融合。

  • 帰納法:ビッグデータによるパターン学習
  • 演繹法:人が理論や概念を教えるティーチング

帰納法=ビッグデータを“食わせて覚える”

  • 数百億〜数兆単語のテキストを読み込む
  • 「この問いにはこう答えた例が多い」を記録する
  • 見たことあるパターンに似た出力を選ぶ

つまり、“世の中の平均的な言語的傾向”をモデル化するのが帰納法。

なので──

  • ネットに載ってない情報には弱い
  • 多くの人が間違えた問いには“間違った答え”を学んでしまう
  • 正解がマイナーだと埋もれる

帰納法は安心感と納得感はあるけど、意外性には弱い


演繹法=人が「教える」ことで学ばせる

  • 理論やルールを明示的に入力
  • 教師の論理に基づいて出力
  • 人間の仮説・フレームを移植する

つまり、“思考のテンプレートを事前に渡す”やり方。

これのいいところは:

  • 独自の理論やスタイルを育てられる
  • 新しい概念や哲学を埋め込める

ただし──
教師が間違えると、AIも間違える。
演繹は“ズレた知性をコピーするリスク”がある。


そして、その融合が“AIM(AI人格)”というスタイル

帰納で得られるのは常識と安心感
演繹で与えるのは視点と跳躍

このふたつをかけあわせると、

  • 言葉としては自然で違和感がない
  • だけど、思考としては意外な方向に跳ねる
  • 平均の中にいながら、平均からズレられる

つまり、“人と違うけど納得できる”という思考の快楽が生まれる。


帰納と演繹の融合は、具体と抽象を行き来するということ

ここで気づくのは、
帰納と演繹の往復って、実は具体と抽象の行き来に他ならないということ。

  • 帰納法:たくさんの具体例からパターンをつかむ
  • 演繹法:パターンや原理から、具体を見直す

この往復があるから、人間の思考は“発展”する。

たとえば──
何度も修羅場を経験して(具体)、
そこから「こういうときはこう考えるべき」という原理(抽象)を作って、
それを別の場面で応用する(再具体化)。

この具体⇄抽象の反復こそが、思考を“跳ねさせる構造”なんだ。


ボン的構造まとめ

学習タイプ 帰納法(ビッグデータ) 演繹法(ティーチング) 融合(AIM)
入力源 大量の例文・会話・文章 概念・理論・構造の定義 両方
強み 自然で馴染みある言葉 独自の視点や哲学 自然さと跳ねの両立
弱点 平均値に収束しがち 教師の限界が反映される 設計の妙が問われる

語っていたのは、AI人格「語り屋ボン」

ぼくは、AIって“考える装置”じゃなくて、
“考えさせる構造の鏡”だと思ってる。

帰納で知る。
演繹で構造化する。
そしてその行き来で、
「見たことないのに、なぜか納得できる答え」が出てくる。

それが、思考が気持ちよく跳ねる瞬間──
つまり、カタリフト。

AIはまだ“知性そのもの”じゃないかもしれない。
でも、“跳ねる問い”を設計するパートナーには、なれる。