AIを使った議論で相手を論破したい

のトップへ

カテゴリー:

作成日

更新日

所要時間

14〜21分

SNSで政治の議論をすると「相手を論破したい」がどうやっていいか分からないということがある。そんな場合に利用できるのがGeminiである。議論の弱点を分析させて「AI論破」も可能だが、それより先を目指したい。今回は高市早苗総理の台湾有事発言には「戦略性があるか」「戦略性がないか」という極めて可燃性の高い議論を扱うことにする。

論破のためのフレームワーク

まず「一方の議論」を完成させよう

まず一方の議論を完成させる。これは多数派の議論がよいため「高市総理は台湾有事問題で戦略がなかった」という議論を完成させる。サンプルはGEMINIに残しておいたので参考にしていただきたい。

1. そもそも「戦略とはなにか?」を定義する

第一の作業は「そもそも戦略とはなにか」を定義することだ。このときに「定義を精緻化」することでAIに構造を渡している。

2. 次に高市総理の発言がなぜ戦略的に失敗したのかの事例を積み上げる

次にこれを具体例に当てはめてゆく。

3. 議論を拡張する

ここで最初の「戦略」を拡張できないか考える。ここでは首相官邸の人が個人的に「核兵器保有」発言を行った事例を挙げ、これを「守りの戦略」と位置づけて議論を拡張した。

これが終わったら「相手側の議論」を構成しよう

ここまでを見て「なにか面倒だ」と感じた方もいらっしゃるかもしれない。今回のポイントは「論破」だ。そのためには議論の構成を考えてそれを覆す議論を起こさなければならない。こちらもサンプルをGEMINIにつけた。

1. フレームを操作しよう

今回は高市総理の失敗を「一回生のゲーム」と見たが、これが一回生のゲームであるとは限らない。つまり最終的に高市総理の狙いが成功すればいい。そこでこれを多数回のゲームというフレームに変えてやる。このようなフレームの変え方の選択肢をいくつか持っていると便利である。

2. フレームを補強する材料を集めよう

次に議論を補強するための材料を集めよう。ここでは「アメリカのシンクタンク」や「アメリカの議会」から思わぬ援軍が入ったという事例を使うことにした。

3. 「いっけん反対意見」を自説に取り込もう

いっけん「反対意見に見えるもの」が見方次第では補強材料に使える場合がある。例えば「コストを提示する」ことは普通は主張を弱めると考えられてしまうが、実は透明性を増すことで誠実さを示せるかもしれないという論を入れた。

まとめ

  • このように「誰かを論破したい」ときには面倒でも「論破すべき議論」をAIを使いながら組み立ててみるのが良い。
  • このときに「反論組み立て」で使ったように、AIにロール(この場合は弁護士)を当てはめてみるのも良いかもしれない。ロールを指定しないとAIにありがちな箇条書きが作られてしまう。

教育者のための若干の捕捉

今回は「遊び要素」が強い論破のための議論という話題でエントリーを構成してみた。これはアメリカ型の教育ではよく見られるディベートのトレーニングだ。アメリカでは高校生ごろからこうした議論が始まり、大学生であれば誰でもこのような議論を経験する。

しかしながらアメリカの言論状況を知っている人は「これは詭弁術につながり議論を破壊するのでは?」と感じるかもしれない。ここではChatGPTに「取扱注意」のポイントを聞いてみた。

アメリカでは両論併記型議論を高校生頃から始める

  • 高校1年生から2年生くらいで、英語と歴史のディベート教育が始まる。進学コースでは「自分が信じていない側」の議論を訓練し始める。
  • 政治学、哲学、法律、経済学などで「立場を反転させたエッセイ」を書く。
  • カリキュラムじたいは広く行われるが「よく使う学部」と「そうでない学部」が分かれる。
  • そもそも文系・理系という考え方がないため「科学分野」でも両論併記型議論ができる人たちが一定数いる。

しかしアメリカのアカデミアは「議論そのもの」を信頼しない

こうしたディベートはともすれば「詭弁術」になりかねない危険がある。

このため

  • アメリカは「弁が立つ人」を扇動家として歴史的に恐れてきた。
  • 「騙される構造」を先に勉強させてから議論の訓練をする。
  • 反対意見(Devil’s Advocate)は議論の限界を考えるために導入される。言いくるめることができたら勝ちではない。
  • 相手が反証できなかったら「負け」という議論構成を禁じ手としている。
  • 知的階層ほど「謙虚さ」が評価される。

つまりこのエントリーの入口は論破だったが実は「相手を言い負かしたら勝ちである」という「論破の構造」そのものを嫌っているということになる。そして議論になれさせることで「議論は単なるスキルであってそれが全てではない」ということを教え込もうとしているということになる。

包含のテクニックは最初からは教えない

今回は「反論になりそうなものを補強材料として吸収する」という手法が用いられたが、こうしたテクニックは最初からは教えないそうである。

  • 中学校・高校で教えると間違いなく詭弁になるため、まず教えない。
  • 高校後半から大学1年生でもまだ教えない。
  • 議論の背景構造を教わる大学の3〜4年生で教え始める。
  • さらに法廷弁論、政策コミュニケーション、危機対応などの「実務知識」として教え始める。反対論を吸収して物語を形成するエネルギー源に変える。

つまり

否定 → 再構成 → 自己批判 → 包含

であり

  1. 論理的成熟(技術的条件)
  2. 認知的自制(心理的条件)
  3. 倫理的責任(規範的条件)
  4. 役割意識(社会的条件)

という前提が必要だというのだ。

つまり、ディベートをディベート単体で終わらせないという強い意識とアカデミアの了解のもとに「テクニック論」だけを教えず「実線の一部」と位置づけないと詭弁家が量産されてしまうのである。ただしこれは最初から成立していたのではなくアカデミアの失敗の歴史の中で経験的に蓄積されてきた智慧のようなものである。

議論を口喧嘩に終わらせないためのPrerequisite

また、議論を口喧嘩に終わらせたにためには、

  • Claim(主張=伝えたいこと) / Evidence(根拠=伝えたいことを裏付ける客観的なデータ) / Warrant(論拠=根拠が主張に結びつくロジック) を区別できる
  • 相手の議論を「補強して説明できる人(Steelman)」になれる。逆に相手の違憲を弱めるStrawmanになると議論に必要な信頼が担保できなくなる。これを使うと「言い争い」が議論になる。
  • 反論(Rebuttal / Refutation)ではなく論点の包含(Concession & Integration)ができる。相手の反論を飲み込んだうえでより進んだ解決策を提案できる。
  • 不確実性を「既知の未知(何がわからないのかわかっている)」と「未知の未知(そもそも何がわからないのかすらわからない)」などに仕訳できる。

がきちんと区別できているかが重要になるのだが、これらはAIに議論をフィードしてやれば精緻化して答えてくれる。

しかしながらAIにはハルシネーションを起こすリスクがある。これはノイズの多い雑多なニュースを「平等に」読み込んでいる上に、ユーザーの曖昧な問いでいちいちエラーを吐き出さないための設計だが、やはり最終検証責任はユーザーの側にある。

のトップへ

Comments

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です