【連載】知られざる地政学(塩原俊彦)

「知られざる地政学」連載(99):生成AIをめぐる諸問題:参議院選を機に(下)

塩原俊彦

「知られざる地政学」連載(99):生成AIをめぐる諸問題:参議院選を機に(上)はこちら

ポップカルチャーの同期

それは、山口昌男著『文化と両義性』で示されている「中心と周縁」の問題にかかわっている。そのなかには、後白河院が撰ばせた『梁塵秘抄』の話が出てくる。中心に位置する後白河院が周縁の大衆歌謡を取り入れたことで、中心が活性化するというのである。

そのなかの359番目にある「遊びをせんとや生(うま)れけむ 戯(たはぶ)れせんとや生(むま)れけん」という歌は、2012年のNHK大河ドラマ「平清盛」で有名になった。このつぎの句「遊ぶ子供の声聞けば 我が身さへこそ動(ゆる)がるれ」を知れば、大人になると、さまざまな人間関係に悩み苦しみ、嫉妬や憤怒に揺るがされる自分に慨嘆せざるをえない……といった感情が湧き上ってくる。こうした感情が中心近くにいる人々の心を揺さぶる。それが中心の惰性化や硬直化を打破する力になりうるというのである。

これは、いわばポップカルチャーの同期化に近い。近代化後、中心部を形成してきたマスメディアに生き残る道があるとすれば、この周縁に位置するポップカルチャーを中心に引き入れる努力ではないか。

私はもう数十年、ずっとそう考えてきた。だからこそ、私の書く論考では、できるだけURLを組み込むことによって、違う次元へ読者を誘う工夫をしている。もちろん、それは出所や引用文献を示すためだが、同時に、「ポップカルチャーへの誘い」を意図したものなのだ。

だが、残念ながら、日本のマスメディアの報道は、記事中にURLを組み込むといった工夫が少ない。あるいは、記事として、ポップカルチャーを定期的に紹介する努力をしていない。その結果、ポップカルチャーの同期化に失敗している。つまり、「オールドメディア」と揶揄される状況に陥ってしまっているのである。

もし私が1週間に一度、ポップカルチャーについて定期的にマスメディアに寄稿していれば、たとえば、ここで紹介したDiaやCometの話を書くだろう。あるいは、Perplexityという生成AIをときどき利用している状況を紹介しつつ、Copilotとの違いについても感想をのべるだろう。

こうすることで、ポップカルチャーの一端を垣間見ることができる。それは、ポップカルチャーとの同期につながる。そして、その同期は、同期そのものを求めてマスメディアを利用する人を着実に増やすようになるだろう。

だが、残念ながら、日本のマスメディアはこうした「哲学」に導かれた情報提供をしていない。その結果、ポップカルチャーから見放され、オールドメディアとバカにされ、もはや相手にされなくなりつつあるのだ。

そもそも、このオールドメディアに登場する者は総じて学歴偏重で選ばれただけの者たちで、ポップカルチャーに疎い。あるいは、「知」そのものが不足している。そう、私からみると、「知」に不足している大バカ者なのだ。それにもかかわらず、バカが登場することで、バカを再生産している。

そうしたバカが生成AIによる情報チェックの必要性を声高に話している現状は絶望以外の何ものでもない。どうして日本はこれほど、バカばかりになってしまったのだろうか。やはり、マスメディアの責任はきわめて大きい。

紹介した岡崎の指摘、「政治はこうしてメディアによって作り出され、無数の本来は相互に無関係だった消費者=民衆を束ねた全体像、たとえば国民あるいは一般市民という像を実体化し制度化します。それが制度としての民主主義です」が正しいとすれば、いまの日本の民主主義のていたらくは、メディアの責任とも言える。だからこそ、ポップカルチャーを意図的に取り込むという、周縁からの中心の活性化が望まれるのである。しかも、そのためには、マスメディアの編集方針を抜本的に改めなければならない。それが中心を活性化させるという意味なのだ。

GAIの「フレーム問題」

ここでついでに、まだ実現していない「汎用人工知能」(Artificial General Intelligence, AGI)についても書いておきたい。いわば、まだポップカルチャー段階にしかないAGIだが、だからこそ、現段階においても関心を払っておくべきなのだ。なぜなら、AGIの与える影響は甚大であるからである。

2024年12月に『Nature』に公表された論文「AIはどこまで人間レベルの知能に近づいているのか?」では、まず、「大規模言語モデル(LLM)が十分に大きくなれば、AGIも出現する可能性がある」と書かれている。その一例は、「思考連鎖」(CoT)プロンプティングである。CoTプロンプティングとは、LLMに、ある問題をより小さなステップに分解して解決する方法の例を示したり、LLMに問題をステップ・バイ・ステップで解決するよう求めたりすることである。

OpenAIによれば、CoTプロンプトはo1の仕組みに組み込まれており、このモデルの実力を支えている。OpenAIは、CoT推論が加わったことで、例えばo1の上級バージョンであるo1-previewが、高校生を対象とした権威ある数学コンテストである国際数学オリンピックの予選試験で83%の問題を正確に解いたという。しかし、これほど洗練されているにもかかわらず、o1には限界があり、AGIとは言えない。LLMは、その大きさにかかわらず、新しいタスクに取り組むために学習したことを再結合する必要がある問題を解く能力には限界がある。LLMは、基本的に自分の知識を、新しい文脈に適応するためにその場でかなり高度に組み替える能力がないため、真に新規性に適応することができないのだ。

これを「フレーム問題」という。フレーム問題とは、大澤真幸の定義によれば、「ある行為が遂行される際に、関係ある(レリヴァントな)事項を無関係な(イレリヴァントな)事項から、効率的に(しかも十分に)区別し選択することは、いかに可能か、という問いである」。人間は通常、大切なことだけに関心を集中させることができる。しかし、少なくとも現段階のAIはそうした対応はできない。

既存のAIでは、「無視する」ことに相当する計算をAIにやらせるしかない。だが、人間は簡単にどうでもよいことを無視することができるのに、これまでのAIは「無視する」という操作に相当する作業を行わせることで、人間の無視に近づくしかないのだ。しかし、そうしたAI の場合、意図的にイレリヴァントな事項を排除する手順が必要になる。つまり、無視するという行為をそのままの意味合いで、実行に移すことができないのである。無視するようにみえても、その無視の対象を特定し、それ以外のものを排除してはじめて無視の対象だけに限定する以上、その無視の対象は無視されたものとは言い難い。このように、AIはフレーム問題を解決できたわけではなく、意図的な無知をつくり出そうとしても、無視して排除すべき対象を限定しなければならない。そのためには、無視する対象について知る必要があり、無知でいることはできない。

だからこそ、2025年5月16日付の「ニューヨークタイムズ」の記事「AGIがすぐに実現しそうにない理由」は、40年の歴史をもつ学会である人工知能推進協会の最近の調査では、回答者の4分の3以上が、現在のテクノロジーを構築するために使われている方法は、AGIにつながる可能性は低いと答えている、と報じている。

「記号接地問題」

AIにはほかにも、いわゆる「記号接地問題」という別の問題も残されている。「記号接地問題」(Symbol Grounding Problem)は、「記号を、それが指し示している外的な対象といかにして結びつけるのか、という問題である」(大澤真幸著『生成AI時代の言語論』193頁)。言語という記号は、外的な対象に接地していると言えるが、AIは記号を記号に関係づけ、記号を別の記号に置き換えていくだけであり、外的な対象とは結びついていない。ここでは、紙幅の関係から、これ以上この問題には深入りしない。

問題は山積

生成AIの引き起こす問題はまだまだたくさんある。そのなかには、「グローバルAIディヴァイド(格差)」という問題もある。この問題は、地政学に直結しており、地政学の考察対象として最先端の課題となっている。そこで、連載100回を記念する次回、この問題について論じることにしたい。

【注】
(注1)AIをめぐるごく簡単説明を示そう。もうすぐ上梓される拙著『ネオ・トランプ革命の深層』の第一章向けに書いた原稿ながら、紙幅の関係から割愛せざるをえなくなった部分を紹介しておきたい。

2024年のノーベル物理学賞に、人工ニューラルネットワークの概念を確立して深層学習の発展に貢献したジョン・ホップフィールドとジェフリー・ヒントンが選ばれた。とくに、ヒントンは「AIのゴッドファーザー」と称されており、トロント大学の彼の研究室からは、多くの著名なAI専門家が輩出されてきた。生成AIで有名なOpenAIの共同創業者でチーフサイエンティストだったイリヤ・サツケヴァーもその一人だった。

人工ニューラルネットワーク・モデルは、何千もの合成ニューロンで構成され、層状に配列されている。画像はネットワークの最初の層に送られ、AIのシナプス接続に相当するものを通じて、各ピクセルの内容に関する情報が次の層に送られる。ここでニューロンは、この情報を利用して線や輪郭を特定し、次の層に信号を送信する。次の層では、目や足などを特定する。このプロセスは、信号が「鳥」または「鳥ではない」という最終的な判断を下す層に到達するまでつづく。

この学習プロセスに不可欠なのが、「バックプロパゲーション・オブ・エラー」(誤差逆伝播)アルゴリズム、通称「バックプロ」である。ネットワークに鳥の画像を見せたにもかかわらず、それが鳥ではないと誤って判断した場合、その誤りに気づくと、エラー信号が生成される。このエラー信号はネットワークを後戻りし、層ごとに伝達され、各接続を強化または弱体化して、将来的なエラーを最小限に抑える。モデルに再び同様の画像を見せると、調整された接続により、モデルは「鳥」と正しく宣言する。

この人工ニューラルネットワーク・モデルをもとにした、テキスト用の「大規模言語モデル」(LLM)と画像用の「拡散モデル」という二つのモデル群が現在、注目されている。これらは以前のものよりも深く(つまりニューロンの層が多く)、大量のデータを素早く処理できるように組織化されている特徴がある。

The Economistの解説によれば、GPT、Gemini、Claude、LlamaなどのLLMはすべて、いわゆる「トランスフォーマー・アーキテクチャ」に基づいて構築されている。グーグル・ブレインのアシシュ・ヴァスワニと彼のチームによって2017年に導入されたトランスフォーマーの重要な原理は、「注意」である。アテンションレイヤーによって、モデルは入力の複数の側面(たとえば、テキスト内の互いに一定の距離にある単語)が互いにどのように関連しているかを学習し、それを考慮して出力を生成する。多くの注目レイヤーを並べることで、モデルは、単語間、フレーズ間、あるいは段落間など、さまざまな粒度の関連性を学習することができる。このアプローチは、グラフィック処理装置(GPU)チップへの実装にも適している。そのため、これらのモデルは規模を拡大することができる。

トランスフォーマーベースのモデルは、テキストだけでなく画像も生成できる。2021年にOpenAIが発表したDALL-Eの最初のバージョンは、テキストの単語ではなく、画像のピクセルグループ間の関連性を学習するトランスフォーマーだった。どちらの場合も、ニューラルネットワークは「見たもの」を数値に変換し、それに対して数学(具体的には行列演算)を実行している。しかし、トランスフォーマーには限界がある。一貫した世界モデルを学習するのに苦労するのだ。たとえば、人間の処理要求(クエリ)に答えるとき、最初の答えが二番目の答えを無意味なものにしている(あるいはその逆)ということを「理解」することなく、一つの答えから次の答えへと矛盾してしまう。さらに、トランスフォーマーに基づくモデルは、もっともらしく見えるが間違った答えをでっち上げ、それを裏づける引用をする、いわゆる「幻覚」(hallucinations)を起こしやすい。同様に、初期のトランスフォーマーベースのモデルによって作られた画像は、しばしば物理法則を破り、他の点ではありえないものだった。

拡散モデルは、はるかにリアルな画像を生成することができる。このモデルの主なアイデアは、拡散の物理的プロセスにヒントを得たものだ。ティーバッグをお湯の入ったカップに入れると、茶葉が蒸れ始め、茶葉の色が染み出し、透明なお湯の中に溶け込んでいく。数分間そのままにしておくと、カップの中の液体は均一な色になる。物理学の法則は、この拡散のプロセスを規定している。物理法則を使ってお茶がどのように拡散するかを予測するのと同じように、このプロセスをリバースエンジニアリングして、ティーバッグが最初にどこにどのように沈められたかを復元することもできる。現実の世界では、熱力学の第二法則がこれを一方通行にしている。しかし、エントロピーを逆転させるリターントリップをシミュレートする学習によって、現実的な画像生成が可能になる。

トレーニングは、画像が完全にランダムに見えるようになるまで、画像を徐々にぼかしやノイズを加えていくところからスタートする。このプロセスを逆にして、紅茶からティーバッグを復元するように、元の画像を再現する。これは「自己教師あり学習」を使って行われ、文中の単語を覆い隠し、試行錯誤を繰り返しながら、欠けている単語を予測するように学習する、LLMのテキストでの学習に似ている。画像の場合、ネットワークは元の画像を再現するためにノイズを除去する方法を学習する。何十億枚もの画像を処理し、歪みを除去するのに必要なパターンを学習していくうちに、ネットワークはランダムなノイズから全く新しい画像を作り出す能力を獲得する。

ほとんどの最先端の画像生成システムは拡散モデルを使用している。ただし、「ノイズ除去」や歪みの反転をどのように行うかは異なっている。2022年にリリースされたStable Diffusion(Stability AIによる)とImagenは、「畳み込みニューラルネットワーク」(CNN)と呼ばれるアーキテクチャのバリエーションを使用している。CNNは事実上、パターンや角などの特定のアーティファクトを探すために、入力に対して小さなスライドウィンドウを上下に動かす。しかし、CNNはピクセルをうまく扱うが、最新の画像ジェネレーターの中には、Stability AIの最新モデル「Stable Diffusion 3」を含む、いわゆる拡散変換を使うものもある。一度拡散について訓練されると、変換器は画像やビデオのフレームのさまざまな部分が互いにどのように関連しているのか、またその強弱を把握する能力が格段に向上し、より現実的な出力が得られるようになる(それでもミスはする)。

いずれにしても、すでに説明したように、人工ニューラルネットワーク・モデルを元にするAIでは、人間の脳による学習のレベルに到達できそうもない。The Economistの別の記事によると、前述した「バックプロパゲーション・オブ・エラー」(誤差逆伝播)アルゴリズム、通称「バックプロ」を使用するニューラルネットワークは、生物学的に「ほぼあらゆる点で非現実的」である、とDNAの構造を共同発見したノーベル賞受賞者フランシス・クリックと批判したという(Francis Crick, “The recent excitement about neural networks,” Nature, Vol. 337, 1989, p. 129)。

その理由は、第一に、ニューロンはほとんどの場合、情報を一方向にのみ送信する。したがって、誤差信号を後方に送信するためには、すなわち、脳内でバックプロパゲーションが機能するには、ニューロンの各ネットワークの完璧な鏡像が存在しなければならない。第二に、人工ニューロンは強弱の異なる信号を使って通信を行うのだが、生物のニューロンは固定された強さの信号を送信する。バックプロパゲーション・アルゴリズムはこれに対応するように設計されていない。

今年初めに『Nature Neuroscience』誌に掲載された論文で、オックスフォード大学のYuhang Songとその同僚たちは、バックプロパゲーションを根本から覆す方法を提示した(Yuhang Song, Beren Millidge, et al., “Inferring neural activity before plasticity as a foundation for learning beyond backpropagation,” Nature Neuroscience, Vol. 27, 2024)。従来のバックプロパゲーションでは、エラー信号がシナプスの調整につながり、それが神経細胞の活動の変化を引き起こす。オックスフォード大学の研究者たちは、ネットワークがまず神経細胞の活動を変化させ、その後でシナプスを適合するように調整できる可能性を提案した。彼らはこれを「プロスペクティブ・コンフィギュレーション」(prospective configuration)と呼んだ。

著者らは、人工ニューラルネットワークでこの構成をテストしたところ、バックプロパゲーションで訓練したモデルよりも、より人間らしい方法で学習し、より頑強で、より少ない訓練で学習することがわかかった。また、異なる視覚的合図に応じて動かす方法を学習するといった、他の非常に異なるタスクにおいても、このネットワークは人間の行動により近い結果をもたらすことがわかかったという。

【連載】知られざる地政学(塩原俊彦)のリンクはこちら

– – – – – – – – – – – – – – – – – – – – – – – – –

★ISF(独立言論フォーラム)「市民記者」募集のお知らせ:来たれ!真実探究&戦争廃絶の志のある仲間たち

※ISF会員登録およびご支援のお願いのチラシ作成しました。ダウンロードはこちらまで。
ISF会員登録のご案内

「独立言論フォーラム(ISF)ご支援のお願い」

 

塩原俊彦 塩原俊彦

1956年生まれ。一橋大学大学院経済学研究科修士課程修了。学術博士。評論家。『帝国主義アメリカの野望』によって2024年度「岡倉天心記念賞」を受賞(ほかにも、『ウクライナ3.0』などの一連の作品が高く評価されている)。 【ウクライナ】 『ウクライナ戦争をどうみるか』(花伝社、2023)、『復讐としてのウクライナ戦争』(社会評論社、2022)『ウクライナ3.0』(同、2022)、『ウクライナ2.0』(同、2015)、『ウクライナ・ゲート』(同、2014) 【ロシア】 『プーチン3.0』(社会評論社、2022)、『プーチン露大統領とその仲間たち』(同、2016)、『プーチン2.0』(東洋書店、2012)、『「軍事大国」ロシアの虚実』(岩波書店、2009)、『ネオ KGB 帝国:ロシアの闇に迫る』(東洋書店、2008)、『ロシア経済の真実』(東洋経済新報社、2005)、『現代ロシアの経済構造』(慶應義塾大学出版会、2004)、『ロシアの軍需産業』(岩波新書、2003)などがある。 【エネルギー】 『核なき世界論』(東洋書店、2010)、『パイプラインの政治経済学』(法政大学出版局、2007)などがある。 【権力】 『なぜ「官僚」は腐敗するのか』(潮出版社、2018)、『官僚の世界史:腐敗の構造』(社会評論社、2016)、『民意と政治の断絶はなぜ起きた:官僚支配の民主主義』(ポプラ社、2016)、Anti-Corruption Policies(Maruzen Planet、2013)などがある。 【サイバー空間】 『サイバー空間における覇権争奪:個人・国家・産業・法規制のゆくえ』(社会評論社、2019)がある。 【地政学】 『知られざる地政学』〈上下巻〉(社会評論社、2023)がある。

ご支援ください。

ISFは市民による独立メディアです。広告に頼らずにすべて市民からの寄付金によって運営されています。皆さまからのご支援をよろしくお願いします!

Most Popular

Recommend

Recommend Movie

columnist

執筆者

一覧へ