AIの政治利用をめぐって:「ジリノフスキーAI」や「安倍AI」の登場という恐怖
国際2022年4月6日、ロシアの自由民主党(LDPR)の党首ウラジーミル・ジリノフスキー氏が76歳で亡くなった。国家主義的なアジテーターであった彼の声は独特で、それがロシア国民をときに鼓舞してきたように思われる。
だからこそ、彼の声を使って、「右に曲がれ」とか、「直線せよ」といった命令口調で運転手に指図するナビゲーション・システムを取り付けたタクシーに乗ったこともある。私が最後にモスクワを訪問した2014年には、こうしたかたちで、彼はロシア人にたしかに親しまれていたように思う。
ジリノフスキーの「復活」
2023年4月17日、興味深いニュースが流れた。LDPRが「世界初の政治アルゴリズム」となる「ジリノフスキー・ニューラルネットワーク・プロジェクト」の立ち上げを発表したのである。
同党のレオニード・スルツキー党首が明らかにしたもので、政治家の演説や出版物をもとに作成されたニューラル・ネットワークは、国を統治する上での予測や助言を提供するという。
このニュースを報じた「コメルサント」によれば、ニューラル・ネットワークは、ジリノフスキー氏が30年以上にわたって行った1万8,000時間以上のインタビューやスピーチ、50冊の著作をもとに構築される。
このネットワークは、世界文明大学(UWC)の専門家によって開発される予定だ。費用は個人献金で賄われる。
LDPRは、早ければ2024年にもニューラル・ネットワークを使って党のプログラムを作成する。
また、ウラジーミル・コシェレフ下院副議長(LDPR)は、2030年までにこのアルゴリズムが利用可能なすべてのビッグデータと接続され、「国を統治するための本格的な参加者-国家元首のアドバイザーやアシスタントとなる」ことを示唆したという。
前述したように、ジリノフスキーの音声はすでに電子機器で利用されてきたが、これにテキストモデルとして、米国の研究機関OpenAIが開発したGPT-4を活用する(注1)。
これは、コンピューターが人口知能(AI)によって自動的に応答可能な技術を提供してくれる。ユーザーの問いかけに対して、テキストを生成し、時に人間と思わせるような答えを返してくれるのだ。
何年かすれば、映像と組み合わせて、まるで本人がよみがえったかのように目の前に登場して、現実の政治について語るようになるかもしれない。もちろん、そうした「AIの政治利用」によって、LDPRはジリノフスキーの死で被った失地回復をめざしている。
安倍晋三も「復活」か
日本では、東京大学の学生有志が立ち上げたという「東京大学AI研究会(東京大学人工知能研究会)」を名乗る団体が2022年9月25日、奈良市で銃撃を受け亡くなった安倍晋三元首相の声を再現した合成音声動画を公開した。
翌日には、東大電子情報工学科・電気電子工学科が「当学科の構成員とこれらの団体との関係は、現在のところ確認できていないが、引き続き調査している」との声明を出すほどの騒ぎになった。
2022年10月24日付の「毎日新聞」によると、「AI安倍晋三元総理からのご挨拶」などと題した1~2分程度の音声数本が動画投稿サイト「ユーチューブ」に公開されたもので、いずれも、生前の写真とともに安倍元首相が有権者や若者に向けて語りかける構成だったという。
投稿者とする東大AI研は特設サイトで、安倍元首相の声を「優しくも、力強さを秘めた」と評し、AI技術で「よみがえらせた」と記した。だが、物議をかもした安倍元首相のAI音声は、国葬終了から4時間がたった9月27日夜、ユーチューブで聞くことができなくなった。
復活した「安倍AI」は、ロシアのLDPRがめざす「ジリノフスキーAI」に比べれば、初歩的なものにすぎない。
だが、ロシアと同じように、安部元首相の生前のインタビュー、著書、演説などをAIに学習させれば、今後の世界情勢に即応した考えや方針を示す「安部AI」が日本でもできるかもしれない。
AI倫理という課題
ここで、問題になるのがこうした「技術進歩」をどこまで許容すべきか、という難問である。私はかつて「論座」において、「「AI倫理」を問う(上):「気高い嘘」との対峙」と「「AI倫理」を問う(下):人間中心主義からの脱却」を公表したことがある。
あるいは、拙著『サイバー空間における覇権争奪』の「序章 技術と権力――サイバー空間と国家権力」においてAIやAI倫理を論じた。こうした過去の論考をもとに、改めてAIの政治利用を倫理的側面から考えてみたい。
まず、AIは人間がデータを集めてきて、それを機械学習のためのアルゴリズムにしたがって反復学習させて一定の法則化ないしモデル化するものであることを確認しておきたい。
データを収集したり、データを分類したり、あるいは統計計算をするためのアルゴリズムをつくったりするのも当初は人間である。
ゆえに、AIは「人間臭さ」を内包している。女性がAIをつくれば、共感を重視する感情優位のAIになるし、男性がつくれば序列重視の目的指向型のAIができることになるかもしれない。
そこで、AIには、三つの偏向があるという説を紹介しておこう。
①データにおける偏向(データに収集において、人々はデータにおける偏向を軽減する方法を探そうとするが、視点はさまざまであり、そもそも男女の公平性といったものはない)、②アルゴリズム自体に偏向の理由がある(なぜならアルゴリズムはデータにおける偏向を増幅してしまうからだ)、③人間による偏向(AI研究者は主として男性であり、彼らはある種の人種的人口統計を反映しており、高い社会経済的地区で成長した、何らのハンディキャップのない人々だ)――というのがそれである。
GPT-4の登場で問題が深刻化
前述したGPT-4の登場は、AIの本来かかえている問題をより深刻化させている。だからこそ、2023年3月、イーロン・マスク1000人以上の著名人が署名した公開書簡で、「我々はすべてのAI研究所に対し、GPT-4より強力なAIシステムの訓練を少なくとも6カ月間、直ちに一時停止するよう要請する」と求めた。
「高度なAIは地球上の生命の歴史に大きな変化をもたらす可能性があり、相応の配慮とリソースをもって計画・管理されるべきものである」というのだ。
書簡には、「AI研究所と独立した専門家は、この休止期間を利用して、独立した外部の専門家によって厳格に監査・監督される、高度なAIの設計と開発に関する一連の共有安全プロトコルを共同で開発・実施すべきである」と書かれている。
これらのプロトコルは、それを遵守するシステムが合理的な疑いを超えて安全であることを保証するものでなければならないという。
イタリアデータ保護庁は3月31日、チャットボットを開発した米国に本拠を置くOpenAIが欧州連合(EU)のデータプライバシー法を遵守するまで、イタリアのユーザーのデータを収集することを「直ちに」禁止すると発表した。
同庁は、マイクロソフトが出資する同社がユーザーの個人データを収集し、サービスを利用する人の年齢を確認するフィルターがないことに懸念を示している。
すでに問題が生じている。4月5日付のロイター電は、オーストラリアのある地方市長が、ChatGPTが贈収賄で服役していたという虚偽の主張を訂正しない場合、OpenAIを訴えるかもしれないと述べ、自動テキストサービスに対する最初の名誉毀損訴訟となることを明らかにしたと伝えた。
ほかにも、AIは「核兵器のように危険」という見方が一部で広がっている。デジタル時代における「Time Well Spent(有意義な時間)」を提唱したトリスタン・ハリスらが率いる非営利団体ヒューマン・テクノロジー・センターが、AIの急速な普及を「核兵器」になぞらえて警告したのだ。
金融、慈善事業、産業、政府、メディアのリーダー100人以上をニューヨークに集め、ハリスらは、「核兵器が物理的な世界にとってそうであるように…AIは他のすべてにとってそうである」というスライドを示した。
この会合について報じた「Wired」の記事には、2022年8月、AI Impactsという組織が、2つのAIカンファレンスで発表された論文の著者または共著者である4271人に連絡を取り、アンケートに答えるよう依頼したところ、738人の回答のうち、48%の回答者が、人類滅亡という極めて悪い結果が起こる可能性を少なくとも10%以上とみていたとの情報が紹介されている。
どうやら、AIが数え切れないほどさまざまな方法で利用されることで、自動的に虚報を流すことが可能になり、人々を失業に追い込んだり、その悪用を考える人が巨大な力を得たりして、世界に大混乱が生じることを警告しているのだ。
だからこそ、ChatGPTを開発したOpenAIは、AIが党派的、偏向的、政治的とみなされる回答をしないように設定しているとされている。だが、OpenAIとは違うテキスト生成可能AI(生成AI)を開発して、政治利用することもできるようになるかもしれない。
さまざまな問題
生成AIには、さまざまな問題がある。このAIは、ソーシャルメディアフィード、インターネット検索、デジタルライブラリ、テレビ、ラジオ、統計データバンクなど、あらゆるところからもたらされる情報から学習することで成り立っている。
AIモデルは「許可なくデータベースを略奪している」といわれるのはこのためだ。これが著作権法の侵害にあたらないかどうかは議論の分かれる問題だ。
著作物の利用が価値ある社会的目的を果たし、ソース素材がオリジナルから変形され、著作権者の中核的市場に影響を与えない場合、公正(フェアユース)とみなされるかもしれない。
だが、機械学習を支える企業がフェアユースを悪用して、個人の仕事を「フリーライド」しているとみることもできる。さらに、最先端AIが生み出した「創造物」に著作権は認められるのかという問題もある。
AI兵器の問題も重大だ。拙稿「「キラーロボット」の恐怖:自律型AI兵器規制の困難にどう向き合うか」を「論座」に書いたことがあるので、ぜひとも読んでほしい。
もっと根本的な問題もある。「AIの安全性」(AI safety)という言葉は、以前は自動運転車が事故を起こさないようにするなどの実用的な問題を指す言葉だった。
しかし、最近になって、AIシステムがプログラマーの意図に従うことを保証し、電源を切られないようにするために人間に危害を加えるような権力追求型AIを防ぐための新しい研究分野を表す言葉としても採用されるようになっている。
最初の例でいえば、「ジリノフスキーAI」や「安倍AI」が自らの影響力をひたすら拡大するように人間に命じるような事態を想定していることになる。
自律的なAIがそう簡単にできるとは思わないが、裏で生成AIを悪用して、自らの権力拡大に利用しようとする人間が出てきてもおかしくない。生成AIを政治利用して、圧倒的な情報拡散によって対立候補をつぶすことが起きても不思議ではないのだ。
1956年生まれ。一橋大学大学院経済学研究科修士課程修了。学術博士。評論家。 著書:(2024年6月に社会評論社から『帝国主義アメリカの野望:リベラルデモクラシーの仮面を剥ぐ』を刊行) 【ウクライナ】 『ウクライナ戦争をどうみるか』(花伝社、2023)、『復讐としてのウクライナ戦争』(社会評論社、2022)『ウクライナ3.0』(同、2022)、『ウクライナ2.0』(同、2015)、『ウクライナ・ゲート』(同、2014) 【ロシア】 『プーチン3.0』(社会評論社、2022)、『プーチン露大統領とその仲間たち』(同、2016)、『プーチン2.0』(東洋書店、2012)、『「軍事大国」ロシアの虚実』(岩波書店、2009)、『ネオ KGB 帝国:ロシアの闇に迫る』(東洋書店、2008)、『ロシア経済の真実』(東洋経済新報社、2005)、『現代ロシアの経済構造』(慶應義塾大学出版会、2004)、『ロシアの軍需産業』(岩波新書、2003)などがある。 【エネルギー】 『核なき世界論』(東洋書店、2010)、『パイプラインの政治経済学』(法政大学出版局、2007)などがある。 【権力】 『なぜ「官僚」は腐敗するのか』(潮出版社、2018)、『官僚の世界史:腐敗の構造』(社会評論社、2016)、『民意と政治の断絶はなぜ起きた:官僚支配の民主主義』(ポプラ社、2016)、Anti-Corruption Policies(Maruzen Planet、2013)などがある。 【サイバー空間】 『サイバー空間における覇権争奪:個人・国家・産業・法規制のゆくえ』(社会評論社、2019)がある。 【地政学】 『知られざる地政学』〈上下巻〉(社会評論社、2023)がある。