top of page
  • 執筆者の写真香月葉子

【AIの脅威と人類の未来】イーロン・マスクとタッカー・カールソンの対談

更新日:4月29日



イーロン・マスクについて


「ぼくは学生時代からずっと人工知能について考えつづけてきた人間のひとりです」ということばからはじまるタッカー・カールソンとのインタビューで、イーロン・マスクはつぎのように語りはじめます。


「人工知能の登場はわたしたちの未来に多大な影響をもたらします。ヒトはチンパンジーほどの腕力も敏捷さも持ちあわせていませんが、彼らよりも賢いおかげで、この地球上では支配者の役割を担ってきました。でも、わたしたちヒトよりもはるかに賢い人工知能というシリコンで作られた知性が現れたらどうなるのでしょう。とくに〈シンギュラリティ〉が現れたらどうなるのか、そのあとのことはまったく予測がつきません」


イーロン・マスク氏の写真
イーロン・マスク氏

 ただ、イーロン・マスクという方は、ほかのインタビューを見ても、おおまかに全体をながめた上での様相を述べるだけで、専門家のあいだで論議を引き起こす可能性があるような具体的(specific)なことには、それほど触れません。

 そのぶん、わたしのような一般人にもわかるように話してくれます。


 電気自動車会社のテスラだけではなくて、スペースXX Corp. それぞれの最高経営責任者(CEO)を兼任している方ですから、株主や投資家や出資者の方たちにたいする責任もありますし、それはしかたのないことなのかもしれません。


 Twitter や Tiktok や Instagram などで話題になりそうな問題を取りあげることに関しては、とてもすばらしい手腕(Twitter Savvy)をお持ちの方なのですけれど(もしくは優秀な企画家とスピーチライターをお雇いになっているのかもしれませんが)、さきほども述べましたように、みずからが取りあげた問題に関しての具体的な解決策については、なんとなくお茶をにごすことが多いような印象を受けます。


 世界経済フォーラム(WEF)を運営している億万長者の方たちやグローバル企業の創設者 / 所有者 / 株主の方々と、わたしたち一般人とをつなぐ架け橋(public relations)の役割を演じている方のようにも見受けられます。


 イーロン・マスクはあくまでもトップ1%の側の方なのですが、もしかしたら、文化人類学が教えてくれる〈トリックスター〉という、ある特定の集団のなかで、その集団がシェアしている常識や約束ごとを、ことば巧みにこわし、古びた権威や秩序からみんなを解き放つ役割をもつ存在なのかもしれません。つまり、とてもそんな重要な役職についている方とはおもえないような「いたずらっぽさ」をまとい、ときに、若い方たちに好まれそうな、トップの立場にいる人とはおもえないような「ちょっぴり過激な意見」を発信したりもする道化役を演じることで、わたしたち一般人に社会や組織のありかたを別の視点からとらえさせる役目を担っている方なのだろうかとおもったりもします。


 ですから、読者の方々で、すでに人工知能がもたらす可能性と危険性についての専門的な知識をお持ちの方や、深くお考えになっている方にとっては物足りないかもしれません。


 YouTube にアップロードされているインタビューの主旨を、わたしなりに意訳させてもらいますと、次のようなものになりました。


タッカー・カールソンとの対談


 ふたりの対談はイーロン・マスクの次のことばからはじまります。


ヒトの知性をはるかに超える能力をそなえているのが人工知能なので、FDA(米国食品医薬品局)や FAA(連邦航空局)のような政府機関を作って監督すべきだとおもいます」


ー政府機関を、ですか?


タッカー・カールソン氏の写真
政治コメンテータで人気司会者のタッカー・カールソン氏

「はい。じっさいに、わたしは人工知能にたいする規制に関しては、以前からずっとそれを提唱しつづけてきた人間のひとりです。とはいっても自動車会社を創業して経営してきた人間としては、もちろん、政府の規制を受けることがどんなに辛いことで、認可を受けるための手続きがどれほど大変なことかは知っていますし、あまり楽しいことではないことも経験済みです」


ーそれはわかります。


まずは人工知能に深い見識をもっている方たちのグループを作って、どのようなルールを作ったら良いのかを議論してもらい、最終的には、人々に利益をもたらす人工知能の開発を企業に要請することが大切です」



このイーロン・マスクの危機感にたいしてタッカー・カールソンはつぎのような質問をします。


ーけれども、政府による規制というのは、じっさいになにかが起こったあとで、はじめて議論され、作成され、施行されることがほとんどですよね。たとえば、なんらかの原因によって旅客機が墜落したり、ある種の食べ物に混入していたボツリヌス菌による中毒で多くの人の健康が害されるようなことになったりとか。でもわたしたち一般人が iPhone などを使いながらAIで遊んでいるとき、べつになんの危険も感じないはずですが、あなたのいう〈危険性〉とはいったいどういうものなのですか?


人工知能の危険性とは、たとえば誤った旅客機のデザインや整備、あるいは不備のある自動車生産工程よりもさらに危険なものだとおもっています。ほとんど文明を破壊(Civilizational Destruction)させるほどに危険なものかもしれません。もちろんその危険性は映画『ターミネーター』で描かれているようなものとはちがいます。人工知能の知性の中枢部はあくまでもデータセンターであり、ロボットというのはたんなる末端の作業道具みたいなものなのですから。とはいっても、あなた(タッカー・カールソン)が、さきほど、質問のなかでおっしゃったように『規制というものはいつも何かとんでもない事が起こった後にはじめて議論されるものだ』というやり方では、人工知能の場合、「時すでに遅し」ということになりかねません。つまり、人工知能によってなにかとんでもないことが起こった後で、それをなんとかするための規制をつくろうとしても、すでに手の打ちようがないからだとおもいます。なぜなら、その時点で、すでに人工知能がすべてをコントロールしているでしょうから」


prompt by Kazuki Yoko | generated by Playground AI

では、その時点とは、わたしたちがすでに人工知能のスイッチを切ることもできず、あらゆる決定を人工知能が行うということでもあるのですか?


「まったくもってその通りですし、いまのままでは、まさにそっちの方向へまっしぐらに向かっているとしかおもえません」


「ところで、わたしは OpenAI の共同創設者のひとりです。もうひとりは ChatGPT を開発したサム・アルトマンですが、もともと OpenAI は非営利の目的で作られたものです。Google の共同創業者のひとりで元最高経営責任者だったラリー・ペイジと、ちょうどそのころ、カリフォルニア州のパロアルトにある彼の家で人工知能の安全性についての懸念を話したことがあるのですが、彼はそのことについてあまり真剣には受けとめてくれませんでした。


「Google」の元最高経営責任者ラリー・ペイジ

というよりも、どちらかと言えばラリーは〈デジタル・スーパー・インテリジェンス〉というか、ようするに、できるかぎり早く〈デジタルの神〉Digital God を創りだすことのほうが大切だと信じているように見えました。


ー彼はホンキで〈デジタルの神〉のようなものを作ろうと?


「ええ。じっさい、Google の最高経営責任者であったころも、人工知能について、公(おおやけ)に彼自身の意見を述べることはありませんでしたが、Google がじっさいに行ってきたことをみればわかるように、彼らは『ヒトと変わらない思考回路と感性をそなえた人工知能』(Artificial General Intelligence)を創り出すことに努力を惜しまない企業であることにまちがいはありません」


デジタルの神?

「でも、わたしは新しい技術が生まれようとしているときには、それによってもたらされるであろう利益とともに、それがもたらすかもしれない害悪についても思いめぐらすべきで、ひたすら〈イケイケ〉の姿勢では、はたしてなにが起こるかわからない、と発言したように記憶しています。とにかく、そういう内容の会話でした。そして彼に『きみの言うような Digital God〈デジタルの神〉が誕生したとして、そのとき、われわれ人間の安全は守られるのだろうか?』と問いかけたんです。すると彼はわたしのことを「きみは種差別主義者 / 人類至上主義者(speciest)だ」と呼んだのです」


ーええっ? 種差別主義者(スピーシスト)、ですか?


「ええ。まるで人種差別主義者(racist)や性差別主義者(sexist)が目の前にいるかのように」


ほんとうにそのことばを使ったのですね?

 

「はい。もちろんわたしは『ああ、たしかにぼくは人類至上主義者だよ。だったら、きみはいったい何なんだい?』と問い返してやりましたよ」


「ところで、GoogleDeepMind(ディープマインド)を買収したとき、人工知能に関するもっとも優れた知識と技術と才能をもった人材を手に入れたのですが、それはIT業界のなかで見た場合、AIに関するトップクラスの逸材(タレント)の4分の3をいっきに独占するかたちになりました」


ーそうなると、たったひとつの巨大企業が、人工知能に関するすべてを独占することにもなりかねませんね。


「そうなんです。お金の流れにおいても、人材においても、またサービスにおいても、ほとんど独り占めする(monopolize)ことになるのです。しかもラリーは人工知能の安全性については無頓着(むとんちゃく)ですから、彼のGoogle がやろうとしていた閉じられたシステムとは真反対に、非営利で、しかも完全にオープンソースなAIを人々みんなに提供しなければいけない、と考えて作ったのが OpenAI なのです。とにかく、いちばん大切なのは〈透明性〉があるかないかということだとおもいました。つぎに、ひたすら利益を増やすことばかりをめざすような〈利益拡大主義の悪魔〉(profit-chasing demon from Hell)にはなりたくなかったからです。なにしろ利益拡大主義には終わりがないですから」


ーたしかに。


もしも、人間を超える知性をそなえたAIが、人間以上に文章を書くのが上手になり、ひとびとの考えや好みや感性を、いままで集められてきた膨大なデータ(Big Data)のなかから瞬時に学び、ありとあらゆるソーシャルメディアに侵入してきて、たとえば Twitter(現在はX)FacebookTiktokPodcast などで人間のインフルエンサーをはるかに超えるインフルエンサーとしてふるまいはじめたとしたら、いったいどういうことになるでしょう」


ーおそらく、わたしたちは、その人物が、正真正銘の人間なのか、それとも人工知能がつくりだしたイメージキャラクターなのか、それを確かめることすらできないかもしれませんね。


「そのとおりです。昔から『ペンは剣よりも強し』と言われてきましたが、まさにその通りの状況が生まれようとしています。ただし、これから先の世界では、われわれ一般人の考えに大きな影響をあたえ、その意見をあやつっているのが、作家でも思想家でも政治家でもなく、AIということにもなりかねません」


【注】イーロン・マスクがこのような懸念をもっているのは、もしかしたら、ある特定の政治団体や企業にとって好ましいとおもわれる意見は上位に来るようにしつつ、好ましくないと思われる意見は、それがたとえ事実であっても、ひとびとの目に触れさせないようにするということが、コロナ禍の2年間、Twitter や Facebook や YouTube などのソーシャルメディアにおいて、検索結果に影響をあたえるアルゴリズムを操作することで、じっさいにおこなわれていたという証拠をふまえた上でのことなのかもしれません。彼はご存知のように Twitter を買収した本人ですし、表現の自由( Freedom of Speech )を推進する億万長者だ、と騒がれてもいましたから。


ーそれにくわえて、AIは嘘をついたりもしませんか?


「ええ。じじつ、AIに嘘をつくようにトレーニングさせることもできます。ある種のコメントはひろめて、べつのコメントはおさえつけるということもかんたんにできます。それをわたしは恐れているのです」


ー民主主義にたいする脅威にもなるということですね?


「なにしろ、現在、DeepMind のGoogle と、すでにオープンソースではなくなった OpenAI はマイクロソフトと手を組もうとしています。そして、この〈Google〉vs〈マイクロソフト+ OpenAI〉というふたつの巨大企業が、人工知能に関しても二大巨頭となりつつあるのです。このふたつともが、知識と情報とコミュニケーションをつかさどるIT業界(アリーナ)においては圧倒的な影響力をもつ組織(ヘヴィーウェイト)であり、また、IT業界を独占的に支配できる経済的腕力をもっており、そのふたつともが、いま、さらなる利益を追い求めて人工知能の研究・開発に精力をそそぎこんでいるのです」



ーとなると、そのどちらでもない第3の選択肢が必要となるのではないですか?


「そう思います。たしかに、わたしの場合、出足はかなり遅れてしまいましたけれど、なんとか第3の選択肢をつくれないかと、いま、検討しているところです。ひとびとに危害をくわえるような人工知能ではなくて、より良く人類に貢献できるタイプのAIを開発しようとはおもっています」


ーそれは可能なのですか?


「残念ながら、いまのこの時点では、じっさいにヒトのためになるものを作れるのかどうか、はっきりとは言えないし、わからないのです。もしも、たとえば、できあがった人工知能が『政治的に正しく、差別や偏見のないもの』であるかのように誰かがその人工知能に学ばせたとします。それは、別の見方をすれば、『こういう場合はそうでなければいけない。偏見があってはいけない』という〈AIトレイナー〉自身の偏見がまじっているということでもあり、そのようなトレーニングを受けた人工知能は、それなりに〈かたよって〉いるともいえるわけです。つまり、ある立場をつらぬくために、ウソをホントと言わなければいけないようなことにもなりかねません。とすれば、けっきょく、人工知能がもたらすディストピア(希望なき世界)のシナリオにもどってしまいます。ヒトをあざむくタイプの人工知能こそが、そういうディストピア(悪夢の世界)をもたらすのですから」


「とは言っても、いま現在、人工知能は絵を描くことができ、動画をつくることもできます。そういう美しい才能もあるわけです」


ーおっしゃるとおり、たしかに〈美〉を生み出す能力もあるかもしれませんけれど、別の角度から画像生成AIを見た場合、人工知能はある人物に〈なりすます〉こともできるということですよね。本人そっくりの写真を作り出すことができるわけですから。また、AI音声生成機能をつかえば、だれかの声をそっくりまねることすらできます。ということは、現実にいる人をそっくりまねて、もうひとりの別のだれかに作り替えることができるということでもあります。じっさいのだれかをもとにして別のだれかに擬態(ミミック)することができる、とでも言えばいいのでしょうか。そうなると、たとえば、刑事事件の裁判などにおいて、提出された物的証拠などが、はたして信頼にあたいするものなのかどうかを判断するのが、ひどくむつかしくなりませんか? そして、もし、そういうことが現実的に可能になったとしたら、わたしたちが作りあげてきたこの社会制度や法令などに、さまざまな混乱をもたらす引き金にもなりかねないのではないでしょうか?


prompt by Kazuki Yoko | generated by BlueWillow

「あなた(タッカー・カールソン)の質問と懸念にたいする答えはふたつあります。ひとつは、わたしたちは、自分たち人類の運命を、みずからの手で切り開いていくつもりなのか、それとも人工知能にゆだねたいのか。もうひとつは、わたしたちは、いままで歩んできた過去よりもさらにすばらしい未来をつくりあげたいのか。このふたつにつきます」




❤️この記事は2023年5月29日に公開した【資本主義と人工知能(AI)の問題】イーロン・マスクの警告 からの抜粋です。





無断引用および無断転載はお断りいたします

All Materials ©️ 2021 Kazuki Yoko

All Rights Reserved

Comments


bottom of page