第2回シンギュラリティシンポジウム ⑥ パネルディスカッション「日本からシンギュラリティを起こすには〜その具体的な方策」 

ファシリテータ:塚本昌彦 (神戸大学大学院工学研究科教授)
パネリスト:松田卓也、山川宏、高橋恒一、井上智洋、井上博雄 (以上、登壇順)

塚本:シンギュラリティサロンの発起人の1人の塚本です。
シンギュラリティサロンの活動が2年、このシンギュラリティシンポジウムは第二回ということで、シンギュラリティについていろいろな議論をしている。今日は「日本からシンギュラリティを起こす」というテーマで議論したい。パネリストのお手元には、〇×札とスケッチブックをお配りしている。いくつか設問を用意しているので、それに一斉に答えていただきディスカッションを進める形式でいきたい。

Q.0 シンギュラリティとは何か?

塚本:コンセンサスを取るのも深堀りするのも不要かと思ったが、議論を進めるうえで「シンギュラリティとは何か」、それぞれのご見解を押さえておきたい。ではご記入をどうぞ。(一斉にスケッチブックに記入)。それでは一斉にドン(パネリストが回答を提示、塚本先生が読み上げ)。

松田:塚本先生が超人間になる。(笑)
山川:AI自身の再帰的発展。
高橋:不連続点。
井上智洋(以下、井上智):汎用AI→経済的特異点。
井上博雄(以下、井上博):AI≧人。

塚本:ではご自身の定義のご説明をお願いします。

井上博:(記載内容:AI≧人)、文字通り、AIが人を超えるとき。

井上智:(記載内容:汎用AI→経済的特異点)汎用AIが労働を担い、我々は遊ぶようになる社会の到来。それをもってシンギュラリティとする。

高橋:(記載内容:不連続点)皆さん同じようなことを言っているようだが経産省の井上さんの定義だけは違う内容という印象。AI自身の自己改良や再帰的発展なり、人間の超知能化でAIの改良発展を人間が予測できなくなる。それがシンギュラリティの到来。この原因の1つが知能爆発などだ。井上さんの定義だけがいわゆるプレシンギュラリティ。2045年の手前の2029年頃に起こるとされている話のことかと思う。

山川:(記載内容:AI自身の再帰的発展)高橋さんが今ほぼ説明した。高橋さんの定義(不連続点)が現象であり、私の定義(AI自身の再帰的発展)は原因。そういう相関だ。

松田:(記載内容:塚本先生が超人間になる)機械ではなくて人間の知能増強が望ましい。人間自身が超知能になるということ。

塚本:通常のパネルディスカッションであれば、この中からどれが最も良いと思えるかなどという流れになると思う。今回はそれをせず、これを踏まえて次の議論に進みたい。ちなみに私自身はシンギュラリティを「技術的特異点」と考えていて、不連続な点だと考えている。

Q.1 人類にとって望ましいシンギュラリティとは何か?

塚本:それでは次の問いです。「人類にとって望ましいシンギュラリティとは何か?」(ご記入を)どうぞ。(読み上げていく)

松田:ユートピア、総ひきこもり。
山川:人類のソンゾク&HAPPINESS。
高橋:AI→IA、MI。
井上智:遊んで暮らせる社会。
井上博:課題解決、「光」の実現、「影」の回避。

塚本:では松田先生から順番にご説明をお願いします。

松田:「ユートピア、総ひきこもり」。私は定年退職して引きこもっている。これほど楽しいことはない。2045年以降は皆さんも定年退職し、楽しく暮らしましょう。

塚本:皆で引きこもるということ、これが人類にとって望ましいシンギュラリティだと。

山川:「人類のソンゾク&HAPPINESS」。税金と同じで今の人が幸せになると、将来の人が生き残るのに多少のトレードオフがあるとみている。そのバランスをとることが大切かつそこにAIが活躍してほしい。

塚本:もう少しご説明ください。

山川:いくらAIが進歩しても、リソースが無限にあるわけではない。例えば、「子供を1億人増やしたい」それが自分の幸せだから、という人が1億人もいては大変なことになる。将来の人たちの幸せも考えて、バランスを取っていくことが大切。

塚本:人類にとって望ましいシンギュラリティとは何か。これに対する回答としては?

山川:望ましいシンギュラリティのためにAI技術を役立てる、ということ。

塚本:高橋さんからはまず、略語の説明からお願いします。

高橋:「AI→IA、MI」。AI(人工知能:Artificial Intelligence)、MIはMachine Intelligence。IA(Intelligent Amplificication)は知能増強のこと。皆さん地球派、宇宙派という議論をご存知だと思う。このまま人工知能が発展して、シンギュラリティに達して地球上でもっとも知能が高い種族が人間からAIにとって代わられ、それが主役になる。「蟻と象」でいうと、人間が蟻のほうになるという話がある。人間主体のままにするために、AIの技術進展を止めようというのが地球派で、一見そのほうが望ましいように見える。宇宙派に進む道筋を決めるのは、非常に難しい。資源の争奪、哲学者のダニエル・デネットに至っては、私の造語だが「ドーパミン・ニヒリズム」という話をしている。人間のやることがなくなったとき、ドーパミンを出すことだけを追求するというような、いろいろな落とし穴がある。そうなるとやはり人類が発展していくためには、宇宙派として人間とAIが融合して一体となっていく道しかないと思う。

塚本:融合して一体になる、人間が超人類になる、というのが宇宙派だと。松田先生から、地球派・宇宙派の解説をお願いしたい。

松田:提唱者はヒューゴ・デ・ガリス(註:オーストラリアの人工知能学者)。将来的に人間の知能の一兆倍の一兆倍の超知能が誕生する。そのことは自然の流れなので、そうするべきというのが宇宙派。そうではなくて、人類をトップとし続けるべきというのが地球派。

塚本:人類をトップとするのが地球派。AIの進展をそのまま許すのが宇宙派。

松田:(宇宙派は)人類が滅んでもよい(会場笑い)。

塚本:そろそろ、この〇×札を使いたくなってきた(笑)。皆さん、地球派ですか?
(—パネリストが〇×札を提示。〇は塚本、井上智、井上博。×は松田、山川、高橋。—)

塚本:〇×がきれいに分かれた。

高橋:僕も心は地球派だが、地球派を追求することによって想像できる危険性がありすぎる。回避するのもほぼ不可能なほど難しい。

塚本:それは逆の場合も同じでは?

高橋:その通り。それを回避する唯一の方法として、逆転の発想で人間とAIが融合する道しかないと宇宙派に転向した。

松田:この議論のときは、私もヒューゴ・デ・ガリスもいつも会場からアンケートをとる。

塚本:それでは会場の皆さん、挙手してください。

松田:宇宙派は人類を滅ぼしてもよい(会場笑)。

塚本:先生、それはさすがにちょっと(笑)。

高橋:文明の主体が人間から機械に移ってもよい(というのが宇宙派)。

塚本:いつまでも文明の発展の主体が人間である、とするのが地球派。

高橋:もう1つ補足だが、宇宙派であっても人類は存続し続ける。AIが発達して人類と多大な能力差が生まれれば、私たちが蟻をふだん意識しないのと同様に、AIも人間を意識しない。ペット同様になる、あるいはペット以下。

松田:ヒューゴ・デ・ガリスはこういう。人間はペスト(害虫)、蚊のようなものだと。宇宙の進化の一環だから人間は滅んでも仕方がない、というのが本来の宇宙派。

塚本:どちらの意見もある、ということで(笑)。では(会場の)全員、どちらかに必ず挙手を。地球派の人?(会場、挙手)ああ、半分くらいかな?宇宙派の人?(ほぼ同じ数が挙手)。(松田先生に)この結果を受けてどう思う?

松田:いつもそう。ヒューゴ・デ・ガリスも言っているし、私もいろんなところで会場アンケートをやったが、五分五分か六対四くらいでいつも宇宙派のほうが多い。これは自分が滅びないと思っているから(会場笑)

塚本:宇宙派に寝返ったという高橋さん、この結果をどう思うか?(会場笑い)

高橋:どれだけのスパンで考えるかという問題もあるが、百年とか千年とかで考えると、どこかのテロリストが作るからといって政府がAIの開発を禁止しようとしても防げない。人類は環境変動などでも絶滅する可能性があるのだから、AI技術は人類の生存率を上げるために使う。性能のよいAIの開発によって、人類の生存率も上がる。AIもいずれは意志ももつだろう。そのように考えると、地球派であり続けるために人類とAIが一体となっていく宇宙派を選択する、ということになる。

塚本:それは地球派ではないのか?

高橋:文明の主体が人類から機械に代わる、という観点の話。極限まで考えると生身の脳や肉体を維持したまま人類が知能増強するというのは、ある程度のところまでで大幅に改変しないといけなくなる。従ってそれを長期的に維持するというのは難しいと思う。そのあたりを地球派とするかどうかは(シンギュラリティの)定義による。

山川:AIが進展するのと同様に、IAもかなり進展できると思う。

塚本:AIとIAという言い方はよくするのですか?

山川:はい、よくする。対比的、ちょうど逆向きなのでよく使う。IAのほうは人間の限界の打ち破り方、例えば難しい数式を誰もが理解する、というようなことができないといけない。ハード的な容量、把握できる範囲に限界がある。自分がどこまで理解したか、拡張できるかというところ。技術的にAIに追いついていけるかどうか、AIにマッチできるレベルに追いついていけるかどうかを担保していく、あるいはある程度の差がついてもどうにかするか。そのあたりが難しいと考えている。

塚本:次の問いにもつながると思うので、井上先生のお答えを。

井上智:地球派・宇宙派の話をまずしたい。講演でも話したが、「そんなに頭のいいAIって出てくるの?」という疑問がある。頭の回転が速いかもしれないが、頭の回転が速い馬鹿もいますよね(会場笑)。汎用AIがそういうものになってしまわないのか、いわゆる小利口な召使のようにうまい具合になるのかなぁ?という思いがある。山川さん、高橋さんは「いやいや、賢いAIが出てくるよ」とおっしゃるけれども(笑)。

山川:(笑)。井上先生のご発表の中で、「(報酬系、強化学習の)主目的の報酬が固定していれば、汎用AIはさほど人類の脅威にはならないのではないか?」という話があったかと思う。それは報酬の問題というより見ているセンサーやアクチュエーターのほうの問題。今の囲碁プログラム(AlphaGO)のように、囲碁の世界だけを見ている場合はどうしようもないが、例えばカメラで自分の電源コードをみている場合。隣の人が電源コードを抜かれるのを見て、AIはそれを(打ち手の1つとして)学習するかもしれない。

井上智:なぜ電源コードを抜くのですか?

山川:ゲームに勝つため。相手の電源コードを抜けば勝てる。そのように外に出て得られる世界が広がることが重要で、あまり報酬の問題ではないと考えている。人間も顕微鏡ができるとミクロの世界のことを考えられるようになる。そのように自分のセンシング能力の範囲が広がることのほうが重要で、報酬はさほど問題ではない。

井上智:そのようなAIがなぜ人類を支配したり、叛乱を起こすのか?

山川:有名な「クリップ・マキシマイザー」という話があって、超知能に紙クリップを作れというと、地球の資源を使いつくして世界を紙クリップでいっぱいにしたり、検算のために計算をして電気を食いまくるというのがあります。

井上智:それは主目的より副目的、つまり手段のほうが大きくなってしまうということでは?

山川:大きくなっているのではなくて、副目的を達成しようと努力するという話。

塚本:今の話を〇×してみますか?

山川:「クリップ・マキシマイザー」とは、主目的を実現するために電源コードを抜かれないように自己保存したり、リソースを取りまくるといった副目的が自動的に生成されて追求される。危険ですよね、という話。

塚本:クリップ・マキシマイザーのような事態は議論の余地がない話?あり得る話?

井上智:理屈としてはあり得る。ただ人間がそれを抑えられないのはいかがなものかと、
直観的にではあるが思っている。クリップ・マキシマイザーは叛乱ではない。副目的に巻き込まれて人間なり地球が滅びるという話。
報酬系が固定されている限り主目的自体が人間を支配する、滅ぼすということにはならない。副目的がぼこぼこ生成されないようにしたほうがいいのではないか?と考えている。
そこにはある程度の制限があるのかもわからない。

塚本:人工知能が反乱を起こし得る可能性について〇×をしてみたい。山川さん、どういう問いを立てればよいですか?

井上博:2045年くらいに人工知能が叛乱を起こして、成功する可能性?

山川:能力的なところを問うのか?動機があるところを問うのか?その両方が問題。

井上博:動機のところも問題だし、能力的にも無理というのは人間より高次の意識が出てくるかという点になってくる

高橋:動機のほうに絞っていいのでは?

山川:失敗する場合でも、動機はあったと(笑)

塚本:〇は動機が沸き起こってAIの叛乱を起こし得る。×はそんなことありえない。せーの!(パネリスト、〇×札を掲示)私と山川さんだけが〇。

山川:動機はある、という話を。例えば(映画)「2001年宇宙の旅」コンピュータのHalは、乗員には秘密のミッションがある。一方でルールとして物事を決定する場合は乗員に相談しなければならない。この矛盾を解決するために乗員全員を殺す。この話は分かりやすいが人間がいろいろな報酬・価値・ルールを埋め込んでしまうと、あらゆる想定ができない。
どこかに抜けがあることでこのようなリスクが発生することはゼロではない。

塚本:問いがまだ4つ残っているので、次へ進めたい。

(会場から質問):叛乱が起こったときに電源コードを抜けば止まるのでは?

山川:Kill Switchと呼ばれるもので、去年Googleが発表したり、EUがロボットにつけるボタンを作ったりしている。そういう対策は当然考えている。極端な例はアポトーシスプログラムというもの。デフォルトで何も信号を送らないと自動的に死んでしまう設定がしてある。ただ、そのプログラムに気づいてAI自身で改変してしまうほど知能が上回ってしまうというリスクと、AIが停まりやすいようにしてあると実際のAIは社会インフラを支えている。例えば今でもGoogle(検索エンジン)が止まると私たちは困まる。AIが全部止まってしまうことによる被害のほうが大きくて、逆にそのことで人類が死んでしまうということもあり得る。なかなか難しい問題。

塚本:井上先生からご説明を。

井上智:人類に望ましいシンギュラリティとは、小利口な召使のような汎用AIの実現。AIに仕事を任せて、BI(ベーシックインカム)といった社会保障制度が導入されれば遊んで暮らせて引きこもりもOK。

井上博:いいシンギュラリティということだとすると、やはり課題解決。(講演内容の)「光」の実現がいいなと思う。ただし「影」の回避をしきれるのか?というのが皆さんの今の議論かと思う。私は地球派として願望にとらわれているかもしれない、と皆さんの話を聴いて感じた。ただ、いろんな課題があるのは事実なので、課題解決につながればいいと思う。

塚本:それは国としてのご意見?(会場笑い)

井上博:それは全部同じと思う。

塚本:個人的にこうありたいな、というところは?

井上博:働いていくということでいくと、井上先生のおっしゃるように「遊んで暮らしたい」と思う一方で「何か社会貢献したいな」という部分もある。その社会貢献の中でAIなどとの兼ね合いをどうしていくのかというのは、個人的には思う。

塚本:遊んで暮らせるけれども、働きたい人は働いていい。

井上博:しかもその働き方が、今まで以上に「ああ俺、世界に貢献しているなぁ」といえるような大きな意味あることにつながっていけばいいなと、これもやや願望ではある。

Q2.誰がシンギュラリティをおこすのが望ましいか?

塚本:あと4つの問いを5分ずつでやっていきたい(笑)。(パネリスト、記入中)。今回のメインテーマ。これに関連する話、議論すべき点は多い。今回、違いを出していきたいのはこういうところ。(全員、記入終わり)せーの、ドン。

 松田:日本人
 山川:多くの人々と共有した形
 高橋:みんな
 井上智:研究者+人々
 井上博:日本で

最初に私が作った問いにこの問いを加えたのは、高橋さん。日本という答えを予期して、想定されていた?

高橋:両方です。皆さんの真意は、井上先生や山川さんともずっと同じことを話している。AIの暴走、経済的な収奪、いろいろな話がある中で将来的な理想なのはビッグマザー的なスーパー知能があって世界を最適化する。古代ギリシャ、哲人政治のような姿もあり得ると思うが危うくてロバストではないと思う。いろんな文化背景や歴史を持っていたり、設計原理に基づいたりと、多様なAIシステムが今のインターネットのような形で牽制しあい相互依存する形で世界を形成していると。例えるなら人間界、自然界があるようにAI界もできるといいのではないかと。
AIが自然界の一部の形となっていれば、1つのエージェントが誤動作を起こした場合でも人間に不利益を被るような行動を起こしそうになっても隣のAIがおいおい、と(止めてくれる)。先ほどの(山川さんの)インフラの話では病院で停電になって危機的状況になった場合でも、その近所のAIが助けて機能を補完したりと。そういう状況に持っていくのが人類にとって好ましいのではないか。その意味でアングロサクソン型AI、Google型AI、日本ぽいAI、アラブ型AIといろいろある中で、全体を俯瞰してみると一神教対多神教という形になるが多神教的な世界観というと日本、ということにもなる。日本という答えと両方とも正しい。

塚本:「みんな」という意味では、井上先生と山川さんも同じ考え?「日本から」というのも一方では正しい答え?

山川:日本は日本がやる!という勢いでやらないと結果として「みんな」にならない。みんなでやることでのデメリットもリスクもある。それを考えた上でもみんなというのが正しい方向性。

塚本:松田先生は「日本から」という点を常に強調されておられる。

松田:現状では、シンギュラリティを起こす最有力候補はアメリカ、次に中国。これらの国が超知能を作れば必ず軍事ロボット、殺人ロボットから始まる。日本は平和国家なので、そのオプションはない。

井上博:僕は山川さんに近くて、やはり「日本でがんばろう!」ということにしないと、日本が取り残されてしまうというのがある。

塚本:それは国の意見?

井上博:ちなみに今日は個人として参加しているけれど、ほとんど国の立場(会場笑い)。

山川:WBAIとしては世界の人たちと手を取り合っていく、というスタンスを打ち出している。基本的にはそれを主張している。

塚本:皆さんいろいろな立場があるので、設問によっていろいろな答えを用意しておかないといけない(笑)。井上先生からもひとことを。

井上智:今日は駒澤大学を代表してきている(会場笑い)。

Q3. 日本からシンギュラリティを起こすには何が必要か?」

塚本:次の問いQ3へ移る。「日本からシンギュラリティを起こすには何が必要か?」。
これはなかなか楽観できない状況ではないかと思える。Googleはじめアメリカの企業が強いし、欧州全体でも多額の費用を投じて予算をつけている。それに比べると日本は企業も国も足りない部分が多いように思う。(パネリスト、記入完了)。

 松田:人材の結集
 山川:とにかく行動
 高橋:プラットフォーム企業
 井上智:人+金+データ
 井上博:多様な人のるつぼ

塚本:松田先生と井上さんが一致するパターンが多い。松田先生と井上さんから。

松田:AIを作るのに重要な要素は2つ。1つは知能、才能。2つめはカネ(会場笑)。
カネはないから、人材で。山川さんに頑張ってもらう。

井上博:僕も人材だと。山川さんのおっしゃるように日本は多神教。いろんな意味でうまくやっていけば、とても魅力的なコミュニティになり得る部分がある。AI開発をする上で優秀ないろいろな人が必要。そういう人が集まれば日本は魅力的な場所になり得るのではないか。そうなればいいし、仮にそうなるとお金も他のものも寄ってくるという願望。

塚本:それも国として、この分野に大きな予算をつけたいという意図は?

井上博:国としてもだがいろいろな方と話していると、お金があれば人が集まる時代ではなくなってきているのではないかと思う。チャレンジングな研究、データ、研究がやりやすい環境。いろいろなものがないと世界中から面白い人は集まってこない。国としてはそのような環境作りが課題なのかなと思う。

井上智:これにプラスして本当はビジョンがある。ビジョンはすでに山川さんたち(WBAI)がビジョンを作っている。日本はビジョンが作れないのがだめなところだが、珍しくこれに関しては世界に先駆けて日本がWBAIというビジョンを作ってある。人は足りないながらも結集しつつある。あとはお金。

塚本:お金は集まっているのでは?

井上智:(山川さんたちに)足りてますか?足りてないですね(笑)。足りなければ、これは私が経産省に行ったときにお話したのですが、お金が足りなければ日本銀行がお金を刷ってそれを使えばいい(会場拍手)。これをヘリコプターマネーというがインフレを心配する声がある。汎用人工知能の開発費用程度でインフレにはならない。(井上さんのほうを見て)そもそも今、インフレを起こしたいのでは?という話。そこのところもぜひ、お願いします(笑)。

高橋:一言いいたい。税金の収支、プライマリーバランスの話があった。それは大事な話。税金は市場からの貨幣を回収するメカニズム。新たに投資するための原資ではないので、
インフレが起きていないうちは、井上先生と同じ。「プラットフォーム企業が必要」の話をする。20世紀と21世紀の技術のありかたは根本的に変わっている。
20世紀プロジェクトの典型というと、マンハッタンプロジェクト、原爆製造、アメリカの国防安全保障上の必要性にかられて何万人も集めて巨大プロジェクト作った。これはストレートな構造で、原爆が完成すれば終了だった。もちろん、波及効果はあったが。今はDeepMind社がやっているようなことだ。Googleが検索を独占状態で、つまりプラットフォームを作るとそこへ情報が集まり利便性も上がりお金もできて、その利益を再投資できる。資金を即投入して性能が上がっていく。そうしたフィードバックの構造がある。先ほどの井上さんのお話に非常に共感している。やはりバーチャルなところでは負けたが、まだリアルあるいはサイバーフィジカル、融合部分はブルーオーシャンとして残っているのでその分野からぜひ日本のプラットフォーム企業が出てきてほしい。そこで生まれた技術開発が次世代へフィードバックするシステムを作る。そうしないと日本は先進国ではなくなってしまう。そのレベルの話という認識だ。

塚本:それは大手?ベンチャー企業?どちらのほうが可能性が?リアルデータの話は国の仕事では?

高橋:大手でもベンチャーでもどちらでもよいと思う。僕は最近、いろいろなところで大企業批判ばかりしているので自粛したい(笑)。フェーズによる。シーズを作る、つまりゼロから1を作るところなのか1から10に育てるならスタートアップのほうがいい。CIAのサボタージュマニュアルの話がある。向き不向きの話だが、大企業だと意思決定の手法が間違いを起こさないことに最適化されている。10を100、1000にするのは大企業に向いているし社会的に責任がある。それが役割分担だと思う。

塚本:WBAIもプラットフォーム機能を担うという話。WBAIでも大企業や起業家さんとも話し合いを持っている。WBAIで人が集うサロンを作る。基盤技術は自前で作るかもしれないが、そこからスタートアップ企業をどんどん生まれる状況にしようと今、がんばっているところ。

塚本:最後に山川さん、「とにかく行動」というお話。

山川:行動はベンチャーの話につながる、行動が大事だなと思ったがビジョンだなと思っていたら井上先生に先に言われてしまったので、「VISIONの発信」から「とにかく行動」へ書き直した(会場笑)。WBAIもおととしくらいからビジョンを考えていた。海外でもOpenAIなど多くのところが人類のためにといったビジョンを打ち出している。その中でWBAIはどこまで世界に発信していくことに意味があるのか悩んだ時期もあった。先ほどの多神教的な面からも日本の精神的な強みもあるし実際、NPOとして始めてみると我々ほどそこまでちゃんとやっているところがないかもしれないということがあるかもしれない。我々のビジョンをより強く発信していくとこの考え方に共鳴する知識層、意識の高い研究者に届くかもしれない。意識の高い研究者はもはやお金では動かない面があるので、ビジョンをきちんと打ち出していくことが、予算の獲得と両輪となるのが有力ではないかと考えている。

塚本:「とにかく行動」というお答えもいいお答えだったと思う。では次の問い。

Q4.いつ人工知能が人間の知能を超えるか?

塚本:これはシンギュラリティを語るときによくある議論。議論をまとめていくにあたって、何年、という数字を書いていただきたい。
目標といってもいいと思う。(パネリスト、記入完了)せーの、ドン。

 松田:2029年
 山川:プログラミングできるのが2024年
 高橋:2029年+1
 井上智:2030年にだいたい追いつく
 井上博:2030

塚本:皆さん、数字的に非常に近い。山川さんの条件付きのお答えも、プラス5年くらいで中身が追いつくということであれば(2029年なので)同じになる。これはパネリストに偏りがあるというのは若干懸念していたのだが。

山川:テクニカルな問題として、時間がかかるという要因をむしろ探したい。これが難しいという技術的テーマを見つけたい。

塚本:ディープラーニングでは難しいというような議論ということ?

山川:そのような抽象的なことではなくて、この問題があるからこれが突破されるまでは無理だというのを見つけたい。2030年ごろというのは早すぎる、人類にとっては優しくない。

塚本:2030年に追いつくというのも早い?

山川:早すぎる。人類のためにはもっと遅いほうがいい。ただ技術的障害がない限り、開発できてしまう。だから「こういう問題がある」と指摘してほしい。自分たち開発側で考えていくとこの答え(2030年ごろ)になってしまうから。クリティカルにここがこうだから、とAIの定義を言ってほしい。今までできなかったから、というようなもやっとした答えでは議論はできない。

塚本:できないとおっしゃっている側の方の話をしていただきたい。

松田:例えばチョムスキーはそう。なぜできないかの理由に「人間は偉い。だから人間そっくりなものは作れない」という。一理あるとは思う。鳥そっくりなものはできない。鳥を造りたいのではなく、空を飛びたいということ。これをライト兄弟は実現した。しかし、鳥はいまだに造れていない。それと同じで人間そっくりなものはできない。だけど人間のように考える機械は作れる。

塚本:もっと早く完成できる、という人もいる。

高橋:AIの歴史は計算力で突破してきた。ハードウエアには限界がある。ソフトウェアは工夫のしようがあるが、物理的な限界がある。ムーアの法則がこのまま続くと、2029年頃に1Hが達成できるというプロジェクションが正しいであろうという前提のもとで皆さん2029年という答えがそろうのだと思う。

井上智:追い越すという話があったが、私は追い越さない派。2030年ごろにだいたい追いつくというのも、ポイントで人間に割りと近い働きをしてくれるものができて、それが労働してくれるであろうという、願望も込みの話。追いついたからといって追い抜くかというとまた別の要素が必要。所詮、人間が作ったものが人間を追い抜けるのか。複雑な議論が必要で、可能かもしれないが今の汎用知能の作り方では追いつく、というところにうまく収まるのではないかと思っている。

高橋:工学的に設計していくとそういう議論も一部成り立つが、進化的アルゴリズムという話もある。そうなると計算力が落ちる。

Q5.シンギュラリティはいつ起こるか?

塚本:最後の問い。Q5.シンギュラリティはいつ起こるか?

 松田:2045年
 山川:2030年
 高橋:2045年以降
 井上智:2030年から2045年
 井上博:2030年

塚本:松田先生からご説明を。超人類になる、というお話。

松田:僕はそういう本を書いたから、そうならないと困る(会場笑い)。

塚本:約30年弱で超人類が誕生すると。

山川:再帰的なものができてきたら、2045年以降に開発が進む。そのまま計算パワーが必要だとすると2045年ぐらいまでかかる。最近のCNNでも実際に作られるとエネルギー効率が上がりプログラムの軽量化が進む。そのファクターが急激にうまく効くと2045年に想定しているより手前で本質的な計算はここだけでいいよね、と加速してしまう。そうなるともっと早く完成することになる。自己改変の中に計算コスト自体も減らすことも入り、自己改変も相乗的に加速するのではないかということ。

塚本:松田先生の超人類の誕生という話は2045年。割と見積もりとして近いところはあるのか?

山川:超人類ではなくAIのほうの話をしている。

塚本:定義が違っているうえで2045という数字が違っているのか、認識として一緒だが定義が違うから数字が違うのか、将来に対する見積もりが違うのか?

山川:それはたぶん(定義が)違うから。プログラムを直すより人間をいじくる技術のほうがたぶん時間がかかる。そういう意味で超人類誕生のほうが2045年(で15年の遅れがある)。

塚本:シンギュラリティの定義は異なるが、技術的にはイメージはあっていると。

高橋:さきほどの続きで結局は計算量で決まる。ムーアの法則にのっとると2045年。ムーアの法則がそのまま続くかというのが次に論理的な問題になる。時宜的な問題だと線幅の微細化ということで2020年代の前半で終わる。計算論理を脳型にすることでおそらく数年分くらいは持つ。「2029年に1H」というのはある程度かたいプロジェクション。京のスパコン関係者にもいろいろヒアリングしたし去年、スーパーコンピューティングというこの分野最大で権威ある学会にも行った。そこで一番話題だったのがポストムーア世代のコンピュータはどうなるのか?というセッション。アイ・トリプル・イー(IEEE)という一番力をもつこの業界の団体トップが自ら司会してプレゼンしてと、真剣な議論があった。イントロニクス、量子計算など技術の候補はある。

塚本:そろそろ時間なので結論を(会場笑い)。

高橋:2030年よりあとなのはほぼ確実。いつになるかは判らない。

井上智:汎用人工知能によって経済的特異点が生まれるというのが私の定義。汎用人工知能の完成が2030年。私のいう純粋機械化経済が生まれている時期が2045年頃。私もそういう本を書いたので、そうなってもらわないと困る(笑)。

井上博:高橋先生が技術的な定義をしてくださった。山川さんのお話にあった「開発8原則」が果たしてどのように実現されうるのか。私は技術者ではないので悩むところ。
何年かかろうとその原則が貫徹されるといいなと思う。

塚本:1年前まではシンギュラリティといっても雲をつかむような話だったのが、ここ1年で急激にシンギュラリティに関係する議論が進んだ。開発八原則もそうだが少しずつ方向性が見えてきた感がある。開発者も開発の方向が定まってきた。「日本からシンギュラリティを起こすには」というのが今回のテーマで議論は尽きないが今日はこのあたりで終わりたい。

以上

(報告:鳥山美由紀)