本ブログはnoteというブログサイト、葦の葉ブログnote「生成AIを使って考える」公開した5編のブログを転載、移転したものですが、移転理由についてはにて、noteから生成AI関連ブログを移転をご覧ください。
1.謎めいた「アルトマン騒動」
Open AIの「アルトマン騒動」は、生成AIのもつ複雑さを象徴しているように見えましたが、東大教授の伊東乾氏によれば、実はきわめて単純な人間の欲得原理によるものだとのこと。
世界でまだ誰も報じない、OpenAIお家騒動のおぞましき正体 非営利組織切りの実態と、戦艦大和化するチャットGPT 2023.11.28(火) 伊東 乾 JBPress
上記記事にもありますように、Open AIは組織的には二重構造になっているという。非営利団体としてのOpen AIが上位にあり、その下部組織として営利企業としてのOpen AIがあり、下部にある営利企業のOpen AIは、上位にある非営利のOpen AIの指揮監督に従うという決まりになっているとのこと。
Open AIは、組織形態そのものが一般企業とは異なる、特殊で複雑な二重構造になっています。この特殊な仕組みは、営利、つまりはカネ儲けのためだけに自由放題、勝手放題にAIが使われるならば、人類に甚大な被害を及ぼすことを憂えた専門家たちの総意を受けて、Open AI創設時に設けられた二重構造だという。
共同創業者であり、今回の騒動の主でもあるアルトマンCEOも自らも率先して、この二重構造の必要性を説き、受け入れているという。同社創業時の出資者であるイーロン・マスク氏も、同様にこの特異な組織形態を受け入れていたという。
以下の記事は、アメリカのWEBマガジン「WIRED」の日本語版ですが、アルトマン騒動を詳しく報じています。アルトマン氏の「OpenAIへの復帰は、人類にとっての新たな『リスク』を生む危険性を秘めている」という点では伊東教授と同じですが、伊東教授の批判の方がさらに過激な印象です。
サム・アルトマンのOpenAIへの復帰は、人類にとっての新たな「リスク」を生む危険性を秘めている WIRED 2023.11.25 きっかけは「ジョーク」だった──ジェフリー・ヒントンがAIは人類の脅威になると考えるようになった経緯 WIRED 2023.05.21
両者の批判を参照しつつ、わたしが受けた衝撃について書くことにいたします。
OpenAI が開発したChatGPTは世界中に衝撃を与えていますが、その渦中でのアルトマン騒動。この騒動の背後にあるのは、生成AIのもつ危険性と不可分ともいえる超人的な有能性ですが、危険性を監視しコントロールする仕組みなしに、野放図に商品として市場に送り出すならば、様々な意味で人類滅亡へと至る可能性すらあるというのが、批判者の共通した認識だと思われます。
そこに加えて伊東氏は、この騒動は、OpenAI創業時の基本理念である公益性重視の、非営利の枷を取っ払うために仕組まれたものであるとまで批判されています。この騒動の結果、非営利方針遵守派の役員3人が辞めてしまったことに加え、生成AIの生みの親であり、アルファ碁の生みの親でもある非常に優秀な技術者で非営利派の旗頭ともいえる、ロシア出身のサツケバー氏を追放した点に焦点を当ています。
伊東氏は、「今回の『アルトマンの変』は、要するにこの『サツケバー切り』ないし『非営利団体切り』というのが本当の正体にほかなりません。」と断言しています。
非営利派を追放した後には、公益性にはさして関心のない人物が役員として就任。中でも倫理的に問題の多いサマーズ元財務長官の就任は、この騒動の狙いを雄弁に物語っているとのこと。
しかも驚いたことには伊東氏は、さらに過激な批判を加えています。アルトマン氏やマスク氏は、創業時には公益性や非営利を目指したサツケバー氏に同調する振りをしたものの、サツケバー氏なしでも生成AIの開発は可能な段階に至ったとみるや、今回の騒動を起こしてサツケバー氏を追放し、営利追求路線を明確にしたという。
それを象徴するのがサマーズ氏の起用となるのですが、わたしは、ええっ、そんな陰謀まみれの騒動だったの???と少なからぬ衝撃を受けました。
直接当事者たちに取材しているWIREDの詳細なレポートを読んでも、なぜアルトマン氏が突如解雇されたのか、その理由は皆目不明です。アルトマン氏が不正を働いたという事実もなければ、安全性に関する問題も発生していないという。にもかかわらずの突然の解雇、そしてあっという間の復帰。
OpenAI内部の、解雇決定の間近にいた当事者ですら解雇の具体的な理由は分からないという、非常に奇妙きわまりない騒動であったということと、騒動の後、大幅に人事が刷新され、営利路線への制限もかなり緩和されたらしいということだけははっきりしています。
という結果を見れば伊東氏の指摘どおり、非営利派を追放する陰謀めいた工作があったのかとも思えてきますが、そこまでしなくても非営利、営利は両立できなかったのか、両立すべきだったのではないかと思いますし、新体制でもAIの危険性を無視した開発も商売もできないことは明らかです。
ただ、今回の騒動を介して、アメリカでは生成AIに対する危機感は日本では想像できないほど強いことが分かりました。この違いは、AI、生成AIの浸透度が日米では非常に大きいことに由来しているのだろうと思います。
2.生成AIの危険性にはどう対処すべきか
しかし生成AIの危険性は、その使用を禁止ないしは制限すれば除去されるのかといえば、NO。それどころか、制限、禁止すればむしろ危険度は高まると思います。広く開放して誰もがこの新技術を利用し、付き合う中で、人間並か、時にはそれ以上の働きをする人工知能が登場したという、衝撃的な現実を認識する必要があるはずです。
一握りの専門家の専用ツールとして隔離されたとしても、安全に隔離される保証はほぼないと見るべきだと思います。隔離するのではなく、広く解放して誰もが生成AIを使い、その特性を理解する中でその危険性にも気づくという環境を準備する方がよほど危険性への耐性が身についてくるのではないかと思います。
組み込みOSトロンの生みの親でIoTの生みの親でもある、坂村健氏の生成AIに対する見解は非常に示唆に富んでいると思います。 生成系AIに関するINIADの見解 坂村 健 INIAD (東洋大学情報連携学部) 学部長
坂村氏は学生に対して、ChatGPTの使用を禁止するのではなく、むしろ積極的に使用を推奨しているという。ChatGPTは自分の頭で考え、思考を深めることができるツールだと指摘されています。
「ChatGPTを使うことが必ずしも「自分の頭で考えない」ことに繋がるとは思わないからです。ChatGPTとは対話のセッションを何度も続けることができ、その過程で自分の考えを深めることもできます。そこが、聞いて答えるだけの検索エンジンとは大きく異なる点です。」
坂村健氏に関しては、以下の記事をご参照ください。 “魔法みたいな大学“の学部長はIoTとTRONの父だった 坂村健氏に聞くIoTの過去・現在・未来 2018年03月13日 ITmedia
とはいえ、生成AIは人間に害を及ぼす危険性を孕んでいることも事実です。年が明けると2年目に入るウクライナ戦争でも、ロシアは情報戦にも力を入れ、ニセ情報をばらまきウクライナ国内の攪乱を画策していますが、情報戦では生成AIは最強の武器になっていることが、11月29日付け西日本新聞で報道されていました。
戦争には情報戦はつきものですが、命の危険に絶えず晒されている戦争渦中に、瞬時に速成できる生成AIを使ってニセ情報がばらまかれた場合、即戦況に影響を与え、大勢の人々の命をも奪いかねません。特に動画は臨場感もあり、訴求力も抜群。ロシアは生成AIを使ってニセ動画を乱造して、ウクライナ攻撃を加速化しているという。
対するウクライナは、ニセ情報防止センターを開設し、ロシアからのニセ情報防御体制を敷き、機敏に対抗活動を展開しているという。その際、防御する側のウクライナにとっても、AIはニセ情報覚知の最強のツールになっているという。
ウクライナのニセ情報防止センターには、軍の分析官だけではなく、エコノミストや法律家、記者出身者など民間出身者によって運営されているという。即座に民間から人材が集まることには驚きますが、民間から集めた人材が、戦時下において即戦力として活動していることにはさらに驚きますね。
ウクライナはロシアからの情報戦にも柔軟、果敢に対抗しているようですが、生成AIの危険性を考えるに当たっては、戦時下という特殊な環境は平時以上に問題のありようを鮮明化するはずです。仮に、国際的な枠組みのもと、生成AIの開発利用に何らかの制限を設ける取り組みがなされていたと想定した場合、平然とウクライナに侵略したロシアが、この取り決めに従い、生成AIの利用は自粛したかといえば、無視したであろうことはほぼ間違いないはずです。
そもそもロシアは、自前で生成AIを作り、進化させる高度な能力を持っていますので、平時においても独自路線を貫くのではないかと思われます。原爆のように、使用はもとより、開発も外部からキャッチできる技術とは異なり、生成AIは秘匿することは可能ですので、生成AIの制限ルールを世界中で貫徹することは不可能なのではないか。
であれば、使用制限するよりは、他者の権利や生命財産を侵害しないという基本的ルールを定めた上で、使用を解放する方が、安全な環境づくりに資するのではないかと思います。素人ゆえの浅はかな考えかもしれませんが、危険に晒されながらも、解放された環境で危険にも対抗する技術や知恵などを身につけて行く方が、生成AIの健全な発展に貢献するのではないかと思います。