汎用人工知能(AGI)が2025年初頭に実現し、2027年までに人工超知能(ASI)が到来する可能性:SingularityNET創設者

SingularityNET

今回は、2024年2月28日の「”ベビーAGI”は2025年初頭に実現する可能性がある:SingularityNET創設者」と2024年3月8日の「科学者の予測:2027年までに人工超知能が到来する可能性がある」という記事を翻訳しました。AGIやASIについての知見が深まる大変良い記事となっています。

「ベビーAGI」は2025年初頭に実現する可能性

来年にベビーAGIが完成する

SingularityNET(シンギュラリティネット)の創設者Ben Goertzel(ベン・ゲーツェル)氏は、汎用人工知能の初期フレームワークは早ければ来年にも稼働する可能性があると考えています。

AGI(汎用人工知能)は理論的な概念であり、実現すれば人間が行えるあらゆる知的作業を遂行する能力を持つAIシステムが開発されることになります。

ゲーツェル氏の計画では、オープンソースコード、分散型インフラストラクチャとガバナンス、オープンエンドの認知アーキテクチャ、多様なAGIアルゴリズム、倫理的に調達および管理されたデータの使用、そして世界中の人々が参加できるようにするとのことです。

また彼は、「私たちは、どのようなAIアプローチを採用したいかに捕らわれない分散型AIインフラを構築しています」と彼は述べ、その目的は「タジキスタン出身の12歳の天才」が画期的な進歩に貢献することだと述べました。


ゲーツェルは、人型ロボット “ソフィア “を開発したハンソン・ロボティクス社のチーフ・サイエンティストだった。出典 アンドリュー・フェントン/コインテレグラフ

また、このネットワークは AGIの実現を支援するためのコラボレーションとさまざまな貢献を促進するように設計されているが、ゲーツェル氏は、自身のプロジェクトであるOpenCog Hyperon(オープンコグ・ハイプロン)が「ブレークスルーを起こすシステムかもしれない」というのが「最善の推測」だと述べました。

4月にアルファ版のリリースが予定されているHyperonは、多数の共著者がいる研究論文の中で、最新のアイデア、ソフトウェア、テクニックを取り入れた「人間レベル以上のAGIフレームワーク」と説明されています。OpenCogは、2008年にGoertzel氏が設立したオープンソースのAIプロジェクトで、SingularityNETと提携しています。

彼の説明によれば、Hyperonアルファは、Metta(メタ)とと呼ばれる特注のプログラミング言語を使ったAGIのプロトタイプのようなもので、この言語は4月に公開され、オープンソースの開発者がこれを使用してさまざまなAIアプリケーション用のより優れたコードを作成できるようになります。

コインテレグラフはゲーツェル氏に、アルファ版のリリースはAGIの赤ちゃんのようなもので、完全なAGIに発展させることができるのか、と質問しました。

「我々は、ベビーAGIを構築するための完全なツールセットを手に入れることになるだろう」と彼は明言し、今から年末までの間にシステムを大規模にスケールアップする必要があり、そうする予定だと述べました。

「私がベビーAGIと呼びたいものに到達するには、100万倍のスピードアップが必要になります。」

2025年初頭までに、ベビーAGIが誕生しているかもしれません。また、その比喩を追求したいのであれば、胎児のAGIと呼んでもいいと思う。」と同氏は語りました。

ゲーツェル氏は防御加速(d/acc)アプローチを支持

ゲーツェル氏はまた、超知能AIの開発に対するヴィタリック・ブテリン氏の防御加速(d/acc)アプローチを支持した。

AGI開発に関する意見は現在、その利点から技術開発を急ぎたい加速主義者(e/acc)と、実存的リスクを恐れて開発を遅らせたい減速主義者(decel)に分かれています。

ゲーツェル氏は、前者には “Silicon Valley Uber Alles”のような雰囲気があり、後者はたとえ最善のアプローチであったとしても実現する可能性は現実的には全くないと述べました。

代わりに彼は、11月にブテリン氏が提案した「分散型加速主義」または「防御的加速主義」のアプローチを支持しました。

「AGIへの進歩を加速させることはおそらく私たちにできる最善のことだが、AGIに対する権力が1つの団体に集中することは望んでいません […] また、起こり得るさまざまな悪いことにも注意を払いたいのです。」と彼は述べた。

ゲーツェル氏は、AGIについて『The Consciousness Explosion(意識の爆発)』という新しい本を書いたばかりで、その本の中ではAGIは莫大な利益をもたらし、人間を反復労働から解放し、あらゆる肉体的・精神的疾患をなくし、老化を治し、不本意な死を防ぐ可能性があると主張しています。

しかし彼は、これらの利点はリスクを上回るとしながらも、AGIはまだ多くの点で失敗する可能性があると述べています。

同氏は演説の中で、中国と米国が「相手を打ち負かすことを目的とする超AGI」を開発したり、世界のエリート層だけに利益をもたらし貧困層をさらに貧しくする非倫理的なAGIの導入など、いくつかのリスクを概説しました。

ゲーツェル氏の講演は、AGIをベン・ソースに導くことに重点を置いたものだった: アンドリュー・フェントン/コインテレグラフ

大企業が国民よりも自分たちの利益になるような規制を求める「規制の掌握」は、間違いなく起こりうることです。

また彼は、それは起こりそうにないと考えているが、「ハリウッドが好んで語る」AIの暴走のリスクも、可能性の範囲内だと語りました。

「私たちは根本的に未知の領域に足を踏み入れているため、完全に自信を持って何かを排除することはできないと思う」と彼は言いました。

2027年までに人工超知能(ASI)が到来する可能性

我々はまだ人工知能(AGI)に到達していないかもしれないが、この分野の第一人者が主張するように、それは遅かれ早かれ到来するかもしれません。

今年、パナマで開催された「Beneficial AGI Summit」の閉会挨拶で、コンピューター科学者で服飾雑貨愛好家のベン・ゲルツェル氏は、人間レベルまたは超人的なAIが構築されるのは2029年か2030年になる可能性が高いが、早ければ2027年には実現する可能性があると述べた。

SingularityNETの創設者は、その後、AGIは急速に人工超知能(ASI)へと進化する可能性があると述べ、ASIを人類文明の知識をすべて併せ持つAIと定義しています。

「まだ誰も人間レベルの汎用人工知能を作ったことはないし、いつそこに到達できるかについても確かな知識を持っている人はいない。」とゲルツェル氏は聴衆に語りました。「つまり、既知の未知数があれば、恐らく未知の未知数もあるということだ。」

「一方で、今後3年から8年以内に人間レベルのAGIが実現する可能性は十分にあると私は考えています」と同氏は付け加えた。

正確に言えば、AGIの実現時期を予測しようとしているのはゲーツェル氏だけではない。

例えば昨年秋、Google DeepMindの共同設立者シェーン・レッグ氏は、2028年までに人類がAGIを発明する可能性は五分五分であるという10年以上前の予測を改めて表明しました。昨年5月のツイートでは、”AIのゴッドファーザー”で元Google社員のジェフリー・ヒントン氏が、AGIの登場は5年から20年後だと「あまり自信はないが」予測していると述べました。

ヒューマノイドロボット「ソフィア」の開発者として最もよく知られているゲルツェル氏は、 AIが人間レベルの知能に到達し、その後それを上回る点である「シンギュラリティ」が到来する時期について長年理論を立ててきました。

ここ数年まで、ゲーツェル氏とその仲間が説明するAGIは夢物語のように思われていましたが、 2022年後半にChatGPTを世に送り出して以来、OpenAIが進めてきた大規模言語モデル(LLM)の進歩により、その可能性はますます近づいているようです。ただし、彼はLLMだけではAGIに繋がるわけではないと指摘しましたす。

「私の考えでは、人間レベルのAGIに到達すれば、数年以内に、超人的なAGIが誕生する可能性がある。ただし、AGIが自らの保守主義から自らの発展を抑制しない限りは。」とAIの先駆者は付け加えた。「AGIが自らの心を内省できるようになれば、人間または超人レベルのエンジニアリングと科学が行えるようになると思います。」

「AGIがより賢いAGIを作り、さらに賢いAGIを作り、知性の爆発を起こすことができるはずだ。」と彼は付け加えましたが、これはおそらくシンギュラリティを指しています。

当然ながら、ゲーツェルが説いていることには多くの注意点がある。人間の基準からすれば、超人的なAIであっても人間のような “心 “を持つことはないでしょう。また、テクノロジーの進化は、あたかも人間社会の他の部分や私たちが地球にもたらす害から切り離されたかのように、直線的な道筋をたどるだろうという仮定もあります。

とはいえ、説得力のある理論であり、ここ数年だけでもAIが急速に進歩していることを考えれば、彼のコメントが完全に否定されることはないだろう。

SingularityNET

SASA Stake Pool では、委任して下さった方のみ限定で見ることの出来る「委任者限定記事」を更新しています。

SASA Stake Pool へ委任して下さった方は、LINE公式アカウントの方にメッセージを下さい。

委任が確認でき次第、記事を閲覧するためのパスワードをお伝えします。

SASA Stake Poolの詳細はこちら。

nagapandaをフォローする
SASA Stake Pool

コメント

タイトルとURLをコピーしました