未来のAIは友達?OpenAI共同創業者が「超知能AIの安全」に特化した新会社を立ち上げ

- OpenAI共同創設者イリヤ・サッツケバーが新会社設立
- 超知能AIの安全確保に専念するSafe Superintelligence Inc.(SSI)
- 人間を超えるAIの管理術確立に焦点
イリヤ・サッツケバーとその仲間がAIの安全性を核に据えた新企業Safe Superintelligence Inc.(SSI)を立ち上げました。
このプロジェクトは、人類の抱える「最も重要な技術的問題」と位置づけられています。
今のところ、超知能AIを監視する技術は人間による直接的なサポートに依存しています。
しかし、サッツケバーとそのチームは、これが超知能にはスケールしないと指摘。
新たな科学的、技術的突破口が必要とされています。
SSIは、管理のオーバーヘッドや製品サイクルに惑わされることなく、AIの安全性のみに集中しています。
同社は最高のエンジニアと研究者を集め、彼らにSSIのためだけの作業に専念してもらうとのこと。
サッツケバーによると、「安全」はNumeric safety(核の安全)のようなものであり、信頼や安心に関係するものではないと述べています。
具体的な手法に関する詳細は現時点で不明ですが、SSIは超知能AIの安全な実装に対する強い姿勢を示しています。
将来を見据え、科学的、技術的に重要なこの動きから目が離せません。
おい、これ超知能AIってやつが人間より賢くなるってこと?そんなのが本当にできるのか?
ええ、その通りです。人間を超える知能を持つAIの実現は技術的に可能とされていますが、その管理方法はまだ開発中なんです。だからこそ、新しい会社が設立されたわけです。超知能AIが安全に機能するよう研究してくれるので、将来的には大きな進歩が期待できますよ。
さて、聞いたのはイリヤ・サッツケバーが新しい会社、「SSI」を設立したって話だね。彼らの目標は超知能AI、つまり人間よりも賢くなるかもしれないAIを安全に管理する方法を見つけることだ。
ユータ、君が聞いた通り、こういったAIの管理技術はまだ発展途上で、今はまだ人間が監視しなければいけないんだ。だけどそのうち、人間の手を離れて、AI自身が自己管理できるようになるかもしれない、それが彼らの研究の目的だからね。
アヤカも言った通り、新会社は製品サイクルやその他の雑務から離れて、AIの安全性に集中できる環境を整えているんだよ。要するに、超知能AIがもたらすリスクを減らし、信頼できるようにするために専念するわけだね。