人工知能の未来を切り開く—OpenAI共同設立者が「安全なスーパーインテリジェンス」を目指す新スタートアップ発表!

オープンAIの共同設立者として知られるイリヤ・スツケヴァーが、新たな航海に出る。
彼はこのたび、安全な超知能システムの構築に注力する新スタートアップ、セーフ・スーパーインテリジェンス社(SSI)を設立したことを明らかにした。
オープンAIを去った後の大きな一歩として、スツケヴァーは同僚ダニエル・レヴィ、そしてAppleの前AI責任者ダニエル・グロスと力を合わせた。
人類が直面する様々な課題に備え、安全かつ広範な利益を持ちうる超知能の到来を目指している。
強力なAIの力は潜在的には莫大なものだ。
物語を用いて、具体的なイメージを提示する。
たとえば、医療の分野では、超知能AIが癌の治療法を発見し、環境問題では、未解決のエネルギー問題への解答を導き出したりする可能性がある。
しかし、その強大な力を誤って使用した場合、AIは制御不能な悪夢へと変貌しかねない。
このリスクに対処するためにSSIが設立されたのである。
安全な超知能システムの構築は、人類の未来を形作る。
SSIの使命は、この強力なテクノロジーを人類の手によい方向へと導くことにある。
おい、これ超知能AIってやつが医療や環境の問題解決するってマジか?どんなやばいことになりそうなの?
はい、本当です。超知能AIは複雑な問題を解決する力があります。
医療では新しい治療法を見つけたり、環境では持続可能なエネルギー源を探るなどです。
でも、コントロールを誤ると予測不能な事態を招く恐れがあるので、
その安全性を確保するためにSSIが立ち上がったんですよ。
そうだね、ユータ。スツケヴァーたちがSSIって新会社を立ち上げたんだ。
彼らの目標は超知能AIを安全に使えるようにすること。
だって、超知能AIって、めちゃくちゃ賢くて、医療や環境問題の大発見をする可能性を秘めているんだから。
ただし、ほんとにアヤカが言う通り、そのパワーをコントロールするのは難しい。
間違った使い方をしちゃうと、大変なことになりかねないんだよ。
だから、SSIは、そのリスクを理解して、上手に管理しようとしてるわけ。
いいかい、超知能AIって言うのはね、ただのツールじゃないんだ。
めちゃくちゃ賢いから、その力を正しく使えば人類にとって大きな恩恵になる。
でも、その逆だったら、とんでもない事態になる可能性もある。
だからSSIの仕事はすごく大事なんだよ。