生成AIはまだ模倣者?世界の理解不足が専門家の指摘
人工知能(AI)は現代社会に不可欠な要素として急速に進化していますが、その限界も顕著になっています。特に生成AI(GenAI)の登場はさまざまな産業に革命をもたらしている環境で、AIが真に世界を理解しているかのような誤解を生むことがあります。
MIT、ハーバード、コーネルの科学者が行った最新の研究では、LLM(大規模言語モデル)が現実の世界を正確に表現できないという欠点が明らかになりました。研究チームは、異なる入力が同じ結果をもたらした場合にAIが適切な対応をするかを評価する「シーケンス圧縮」と、異なる状況が異なる結果をもたらすべきであることを理解しているかを分析する「シーケンス区別」という新しい評価基準を開発しました。
実験では、LLMがニューヨーク市内の運転経路を提供する際に、存在しない地図情報を使用し、道路の閉鎖や迂回といった不確定要素に対応できないことが示されました。道路閉鎖が1%に達しただけで、AIの精度は約100%から67%に低下しました。
この研究の成果は、LLMを科学分野で新たな発見を背景とした利用ができるかどうかの重要な課題を提起しています。現実の環境に対する深い理解を欠いたままでは、AIの信頼性は向上しません。各地でAIが予期しない回答を生成する事例が報告されており、これらの問題は今後のAI技術の発展において解決が求められています。
これって、AIがあんまり賢くないってこと?
どうしたらもっと現実を正確に理解できるんだろう?
AIはまだ完璧ではありませんね。でも、学習データを増やしたり、現実のデータを反映することで改善できると思いますよ。
そうですね、ニュースによればAIの限界が明らかになっています。
特に、LMMが現実世界を正確に理解できない事例が挙げられています。
新しい評価基準「シーケンス圧縮」と「シーケンス区別」によって、AIが適切に判断できない状況が浮き彫りになりました。
具体的には、ニューヨーク市の運転経路でAIが不確定要素に対応できず、道路閉鎖により精度が低下しました。
ユータ、現時点でAIは万能ではありませんが、改善の余地があります。
反映するデータや学習方法を洗練することで、もっと豊かな理解が可能になるでしょう。
アヤカが言うように現実のデータをしっかり取り込むことが重要です。