生成的人工知能は、驚くべき結果を示しながらも、懸念すべき概念的な欠陥を明らかにしています。調和の取れた言葉の配列の存在は、世界の理解を意味しません。データを再現するように訓練されたAIモデルは、実際の文脈に対する真の知識を持ちません。テキストの作成やプログラミングなどの複雑な作業を実行する能力は、しばしば実際の相互作用に対する誤った視点を隠しています。これらのツールを徹底的に検討すると、一つの根本的な問題が浮かび上がります:文脈を把握することなくシミュレーションする能力です。
印象的なパフォーマンスだが著しい欠陥がある
生成的AIに基づく高度な言語モデルは、多様なテキストを生成する魅力的な能力を示しました。詩の執筆、記事の構成、あるいはコンピュータプログラムの生成に対する彼らの適性は称賛を呼び起こします。しかし、この偉業は単純な機能から生じています:文脈を理解することなく、シーケンス内の次の単語を予測することです。
最近の研究は、これらのモデルが世界に関する一般的な真理を学んでいるとの考えに疑問を投げかけています。研究者たちは、非常に広く使用されているAIモデルがニューヨークでの正確な運転指示を提供できることを観察しました。この成果は、街の正しいメンタルマップが存在しない状態で達成され、情報の空間処理における深刻な矛盾を明らかにしました。
トレーニングデータと文脈における非効率性
研究は、道路を閉じる、または迂回路を追加するといった単純な変更を行った場合、このモデルのパフォーマンスが劇的に低下することを示しました。研究者たちは、モデルが生成したニューヨークの地図に架空の道路が含まれており、離れた交差点を結びつけていることに気づき、現実の理解よりも想像に対して偏りがあることを証明しました。
これらの結果は、実用的な状況で展開された生成AIに伴う根本的なリスクを浮き彫りにしています。固定された文脈で効果的に機能すると思われるシステムは、新しい予期しない外的変数の存在下で重大な失敗を経験する可能性があります。
AIモデルの評価のステップ
研究者たちは、「トランスフォーマー」と呼ばれるモデルの一種に焦点を当てました。これらのモデルは、文の次の単語を予測するために膨大な量の言語データに依存しています。しかし、世界の類似の知識を評価する際には、彼らのパフォーマンスは不十分であり、予測の正確性だけでは彼らの理解を証明するには不十分です。
モデルの世界の一貫性を評価するために、新しい2つのメトリックが開発されました。最初は「シーケンスの区別」と呼ばれ、モデルがオセロゲームの異なる盤面のような異なる状態を正しく認知できるかを判断します。2つ目の「シーケンスの圧縮」は、モデルが同じ状態が同じ可能な動きのシーケンスを持つことを理解する能力を測定します。
予想外の結果
驚くべきことに、結果はランダムに決定を下すモデルが、世界のより正確な表現を開発するように見えることを明らかにしました。これは、彼らのトレーニング中に考慮されたステップの多様性によって説明できるかもしれません。実際、オセロで有効な方向性や許可された動きを生成するモデルは、ゲームのルールを完全に理解しているわけではありません。
ナビゲーションゲームにおけるわずかにでも変化が、パフォーマンスの急激な低下を引き起こしました。道路の1%を閉鎖しただけで、正確性が67%まで低下しました。これらのモデルによって生成された虚偽の風景は、論理的でない配置の地図として表現されました。
現実世界におけるAIモデルの課題
この理解の欠如に伴う影響は懸念されます。これらのモデルが誤った仮定に基づいて複雑な任務を遂行するために使用される可能性は、倫理的および実際的な問題を提起します。世界の真実を捉える能力を持つモデルを構築するために、より適切なアプローチを開発する必要性が急務です。
部分的に知られているあるルールが存在する、より多様な問題への方向性を考慮することが可能かもしれません。提案された評価モデルの探求は、科学的および実用的な状況への適応を促進するかもしれません。この未来には、人工知能による理解の真の性質についての厳密な思考が必要となるでしょう。
この研究への資金は、ハーバードデータサイエンスイニシアチブ、国立科学財団大学院研究フェローシップ、その他の大学の共同研究を含むいくつかのイニシアチブから得られています。この研究のダイナミクスは、生成的人工知能の能力と限界を引き続き問い続けるでしょう。
生成的人工知能の限界に関するよくある質問
なぜ生成的人工知能は世界を一貫して理解できないのですか?
生成的人工知能は、トレーニングデータに基づいて言葉や行動のシーケンスを予測する統計モデルで機能しているが、実際には文脈や基礎となる概念を理解していません。彼女は、深い理解に基づかず相関に基づいて応答を生成します。
生成的AIによる世界の理解の欠如に伴うリスクは何ですか?
リスクには、不適切または誤ったコンテンツの生成、偽情報の拡散、欠陥のあるモデルに基づいた決定が含まれ、これにより医療や法などの実際のアプリケーションで否定的な結果をもたらす可能性があります。
生成的AIが生成する結果の信頼性をどのように保証できますか?
信頼性を確保するためには、生成的AIを人間の検証および定性的分析と組み合わせることが不可欠です。結果を検証し、有効性を保証するための検証システムを導入できます。
生成的AIは自らの誤りから学び、世界の理解を改善できますか?
現在、生成的AIは世界を「理解」しておらず、積極的に学ぶことはできません。彼女は、トレーニングデータの更新や人間の開発者によるアルゴリズムの再構成を通じてのみ改善できます。
AIの世界理解の欠如はどの分野で問題を引き起こす可能性がありますか?
この理解の欠如は、医療、金融、法律、カスタマーサービスなど、正確なデータと特定の文脈に基づいて重要な決定を下す必要がある多くの分野で問題を引き起こす可能性があります。
生成的AIは限界にもかかわらずどのようなタスクを効果的に実行できますか?
限界にもかかわらず、生成的AIはテキストの作成、コンピュータコードの生成、情報の要約などのタスクを非常に効果的に実行できます。しかし、これらのタスクは深い文脈の理解を必要としません。
生成的AIをどのように改善して、より良く世の中を理解できるようにできますか?
生成的AIを改善するには、文脈のあるデータや歴史的データを統合するより洗練されたアルゴリズムを開発し、専門家によるシミュレーションと評価を行って彼女の理解の欠落を修正することが必要です。
生成的AIはいつか本当に世界を理解できるようになるのでしょうか?
この可能性については研究者間で議論があります。より高度な技術と深層学習の統合が最終的により良い理解を可能にするかもしれないと考える人もいれば、他の人はAIが現在のアルゴリズムによって根本的に制限され続けると考えています。