人工知能システムは、視覚的カテゴリを特定しながら新しいコンテキストに適応しています

Publié le 7 8月 2025 à 09h34
modifié le 7 8月 2025 à 09h35

人工知能は、画像の解釈方法を革命的に変え、固定された分類を解体します。この革新的なコンテクスト適応型のパラダイムにより、AIシステムは特定の期待に応じてアプローチを再定義することができます。オープンアドホックカテゴリゼーション(OAK)により、視覚的特定が動的かつ徹底的に文脈に即したものとなり、画像認識の従来の制限を超えます。

革命的なAIシステム

新しいAIシステムは、オープンアドホックカテゴリゼーション(OAK)メソッドに基づき、さまざまな文脈に適応しながら視覚的カテゴリを特定します。このモデルは、ミシガン大学の研究者たちによって開発され、ボッシュAIセンターやその他の学術機関からも貢献を得ています。OAKの原則は、画像の動的な解釈に基づいており、従来の厳格なカテゴリを排除します。

OAKの原則

OAKは、さまざまな文脈に応じた画像の解釈の違いを検出します。たとえば、靴の画像は、ガレージセールのコンテクスト内で異なる響きを持つかもしれません。「靴」という言葉がキャップや荷物を含むこともあります。このシステムの柔軟性は、各画像に対して固定された意味を持っていた従来の予測から質的な飛躍を示します。

開発と方法論

研究者たちは、CLIPというビジョンと言語のシステムを拡張し、コンテキストトークンを統合しました。これらの指示の要素は、ラベル付きデータとラベルなしデータの両方から学びます。これにより、AIはコンテキストに応じた特定の視覚的特徴を抽出できるようになり、明示的な指示なしで関連する領域に注意を向けます。

新しいカテゴリの発見

OAKの印象的な特徴の一つは、未知のカテゴリを発見する能力です。たとえば、バザーで販売する物品を特定する際、システムは、以前の例なしに、バッグや帽子といったアイテムを認識することを学びます。この能力は、意味的ガイダンス視覚的クラスタリングのアプローチを組み合わせた革新的な方法に起因します。

アプローチ間の相互作用

意味的ガイダンス手法は、システムを関連する提案へと導きます。モデルが靴を検出すると、言語的関連性に基づいて帽子の可能性を提案します。一方で、ラベルなしデータ内の視覚パターンの検出は、発見によって関連するカテゴリを特定するのに役立ちます。両者のアプローチは、トレーニング中に協力し、相乗効果を生み出します。

システムのパフォーマンス

スタンフォードやClevr-4などのデータベースで実施されたテストは、感情認識においてOAKの素晴らしい成果を示しています。スタンフォードデータセットでの感情識別において、87.4%の精度を達成し、CLIPのような従来のモデルを大幅に上回っています。

今後のアプリケーション

OAKメソッドは、ロボティクスなどのさまざまな分野で重要なアプリケーションを持つことが期待されています。同じ環境を異なる視点から知覚する能力は、新しい地平を切り開きます。柔軟性と適応性が求められる世界では、この種の技術開発が不可欠になる可能性があります。

AIの革新に関する詳しい情報は、以下のリンクを参照してください:AIの知覚に関する研究。複雑な協調システムに関する他の研究は、こちらのサイトでご覧いただけます。

AIによって生成された人種差別的な画像の使用に関する懸念については、こちらに状況が記載されています:イタリアの苦情

AIが視覚的パズルを解決する能力については、この記事で議論されています:パズルと推論

よくある質問

AIシステムによる視覚的カテゴリの特定プロセスはどのように機能しますか?
AIシステムは、オープンアドホックカテゴリゼーション(OAK)アプローチを使用し、与えられたコンテクストに応じて画像を動的に解釈できるようにし、ラベル付きおよびラベルなしデータに基づいて既知の概念と未知の概念の両方を特定します。

従来の分類方法とOAKの違いは何ですか?
従来の方法は「椅子」や「犬」のような固定されたカテゴリを使用しますが、OAKは文脈によって画像の解釈を再構成できるため、人が飲んでいる画像を「飲む行動」や「購入の状況」としてカテゴリ化することができます。

OAKはどのようにしてトレーニング時に見られない新しいカテゴリを発見しますか?
OAKは、トップダウンとボトムアップのアプローチを組み合わせています。意味的ガイダンスを用いて言語学的知識に基づいて潜在的なカテゴリを提案し、ラベルのない視覚データ内のパターンを特定します。

OAKシステムを訓練するためにどのようなデータが必要ですか?
システムは、ラベル付きデータとラベルなしデータの両方を使って訓練することができ、特定の例の大量がなくてもさまざまな文脈に適応します。

OAKのアプローチが恩恵を受ける可能性のある実用的なアプリケーションはどれですか?
OAKのアプローチは、ロボティクスなどの分野で応用される可能性があり、システムが実行するタスクに応じて環境を柔軟に認識し解釈する必要があります。

OAKは他の画像分類モデルと比較してどのようなパフォーマンスを示していますか?
OAKは、感情認識において87.4%の新しい精度を達成するなど、最先端のパフォーマンスを示し、CLIPやGCDなどのモデルをさまざまな画像データセットで50%以上上回っています。

OAKは初期トレーニング後に頻繁に調整が必要ですか?
いいえ、OAKは既存の知識を失うことなく新しい文脈に適応するように設計されているため、必要な調整が少なくても初期トレーニングの後で効果的に機能します。

OAKは画像の適切な部分に十分な注意を払っていますか?
モデルは、コンテキストデータを使用したトレーニングメカニズムを通じて、画像の関連部分に焦点を当てることを学び、柔軟で解釈可能な結果を提供します。

OAKのようなAIシステムは完全に新しいカテゴリを発明できますか?
はい、OAKは訓練中に特に教えられていないラベルのない画像内のパターンを特定することで、新しいカテゴリを提案し、検証する能力があります。これにより、新しい分類の動的な発見が可能になります。

actu.iaNon classé人工知能システムは、視覚的カテゴリを特定しながら新しいコンテキストに適応しています

Googleはインドにおける人工知能専用のデータセンター проект に100億ドルを投資することを約束しています

google prévoit d'investir 10 milliards de dollars dans la construction de data centers spécialisés en intelligence artificielle en inde, renforçant ainsi l'infrastructure numérique et soutenant l'innovation technologique du pays.

トランプの偽の支持者:SNS上に押し上げられた架空の抗議者

découvrez comment des faux soutiens pro-trump, créés de toutes pièces, envahissent les réseaux sociaux. analyse de la propagation de manifestants fictifs et de leur influence sur l’opinion publique.
découvrez comment l'exception de text and data mining (tdm) en droit d'auteur favorise le développement de l'intelligence artificielle en europe, en offrant un cadre juridique adapté à l'innovation et à la recherche.
découvrez comment 86 % des références aux intelligences artificielles sont générées par des sources contrôlées par les marques. une étude inédite dévoile l'ampleur de l'influence des entreprises sur la perception de l'ia.
découvrez comment de jeunes professionnels surmontent leurs difficultés en orthographe grâce à chatgpt et partagent leurs astuces ingénieuses pour améliorer leur écriture au quotidien.
découvrez pourquoi de nombreux acteurs s'élèvent contre l'utilisation de leur image par l'intelligence artificielle, invoquant une atteinte à l'équité et à leurs droits. analyse et enjeux de ce débat dans l'industrie du cinéma.