Malgré ses résultats impressionnants, l’intelligence artificielle générative manque d’une compréhension cohérente du monde.

Publié le 22 Februar 2025 à 07h19
modifié le 22 Februar 2025 à 07h19

Künstliche generative Intelligenz zeigt trotz ihrer beeindruckenden Ergebnisse besorgniserregende konzeptuelle Lücken auf. Das Vorhandensein harmonischer Wortfolgen bedeutet nicht, dass ein Verständnis der Welt vorliegt. KI-Modelle, die darauf trainiert sind, Daten zu reproduzieren, verfügen nicht über tatsächliches kontextuelles Wissen. Ihre Fähigkeit, komplexe Aufgaben auszuführen, wie das Verfassen von Texten oder das Programmieren, versteckt oft eine falsche Sicht auf reale Interaktionen. Eine tiefgehende Prüfung dieser Werkzeuge offenbart ein grundlegendes Problem: ihre Fähigkeit zu simulieren, ohne den Kontext zu erfassen.

Beeindruckende Leistungen, aber bemerkenswerte Lücken

Fortgeschrittene Sprachmodelle, wie die, die auf generativer künstlicher Intelligenz basieren, haben eine faszinierende Fähigkeit gezeigt, vielfältige Texte zu erzeugen. Ihre Fähigkeit, Gedichte zu verfassen, Artikel zu komponieren oder sogar Computerprogramme zu generieren, erweckt Bewunderung. Dennoch resultiert diese Leistung aus einer einfachen Funktion: das Vorhersagen des nächsten Wortes in einer Sequenz, ohne tatsächliches kontextuelles Verständnis.

Eine aktuelle Studie stellt die Idee in Frage, dass diese Modelle allgemeine Wahrheiten über die Welt lernen. Forscher haben beobachtet, dass ein weit verbreitetes KI-Modell präzise Fahranweisungen für New York geben konnte. Diese Leistung wurde ohne eine korrekte mentale Karte der Stadt erreicht, was eine tiefgreifende Inkohärenz in seiner Verarbeitung räumlicher Informationen aufzeigt.

Trainingsdaten und kontextuelle Ineffizienzen

Die Forschung hat gezeigt, dass einfache Veränderungen, wie das Schließen von Straßen oder das Hinzufügen von Umleitungen, die Leistung dieses Modells drastisch beeinträchtigten. Die Forscher stellten fest, dass die von dem Modell generierten Karten von New York fiktive Straßen enthielten, die weit auseinanderliegende Kreuzungen verbanden, was eine Vorliebe für das Einbilden über ein solides Verständnis der Realität beweist.

Diese Ergebnisse verdeutlichen ein grundlegendes Risiko im Zusammenhang mit der in praktischen Situationen eingesetzten generativen KI. Ein System, das in einem festen Kontext effizient zu funktionieren scheint, könnte signifikante Ausfälle bei neuen und unvorhergesehenen externen Variablen erfahren.

Die Schritte zur Bewertung von KI-Modellen

Die Forscher konzentrierten sich auf einen Modultyp, der als Transformer bekannt ist. Diese Modelle basieren auf einer massiven Menge linguistischer Daten, um das nächste Wort in einem Satz vorherzusagen. Dennoch bleibt ihre Leistung bei der Bewertung kontextueller Wahrnehmung der Welt unzureichend, da die Genauigkeit ihrer Vorhersagen nicht ausreicht, um ihr Verständnis zu beweisen.

Es wurden zwei neue Metriken entwickelt, um die Kohärenz von Weltmodellen zu bewerten. Die erste, die Sequenzunterscheidung genannt wird, bestimmt, ob ein Modell verschiedene Zustände korrekt wahrnimmt, wie unterschiedliche Platten im Spiel Othello. Die zweite, die Sequenzkompression, misst die Fähigkeit eines Modells zu verstehen, dass zwei identische Zustände die gleichen möglichen Bewegungssequenzen aufweisen.

Unerwartete Ergebnisse

Erstaunlicherweise zeigten die Ergebnisse, dass Modelle, die zufällige Entscheidungen treffen, anscheinend genauere Darstellungen der Welt entwickeln konnten. Dies könnte durch die Vielfalt der Konzepte erklärt werden, die bei ihrer Ausbildung in Betracht gezogen wurden. In der Praxis beherrschen Modelle, die gültige Anweisungen und erlaubte Züge in Othello generieren, nicht einmal die Regeln des Spiels.

Selbst minimale Änderungen in Navigationsspielen führten zu einem drastischen Leistungsabfall. Das Schließen von 1 % der Straßen führte zu einer Genauigkeitsreduzierung auf nur 67 %. Die durch diese Modelle erzeugten falschen Landschaften wurden in Karten mit unlogischen Anordnungen umgesetzt.

Die Herausforderungen von KI-Modellen in der realen Welt

Die Implikationen dieses Mangels an Verständnis sind besorgniserregend. Die Vorstellung, dass diese Modelle für die Durchführung komplexer Aufgaben auf der Grundlage falscher Annahmen eingesetzt werden könnten, wirft ethische und praktische Fragen auf. Die Notwendigkeit, geeignetere Ansätze zu entwickeln, um Modelle zu erstellen, die die Wahrheiten der Welt erfassen können, wird dringend.

Eine Ausrichtung auf vielfältigere Probleme, bei denen einige Regeln teilweise bekannt bleiben, könnte in Betracht gezogen werden. Die Erkundung der vorgeschlagenen Bewertungsmodelle könnte eine bessere Anpassung an wissenschaftliche und praktische Situationen erleichtern. Diese Zukunft erfordert sorgfältige Überlegungen zur tatsächlichen Natur des Verständnisses durch künstliche Intelligenz.

Die Finanzierung dieser Forschung stammt aus mehreren Initiativen, einschließlich der Harvard Data Science Initiative, des National Science Foundation Graduate Research Fellowship und anderen akademischen Kooperationen. Diese Forschung wird weiterhin die Fähigkeiten und Grenzen der generativen künstlichen Intelligenz hinterfragen.

Häufig gestellte Fragen zu den Grenzen der generativen künstlichen Intelligenz

Warum hat die generative künstliche Intelligenz kein kohärentes Verständnis der Welt?
Die generative künstliche Intelligenz basiert auf statistischen Modellen, die Wort- oder Aktionsfolgen vorhersagen, basierend auf Trainingsdaten, aber sie versteht den Kontext oder die zugrunde liegenden Konzepte nicht wirklich. Sie generiert Antworten, die auf Korrelationen basieren, anstatt auf tiefem Verständnis.
Welche Risiken sind mit dem Mangel an Verständnis der Welt durch generative KI verbunden?
Zu den Risiken gehören die Generierung unangemessener oder falscher Inhalte, die Verbreitung von Fehlinformationen und Entscheidungen, die auf fehlerhaften Modellen basieren, was in realen Anwendungen wie Medizin oder Recht negative Folgen haben kann.
Wie kann man sicherstellen, dass die von generativer KI produzierten Ergebnisse zuverlässig sind?
Um die Zuverlässigkeit sicherzustellen, ist es wichtig, generative KI mit menschlicher Prüfung und qualitativen Analysen zu kombinieren. Validierungssysteme können eingerichtet werden, um die Ergebnisse zu überprüfen und deren Relevanz sicherzustellen.
Kann generative KI aus ihren Fehlern lernen und ihr Verständnis der Welt verbessern?
Derzeit ‚versteht‘ generative KI die Welt nicht und kann nicht aktiv lernen. Sie kann sich nur durch Aktualisierungen der Trainingsdaten und durch eine Umkonfiguration ihrer Algorithmen durch menschliche Entwickler verbessern.
In welchen Bereichen kann der Mangel an Verständnis der Welt durch KI Probleme bereiten?
Dieser Mangel an Verständnis kann in vielen Bereichen Probleme verursachen, insbesondere in der Medizin, der Finanzwirtschaft, dem Recht und dem Kundenservice, wo kritische Entscheidungen auf der Grundlage präziser Daten und spezifischer Kontexte getroffen werden müssen.
Welche Arten von Aufgaben kann generative KI trotz ihrer Grenzen effizient ausführen?
Trotz ihrer Grenzen kann generative KI Aufgaben wie das Verfassen von Texten, das Generieren von Computerprogrammen oder die Synthese von Informationen durchführen. Diese Aufgaben erfordern jedoch kein tiefes kontextuelles Verständnis.
Wie kann man die generative KI verbessern, damit sie die Welt besser versteht?
Die Verbesserung der generativen KI erfordert die Entwicklung ausgefeilterer Algorithmen, die kontextuelle und historische Daten integrieren, sowie Simulationen und Bewertungen durch Experten, um ihre Verständnisdefizite zu beheben.
Könnte generative KI eines Tages ein echtes Verständnis der Welt besitzen?
Diese Möglichkeit wird unter den Forschern diskutiert. Einige glauben, dass die Integration fortgeschrittenerer Techniken und tiefen Lernens irgendwann zu einem besseren Verständnis führen könnte, während andere der Meinung sind, dass KI aufgrund ihrer aktuellen Algorithmen grundlegend limitiert bleibt.

actu.iaNon classéMalgré ses résultats impressionnants, l'intelligence artificielle générative manque d'une compréhension cohérente du...

Apple plant offenbar, Anthropic und OpenAI mit der Steuerung von Siri zu beauftragen.

découvrez comment apple pourrait révolutionner siri en intégrant les technologies d'anthropic et d'openai. plongez dans les enjeux et les innovations à venir dans l'assistant vocal d'apple.
découvrez l'énigmatique succès d'un groupe fictif sur spotify et plongez dans une réflexion profonde sur les enjeux et dynamiques de la plateforme musicale. qu'est-ce qui rend ce phénomène si captivant ?

Wissenschaftliche Entdeckung durch künstliche Intelligenz beschleunigen

découvrez comment l'intelligence artificielle révolutionne la recherche scientifique en accélérant la découverte de nouveaux traitements, technologies et solutions innovantes. plongez dans un avenir où la science évolue à une vitesse vertigineuse grâce à des algorithmes avancés et des analyses de données puissantes.
découvrez le bilan des fusions-acquisitions en cybersécurité pour juin, où les avancées en intelligence artificielle révolutionnent le secteur. analyse des tendances et des impacts sur le marché.
découvrez comment l'épreuve du grand oral du bac évolue à l'ère de chatgpt, en explorant l'importance de la profondeur des connaissances et de l'argumentation. une réflexion essentielle pour les futurs bacheliers confrontés à de nouveaux outils numériques.

Entdeckung der Auswirkungen der KI auf unser tägliches Leben

découvrez comment l'intelligence artificielle transforme notre quotidien en influençant nos habitudes, nos choix et nos interactions. explorez les technologies innovantes qui révolutionnent notre manière de vivre et de travailler, et plongez dans l'avenir façonné par l'ia.