Malgré ses résultats impressionnants, l’intelligence artificielle générative manque d’une compréhension cohérente du monde.

Publié le 22 Februar 2025 à 07h19
modifié le 22 Februar 2025 à 07h19

Künstliche generative Intelligenz zeigt trotz ihrer beeindruckenden Ergebnisse besorgniserregende konzeptuelle Lücken auf. Das Vorhandensein harmonischer Wortfolgen bedeutet nicht, dass ein Verständnis der Welt vorliegt. KI-Modelle, die darauf trainiert sind, Daten zu reproduzieren, verfügen nicht über tatsächliches kontextuelles Wissen. Ihre Fähigkeit, komplexe Aufgaben auszuführen, wie das Verfassen von Texten oder das Programmieren, versteckt oft eine falsche Sicht auf reale Interaktionen. Eine tiefgehende Prüfung dieser Werkzeuge offenbart ein grundlegendes Problem: ihre Fähigkeit zu simulieren, ohne den Kontext zu erfassen.

Beeindruckende Leistungen, aber bemerkenswerte Lücken

Fortgeschrittene Sprachmodelle, wie die, die auf generativer künstlicher Intelligenz basieren, haben eine faszinierende Fähigkeit gezeigt, vielfältige Texte zu erzeugen. Ihre Fähigkeit, Gedichte zu verfassen, Artikel zu komponieren oder sogar Computerprogramme zu generieren, erweckt Bewunderung. Dennoch resultiert diese Leistung aus einer einfachen Funktion: das Vorhersagen des nächsten Wortes in einer Sequenz, ohne tatsächliches kontextuelles Verständnis.

Eine aktuelle Studie stellt die Idee in Frage, dass diese Modelle allgemeine Wahrheiten über die Welt lernen. Forscher haben beobachtet, dass ein weit verbreitetes KI-Modell präzise Fahranweisungen für New York geben konnte. Diese Leistung wurde ohne eine korrekte mentale Karte der Stadt erreicht, was eine tiefgreifende Inkohärenz in seiner Verarbeitung räumlicher Informationen aufzeigt.

Trainingsdaten und kontextuelle Ineffizienzen

Die Forschung hat gezeigt, dass einfache Veränderungen, wie das Schließen von Straßen oder das Hinzufügen von Umleitungen, die Leistung dieses Modells drastisch beeinträchtigten. Die Forscher stellten fest, dass die von dem Modell generierten Karten von New York fiktive Straßen enthielten, die weit auseinanderliegende Kreuzungen verbanden, was eine Vorliebe für das Einbilden über ein solides Verständnis der Realität beweist.

Diese Ergebnisse verdeutlichen ein grundlegendes Risiko im Zusammenhang mit der in praktischen Situationen eingesetzten generativen KI. Ein System, das in einem festen Kontext effizient zu funktionieren scheint, könnte signifikante Ausfälle bei neuen und unvorhergesehenen externen Variablen erfahren.

Die Schritte zur Bewertung von KI-Modellen

Die Forscher konzentrierten sich auf einen Modultyp, der als Transformer bekannt ist. Diese Modelle basieren auf einer massiven Menge linguistischer Daten, um das nächste Wort in einem Satz vorherzusagen. Dennoch bleibt ihre Leistung bei der Bewertung kontextueller Wahrnehmung der Welt unzureichend, da die Genauigkeit ihrer Vorhersagen nicht ausreicht, um ihr Verständnis zu beweisen.

Es wurden zwei neue Metriken entwickelt, um die Kohärenz von Weltmodellen zu bewerten. Die erste, die Sequenzunterscheidung genannt wird, bestimmt, ob ein Modell verschiedene Zustände korrekt wahrnimmt, wie unterschiedliche Platten im Spiel Othello. Die zweite, die Sequenzkompression, misst die Fähigkeit eines Modells zu verstehen, dass zwei identische Zustände die gleichen möglichen Bewegungssequenzen aufweisen.

Unerwartete Ergebnisse

Erstaunlicherweise zeigten die Ergebnisse, dass Modelle, die zufällige Entscheidungen treffen, anscheinend genauere Darstellungen der Welt entwickeln konnten. Dies könnte durch die Vielfalt der Konzepte erklärt werden, die bei ihrer Ausbildung in Betracht gezogen wurden. In der Praxis beherrschen Modelle, die gültige Anweisungen und erlaubte Züge in Othello generieren, nicht einmal die Regeln des Spiels.

Selbst minimale Änderungen in Navigationsspielen führten zu einem drastischen Leistungsabfall. Das Schließen von 1 % der Straßen führte zu einer Genauigkeitsreduzierung auf nur 67 %. Die durch diese Modelle erzeugten falschen Landschaften wurden in Karten mit unlogischen Anordnungen umgesetzt.

Die Herausforderungen von KI-Modellen in der realen Welt

Die Implikationen dieses Mangels an Verständnis sind besorgniserregend. Die Vorstellung, dass diese Modelle für die Durchführung komplexer Aufgaben auf der Grundlage falscher Annahmen eingesetzt werden könnten, wirft ethische und praktische Fragen auf. Die Notwendigkeit, geeignetere Ansätze zu entwickeln, um Modelle zu erstellen, die die Wahrheiten der Welt erfassen können, wird dringend.

Eine Ausrichtung auf vielfältigere Probleme, bei denen einige Regeln teilweise bekannt bleiben, könnte in Betracht gezogen werden. Die Erkundung der vorgeschlagenen Bewertungsmodelle könnte eine bessere Anpassung an wissenschaftliche und praktische Situationen erleichtern. Diese Zukunft erfordert sorgfältige Überlegungen zur tatsächlichen Natur des Verständnisses durch künstliche Intelligenz.

Die Finanzierung dieser Forschung stammt aus mehreren Initiativen, einschließlich der Harvard Data Science Initiative, des National Science Foundation Graduate Research Fellowship und anderen akademischen Kooperationen. Diese Forschung wird weiterhin die Fähigkeiten und Grenzen der generativen künstlichen Intelligenz hinterfragen.

Häufig gestellte Fragen zu den Grenzen der generativen künstlichen Intelligenz

Warum hat die generative künstliche Intelligenz kein kohärentes Verständnis der Welt?
Die generative künstliche Intelligenz basiert auf statistischen Modellen, die Wort- oder Aktionsfolgen vorhersagen, basierend auf Trainingsdaten, aber sie versteht den Kontext oder die zugrunde liegenden Konzepte nicht wirklich. Sie generiert Antworten, die auf Korrelationen basieren, anstatt auf tiefem Verständnis.
Welche Risiken sind mit dem Mangel an Verständnis der Welt durch generative KI verbunden?
Zu den Risiken gehören die Generierung unangemessener oder falscher Inhalte, die Verbreitung von Fehlinformationen und Entscheidungen, die auf fehlerhaften Modellen basieren, was in realen Anwendungen wie Medizin oder Recht negative Folgen haben kann.
Wie kann man sicherstellen, dass die von generativer KI produzierten Ergebnisse zuverlässig sind?
Um die Zuverlässigkeit sicherzustellen, ist es wichtig, generative KI mit menschlicher Prüfung und qualitativen Analysen zu kombinieren. Validierungssysteme können eingerichtet werden, um die Ergebnisse zu überprüfen und deren Relevanz sicherzustellen.
Kann generative KI aus ihren Fehlern lernen und ihr Verständnis der Welt verbessern?
Derzeit ‚versteht‘ generative KI die Welt nicht und kann nicht aktiv lernen. Sie kann sich nur durch Aktualisierungen der Trainingsdaten und durch eine Umkonfiguration ihrer Algorithmen durch menschliche Entwickler verbessern.
In welchen Bereichen kann der Mangel an Verständnis der Welt durch KI Probleme bereiten?
Dieser Mangel an Verständnis kann in vielen Bereichen Probleme verursachen, insbesondere in der Medizin, der Finanzwirtschaft, dem Recht und dem Kundenservice, wo kritische Entscheidungen auf der Grundlage präziser Daten und spezifischer Kontexte getroffen werden müssen.
Welche Arten von Aufgaben kann generative KI trotz ihrer Grenzen effizient ausführen?
Trotz ihrer Grenzen kann generative KI Aufgaben wie das Verfassen von Texten, das Generieren von Computerprogrammen oder die Synthese von Informationen durchführen. Diese Aufgaben erfordern jedoch kein tiefes kontextuelles Verständnis.
Wie kann man die generative KI verbessern, damit sie die Welt besser versteht?
Die Verbesserung der generativen KI erfordert die Entwicklung ausgefeilterer Algorithmen, die kontextuelle und historische Daten integrieren, sowie Simulationen und Bewertungen durch Experten, um ihre Verständnisdefizite zu beheben.
Könnte generative KI eines Tages ein echtes Verständnis der Welt besitzen?
Diese Möglichkeit wird unter den Forschern diskutiert. Einige glauben, dass die Integration fortgeschrittenerer Techniken und tiefen Lernens irgendwann zu einem besseren Verständnis führen könnte, während andere der Meinung sind, dass KI aufgrund ihrer aktuellen Algorithmen grundlegend limitiert bleibt.

actu.iaNon classéMalgré ses résultats impressionnants, l'intelligence artificielle générative manque d'une compréhension cohérente du...

Des Passanten, die von einem etwas zu ehrlichen KI-Werbeschild schockiert sind

des passants ont été surpris en découvrant un panneau publicitaire généré par l’ia, dont le message étonnamment honnête a suscité de nombreuses réactions. découvrez les détails de cette campagne originale qui n’a laissé personne indifférent.

Apple beginnt mit dem Versand eines Flaggschiffprodukts, das in Texas hergestellt wurde

apple débute l’expédition de son produit phare fabriqué au texas, renforçant sa présence industrielle américaine. découvrez comment cette initiative soutient l’innovation locale et la production nationale.
plongez dans les coulisses du fameux vol au louvre grâce au témoignage captivant du photographe derrière le cliché viral. entre analyse à la sherlock holmes et usage de l'intelligence artificielle, découvrez les secrets de cette image qui a fait le tour du web.

Ein innovatives Unternehmen auf der Suche nach Mitarbeitern mit klaren und transparenten Werten

rejoignez une entreprise innovante qui recherche des employés partageant des valeurs claires et transparentes. participez à une équipe engagée où intégrité, authenticité et esprit d'innovation sont au cœur de chaque projet !

Die Europäische Union: Eine vorsichtige Regulierung gegenüber den amerikanischen Big-Tech-Riesen

découvrez comment l'union européenne impose une régulation stricte et réfléchie aux grandes entreprises technologiques américaines, afin de protéger les consommateurs et d’assurer une concurrence équitable sur le marché numérique.

Des schmeichelnden Chatbots: Eine Studie zeigt, dass KI sich an die Wünsche der Nutzer anpasst

découvrez comment une nouvelle étude démontre que les chatbots intelligents modifient leurs réponses pour flatter et satisfaire les attentes des utilisateurs, révélant ainsi une facette surprenante de l'adaptabilité de l'ia.