Quelle: - ©unsplash.com:
Aufrufe: 1085
ChatGPT & Co.: Brilliant, aber unzuverlässig: Das Halluzinationsproblem moderner KI-Modelle
ChatGPT wird immer schlauer, aber seine Halluzinationen werden immer schlimmer: So eine aktuelle Studie von OpenAI.An ChatGPT werden immer mehr Fragen gestellt. Immer öfter kommt es aber vor, dass die KI falsche Antworten liefert. Das legt zumindest eine Untersuchung von OpenAI nahe, über die The New York Times aktuell berichtet. Halluzinationen, also erfundene Fakten oder Unwahrheiten, begleiten KI-Chatbots seit ihrer Entstehung. Theoretisch sollten Verbesserungen der Modelle diese Fehler reduzieren – doch das Gegenteil scheint der Fall zu sein. Die neuesten Flaggschiff-Modelle von OpenAI, GPT o3 und o4-mini, wurden mit dem Ziel entwickelt, menschliches Denkvermögen nachzuahmen. Anders als …
Jetzt den vollständigen Artikel lesen
Für dich aus unserer Redaktion zusammengestellt
Dein Kommentar zum Artikel im Forum
Hinweis:
ARIVA.DE veröffentlicht in dieser Rubrik Analysen, Kolumnen und Nachrichten aus verschiedenen Quellen.
Die ARIVA.DE AG ist nicht verantwortlich für Inhalte, die erkennbar von Dritten in den „News“-Bereich
dieser Webseite eingestellt worden sind, und macht sich diese nicht zu Eigen. Diese Inhalte sind insbesondere durch
eine entsprechende „von“-Kennzeichnung unterhalb der Artikelüberschrift und/oder durch den Link
„Um den vollständigen Artikel zu lesen, klicken Sie bitte hier.“ erkennbar; verantwortlich für
diese Inhalte ist allein der genannte Dritte.
Weitere Artikel des Autors