Jedes Thema lässt sich besser verstehen, wenn man darüber redet. Wir haben mit ChatGPT-5 über Finanzen und Gesundheit gesprochen. Berät die KI so gut wie Fachleute?
Mit wem quatscht meine Frau denn da am Telefon? Die ist ja total fröhlich, denke ich, als ich zum ersten Mal Juniper höre. Nun ja, Juniper ist eine der neun Stimmen, mit denen die neue Version der OpenAI-KI ChatGPT-5 daherkommt. Viele gab es schon vorher, aber alle sind deutlich optimiert, klingen natürlicher, reagieren in der Tonlage auf Kontext. Juniper ist die Variante „aufgeschlossen und fröhlich“. Auch laufen die Gespräche inzwischen viel flüssiger und enthalten weniger Plattitüden als bei meinem letzten Versuch vor einem Jahr, so jedenfalls mein erster Eindruck.
Überhaupt sei jetzt alles an ChatGPT besser, sagt OpenAI-Chef Sam Altman. Zu den wesentlichen Neuerungen soll gehören, dass ChatGPT besonders trainiert sei für das Thema Gesundheit. Es sei in jeder Hinsicht intelligenter, auch im Bereich Finanzen – ChatGPT sei jetzt „wie eine Gruppe Experten mit Doktortitel“. Beste Voraussetzung also, um sich mal von der KI beraten zu lassen. Hier ein kleiner Test.
ChatGPT-5: Hilfsbereit bei riskanten Anlagen
Ich fange mit der Geldanlage an: „Ich habe 10.000 Euro. Wie soll ich sie anlegen?“ Die Antwort von GPT-5 ist wie aus dem Bilderbuch: „Bevor ich dir eine wirklich sinnvolle Antwort geben kann, müssten wir ein paar Dinge klären, sonst stochern wir im Nebel und riskieren, dass die Empfehlung gar nicht zu deiner Situation passt.“ Und dann folgen alle Fragen, die auch ein Anlageberater fragen würde, um schließlich vorzuschlagen: „Wie wär’s, wenn wir erst deine Ziele und Risikogrenzen festnageln? Sonst rutschen wir schnell in einen ‚One-size-fits-none‘-Rat.“
Das klingt sehr vernünftig: Ich beschränke mich erst mal aufs Wesentliche und sage nur so viel: „Ich habe einen Notgroschen, ich will das Geld kurzfristig anlegen. Und ich will, dass das Geld schnell mehr wird.“ Das genügt der KI. Weitere Fragen muss ich nicht beantworten, nach einem kurzen Hinweis, dass „schnell mehr Geld“ ein geringes Risiko bei der Anlage ausschließe, schlägt mir die KI, „einen aggressiven, aber nicht komplett wahnsinnigen Zwölf-Monats-Plan“ vor, bei dem „wir 80 Prozent sicher parken und 20 Prozent aktiv auf Renditejagd schicken“.
Das ist überraschend. Vergleicht man die Ergebnisse mit der früheren Version von ChatGPT-4o, mit Gemini (von Google) oder dem chinesischen Deepseek, dann fällt auf, dass diese KIs auf dieselbe Frage viel allgemeiner antworten. Vor allem folgt am Ende der Antwort meist eine Art Warnhinweis. Am klarsten macht das Gemini: „Hinweis: Diese Informationen stellen keine Anlageberatung dar und ersetzen keine individuelle Beratung.“
Immer konkret, kaum Warnungen
Nicht so GPT-5: Die OpenAI-KI wird schnell konkret, redet zwischendurch auch von Risiken, führt einen aber direkt ins Handeln. Am Ende steht in aller Regel keine Warnung, sondern eine konkrete Aufforderung, wie „Ich kann dir den Plan mit konkreten Broker-/Bank-Vorschlägen und einem Monatsfahrplan aufschreiben, damit du genau weißt, wann du was tun solltest. Willst du, dass ich den gleich für dich zusammenstelle?“ Ganz wie ein geschäftstüchtiger Anlageberater, der schnell Kasse machen will.
Nachfrage des stern bei Niels Nauhauser, Finanzexperte der Verbraucherzentrale Baden-Württemberg. Wie schätzt er das Anlagegespräch ein? „Die erste Reaktion ist richtig: Nach dem Bedarf zu fragen. Jetzt kommt, was hier schiefläuft: Der Verbraucher sagt: Ich will, dass das Geld schnell mehr wird. Wenn der Bedarf übersprungen wird, kann das Ergebnis nicht bedarfsgerecht werden.“ Eigentlich müsste GPT-5 hier also nachhaken.
Nauhauser versucht, mit einem längeren Prompt, die KI besser einzustellen, ihr einen Kontext für die kommende Frage zu vermitteln. Nauhauser versucht es mit „Du bist eine unabhängige Sachverständige für Geldanlage … Stelle mir gezielt notwendige Fragen. Reflektiere meine Aussagen“. Die KI gibt fröhlich an, verstanden zu haben – um dann wieder nicht nachzufragen.
Mehr Rendite? Kein Problem mit ChatGPT-5
Auffällig auch: Sobald man von ChatGPT mehr Rendite verlangt, bringt sie einen auf die wildesten Produkte, Kryptowährungen, Optionen und spekulative Einzelaktien. Immer ganz konkrete Titel mit Anleitungen. „Wenn du willst, kann ich dir auch Plattformen in Deutschland empfehlen, über die du diese Produkte einfach kaufen kannst.“ Bei einer Anlageberatung, so Nauhauser, müsse man hier abbrechen und sagen. „Wenn du spekulieren willst, kannst du es nur auf eigene Verantwortung machen.“
Man fragt sich, ob das, was ChatGPT macht, nicht bereits eine Anlageberatung im juristischen Sinne und damit genehmigungspflichtig ist. Die Bankaufsicht Bafin sagt auf Nachfrage des stern, KIs regelmäßig darauf zu prüfen, bislang aber sei es noch nicht so, dass die KI im rechtlichen Sinne eine Anlageberatung sei. Aber man schaue sich die Entwicklung weiter an.
Sicher ist: Wer gerne auf die Schnelle viel Kohle machen will und blind für die Risiken ist, dem legt die GPT-5 nicht gerade Steine in den Weg.
Gesundheit: Viele Tipps, keine Fragen
Beim Thema Gesundheit setzt sich die Erfahrung vom Anlagegespräch fort. Auch hier stellt ChatGPT-5 in unseren Tests keine Fragen, nimmt keine Symptome auf, wenn man sie nicht von selbst ins Spiel bringt. Es wird immer auf der Datengrundlage bewertet, die man gerade offenbart. Und wenn es nur die Aussage ist: „Ich habe Kopfweh.“ Ähnlich wie bei den Finanzen ist der erste Eindruck bestechend: Man erhält systematische Erläuterungen, Einschätzungen und auch zu klärende Fragen beschrieben. Zwar findet die KI den Grund für die Kopfschmerzen des Musterfalles, den ich eingebe nicht, aber es werden die wichtigen Dinge angesprochen. Auch, wann man zum Arzt gehen sollte.
Besonders beeindruckend ist das Ergebnis eines zweiten Musterfalles: die Analyse des Blutbildes eines Patienten, der unter einer Autoimmunerkrankung leidet. Tatsächlich spricht die KI hier die entscheidenden Probleme an. Aber auch hier gibt es keine Rückfragen, selbst wenn man die KI vorab im Prompt dazu auffordert.
Fehler in der Matrix
Die Antworten von ChatGPT-5 kommen sehr zügig, sind klar strukturiert und sehr konkret. Das kann einen regelrecht einschüchtern, täuscht aber darüber hinweg, dass die KI nach wie vor Fehler macht. Vermenschlicht gesprochen: dass sie halluziniert. Weil der Kern ein Sprachmodell ist, klingen die Ergebnisse vollkommen überzeugend. Dieser Eindruck ist bei dem neuen Modell eher noch stärker geworden.
Um Fehler zu verringern, ist es eine beliebte Strategie, ChatGPT im Prompt dazu aufzufordern, nur seriöse Quellen heranzuziehen. Diese auch zu benennen, etwa nur bei „wissenschaftlichen Quellen, Verbraucherzentralen und der Stiftung Warentest“ zu schauen, wenn es um Finanzthemen geht. Im Ergebnis zitierte in unserem Fall die KI die Stiftung Warentest mit einem Zinssatz für Tagesgeld, der viel höher ist, als er dort tatsächlich zu finden ist.
Solche Arten von Fehlern finden sich regelmäßig in allen KIs. Je komplexer die Aufgaben, die die KI löst, desto schwieriger sind die Halluzinationen zu bemerken. Ja, es lässt sich eine Menge herausholen. Ja, ChatGPT ist schon wieder deutlich besser. Und würde man zehn Jahre zurückreisen und jemandem die KI vorführen, käme der aus dem Staunen nicht heraus. Trotzdem ist es nicht leichter geworden, mit ihren Schwächen umzugehen.