Das ist interessant (siehe die Screenshots) und lässt mich nicht los, seit ich es vor ein paar Tagen gesehen habe:
„On the left is GPT-3.5. On the right is GPT-4.
If you think the answer on the left indicates that GPT-3.5 does not have a world-model….
Then you have to agree that the answer on the right indicates GPT-4 does. [..]
It’s pretty evident to me that we’re no longer in „stochastic parrot“ territory. GPT-4 is capable of genuinely reasoning about the world. It’s pretty dumb sometimes, and makes odd mistakes. But it does seem to have some emergent simple world-model.“
GPT-4 liegt bei solchen Aufgaben noch oft genug falsch, dass man sicher davon ausgehen kann, dass es kein Welt-Modell hat. ABER man sieht die Anfänge.