ueg schrieb:Genau. Der Sensor ist neu.
Das Feature an sich ist aber bloß Marketing Geschwafel und Ausschneiden.
Von mir aus kommt auch ein anderer Algorithmus zur Bildnachbearbeitung zum Einsatz. Die Physik, dass einfach nur ein Ausschnitt des Sensors ausgelesen wird, kann man aber nicht austricksen. Das finde ich könnte man so schon hervorheben.
Wurde doch jetzt schon mehrfach erklärt. Durch die Aufnahme von mehren Bildern + leichtem Versatz kann nach anschließender Verrechnung der Detailgrad deutlich erhöht werden. Das ist grundsätzlich nichts neues, nur scheinbar klappt das deutlich besser, wenn der Algorithmus vorher weiß, dass nur ein Ausschnitt des Sensors gebraucht wird und nicht die gesamte Fläche, was das Video vom MKBHD ja beweist, welches den Zoom mit einem manuellen Crop vergleicht. Da sind Details im Bild die du mit normaler Nachbearbeitung niemals bekommen könntest.
Es ist schon seit 15 Jahren nicht mehr so, dass ein Smartphone nur 1 einziges Bild pro Foto aufnimmt. Es können sehr viele sein. Nur kann die Verrechnung sehr komplex und aufwändig werden, was einer der Faktoren ist, warum neuere Smartphones mit stärkeren SoCs hier immer besser werden.
Also ja, hier bekommst du trotz Digitalem Zoom mehr Bildinformationen ins Bild. Dafür musst man die Physik nicht überlisten, sie auszunutzen wird nur immer komplexer und die Ergebnisse besser.
Was meinst du denn wie in Spielen Algorithmen wie DLSS und FSR ihre Bildinformationen bekommen? Sicher nicht durch simples Upscaling eines Einzelbildes und KI Haluzination. Nein, man macht über mehrere Bilder hinweg eine mehrfachabtastung der Szene um tatsächlich mehr Details zu gewinnen.
Das macht man in sehr ähnlicher Weise auch bei Fotoaufnahmen.
BDR529 schrieb:Der Test kommt einen Monat zu spät.
Es gab kurz nach Release auf YouTube geschätzt etwa 26870423607 "tests" zu den neuen iPhones die dir alle exakt das gleiche erzählen.
Wenn CB sich 4 Wochen Zeit nimmt, sehe ich da durchaus einen Mehrwert.