Vorige week kondigde Sony de PlayStation 4 aan en gaf het de specificaties van de console vrij. Het werd toen duidelijk dat de PlayStation 4 8GB GDDR5 geheugen bevat en dat is bijzonder veel. Sterker nog, diverse ontwikkelaars zijn hier uiterst tevreden over en dat belooft veel goeds. Deze specificaties zijn echter nog niet zo heel lang definitief, maar de games zijn al wel veel langer in de maak.
Er zijn al een behoorlijk lange tijd devkits beschikbaar voor sommige ontwikkelaars en deze devkits worden om de zoveel tijd van een upgrade voorzien, zodat deze uiteindelijk overeenkomen met de definitieve specificaties van de uiteindelijke console. In de tussentijd geeft dit ontwikkelaars ook de mogelijkheid om al games te maken en dat is interessant.
De Killzone: Shadow Fall demonstratie zag er erg mooi uit. Vooral qua details was het een bijzonder mooie vertoning en op de fora van Beyond3d meldt een gebruiker onder de naam _phil_ dat de devkit waarop Killzone: Shadow Fall is ontwikkeld slechts 1.5 GB beschikbaar had voor de graphics.
“Most kits until pretty recently had only 1.5 GB usable for graphics”
Vanuit het perspectief dat Killzone: Shadow Fall ontwikkeld is op basis van 1.5 GB beschikbaar geheugen en dat de PlayStation 4 uiteindelijk 8GB zal hebben, komt het er simpelweg op neer dat games er over enkele jaren nog vele malen beter uit gaan zien en dat is een goed vooruitzicht. Wel is het zo dat er nooit 8GB gebruikt zal worden voor games, aangezien een gedeelte gereserveerd zal zijn voor het besturingssysteem en meer.
Helaas is het niet duidelijk waar deze persoon de informatie vandaan heeft, dus neem het even met een korrel zout tot we opheldering van Guerrilla Games hebben.
Met dank aan: RAAFmaker.
Klinkt goed!!
Ben benieuwd naar de gfx kaart.
Ik denk dat 4-6 GB voor graphics wordt gebruikt.
En de launch games allemaal 1-3GB gebruiken
Het kan er dus alleen maar op vooruit gaan !
Hoeveel had de PS3 ?
uhm het gaat hier om video geheugen.
De PlayStation 4 heeft 2.2gb VRAM en Killzone gebruikte maar 1.5gb.
@82.73.44..xxx:
De 2.2 VRAM werd gespeculeerd via vgleaks en dat ging over een eerdere devkit. De PlayStation 4 heeft nu 8GB unified memory waarschijnlijk hiervan 1.5 tot 2 aan het OS waarvan er dus 6 overblijft voor de rest. Unified betekent dat aangezien het een APU architectuur heeft, de devs zelf kunnen bepalen hoeveel ze hiervan gaan gebruiken aan de CPU of de GPU. Hangt er allemaal vanaf wat voor type game ze maken.
@klupido: iets van 256 mb
@rva_96: š dan is dat wel un verschilleke jeh
@Naampjeā¦: Goed uitgelegd, klopt inderdaad
@klupido:
De PS3 heeft 256MB RAM en 256MB VRAM.
Ze hebben nog wel even de tijd voor de game Dat kan alleen maar beter worden. š
@da_teamkilla:
Correct maar helaas geen unified maar split structuur en dat bracht minder flexibiliteit en was de bottleneck van de PS3’s Cell processor.
@Naampjeā¦:
Juist maat jij begrijpt het.
Unified Memory Architecture, een technologie waarmee een Graphics Processing Unit toestaat systeemgeheugen te delen.
Dus met andere woorden, ontwikkelaars zijn helemaal vrij om de hoeveelheid beschikbare ram toe te wijzen naar CPU of GPU.
Volgens vgleaks bestonden De alpha devkits uit PC’s met een split ram structuur en een grafische kaart met daarin 2.2GB video ram.
Met een aantal resources gereserveerd voor ander taken kan het mogelijk zijn geweest dat de game hiervan op 1.5GB vram liep.
Een meer recente devkit ergens uit januari zou volgens de roadmap van vgleaks alles verplaats hebben naar unified GDDR5 en de ram verhoogd naar 4GB. Waarschijnlijk hadden sommige developers deze kit nog niet, of niet op tijd, en heeft dit enige invloed gehad op de geplande demo’s voor februari.
Over het algemeen neemt het nogal wat tijd om een volledig speelbare gameplay demo te ontwikkelen, dus ik verwacht dat deze shadow fall demo een aardig tijdje terug is gemaakt waarschijnlijk nog op de alpha kits.
Ik verwacht ook dat Sony samen met de AMD ingenieurs op het framework een cache of local storage in de SoC architectuur ingebouwd hebben. Dit voorkomt te hoog ram latency dat door de snelle GDDR5 invloed zou kunnen spelen op CPU calculaties.
Sony had ook geholpen met het ontwerp van de PlayStation 3’s cell SPU’s die elk hun eigen opslag (local store) hadden om data te streamen in low latency.
We weten verder ook niets over de geheugencontroller die misschien wel net als de x360 kan zijn geoptimaliseerd om de CPU te helpen.
De E3 in juni zal misschien meer antwoord hierop kunnen geven.
@RAAFmaker:
Snap er geen snars van haha. ben jy zelf een ontwikkelaar soms?
Toch logisch, kijk naar de launch games van PlayStation 3 en de games erop nu…. Is gwn bijna verdubbeld van gfx kwaliteit
@Naampjeā¦: Dus de PS4 moet het doen met alleen werkgeheugen en geen video geheugen.
Van meer geheugen dan 2 a 3 GB worden de games niet mooier. Het is niet zo dat een video kaart met 3gb betere graphics geeft dan de zelfde video kaart met 2gb Op gegeven moment kan een video kaart van het zelfde type gewoon niet mooier weergeven ‘of hij nu 2 of 6gb gebruikt’. Heeft alleen een voordeel bij het laden van een grote open wereld. Als geheugen snel is heb je ook minder GB nodig dan bij langzaam geheugen.
Ik sprak volgens mij toch alleen specifiek over het video geheugen niet over het systeem geheugen, of las jij wat anders? We weten allemaal dat de development kits DVKT-KS000K uit januari 2013 zo’n 8gb aan systeem geheugen had. En hoor jij mij praten over games die mooier worden? Maar het heeft weldegelijk voordeel op een hoop vlakken naast alleen grote hoeveelheden data laden voor open werelden. Nee het geeft ook voordelen in betere en meer textures, veelzijdiger animaties, betere npc’s “non player characters”, meer effecten, betere hdr verlichting, depth of field, anti aliasing etc. Er is gewoon simpelweg meer mogelijk. De details zullen het verschil maken.
@raafmaker
Custom made architectuur toch? kan goed zijn dat dit extra cache geheugen heeft ingebouwd op de Soc. De gpu is al in meerdere stadiums verbeterd de loop der tijd. General purpose computing gpgpu zoals physics simulating. 18 Unified compute units dat collectief 1.84 teraflops genereerd. Dus software based rendering zal een grote rol spelen als je het mij vraagt. dus een extra L1,L2,L3 cache of misschien wel die 16gb flash kan niet verkeerd zijn. alles richting de hdd buffer lijkt me geen optie.