PlayStation 3

Jak to się stało, że PlayStation 3 było tak trudne do okiełznania? Spójrzmy na te konsolę po latach

Maciej Zabłocki | 27.12.2022, 14:00

Po upływie wielu lat można napisać, że PlayStation 3 jest konsolą doprawdy kultową. Wyszło na nią przecież wiele kapitalnych tytułów, z The Last of Us na czele, a przez cały okres trwania 7 generacji doczekaliśmy się choćby trylogii Uncharted, świetnego God of War 3 albo MGS IV. Nie sposób jednak pominąć wielu problemów z którymi zmagali się programiści w pierwszych latach życia PS3. Wróćmy więc do dawnych lat. 

Premiera najbardziej problematycznej konsoli Sony miała miejsce 11 listopada 2006 roku w Japonii. Do Polski trafiła dopiero w kwietniu 2007 roku. Ken Kutaragi, ówczesny ojciec PlayStation i twórca PS1, PS2, PS3 właśnie i PSP, jeszcze przed premierą budował gigantyczny hype sugerując, że Sony we współpracy z Toshibą i IBM stworzyło prawdziwie rewolucyjny procesor. Jednostka zwana dumnie "The Cell" miała być rzekomo tak potężna, że pierwotne plany zakładały nawet całkowitą rezygnację z karty graficznej, którą dołożono dosłownie na ostatniej prostej, podpisując umowę z firmą NVIDIA. Niestety, RSX nie był w stanie dorównać GPU od ATI stworzonego dla największego konkurenta - Xboxa 360. Problemy sprawiał także podział pamięci RAM na dwie różne kości po 256 MB i system operacyjny, który początkowo wymagał bardzo dużo mocy obliczeniowej. 

Dalsza część tekstu pod wideo

PlayStation 3 była tak trudna do okiełznania, że Gabe Newell nie chciał tworzyć na nią gier

PlayStation 3 z aktualizacją systemu do wersji 4.84

Trudno było znaleźć ludzi, którzy potrafili zaprogramować coś sensownego na PlayStation 3. Początkowe instrukcje przesyłane przez Sony zbudowano wyłącznie po Japońsku, co z miejsca sprawiało olbrzymie problemy dla wszystkich zachodnich deweloperów. Gdy w końcu przetłumaczono te dokumenty na nieco bardziej zrozumiały język angielski, okazały się na tyle skomplikowane, że deweloperzy próbowali samodzielnie odkrywać kolejne smaczki i możliwości tego sprzętu. Niestety, zadania nie ułatwiała budowa i projekt Cella, którego okiełznanie okazało się na tyle szalonym wyczynem, że pierwsze "poważne" i ładne gry pojawiły się na PS3 dopiero po 3 latach od premiery i mam tu na myśli legendarne Uncharted 2. Stworzone przez mistrzów kodowania z Naughty Dog, pokazywało wreszcie, że da się zaprojektować na tej konsoli rzeczy doprawdy niezwykłe. 

Ale żeby to osiągnąć, powołano do życia specjalny zespół wewnętrznych magików, których wyłącznym zadaniem było opracowanie narzędzi ułatwiających pracę z PlayStation 3. Grupa zwana "ICE Team" koncentrowała się na pomocy wszystkim studiom Sony w aspektach technicznych, próbując znaleźć skuteczne metody na poprawę jakości grafiki. Przebyli długą drogę, by w końcu sprostać zadaniu, choć była to droga wyboista, kręta i pełna stromych podjazdów. Po latach pojawiają się jednak głosy, że The Cell faktycznie był niezwykle potężny. Jego teoretyczna wydajność przewyższała "tabletowe" procesory z PlayStation 4 czy Xboxa One. W 2019 roku pojawił się wywiad z Michielem van der Leeuw - dyrektorem technicznym ze studia Guerilla Games. Mówił on, że The Cell, przy odpowiednim wykorzystaniu, jest szybszy nawet od współczesnych procesorów Intela. W swoich czasach była to jednostka wizjonerska, bardzo potężna, ale słabo przemyślana pod kątem gamingu. Doskonale radziła sobie jednak ze skomplikowanymi obliczeniami, co Sony próbowało wykorzystać przy liczeniu białeczek za pomocą aplikacji "Folding Home" (to się nazywa dobry PR, nie?). Sam zresztą przeliczałem te białeczka regularnie, pomagając wtedy w rozwoju badań Uniwersytetu Stanforda. 

Na opracowanie Cella wydano aż 400 mln dolarów i miał to być procesor uniwersalny, dobrze sprawdzający się w konsoli do gier, telewizorach czy superkomputerach. Niestety, jego okiełznanie okazało się na tyle trudne, że nie zrobił większej kariery i niemal przyczynił się do upadku całego Sony. Nie dość, że PlayStation 3 sprzedawało się słabo, to jeszcze szereg niezrozumiałych decyzji projektowych wcale nie pomagał przy rozwoju gier na tej platformie. Napęd Blu-Ray, choć przyszłościowy, był niezwykle wolny w porównaniu do klasycznego DVD. To wymuszało konieczność instalowania każdej z gier (co było wówczas nowością i utrapieniem w krainie konsol), a jednocześnie wymyślanie takich sztuczek jak wielokrotne zgrywanie tych samych plików na jednej płycie, by umożliwić skuteczne i szybkie ładowanie tekstur. Bethesda zastosowała takie rozwiązanie przy projektowaniu Skyrima. Ponoć to była jedyna opcja, by zagwarantować efekt podobny do tego z X360.  

Cell CPU

Niestety, ze względu na ogromne problemy z pisaniem gier na PS3, początkowe pozycje multiplatformowe w zdecydowanej większości przypadków wyglądały i działały lepiej na Xboxie 360. W 2010 roku dopiero typowo PCtowy deweloper - Crytek - przyznał, że nie mają żadnego problemu z pisaniem gier na PS3. To właśnie oni, jako pierwsi spośród studiów third party, przełamali powszechnie głoszone opinie o trudności w okiełznaniu The Cella. Uznali nawet, że CryEngine 3, co ciekawe, działa nieco wydajniej na konsoli Sony. Niestety dla Japończyków, na PlayStation 3 narzekano znacznie częściej. Swoje trzy grosze dorzucili w 2009 roku między innymi twórcy Brink, czyli studio Splash Damage. Nie mogli oni wtedy poradzić sobie z przeniesieniem swojej gry na ten sprzęt, a ówczesny szef studia sugerował, że technologia w nim zawarta pochodzi z kosmosu. Ludzie z Valve jeszcze przez długie lata nie mogli pogodzić się z myślą, jak można było wypuścić do gier coś takiego, jak The Cell. Jego historia, choć niezwykła, ostatecznie jest bardzo smutna. 

Potężny Cell miał zrobić furorę na rynku konsumenckim, ale niestety nic z tego nie wyszło

Procesor, oprócz PS3, trafił jedynie do kilku telewizorów Toshiba, a także kart rozszerzeń na PCI-E, które przyspieszały transkodowanie kodeków H.264 i MPEG-2 (mówię jednak tylko o rynku konsumenckim, bo swoje miejsce odnalazł, co jasne, w kilku superkomputerach). Miał zawojować "zwykłe" urządzenia i projektowano go z takim przeświadczeniem, ale szybko zginął gdzieś w odmętach magazynów. Świetnie sprawdził się natomiast w takich branżach jak przemysł ciężki, lotnictwo, przetwarzanie danych sejsmicznych czy telekomunikacja. Po latach został przez konsumentów zapamiętany głównie za sprawą PlayStation 3, ale wszyscy programiści, którzy musieli się z nim zmagać, z całą pewnością odetchnęli z ulgą, gdy do PS4 i Xbox One trafiły już jednostki oparte na popularnej architekturze x86. 

Uncharted 2

Problemem Cella była między innymi jego konstrukcja złożona z jednego, dwuwątkowego rdzenia PPE, a także ośmiu rdzeni pomocniczych SPE. Jeden z nich został domyślnie wyłączony, by usprawnić proces produkcyjny, a kolejny zarezerwowano wyłącznie dla systemu operacyjnego. Programiści mogli więc wykorzystać 8 wątków, choć Sony w swojej dokumentacji uparcie wskazywało na 9, mimo że z tego "systemowego" nikt nie mógł (albo bardziej, nie powinien) skorzystać. Całość taktowana była z częstotliwością 3,2 GHz i wymuszała na programistach okiełznanie każdego z dodatkowych wątków. Czysto teoretycznie, było to kapitalne rozwiązanie, bo każdy z nich dysponował własną pamięcią podręczną i potrafił doskonale radzić sobie z renderowaniem grafiki 3D (stąd Ken Kutaragi głosił, że PS3 nie potrzebuje dedykowanej karty graficznej). W praktyce jednak okazało się, że takie efekty będą niemożliwe do wypracowania. Nie zmienia to faktu, że Cell był bardzo potężny, w żadnym stopniu nie ograniczał GPU od NVIDII, a ogólna moc PS3 była wówczas porównywana do jednostki GeForce 7900 GTX - jednego z najszybszych układów na rynku wprowadzonego do sprzedaży w 2006 roku. Niestety, rzeczywistość okazała się bardzo brutalna. 

Nawet Kazunori Yamauchi, ojciec serii Gran Turismo wskazywał w jednym z wywiadów udzielonych po latach, że era PS3 to był "koszmar". Polyphony Digital miało wtedy szereg ambitnych planów, które musieli porzucić. Byli przekonani, że konsola znakomicie sobie z tym poradzi, ale w praktyce okazywało się zupełnie odwrotnie. IBM ostatecznie zakończyło jakiekolwiek wsparcie Cella w 2012 roku, czyli 6 lat po debiucie PlayStation 3. Chociaż jeszcze w 2008 czy 2009 roku wypuszczano kolejne, odświeżone edycje tego niezwykłego procesora, w praktyce jednak okazywało się, że jego potencjał nigdy nie zostanie w pełni wykorzystany. Kosmiczna, jak na tamte czasy, kwota 400 mln dolarów przeznaczona na cały projekt, została w brutalny sposób zweryfikowana przez rynek. Pytanie, co by było, gdyby Cell nigdy nie powstał, a zamiast niego do PS3 trafił taki układ, jak do Xboxa 360. Przy procesorze zwanym Xenon również pracował IBM, ale ten 3-rdzeniowy układ (o takim samym taktowaniu) był o wiele łatwiejszy do okiełznania, chociaż sporo słabszy. 

Źródło: Opracowanie własne
Maciej Zabłocki Strona autora
Swoją przygodę z recenzowaniem gier rozpoczął w 2005 roku. Z wykształcenia dziennikarz, ale zawodowo pracujący też w marketingu. Na PPE odpowiada głównie za testy sprzętów i dział tech. Gatunkowo uwielbia RPG, strategie i wyścigi. Uzależniony od codziennego czytania newsów i oglądania konferencji.
cropper