ssy z just cause 2
#1
jak waszym zdaniem jeśli ta gra ma już 3lata bo premiera była w 2010 to ta gra wygląda cudnie, czy waszym zdaniem już wygląda realistycznie czy jej jeszcze duużo brakuje?

1 http://zapodaj.net/c428266571bac.jpg.html
2 http://zapodaj.net/97d891948c764.jpg.html
3 http://zapodaj.net/399917432cbd0.jpg.html
4 http://zapodaj.net/20f649501ab46.jpg.html
5 http://zapodaj.net/b252136e5ec27.jpg.html
6 http://zapodaj.net/4d62f3a66eff7.jpg.html
7 http://zapodaj.net/238536a101989.jpg.html
[Obrazek: b22j.jpg]
Odpowiedz
#2
Mam z CDA, grafa ładna, ale do fotorealizmu sporo brakuje i podejrzewam że na takie gry poczekamy jeszcze z 8-10 lat.
"By człowiek był człowieka bratem, trzeba go wpierw przećwiczyć batem"
Odpowiedz
#3
ja stawiam na 7lat w ciągu 10lat gry tak skoczyły w górę Tongue / w tej grze tylko grafa ładna a wg mnie sama gra jest taka sobie
[Obrazek: b22j.jpg]
Odpowiedz
#4
Sęk w tym, że ostatnie dziesięciolecie to również duży skok techniczny, szybkie procesory, pamięci, potężne GPU, miniaturyzacja podzespołów, dlatego i postęp był możliwy w grach. W chwili obecnej powolutku dochodzimy do limitów wydajności, które stawia przed nami fizyka. Miniaturyzacja też skończy się w pewnym punkcie, bo przy obecnej technologii, nie jesteśmy jeszcze w stanie zbudować maszyn, których jednostki obliczeniowe bazowałyby na atomach (chociaż badania są prowadzone rzecz jasna Smile ). Nadzieję daje nieco grafen, który mógłby być użyty zamiast krzemu, ale jego upowszechnienie to 10 lat w absoutnie najlepszym wypadku. Wojsko nie pozwoli żeby potencjalny skok wydajności trafił to zwykłych ludzi zbyt prędko.

Ponadto nie zapominajmy, że rozwój graficzny w chwili obecnej powstrzymują konsole. Przyjdzie nowa generacja konsol, która da znaczny wzrost wydajności bazując na dostępnej w danej chwili technologii (i to nie z najwyższej półki, bo sprzęt musi być dostępny na każdy portfel). Patrząc na XBOXa 360 i PS3, możemy się spodziewać w tym/przyszłym roku skoku, który zatrzyma się na jakieś kolejne 4-5 lat.

Szansę ma oczywiście wprowadzenie wielowątkowości, zarówno w układach CPU jak i GPU, ale do dziś wielkowątkowość kuleje w wielu produkcjach, i dopóki mamy jeszcze zapasy mocy, nie będzie szeroko wykorzystywana, i jest to kolejny hamulec rozwoju. Inną rzeczą jest optymalizacja, o której wydaje się developerzy zapominają, a także kłębowisko robaczków, które zostaje rozdeptane czasem na rok po premierze, używając 20 patchów.

Sama wspomniana gra jest daleko od realistycznej. Owszem ładnie toto wygląda, ale jeszcze dużo wody upłynie nim zobaczymy realistyczne efekty cząsteczkowe (woda, rozbryzgi piany pod łódką, skołtunione włosy na rękach bohatera na które działają czynniki zewnętrzne). Zresztą może i lepiej? Zamiast walić w grafikę, może twórcy wreszcie wrócą na stronę grywalności i kompleksowości rozgrywki?
Odpowiedz
#5
(03-01-2013, 13:07)Zguba napisał(a): Sęk w tym, że ostatnie dziesięciolecie to również duży skok techniczny, szybkie procesory, pamięci, potężne GPU, miniaturyzacja podzespołów, dlatego i postęp był możliwy w grach. W chwili obecnej powolutku dochodzimy do limitów wydajności, które stawia przed nami fizyka. Miniaturyzacja też skończy się w pewnym punkcie, bo przy obecnej technologii, nie jesteśmy jeszcze w stanie zbudować maszyn, których jednostki obliczeniowe bazowałyby na atomach (chociaż badania są prowadzone rzecz jasna Smile ). Nadzieję daje nieco grafen, który mógłby być użyty zamiast krzemu, ale jego upowszechnienie to 10 lat w absoutnie najlepszym wypadku. Wojsko nie pozwoli żeby potencjalny skok wydajności trafił to zwykłych ludzi zbyt prędko.

Ponadto nie zapominajmy, że rozwój graficzny w chwili obecnej powstrzymują konsole. Przyjdzie nowa generacja konsol, która da znaczny wzrost wydajności bazując na dostępnej w danej chwili technologii (i to nie z najwyższej półki, bo sprzęt musi być dostępny na każdy portfel). Patrząc na XBOXa 360 i PS3, możemy się spodziewać w tym/przyszłym roku skoku, który zatrzyma się na jakieś kolejne 4-5 lat.

Szansę ma oczywiście wprowadzenie wielowątkowości, zarówno w układach CPU jak i GPU, ale do dziś wielkowątkowość kuleje w wielu produkcjach, i dopóki mamy jeszcze zapasy mocy, nie będzie szeroko wykorzystywana, i jest to kolejny hamulec rozwoju. Inną rzeczą jest optymalizacja, o której wydaje się developerzy zapominają, a także kłębowisko robaczków, które zostaje rozdeptane czasem na rok po premierze, używając 20 patchów.

Sama wspomniana gra jest daleko od realistycznej. Owszem ładnie toto wygląda, ale jeszcze dużo wody upłynie nim zobaczymy realistyczne efekty cząsteczkowe (woda, rozbryzgi piany pod łódką, skołtunione włosy na rękach bohatera na które działają czynniki zewnętrzne). Zresztą może i lepiej? Zamiast walić w grafikę, może twórcy wreszcie wrócą na stronę grywalności i kompleksowości rozgrywki?

ja z 2gim zdj jakby ktoś mi pokazał to z 2lata temu bym powiedział ale piękne zdj ciekawe gdzie je zrobiono? / tak do fotorealizmu brakuje daleko ale rzuć okiem na modyfikacje gier np:
http://www.youtube.com/watch?v=21iCyuJvVpE
dla mnie wielki skok od normalnej wersji gry

"ale jeszcze dużo wody upłynie nim zobaczymy realistyczne efekty cząsteczkowe (woda, rozbryzgi piany pod łódką, skołtunione włosy na rękach bohatera na które działają czynniki zewnętrzne)"
co za tym idzie nowy pc, telewizor jak największy hd bo kto dostrzerze takie rzeczy normalnie
ostatnio przed wigilią widziałem nowy silnik graficzny zapomniałem nazwy..
który jak słyszałem da się odpalić na kartach sprzed kilku lat?
ale jak wiadomo nam to nie wypali bo kto jak to ale to by były olbrzymie straty jak wiemy dla kogo :/
[Obrazek: b22j.jpg]
Odpowiedz
#6
Cytat:co za tym idzie nowy pc, telewizor jak największy hd bo kto dostrzerze takie rzeczy normalnie

Zdziwię Cię, ale bardzo wielu, szczególnie Ci dla których grafika jest ważnym składnikiem gry. Ja potrafię takie szczegóły wyłapać na 17 calowym ekranie (co dla mnie grafika mogłaby zostać w epoce 2D i rzucie izometrycznym Smile ), to na telewizorze 30cali+ będzie to jak na dłoni.

Cytat:ostatnio przed wigilią widziałem nowy silnik graficzny zapomniałem nazwy..
który jak słyszałem da się odpalić na kartach sprzed kilku lat?

Silników powstaje kupa co roku. I nie jest problemem zrobienie silnika który odpali nawet na 3dfx Voodoo, wystarczy zapewnić odpowiednią kompatybilność wsteczną i obsługę starych bibliotek. Jednak tu powstaje kwestia zaprogramowania na nim gry tak by na starszych kartach ruszyła tak jak i na obecnych na podobnych ustawieniach, a to ze względu na różnice wydajnościowe niemożliwe nawet gdyby współczynnik optymalizacji wyniósł 100% (wszystko co się dało zostało zoptymalizowane), biorąc pod uwagę wyższe ustawienia.

Chętnie poznam nazwę silnika, więc jak przypomnisz ją to zapodaj, niemniej jak pisałem wyżej, będą tam duże wyrzeczenia. To tak jak z silnikiem jakiś czas temu (też nie pomnę nazwy bo to lata temu), który renderował grafikę porównywalną do Doom'a 3, ale poziom wykreowany w demie zajmował poniżej 1MB. Problem w tym, że ówczesne najmocniejsze procesory po prostu zjadał w całości, dlatego, że cała sceneria - wszystko było generowane dynamicznie.
Odpowiedz
#7
(03-01-2013, 15:20)Zguba napisał(a):
Cytat:co za tym idzie nowy pc, telewizor jak największy hd bo kto dostrzerze takie rzeczy normalnie

Zdziwię Cię, ale bardzo wielu, szczególnie Ci dla których grafika jest ważnym składnikiem gry. Ja potrafię takie szczegóły wyłapać na 17 calowym ekranie (co dla mnie grafika mogłaby zostać w epoce 2D i rzucie izometrycznym Smile ), to na telewizorze 30cali+ będzie to jak na dłoni.

Cytat:ostatnio przed wigilią widziałem nowy silnik graficzny zapomniałem nazwy..
który jak słyszałem da się odpalić na kartach sprzed kilku lat?

Silników powstaje kupa co roku. I nie jest problemem zrobienie silnika który odpali nawet na 3dfx Voodoo, wystarczy zapewnić odpowiednią kompatybilność wsteczną i obsługę starych bibliotek. Jednak tu powstaje kwestia zaprogramowania na nim gry tak by na starszych kartach ruszyła tak jak i na obecnych na podobnych ustawieniach, a to ze względu na różnice wydajnościowe niemożliwe nawet gdyby współczynnik optymalizacji wyniósł 100% (wszystko co się dało zostało zoptymalizowane), biorąc pod uwagę wyższe ustawienia.

Chętnie poznam nazwę silnika, więc jak przypomnisz ją to zapodaj, niemniej jak pisałem wyżej, będą tam duże wyrzeczenia. To tak jak z silnikiem jakiś czas temu (też nie pomnę nazwy bo to lata temu), który renderował grafikę porównywalną do Doom'a 3, ale poziom wykreowany w demie zajmował poniżej 1MB. Problem w tym, że ówczesne najmocniejsze procesory po prostu zjadał w całości, dlatego, że cała sceneria - wszystko było generowane dynamicznie.

łap znalazłem Big Grin
http://www.youtube.com/watch?feature=pla...IqYTekH9EQ#!
[Obrazek: b22j.jpg]
Odpowiedz
#8
Zapodasz nazwę? YT mam w robocie zablokowany Wink
Odpowiedz
#9
(03-01-2013, 15:40)Zguba napisał(a): Zapodasz nazwę? YT mam w robocie zablokowany Wink

Luminous Studio (JP) - Editing tools Part 1
[Obrazek: b22j.jpg]
Odpowiedz
#10
No, Square Enix wie co robi, ale ponad to:

Cytat:Square Enix reveal the demo is running on PC, but won't reveal its exact specs - they imply the GPU is in line with current top-end PC processors, but the RAM demands are pretty high. We ask if its been designed with current, work-in-progress, next-gen console specs in mind, or whether Square Enix are daring the platform holders to match their ambitions - the answer tends to the latter.

Czyli podsumowując to cacko (które dalej fotorealne nie jest ale o krok bliżej, jak wszczystkie new-nextgenowe silniki) będzie miało diaboliczne wymagania, i czekają raczej na nowe konsole. Jak to się ma do:

Cytat:ostatnio przed wigilią widziałem nowy silnik graficzny zapomniałem nazwy..
który jak słyszałem da się odpalić na kartach sprzed kilku lat?

Far Cry 3 też odpalisz na kartach sprzed kilku lat, w rozdzielczości 800x600 z powycinanymi wszystkimi detalami, aby zapewnić płynność Smile
Odpowiedz
#11
ahh tylko czekać...
[Obrazek: b22j.jpg]
Odpowiedz


Skocz do:


Użytkownicy przeglądający ten wątek: 1 gości