Informujemy, iż w celu optymalizacji treści dostępnych w naszym serwisie,
w celu dostosowania ich do indywidualnych potrzeb każdego użytkownika, jak również dla celów reklamowych i
statystycznych korzystamy z informacji zapisanych za pomocą plików cookies na urządzeniach
końcowych użytkowników. Pliki cookies użytkownik może kontrolować za pomocą ustawień swojej
przeglądarki internetowej. Dalsze korzystanie z naszych serwisów internetowych, bez zmiany ustawień
przeglądarki internetowej oznacza, iż użytkownik akceptuje politykę stosowania plików cookies
W czasie Intel Developer Forum zaprezentowano nową technikę tworzenia obrazu – Ray-Tracing (śledzenie promieni). Ma ona zastąpić używaną obecnie rasteryzację.
Komputer testowy, na którym pokazano technikę Ray-Tracing, nie korzystał w ogóle z GPU. Karta graficzna służyła jedynie do przekierowania stworzonego już obrazu na monitor. Komputer posiadał osiem jednostek CPU x86. W najbliższej przyszłości wielordzeniowe komputery będą dominować na rynku. Dzięki wykorzystaniu wielu rdzeni można było zaprząc część z nich wyłącznie do tworzenia grafiki. Tworzona scena nadal zbudowana jest z trójkątów, ale jej złożoność jest budowana na zasadzie drzewa. Od pierwotnego „pnia” odchodzą kolejne „konary” dzielące się dalej na „gałęzie”. W ten obrazowy sposób tłumaczona była zasada podziału sceny na coraz mniejsze podjednostki, aż do „liści”. Dopiero światło odbite od „liści”, czyli od pikseli sceny, podążające do oka odbiorcy poddawane jest modelowaniu. Właśnie na tym poziomie następuje tworzenie faktycznie widzianego obrazu.
Algorytmy wykorzystane w tym systemie obliczania sceny doskonale skalują się na wielordzeniowych jednostkach, dzięki czemu nie wymagają wsparcia ze strony GPU do tworzenia scen.
W czasie demonstracji wykorzystano grą Quake 4. Technologia ta była już wykorzystywana przy tworzeniu efektów specjalnych w filmach, jednak obliczanie każdej klatki zajmowało godziny. Dzięki przełomowym pracom firmy Intel możliwe jest obecnie wykorzystanie techniki do tworzenia obrazu w grach w czasie rzeczywistym.
Czyli kupujemy Intel Octo Core E9990 i wyrzucamy GF 88800 GTXXX5 ... Nie ma to tamto ... Nie ma takiej opcji, ?e GPU zostan? wyparte. To chyba najpre?niej rozwijaj?ca sie ga??? komputerw PC zastosowania domowego ...
halus
- 14 October 2007, 11:21:30
"...zaprezentowano NOW? technik? tworzenia obrazu – Ray-Tracing (?ledzenie promieni)"
Nie nwka, widzia?em pokaz ray-tracingu w czasie rzeczywistym na silconach na Infofestiwalu w Krakowie jakie? 15-16 lat temu
pietro_asp
- 14 October 2007, 13:17:03
Cena. Nikt mi nie wmowi, ze w ciagu najblizszych lat cena spadnie na tyle, ze ktos sobie to w domowym kompie zamontuje. Pozatym nawet jesli to ATI i Nvidia juz cos wymysla, zeby sobie z tym poradzic ;)
Jarson
- 14 October 2007, 13:52:36
Czterordzeniowce zaczynaj? si? od 1000z? dzisiaj (Intel Core2 Quad Q6600 2,40 GHz, 65nm, 1066MHz), mamy ju? po?ow? - za dwa trzy lata tyle pewnie b?d? kosztowa?y o?miordzeiowe procki. Tyle, ?e producenci kart graficznych zapowiadaj? 10-krotny wzrost ich wydajno?ci do 2010 (i tu ju? nawet nie chodzi o GPU).
Najlepiej by?oby, gdyby programi?ci przewidywali w grach mo?liwo?? przenoszenia cz??ci oblicze? na CPU, ale przy jednosczesnym wykorzystaniu dobrodziejstw oferowanych przez karty graficzne - szybkiej pami?ci, US itp.
houston
- 14 October 2007, 17:35:18
Mam tylko nadzieje ze GPU nie beda tak pradozerne jak obecne modele !! ostatnie nowosci to nawet 300W potrzebuja na dokarmienie GPU chyba tu producenci GPU mogliby ruszyc te swoje 4-y literki zeby zredukowac apatyt na energie o 50% do obecnych apetytow co nowszy chipset GPU to wieksze pozeranie energii moze by zaczeli produkowac nowszy chipset z redukacja energi o np 10% ?? chyba najwyzszy czas aby producenci pomysleli troche o ekologii i mniejszemu zuzyciu pradu gdy kupowalem moj "wielki zaislacz 620W" to bylo cos co moglo zaspokoic pradozerne 2-e karty teraz obawiam sie ze nawet na 1-a ledwo zaspokoi ;/ pewnie jak za 2-a 3-y lata to bede musial miec 2-a zasilacze po 5 KW kazdy w trybie redudatnym zeby zaspokoic "glodne GPU !! chyba ze do tego czasu do kazdego komputera dostarcza linie energetyczna 400 KV moze nie bedzie trzeba robic z licznika pradu silnika odrzutowego :) albo wrescie producenci od kart graficznych zrobia kok w kierunku redukcji apetytu cos musi sie w tym kierunku zmienic bo ktos rachunki za energiie musi placic ;/
Poke
- 14 October 2007, 19:37:22
Intel kompletnie ei daje sobie rady na rynku kart graficznych. Kedys 80%, dzis wypierany sukcesywnei nawet z biurkowych roziwazan. Wiec co robia? Wypisuja farmazony i kreuja rzeczywistosc. Tylko to im pozostalo.
Biken
- 15 October 2007, 09:31:02
Nie w samym CPU i GPU wina. Realistyczn? grafik? komputerow? mieli?my od po?owy lat 90. Poza przyrostem pr?dko?ci komputerw potrzeba te? ewolucji oprogramowania a z tym ju? tak r?owo nie jest.
Du?e przero?ni?te programy obros?y w pirka i zrobienie prostego efektu wymaga masy pami?ci i CPU a 10 lat temu wystarczy?o na dok?adnie to samo sprz?t klasy Pentium II 300 MHz 64Ram. Niestety ...
irondick
- 15 October 2007, 11:08:22
A ja mam Ati 64MB z akceleracj? DVD na PCI i pobiera mi 4W w trybie 2D.
Jak chc? pogra? to ?aduj? GF8800GTS w PCIE.
Oszccz?dno?? zajebista.
Tipros
- 15 October 2007, 16:37:03
Jeszcze nie zwariowa?em, ?eby zmienia? karty graficzne w kompie celem zaoszcz?dzenia 5 z? z rachunku za pr?d ...
pietro_asp
- 15 October 2007, 20:04:00
@irondick Tak zaczynajac, to jeszce lepszym rozwiazaniem jest miec 2 kompy, ale chyba nie o to chodzi...