Nie jesteś zalogowany.
Jeśli nie posiadasz konta, zarejestruj je już teraz! Pozwoli Ci ono w pełni korzystać z naszego serwisu. Spamerom dziękujemy!
Prosimy o pomoc dla małej Julki — przekaż 1% podatku na Fundacji Dzieciom zdazyć z Pomocą.
Więcej informacji na dug.net.pl/pomagamy/.
[quote=Pavlo950][quote=Jacekalex]Po szczegółowe informacje odsyłam do tony materiałów na necie, od Wiki począwszy, połknąłem tego więcej, niż Armia Czerwona wódki ;),
bo sam się na Haswella szykowałem, ale póki mój grat daje radę, też czekam, aż zaczną porządne chłodzenie robić.
Najwyżej mu zaaplikuję QuadCore, i nawet trzy-cztery latka jeszcze pociągnie, tylko GPU mi się zaczęło sypać.[/quote]
A może by tak olej w roli chłodziarki?[/quote]
To akurat nie jest zabronione, tylko potem taka obudowa fajnie waży. ;)
Ale ostatecznie grzejnik olejowy małej mocy kosztuje te 150 zł,
to przynajmniej tyle się zaoszczędzi. :DDDD
Offline
@Jacekalex:
Ostro, ale to naprawdę OSTRO przeginasz. Czytając Twoje opinie o Ivy ma się wrażanie że po zakupie ten procek albo się zaraz zjara albo rozpadnie, a w ogóle uruchomienie czegokolwiek na nim to proszenie się o kolejny Czernobyl czy Fukuszimę....
Fakty:
1. Pomiędzy Sandy a Ivy do die na procku dointegrowano kilka dodatkowych układów i ZNACZĄCO mocniejszy układ "graficzno-podobny" - większa ilość rzeczy w tej samej przestrzeni = wyższa temperatura.
2. Kilka portali zauważyło że przy tej samej częstotliwości Ivy grzeją się o 10 stopni więcej niż Sandy Bridge - poza tym żadnych realnych problemów nie zauważono. Nic też nie wiadomo o zwiększonej awaryjności Ivy w stosunku do Sandy - no chyba że ja o czymś nie wiem, i ktoś ma REALNE źródła z których wynika że Ivy się palą albo coś podobnego.
3. Po doniesieniach o chłodzeniu, kilka portali zrobił test zrywając ochronę rdzenia i aplikując tam pastę, nie za 100,200 czy 1000 $ a zwykłą za kilka dolców - wyniki są różne:
http://www.pugetsystems.com/labs/articles/Ivy-Bridge-CPU-TIM-Paste-Replacement-160/
ale realnie od kilku do 10 stopni.
4. Haswell'e miały wielce poprawić ten "wielki" problem... no własnie "miały" - Intel widać wyszedł z założenia że skoro procki AMD od dawna żyją na temperaturach rzędu 70 stopni to ich procki w stresie mogą takie osiągać.
Teraz tak - można oczywiście wierzyć że Ivy są do tyłka - samemu się tego obawiałem. Ale po zakupie lapka z tym prockiem, wiem że to jeden wielki bullshit, i jako user mówię - żadnych problemów nie widzę. Mam Ivy w lapku, mam Ivy w pracy oba się nie nudzą i oba śmigają jak ta lala, nie przegrzewają się, nie żrą dużo prądu, pisanie o tych urządzeniach jakby to była jakaś najbardziej zwalona architektura od niepamiętnych wręcz czasów, jest jak dla mnie wprowadzaniem potencjalnych kupców w błąd. Podkreślę jeszcze raz ja Ivy (jedna i5 jedna i7) używam NA CO DZIEŃ i jako USER mówię - PROBLEMÓW NIE MA (odpukać).
Co do Haswell'i - ich główną zaletą jest jeszcze mniejsze zużycie prądu (w sumie głównie to ważne dla lapków - szkoda że nadal o zużyciu na poziomie procków ARM możemy pomarzyć) jak i obsługa kilku nowych rozszerzeń x86, no i jeżeli nie jest się graczem - dużo mocniejszy układ zintegrowany (choć to też zależy dokładnie od modelu procka - w tych tanich Iris'a nie uświadczysz) poza tym zwykły user różnicy nie zauważy.
Wracając do tematu - @skullman nie wiem jaki masz budżet do tego jak Cię stać idź w Haswell'a, jak nie to Ivy też da radę i IMHO nie ma się czego bać... kurde do dzisiaj można nowe lapki z Sandy Bridge dostać więc o czym w ogóle mowa ;]
Pozdrawiam.
Offline
@Huk, czyli odradzasz zdecydowanie fx-6300, w sumie bym musiał jeszcze dołożyć kasy na grafę. Jeszcze pozostaje do rozważenia i5 ze zitegrowaną grafą hd4600 (zostańmy na razie przy haswellu) albo i5 bez grafy i dokupić nvidię. No ale tu już cena robi się mało przyjemna bo o ile poprzednie keplery albo rebrandowane fermi można dostać za grosze to już rev. 2 kosztuje dość konkretnie jak na to co oferuje. No i dochodzi zużycie prądu przez kartę, niby TDP tylko 25W więc tyle w przybliżeniu co TDP samego FXa choć nie wiem, czy różnice w wyznaczaniu tego parametru nie przemawiają na korzyść AMD. Co do grafy, ma nie być tylko słabsza niż w obecnym APU. Tak na marginesie to mamna myśli starcrafta jedynkę :) a nie gram w fullHD tylko w 16:10, to jest sporo większe wyzwanie dla grafiki niż 16:9. Poszukam jeszcze innych testów do hd4600 bo chyba faktycznie początkowe założenie z hd4000 to pomyłka przy taki monitorze. Wiesz, kasa się znajdzie ale jak można ten sam efekt osiągnąć taniej to po przepłacać. Lepiej jak zostanie trochę więcej kasy niż mniej. Muszę dokładnie skonfrontować moje APU z jakimś konkretnym modelem haswella z grafą hd4600. Testy samej grafiki intela nie są miarodajne bo pomiędzy poszczególnymi modelami są kolosalne różnice a większość testów jest robiona na jakimś topowym i7 to i wychodzi im znikoma różnica do APU. Na chwilę obecną skupiam się na grafice zintegrowanej. Geforce'a odkładam na bliżej nieokreślone później.
Co do chłodzenia to się nie boję, mam na chwilę obecną dwa układy od AMD. Chłodzenie też mam dobre, wyrwałem kiedyś Xigmateka za grosze i bardzo go sobie chwalę. Daje sobie radę z APU całkiem dobrze więc intela się tym bardziej nie boję. Tylko czy grafa wydoli? Gdyby AMD miało mniejsze TDP to nawet nie myślałbym nad intelem choć Q3 ma kłopoty z modułami bo mi dwa rdzenie z różnych modułów odpala na prawie 100% i rozgrzewa układ czasami nawet do 50 stopni. Nowszy UT2004 już ledwo co obciąża układ i nawet po kilku godzinach weekendowych bojów ledwo co podnosi temperaturę. Dużo nowsze gry jak D3 i Q4 nie zżerają tak zasobów jak Q3.
Ostatnio edytowany przez skullman (2014-03-01 15:46:37)
Offline
@Huk
Ja przeginam?
Spieprzyli chłodzenie we wszystkim, co wyszło po Sandy Bridge.
Ivy i Haswell mają tą cholerną pastę - tutaj remis.
W Haswellu cały czas robią optymalizacje, żeby zmniejszyć zapotrzebowanie na energię, i dodają nowe - wydajniejsze funkcje, co też wpływa na wydajność procesora.
W dodatku Haswelle wystartowały średnio o $5 tańsze od Ivy w równoważnych modelach.
Jak to sobie rozrysujesz na wykresie, jakość wykonania, jakość chłodzenia i cena, to zobacz, gdzie będziesz miał najniższy punkt tego wykresu.
Dlatego uważam po prostu, że Ivy brać nie warto, skoro za tą samą kasę można bez większego trudu wytargać Haswella, w którym coś jednak poprawili, choć jeszcze nie chłodzenie.
Ja może mam zbyt idealistyczne podejście, ale Qoorwa jak ktoś chce się nazywać Intel Corp. to niech pracuje jak Intel Corp.
Jak płacę za pełnowartościowy procek, to za pełnowartościowy, a nie taki sobie procek, bo akurat to czy tamto się nie udało.
Z trzech równoważnych procków I5 - najlichszy będzie Ivy, lepszy Haswell a najlepszy Haswell Refresh, bo w nim znowu poprawili kilka błędów Haswella.
Przy okazji, z intelowskiego cyklu tick-tock zawsze kupuję procki tock, i innym też radzę, chyba że mają ambicję być królikami doświadczalnymi.
http://en.wikipedia.org/wiki/Intel_Tick-Tock
Już przy Core2 model E6400 miał za mało cache, dlatego równoległe z E6750 wypuścili E6420.
A ja 3 tygodnie musiałem poczekać zakupem kompa, aż mi E6750 sprowadzą, bo uznałem, że E6400 i E6300 to wtopy, a nie procesory.
I nie żałuję. :D
To już nie pierwsza i nie ostatnia wtopa Intela, a jeśli, jako klient, chcę kupić najlepszy możliwy towar w rozsądnej cenie, to muszę być jako klient twardy jak granit, i nie mieć cienia litości do takiej czy innej korpo.
Pozdrawiam
;-)
Offline
No dobra Jacekalex, to jaki model i5 z grafą hd4600 polecasz??
Offline
Ja bym poczekał do czerwca, i albo brał od razu i5-4690S jak wyjdzie, albo zobaczył, czy potaniał i5-4670S, ze wskazaniem na ten pierwszy.
Oczywiście zależy, ile na procek przeznaczasz, w tej chwili i5-4670S kosztuje około 800 zł.
Tańsze modele też są, dlatego zawsze warto zajrzeć tutaj i wybrać odpowiedni procek:
http://ark.intel.com/
http://www.cpu-world.com/index.html
Do tego karta graficzna?
GF-750-GTX wydaje mi się w tej chwili najlepszym wyborem, od 420 w wersji podstawowej, i od 550 w wersji GTX TI.
Tą kartę warto poszukać ze złączem DisplayPort - które ma sporą przyszłość w nowych monitorach i najlepszą przepustowość danych, jako jedyny umożliwia kolor powyżej 8bit, dający możliwość zapewnienia zgodności Adobe RGB, o ile oczywiście monitor tyle wydoli. :D.
Do tego mobo i pamięć, ja najbardziej ufam firmie Kingston w ramach, mobo może być od Asusa, Gigabyte, czy jak tam preferujesz.
Ostatnio edytowany przez Jacekalex (2014-03-01 18:30:41)
Offline
wracając do tematu to z mojej strony kolega powinien wybrać zestaw intel + nvidia. jeżeli nie kręci proca to może być ivy tak aby mógł jak najwięcej wydać na grafe.
Offline
@Jacekalex:
Spieprzyli chłodzenie we wszystkim, co wyszło po Sandy Bridge.
Ivy i Haswell mają tą cholerną pastę - tutaj remis.
W Haswellu cały czas robią optymalizacje, żeby zmniejszyć zapotrzebowanie na energię, i dodają nowe - wydajniejsze funkcje, co też wpływa na wydajność procesora.[...]
Ja może mam zbyt idealistyczne podejście, ale Qoorwa jak ktoś chce się nazywać Intel Corp. to niech pracuje jak Intel Corp.
Jak płacę za pełnowartościowy procek, to za pełnowartościowy, a nie taki sobie procek, bo akurat to czy tamto się nie udało.[/quote]
Znowu to samo [b]SPIEPRZYLI[/b] - ja może dziwny jestem ale dla mnie użycie takiego słowa wskazuje że z prockami po Sandy dzieje się przez te kilka stopni więcej coś bardzo, bardzo złego. Tymczasem fakty raz jeszcze:
Czy Ivy ma niższe zużycie prądu od Sandy? [b]Ma[/b].
Czy Ivy ma znacząco mocniejszy (co nie znaczy mocny) układ graficzny od Sandy? [b]Ma[/b].
Czy Ivy ma więcej tranzystorów od Sandy? [b]Ma[/b].
Czy temperatura jest wyższa niż w Sandy? [b]Tak[/b].
Czy z tego powodu z prockiem dzieje się coś złego? [b]Nic mi na ten temat nie wiadomo - masz jakieś info o większej awaryjności to zapodaj[/b].
Czy mając kasę na Haswella i sprzęt który go obsłuży, powinniśmy brać pod uwagę Ivy? [b]IMHO nie[/b] (i tutaj sporu nie ma).
Dlatego uważam że pisanie że Intel SPIEPRZYŁ jest po prostu ostrą przesadą. Mało tego - jest spora szansa że już NIGDY nie wróci temperatura z poziomu Sandy - gdyż idziemy w dodawanie coraz większej ilości syfu do procka (co ma zalety, ale też tą wadę że temperatura musi być wyższa). Po prostu nie przeginajmy pały - z tym prockiem wyprodukowano miliony komputerów (i nadal się produkuje), ja korzystam z dwóch - mój i7 w pracy w stresie w lato (temperatura otoczenia 35 stopni) dochodził do... 55 stopni (chłodzenie to które było z prockiem) - to dużo? Y580: tam poza procem jest też GF 660M GTX który jest dużo lepszym "grzejnikiem" a mimo to obciążając wszytko na full w stresie dochodzi do 80-85 stopni, to dużo jak na lapka?W dodatku Haswelle wystartowały średnio o $5 tańsze od Ivy w równoważnych modelach.[/quote]
Intel sobie a sklepy sobie - jak brałem Y580 to lapki z Haswell'ami były sporo droższe od tych z Ivy - nie mówiąc już o kompletnym braku wyboru (mało modeli). Teraz jest już lepiej, a w przypadku stacjonarek w ogóle różnice są minimalne - tyle że pamiętać trzeba że nie każda płytka wyprodukowana za czasów Ivy (czy co gorsza Sandy) da radę uciągnąć Haswell'a.Dlatego uważam po prostu, że Ivy brać nie warto, skoro za tą samą kasę można bez większego trudu wytargać Haswella, w którym coś jednak poprawili, choć jeszcze nie chłodzenie.[/quote]
Zgoda tylko zapominasz o jednym szczególe - o ile w przypadku desktopa zgadzam się w 100% (no chyba że płytka łyka tylko Ivy :( ), o tyle w przypadku lapków już tak różowo nie jest. Sprawdzone modele są zwykle częściej na Ivy zamiast Haswell, i teraz jak ktoś czyta Twoje komentarze to ma obraz jakby lapek z Ivy nie nadawał się do kompletnie niczego bo chłodzenie zwalone - co jest oczywistą nieprawdą. Potem pójdzie i przepłaci za Haswell'a mimo że Ivy spokojnie by wystarczyło (przykład prosty - lapek do grania z Nvidią czy AMD obok Intela na pokładzie - po co przepłacać za np. Iris'a skoro od tego są dedykowane karty?).
Dlatego apeluję żeby nie przeginać. Wiadomo że odświeżony Ivy czy Haswell będzie zwykle lepszy, ale to nie znacyz że starsza wersja do niczego się nie nadaje ;]
Stawiam też że niższych temperatur się nie doczekasz ani w Brodwell, ani w jego następcach (w procesorach tej samej klasy rzecz jasna), gdyż - jak wcześniej pisałem => większa integracja = wyższa temperatura, a skoro Intel nie zareagował na narzekania części użytkowników (dodajmy, głównie entuzjastów over clockingu) i w Haswell nadal jest stara "dobra" pasta, to mało realne żeby w Brodwell było inaczej. Albo pastę zmienią, ale upchną tam Iris2 który będzie grzał się jeszcze bardziej więc wyjdzie na to samo ;p
@skullman:
Odradzam generalnie AMD, niestety chłopaki od czasu jak intel wydał Core, nie potrafią się pozbierać :( do tego mają chyba CEO który nie myśli - ARM, Intel i inni producenci idą w jak najmniejsze zużycie prądu, AMD ma to w... "głębokim poważaniu". Ich procki grzeją się, chodzą na ekstremalnym taktowaniu (5 Ghz procki które nie są w stanie dogonić 3 Ghz Intela... noż k***a mać :/ ), co za tym idzie duże zużycie prądu i temperatury. Niestety to się kompletnie nie sprawdza. Jasne są pojedyncze zastosowania gdzie AMD wypada ciutkę lepiej od Intel'a ale to są wyjątki których w normalnym użytkowaniu nie uświadczysz. Może hUMA coś zmieni - ale nie liczyłbym na to.
Co do karty - tu musisz zdecydować samemu, ja wątpię żeby Iris te gry które podałeś ciągnął płynnie w FullHD, być może się mylę ale to już pytanie do kogoś z Iris na pokładzie ;] Ja bym na 100% kartę brał - ale ja lubię grać "na full" (choć ostatnio gram coraz mniej :( ).
Pozdrawiam.Offline
@Bitels, na tym właśnie stanęła rozmowa a nawet na samym intelu.
@Jacekalex jak tu czekać do czerwca skoro ten kompuer już teraz raz działa raz nie działa. Jakby działał, znaczy jakby stery były na czas to bym w ogóle nic nie zmieniał, no może za dwa lata na nowsze APU. Ale skoro AMD ma gdzieś swoich klientów, to klienci pójdą do konkurencji. Jeśli brałbym geforce'a to chyba ivy bez zintegrowanej grafy i5-3350p a jeśli z hd4600 to haswella i5-4570s. Nie potrzebuję aż takich kozackich kart graficznych jak gtx750, na tym kompie w życiu windows nie zagości (poza wirtualnym xp) więc poza D3 i Q4 nic bardziej wymagającego nie będzie uruchamiane. Poza tym zejście z poborem mocy jak najniżej się da bo komputer często dłuuuuugo działa bez wyłączania. Monitor mam konkretny więc chyba displayport nie jest priorytetem bo prędzej wymienię kartę na nowszą niż monitor jeśli, odpukać, nic się nie popsuje a on nie posiada takowego łącza.
Iris zdecydowanie odpada ze względu na cenę.
Ostatnio edytowany przez skullman (2014-03-01 19:57:30)
Offline
Chcesz zmieniać kompa ze względu na opóźnienia w wydawaniu zamkniętych sterowników obsługujących najnowszego kernela i Xorga? Nie łatwiej odpuścić sobie zawsze najnowszego kernela i Xorga?
Offline
Czyli jak? Siedzieć na stable? Nie robić aktualizacji? Poza tym chcę zjienić proc i płytę. Wcześniej to po aktualizacjach wychodziłaa nowsza wersja fglrx i było OK, wkurzała ta obsuwa ale dało się żyć a teraz mam wrażenie, że od kiedy ich układy są montowane do nowych konsol to rynek PC im zwisa bo już kolejna, chyba trzecia wersja z kolei sprawia problemy albo mówiąc inaczej nie działa. Szkoda by było jakby wypadli z rynku bo to jedyna naturalna i w miarę licząca się konkurencja dla nvidii i intela ale moje nerwy też mają swoje granice.
Offline
Jeśli chcesz używać testing/unstable, to możesz samego kernela i Xorga przyblokować.
Offline
535
Ostatnio edytowany przez uzytkownikubunt (2016-12-01 00:46:51)
Offline
Spoko, da się to zrobić ale na tej samej maszynie a archu też ostatnia aktualizacja z repo violo nie działa a xorga mam 1.14 bo tak zalecali. Przyszła aktualizacja catalysta i pozamiatane na tym samym xorgu, dwa systemy i na żadnym nie ma X-w, znaczy na debianie już mam bo wywaliłem fglrx i konfiga ale o akceleracji zapomnij, przynajmniej dopóki nie wrzucę otwartego sferownika. Coś mi krzyczy, że moduł nie wspiera UMS. Jak sterownik radeon będzie działał to pomyślę nad zaczekaniem do czerwca. I jak myślisz Arn, czy to wina zbyt mowego xorga czy po prostu chłopaki z AMD olewają sprawę?
Offline
W Debianie testing/unstable są sterowniki Fglrx 14.1 beta, one raczej średnio działają, były już dwa wątki o tym. Poprzednie (13.12) działają prawidłowo, ale nie obsługują Xorga 1.15, dlatego te wątki zostały rozwiązane przez cofnięcie Xorga i Fglrx do poprzednich wersji ze snapshot.debian.org. Co do Archa i „repo violo” się nie wypowiadam bo nie znam (ale jeśli tam również są sterowniki 14.1 beta, to pewnie to samo).
[b]EDIT:[/b] W unstable są już sterowniki Fglrx 14.2 beta, może te lepiej się sprawują.
Offline
No to te 14.2 bety z unstable nie działają pod sidem. Nie mogę też nigdzie znaleźć jak rozwiązać ten problem z UMS i przenieść to na KMS, za to definicji co jest co od groma a instrukcje z arch nie działają i żadne usuwanie nomodset nie daje rezultatów więc nie przetestuję otwartego sterownika ale może to i lepiej, teraz jestem wk...y to kupię sprzęt i raz na zawsze pozbędę się tego śmiecia a tak to jeszcze mogłoby mi się spodobać bo zaczęło działać i bym został przy tym dziadostwie do następnej fali segfaultów i innych fanaberii rodem ze stajni AMD.
Ostatnio edytowany przez skullman (2014-03-02 00:51:30)
Offline
Ja bym na twoim miejscu myślał o używanym (poleasingowym) komputerze, najlepiej della
http://allegro.pl/dell-t5400-x5450-4x3000mhz-4gb-80-quadro-windows-7-i4009259760.html
Tu masz przykład; sam procesor (nówka) jest warty 3.5k (około, $852 USD (2011-12-16)) [ofc. komputer był używany]
Pytanie czy chcesz jakieś monstrum, czy nie (do tego raczej grafika by się przydała, od biedy dysk i więcej ramu)
Fervi
Offline
@fervi, to ma zasiłke ponad 850W, na co mi taki moloch, nie ważne jest dla mnie ile jest wart procesor, ważne ile to mi proądu zeżre np.: w IDLE'u albo będę pięć godzin siedział w Blenderze z takim molochem a wystarczyłby mi sprzęt o 1/5 mocy tego della. Jaki jest powód inwestycji w taki sprzęt, bo mi rawy przetrawi o filiżankę kawy wcześniej?? To będę sie delektował filiżanką kawy dłużej i jeszcze dokupię następny słoik kawy za różnicę w rachunku za prąd.
@Arn, w jakim dziale były te wątki o cofaniu fglrx i xorga i jak dawno bo nie mogę znaleźć.
Ostatnio edytowany przez skullman (2014-03-02 00:54:13)
Offline
http://forum.dug.net.pl/viewtopic.php?id=25297
http://forum.dug.net.pl/viewtopic.php?id=25321
Offline
Xorg sie zainstalował w poprzedniej wersji ale ani sgfxi ani stery z repo nie działają. Jutro jeszcse powalczę z radeonem.
Ostatnio edytowany przez skullman (2014-03-02 02:11:27)
Offline
Coś zepsułeś. ;) Fglrx oczywiście 13.12 instalujesz? Teoretycznie mogłaby to jeszcze być kwestia kernela, ale według changeloga 13.12 z repo powinny obsługiwać kernele do wersji 3.13 włącznie.
Offline
Skullman, to, że ma zasilacz 875W, nie znaczy, że tyle ciągnie przecież (komputer jest w zasadzie serwerowy, gdzie trzeba było dużo rzeczy znieść) - Według Intela; Max TDP wynosi 120W
Nie musisz koniecznie na ten przechodzić, ale w ofercie na allegro (zakładka komputery osobiste, Dell, używane) masz sporo ofert
http://allegro.pl/dell-760-nd-c2d-2-x-2-8-ghz-1gb-80gb-dvd-xp-poz-i3982318226.html
Przykładowo może być ten (chociaż obudowa mi się nie podoba, niemniej to tylko przykład) - 305zł, powinien podziałać z 5 lat na tych bebechach
Fervi
Ostatnio edytowany przez fervi (2014-03-02 08:05:17)
Offline
DWURDZENIOWY
PROCESOR
INTEL
CORE 2 DUO
E7400
DWA PEŁNE, WYSOKO TAKTOWANE, NIEZALEŻNE RDZENIE
2 x 2,8 GHz
W SUMIE 5600 MHz !!![/quote]
Sorki fervi nie mogłem się powstrzymać z tym "w sumie".
Wiem, że komputer nie musi tyle prądu brać ale taki zasilacz jest po prostu nieefektywny. A jakie w takich kompach są płyty, masz usb3.0? Poza tym piszeszWedług Intela; Max TDP wynosi 120W[/quote]
Czy to oznacza, że Intel dla takich procesorów inaczej wyznacza TDP niż na rynek klientów indywidualnych? Poza tym stanęło na procesorze o TDP 65W, kwestia tylko wydajności zintegrowanej grafiki Intela. Jak zaproponowałem na początku sześciordzeniowego FX-a to od razu jego energochłonność została mocno skrytykowana mniej więcej tak:[quote=Huk]@skullman:
Ja bym szedł w Nvidia + Intela - AMD nie warto, jedno że prądu to żre więcej niż statystyczny rosjanin litrów spirytusu rocznie więc różnicę w cenie szybko amortyzują różnice w opłatach, to jeszcze wydajnością ciężko mu gonić Intela w większości zastosowań.[/quote]
a TDP tego procka to 95W i w przypadku AMD jest faktycznie maksymalne. Szukam testów HD4600 na konkretnym modelu haswella i chcę je porównać do wydajności mojego radeona w A10-5700. Generalnie samego układu graficznego bo proc tak czy owak bije na głowę APU. Jeszcze jak do tego dostanę sporo mniejszy pobór mocy, to konkurencji po prostu brak. Ale jeśli dziś uda mi się odpalić sterownik radeon to poczekam jeszcze na odświerzonego haswella, tak jak Jacekalex doradzał. Powtórzę się ale co tam, gdyby nie brak supportu ze strony AMD to nawet nie rozważałbym zmiany platformy bo już teraz kaveri są modele o TDP 65W, zanim bym chciał zmieniać moje A10 to pewnie pojawiłaby się następna generacja APU. Od strony sprzętowej jest to dobry układ ale polityka firmy niestety faworyzuje użytkowników niszowych systemów na linuksa to tak od niechcenia wspierają a przecież tu mogliby trochę zyskać bo graczy niewiele w tym środowisku.Ostatnio edytowany przez skullman (2014-03-02 11:27:06)
Offline
[quote=skullman]a TDP tego procka to 95W i w przypadku AMD jest faktycznie maksymalne. Szukam testów HD4600 na konkretnym modelu haswella i chcę je porównać do wydajności mojego radeona w A10-5700. Generalnie samego układu graficznego bo proc tak czy owak bije na głowę APU. Jeszcze jak do tego dostanę sporo mniejszy pobór mocy, to konkurencji po prostu brak. Ale jeśli dziś uda mi się odpalić sterownik radeon to poczekam jeszcze na odświerzonego haswella, tak jak Jacekalex doradzał. Powtórzę się ale co tam, gdyby nie brak supportu ze strony AMD to nawet nie rozważałbym zmiany platformy bo już teraz kaveri są modele o TDP 65W, zanim bym chciał zmieniać moje A10 to pewnie pojawiłaby się następna generacja APU. Od strony sprzętowej jest to dobry układ ale polityka firmy niestety faworyzuje użytkowników niszowych systemów na linuksa to tak od niechcenia wspierają a przecież tu mogliby trochę zyskać bo graczy niewiele w tym środowisku.[/quote]
To nie brak supportu ze strony AMD. Przecież dostarczają zamknięte sterowniki i biorą udział w tworzeniu otwartoźródłowych.
Problemem jest cykl wydań (a właściwie to wynikające z niego opóźnienie), który nie pasuje do ciągłego modelu wydań, który dominuje w świecie Linuksa:
Catalyst has an extremely conservative release schedule. Instead of letting fixes get out to users, they hold back developed code for 3-4 months in development, beta and RC builds before they push it out in a public Catalyst release. Some releases of Catalyst are based on the same trunk version (e.g. 8.96 is a trunk version) as previous months' releases; that Catalyst release would therefore consist of critical bug fixes only, and not new features. They consider Linux kernel support a "feature", so you see where I'm going with this.
Due to the release cycle of Catalyst, code that a developer writes today for Linux 3.4 support is not going to hit the public until at least 2 months from now, but more likely 3 or 4 months. So somebody within ATI is right on top of the latest kernel developments and constantly working on Catalyst to make sure it supports the latest Linux kernel ABI, but... these changes take months and months to get through their release cycle!
If you were to compare the release cycles of Linux distros to the release cycles of graphics drivers, you'd have something like this:
Catalyst = Red Hat Enterprise Linux or Debian Stable. Releases very infrequently with heavily "tested" / "QAed" code, with the goal of minimizing regressions. The good part of this model is that, if your driver is already working well and you upgrade to the new version, it isn't going to make anything worse. It will be unlikely to introduce new problems, assuming the environment it's running in is static (this assumption is the primary reason why the Catalyst release cycle clashes horribly with the Linux release cycle to produce the current situation. Linux is anything but static, and any software that wants to keep up with it absolutely must make frequent releases of breaking changes.) I'll call this model the Conservative Catalyst (following Ubuntu's naming convention of adjective and noun starting with the same letter, just for fun).
Nvidia binary = Fedora development branch or Arch Linux. Releases more frequently, with somewhat less testing and QA, with the goal of getting the latest and greatest stuff out to the users once they're fairly confident that it "works". The driver's architecture is more volatile than Catalyst's because any given release of the Nvidia binary can happen at any time. The release schedule is not as heavily based on time intervals, so much as releasing what they have, when it's ready and working for most people. The upside of this model is, if you have a bug or a feature you want, you will get it faster. The downside is, you are more likely to see regressions and new bugs crop up with each release. This process forms a middle ground between Conservative Catalyst and Liberal Libre, which I'll call the Solid Shipper, in homage to the fact that the Nvidia binary releases are generally "solid", if not timely.
Open source drivers = compiling packages from version control and building your own distro a la Linux From Scratch (LFS) or Gentoo ~x86. There is little to no coordinated QA; releases are arbitrary lines in the sand rather than representing a finished product; and you're free to shoot yourself in the foot by pulling the latest code from upstream, which gives you both the latest features and the latest bugs. The huge advantage of this model is flexibility: those who want the latest and greatest can have it; those who want something more stable and tested can perform their own QA (as distros that ship released versions of Mesa often do) and try to work by a development model similar to Catalyst. So you have the full spectrum of flexibility in how "old and crusty / tested" you want your packages: zero testing, a little testing, or a whole lot. It's up to you, and/or your distribution maintainers. This is what we know as the Liberal Libre, where anything goes. There's no downside to this model except that the proprietary driver companies aren't using it, forcing their users to endure one of the previous models.
What it comes down to is that the only optimal development cycle that would suit the Linux ecosystem would be another open source project, not these proprietary projects with their own out-of-sync release schedules.[/quote]
http://phoronix.com/forums/showthread.php?70594-fglrx-12-4&p=260589#post260589
Offline
@yossarian, dobrymi chęciami piekło jest wybrukowane. Nie ważne więc jakie dobre chęci ma firma AMD, mnie obchodzi efekt końcowy. Suma sumarum, odwoływanie sie do cyklu wydawniczego debiaba stable albo RHEL jest mocno chybione moim zdaniem bo to nie zaleta tylko wada. Po co np.: adminowi w suuuper stabilnym i przetestowanym środowisku akceleracja OpenGL? Najbardziej jest potrzebna właśnie na desktopie, gdzie komputer służy nie tylko do suuuper poważnych i profesjonalnych zadań ale właśnie do rozrywki i do przeciętnych, zwyczajnych zastosowań domowych. I tu ten cykl wydań się pomprostu nie sprawdza. Wszyscy bez wyjątku psioczą na support AMD a firma dalej swoje: "jak my wam te stery przetestujemy..." to świat w tym czasie pójdzie do przodu i znowu one nie będą działać. I tak w koło do za...a. I jeszcze ten tekst o nvidii, że wypuszczają słabo przetestowany kod. Tylko, że ten "niepewny" kod po prostu działa, niemal nikt się na niego nie skarży a na ten prsetestowany i pewny wszyscy, do tego stopnia, że w archu jie ma nawet catalysta, wyleciał z repo. Mógłbym oczywiście używać stable, do większości zastosowań starczy. Ale w KDE w testingu jest nowy digikam, który bez żadnej ingerencji wywołuje rawy z Pentaksa pomprostu wspaniale do tego stopnia, że 9rzestałem używać innego softu. Ten ze stable'a jezcze tak nie działa to co, mam sam budować nowe KDE na stable'u bo AMD testuje stery? Nie, po prostu pora podziękować AMD.
Offline
Time (s) | Query |
---|---|
0.00007 | SET CHARSET latin2 |
0.00003 | SET NAMES latin2 |
0.00069 | SELECT u.*, g.*, o.logged FROM punbb_users AS u INNER JOIN punbb_groups AS g ON u.group_id=g.g_id LEFT JOIN punbb_online AS o ON o.ident='3.142.136.210' WHERE u.id=1 |
0.00054 | REPLACE INTO punbb_online (user_id, ident, logged) VALUES(1, '3.142.136.210', 1732375135) |
0.00047 | SELECT * FROM punbb_online WHERE logged<1732374835 |
0.00064 | DELETE FROM punbb_online WHERE ident='18.225.72.161' |
0.00064 | DELETE FROM punbb_online WHERE ident='3.133.123.162' |
0.00069 | DELETE FROM punbb_online WHERE ident='3.136.22.204' |
0.00070 | DELETE FROM punbb_online WHERE ident='52.14.209.100' |
0.00073 | SELECT topic_id FROM punbb_posts WHERE id=258834 |
0.00005 | SELECT id FROM punbb_posts WHERE topic_id=25353 ORDER BY posted |
0.00052 | SELECT t.subject, t.closed, t.num_replies, t.sticky, f.id AS forum_id, f.forum_name, f.moderators, fp.post_replies, 0 FROM punbb_topics AS t INNER JOIN punbb_forums AS f ON f.id=t.forum_id LEFT JOIN punbb_forum_perms AS fp ON (fp.forum_id=f.id AND fp.group_id=3) WHERE (fp.read_forum IS NULL OR fp.read_forum=1) AND t.id=25353 AND t.moved_to IS NULL |
0.00007 | SELECT search_for, replace_with FROM punbb_censoring |
0.00363 | SELECT u.email, u.title, u.url, u.location, u.use_avatar, u.signature, u.email_setting, u.num_posts, u.registered, u.admin_note, p.id, p.poster AS username, p.poster_id, p.poster_ip, p.poster_email, p.message, p.hide_smilies, p.posted, p.edited, p.edited_by, g.g_id, g.g_user_title, o.user_id AS is_online FROM punbb_posts AS p INNER JOIN punbb_users AS u ON u.id=p.poster_id INNER JOIN punbb_groups AS g ON g.g_id=u.group_id LEFT JOIN punbb_online AS o ON (o.user_id=u.id AND o.user_id!=1 AND o.idle=0) WHERE p.topic_id=25353 ORDER BY p.id LIMIT 25,25 |
0.00090 | UPDATE punbb_topics SET num_views=num_views+1 WHERE id=25353 |
Total query time: 0.01037 s |