Kupowanie używanej lub używanej karty graficznej dla wielu może być złym pomysłem, ale dla innych może być zbawieniem. Często lepiej jest kupić używaną kartę graficzną, aby uzyskać lepszą wydajność niż nową, ale używana karta graficzna nie zawsze jest dobrym zakupem, ponieważ jest dużo oszustw.
ILe prądu pobiera karta graficzna GTX 750ti. Witam Nie wiem ile prądu pobiera karta graficzna 750ti 2 GB DDR5 . Interesuje mnie pobór mocy w stanie spoczynku , ale też kiedy bym grał w gry ( ustawienia medium rodzielczość 1600x900)
Masz za słabą kartę graficzną, kiedy obciążona jest na 100% i generuje 25 klatek, to procesor pracuje np na 30%, bo on byłby w stanie generować np 75, ale nie musi bo karta się nie wyrabia. Zmniejsz ustawienia grafiki, a zobaczysz, że wykorzystanie procesora i fps wzrośnie. Swoją drogą to bardzo niski fps dla twojej karty. Jesteś pewien, że się nie przegrzewa, albo, że nie działają jakieś procesy w tle? Edytowane 3 Grudnia 2019 przez wojciechu15
Jeśli więc nie wiesz, jaka karta graficzna (GPU) jest zainstalowana na komputerze z systemem Windows 11, możesz skorzystać z poniższych metod, aby zidentyfikować kartę graficzną. Zacznijmy. 1) Sprawdź swoją kartę graficzną w Ustawieniach
Nawet jeśli nie jesteś zwolennikiem podkręcania, benchmarkowanie karty graficznej może pomóc Ci upewnić się, że Twój układ GPU działa zgodnie z oczekiwaniami. Oto poradnik, w którym pokazujemy, jak to zrobić. Fot. Thiago Trevisan / IDG Benchmarkowanie karty graficznej może wydawać się trudne, ale w rzeczywistości takie nie jest. Ten poradnik pokaże ci, jak łatwe, przyjemne i ważne jest przeprowadzanie benchmarków twojego układu graficznego. Omówimy benchmarkowanie zarówno pod kątem stabilności, jak i wydajności. Dlaczego powinieneś wykonać benchmark swojego układu GPU? Najpierw jednak dowiedz się, dlaczego powinieneś przeprowadzać benchmark swojej karty graficznej, nawet jeśli nie próbujesz dostać się na szczyt listy przebojów w podkręcaniu: Aby uzyskać bazowy wskaźnik wydajności, dzięki któremu będziesz wiedział, czy Twój układ GPU działa tak, jak powinien, porównując go z innymi standardowymi mógł porównać wydajność swojego obecnego komputera z przyszłymi modernizacjami sprawdzić stabilność i inne istotne parametry, takie jak termika, prędkość zegara, itp. Najpierw przetestuj stabilność i temperatury Fot. Thiago Trevisan / IDG Teraz, gdy już wiesz dlaczego powinieneś wykonać benchmark, czas przejść do tego jak to zrobić. Zacznijmy od stabilności i parametrów życiowych. Rzadko się to zdarza, ale czasami karta graficzna może być wadliwa fabrycznie. Może to oznaczać martwą kartę, ale w wielu przypadkach będziesz miał do czynienia z tak zwanymi "artefaktami", czyli niedoskonałościami obrazu, migotaniem, a nawet pulsowaniem kolorów. Zobacz również:Nie tylko Samsung - Xiaomi również może mieć problem ze spowalnianiem urządzeńGdzie kupić GeForce RTX 3050? Sprawdzamy oferty popularnych sklepów [ Pierwszym programem, którego użyjemy, jest Unigine Heaven Jest on darmowy do użytku osobistego i uruchamia pętlę środowiska graficznego, które naprawdę wykorzystuje możliwości Twojego układu GPU. Pierwszym krokiem jest upewnienie się, że twoja karta graficzna może pracować bez wyłączania się lub wyświetlania dziwnych błędów graficznych, więc powinieneś pozwolić na uruchomienie programu Heaven przez co najmniej 30 minut, aby umożliwić procesorowi graficznemu osiągnięcie odpowiedniej temperatury. Jeśli wszystko wygląda dobrze, będziesz chciał również obserwować parametry życiowe, które będą wyświetlane w prawym górnym rogu, wraz z informacjami o Twoim układzie GPU. Pierwszą istotną informacją jest temperatura, która może wskazywać na różne potencjalne problemy z Twoim sprzętem i przepływem powietrza w obudowie. Jeśli Twoja karta graficzna szybko osiąga maksymalną temperaturę, może to oznaczać rzadki (ale możliwy) problem z pastą termiczną lub (co bardziej prawdopodobne) ograniczony przepływ powietrza w obudowie, jeśli wentylatory nie mają wystarczająco dużo miejsca, by zapewnić dopływ chłodnego powietrza. Fot. Thiago Trevisan / IDG Dobrym przykładem ostatnich problemów są temperatury pamięci GDDR6X w kartach GeForce RTX 3090 Founders Edition firmy Nvidia. Bez testów obciążeniowych GPU, pamięć może zbliżyć się do limitu temperatury VRAM, potencjalnie dławiąc twoją wydajność. (Niektóre osoby z powodzeniem zaktualizowały swoje podkładki termiczne i zauważyły znaczącą poprawę) Skąd wiesz, jaka jest normalna temperatura pracy rdzenia GPU Twojej karty graficznej? Różni się ona w zależności od modelu (wygoogluj nazwę swojego GPU, by poznać szczegóły), ale podstawowe coolery referencyjne mogą osiągać temperaturę nawet 84 stopni Celsjusza, podczas gdy niektóre większe karty graficzne z masywnymi radiatorami i wieloma wentylatorami, takie jak fantastyczna seria FTW3 firmy EVGA, mogą osiągać niższe temperatury w przedziale 60-70 stopni. Będziesz wiedział, że jesteś w niebezpiecznej strefie, jeśli temperatury osiągną 80 stopni, a wentylatory będą się agresywnie kręcić, co często wskazuje na słaby przepływ powietrza w obudowie. Dodaj kilka wentylatorów lub otwórz kilka paneli obudowy, a temperatury powinny się poprawić. Jest to bezpośrednia korzyść z wiedzy zdobytej podczas benchmarków i testowania Twojego GPU. Możesz także śledzić taktowanie rdzenia i pamięci swojego układu GPU, by upewnić się, że osiąga on wydajność zbliżoną do zamierzonej. Łatwiejszym sposobem jest po prostu uruchomienie opcji benchmarku w Unigine Heaven, a następnie możesz porównać swój wynik z innymi online i uzyskać dobry punkt odniesienia, aby upewnić się, że jesteś w dobrym punkcie odniesienia. Jak przeprowadzić benchmark układu GPU w celu określenia wydajności bazowej? Fot. Thiago Trevisan / IDG Po przetestowaniu stabilności i termiki, możesz przetestować wydajność. W tym celu skorzystamy z popularnego pakietu benchmarków 3DMark, który zawiera kilka darmowych trybów. Time Spy (testujący wydajność grafiki DirectX 12) i Port Royal (wydajność ray tracingu) są jednymi z najczęściej używanych benchmarków. 3DMark posiada nawet internetową halę sław, w której możesz porównać swoje wyniki z innymi. Na jakie liczby powinieneś zwracać uwagę? Jest jeden wynik całkowity, a następnie osobne wyniki dla CPU i GPU, jeśli korzystasz z Time Spy. Port Royal ma tylko wyniki GPU i wynik całkowity. Jeśli dokonasz zmian w komponentach swojego komputera, indywidualne wyniki dadzą Ci lepsze wyobrażenie o tym, jaki wpływ mają one na wynik całkowity. (Jest to szczególnie przydatne, jeśli chcesz podkręcić komputer). Fot. Thiago Trevisan / IDG 3DMark może również pokazać Ci przybliżoną liczbę klatek na sekundę, jaką uzyskasz w wybranej grze i rozdzielczości, co jest bardzo przydatną informacją, pozwalającą ocenić Twoją wydajność i porównać ją z tym, co mogą dla Ciebie osiągnąć nowe aktualizacje. Jeśli przeprowadzasz overclocking, uruchomienie 3DMarka może także ujawnić niestabilności systemu, takie jak awarie, dzięki czemu będziesz mógł skorygować swoje wyniki i spróbować ponownie. Jak przeprowadzić benchmark swojego układu GPU w grach? Innym, bardzo przyjemnym sposobem na przeprowadzenie benchmarku Twojego układu GPU jest wykorzystanie automatycznych benchmarków wbudowanych w wiele gier. (Sprawdź naszą recenzję GeForce RTX 3080 Ti, by zobaczyć kilka popularnych z nich, lub listę gier z wbudowanymi benchmarkami na zawsze fantastycznej PC Gaming Wiki). Fot. Thiago Trevisan / IDG Shadow of the Tomb Raider jest moim faworytem, ponieważ możesz łatwo sprawdzić ilość klatek na sekundę wyświetlanych w każdej scenie, co daje Ci dobry obraz tego, jak gra będzie działać ogólnie. Dodatkowo, jeśli zmodernizujesz swoją kartę graficzną lub inny sprzęt PC, możesz ponownie uruchomić benchmark i będziesz dokładnie wiedział, co zyskałeś. Bardziej zaawansowani gracze mogą użyć oprogramowania takiego jak Fraps lub OCAT do ręcznego sprawdzenia wydajności gier, które nie mają wbudowanego benchmarku, ale wymaga to więcej czasu, testów i opracowania powtarzalnego scenariusza testowego, aby uniknąć potencjalnych różnic między scenami. Fot. Thiago Trevisan / IDG No i masz! Awansowałeś na profesjonalistę w benchmarkach GPU. Teraz już wiesz, jak sprawdzić, czy Twoja karta graficzna jest stabilna i w pełni sprawna, jak zweryfikować dane dotyczące wydajności, by upewnić się, że Twój układ GPU jest zgodny ze specyfikacją, oraz jak zmierzyć bazową wydajność Twojego sprzętu, by móc w przyszłości porównać go pod kątem aktualizacji. I kto wie? Może polubisz benchmarking tak bardzo, że stanie się on twoim hobby!
Karta graficzna jest procesorem, którego zadaniem jest transmisja obrazu. Procesory graficzne mogą mieć różnorodny kształt. Najczęściej zostają wyposażone przez producenta w wentylatory, które pomagają schładzać kartę podczas intensywnej pracy. Karty mają swoją własną pamięć, dzięki której kontrolują samodzielne procesy.
Please add exception to AdBlock for If you watch the ads, you support portal and users. Thank you very much for proposing a new subject! After verifying you will receive points! lukiaszek1272 03 Jan 2020 03:56 180 #1 03 Jan 2020 03:56 lukiaszek1272 lukiaszek1272 Level 2 #1 03 Jan 2020 03:56 Witam, po zakupie nowej karty rx570 4GB mam taki problem że karta jak podaje menedżer zadań wykorzystuje swoje 100% gdzie wykorzystane jest 2GB z 4GB. Helpful post #2 03 Jan 2020 08:39 badboy84 badboy84 Level 42 Helpful post #2 03 Jan 2020 08:39 To nie ma żadnego związku, użycie GPU nie jest zależne od wykorzystania pamięci. Tu nie ma problemu ... #3 03 Jan 2020 10:04 User removed account User removed account Level 1 #3 03 Jan 2020 10:04 Badboy ma rację, W jakiej rozdzielczości grasz, jakie ustawienia, jakie gry? #4 03 Jan 2020 12:13 lukiaszek1272 lukiaszek1272 Level 2 #4 03 Jan 2020 12:13 Tomequ123 wrote: Badboy ma rację, W jakiej rozdzielczości grasz, jakie ustawienia, jakie gry? Przykładowo BF Bad Company 2 Ustawienia ultra + 1920×1080 Helpful post #5 03 Jan 2020 12:32 User removed account User removed account Level 1 Helpful post #5 03 Jan 2020 12:32 No to o czym my mówimy. Włącz grę AAA z 2014+ na Ultra, to zobaczysz 4GB. #6 03 Jan 2020 13:00 lukiaszek1272 lukiaszek1272 Level 2
Gigabyte Aorus GeForce RTX 4070 Ti Elite 12GB GDDR6X (GV-N407TAORUSE-12GD) od 4271,21 zł Sprawdź lub napisz opinię Karta graficzna pamięć 12GB RAM, Współbieżność Nie posiada, Wyjścia HDMI,
Karty graficzne nie tylko do gier – do czego można użyć GPU?Choć wydawać by się mogło, że karty graficzne przeznaczone są głównie do gier, istnieje wiele innych możliwości, które pozwalają na wykorzystanie potencjału mocy grafiki, montaż oraz renderowanie filmówJeśli pracujesz z dużą ilością zdjęć lub filmów, szybki procesor graficzny jest niezbędny do efektownej pracy. Zadania, które zajmują dużo czasu na zintegrowanym układzie graficznym, mogą działać znacznie szybciej na dedykowanej karcie znanych aplikacji do edycji wykorzystuje dodatkową moc GPU, w tym Adobe Photoshop (polecany do profesjonalnej pracy), Lightroom (do lżejszej edycji zdjęć, a także do zarządzania biblioteką) oraz Premiere Pro (do edycji i renderowanie filmu).5 darmowych odpowiedników dla PhotoshopaNa komputerze z wydajnym procesorem graficznym zastosowanie kilku specjalnych filtrów do zdjęć oraz efektów specjalnych przy montażu filmów zajmuje znacznie mniej czasu, co zdecydowania pozwala na efektywniejszą pracę. Lepszą wydajność komputera możesz zaobserwować już podczas uruchamiania wymienionych wyżej programów na ekranach o wyższej rozdzielczości, w tym na wyświetlaczach treści w InternecieKorzyści płynące z większej mocy GPU nie ograniczają się tylko do samego tworzenia treści. Wszystkie przeglądarki internetowe, takie jak Firefox, Chrome i Edge, mogą korzystać z GPU, aby skrócić czas renderowania strony. Przesyłanie strumieniowe wideo z YouTube i Netflix najpierw musi zostać skompresowane, zanim faktycznie je zobaczysz. Z GPU prawdopodobnie napotkasz mniej zacięć lub niechcianych problemów w trakcie a kryptowalutyKarty graficzne mogą posłużyć jako koparki do generowania Bitcoina, Ethereum oraz innych kryptowalut. O tym, jak działają koparki kryptowalut przeczytasz tutaj. Wraz ze wzrostem popularności Bitcoina oraz jego odpowiedników, znacząco podniosła się cena kart graficznych na rynku. Więcej o wpływie koparek kryptowalut na sprzedaż GPU znajdziesz w ostatnim wpisie na naszym granie w gry może Cię nie interesować, posiadanie komputera z procesorem graficznym może zachęcić Twoje dzieci do samodzielnego programowania. Dzieje się tak dzięki wzrastającej popularności narzędzi do samodzielnego tworzenia gier, które w tym celu mogą wykorzystywać moc oczekiwane gry 2021 rokuPodsumowując, karty graficzne mają wiele możliwości zastosowania, zaczynając od obróbki graficznej zdjęć, montażu filmów, tworzenia wizualizacji oraz renderowania modeli 3D, po codzienny surfing w internecie, wydobywanie kryptowalut i programowanie. To od Ciebie zależy, w jaki sposób będziesz chciał wykorzystać moc GPU Twojego komputera. Wybierz rozwiązanie, które najbardziej odpowiada Twoim masz pytania na temat budowy lub działania swojego komputera, skontaktuj się z nami pod numerem (708) chęcią odpowiemy na Twoje pytania!
GeForce GTX 1080, nowa karta graficzna od Nvidii, nie zawodzi. Testy przeprowadzone przez serwis PCLab.pl potwierdzają - to najwydajniejsza karta na świecie!
Recommended Posts Udostępnij Witam wszystkich od dłuższego czasu dręczy mnie mały dylemat, chciałbym zmodernizować trochę swój komputer jednak z racji ograniczonego budżetu mogę sobie pozwolić na zmianę 1 kluczowego podzespołu, moj obecny sprzet to: AMD Athlon 7850 x2 2,[email protected] 2x2GB Ram ddr2 800mhz patriot płyta asus M3A-H/HDMI na chipsecie amd 780G socket AM2+ karta graficzna asus 4850 ddr3 625/993 (1986) mhz zasilacz pentagram 500W Nie wiem czy wąskim gardłem w moim zestawie jest obecnie procesor czy karta graficzna, chciałbym zakupić radeona 6850 albo jakis procesor 4 rdzeniowy athlon albo phenom co sadzicie? Cytuj Link to post Share on other sites Udostępnij athlon x3 450 do malego OC (phenom daje tak nieznacznie wiecej ze sie nie oplaca) + 6870 jesli finanse to x3 + 5770 na tej plycie to za duzo nie zdzialasz - nie pomijam faktu ze pomiedzy ath x4 a x3 nie istnieje sensowna roznica wydajnosciowa Edytowane 20 Października 2011 przez naafet Cytuj Link to post Share on other sites Udostępnij A ile masz kasy ? Co do Phenoma to sie nie zgadzam, ze daje nieznacznie wiecej (bo daje nie dosc, ze cache potrzebny grom, to jeszcze daje dodatkowy rdzen, zreszta to wszystko i tak wysiada przy Intelu) Cytuj Link to post Share on other sites Udostępnij rozni sie owszem o 6-8% po oc obu wiec niezgadzac sie mozesz tylko czy za te drobne jest sens doplacac - nie lepiej doplacisc wiecej do karty jak juz do czegos ma doplacic a wiecej dostanie niz kilka procent 150 do karty to juz z 5770 robi sie 6850 i nie bedzuie to roznica 6% bezsensem jest kupno phenoma - i nie ma na to rady chyba ze ktos chce wywalac kase nie zapopomne wspomniec o tej plycie ktora ledwo co pozwoli oclic x3 bo na cleniu phenoma to sie zdymi Edytowane 20 Października 2011 przez naafet Cytuj Link to post Share on other sites Autor Udostępnij Myślałem o zakupie 5770 ale stwierdziłem że odpuszczę serie 5000 i zaczekam na 6000 w przystepnej cenie, tego 4850 kupilem zaraz jak wyszly te karty i 3 lata dobrze mi sluzyl, dlatego chce aby nastepna karta tez troche posluzyla, pozatym modowalem w niej chlodzenie i dziala na samym radiatorze. Co do plyty to nie mam co na nia narzekac, kupowalem ja razem z karta ale ona byla z tej sredniej polki, obsluguje wszystkie dostepne procesory athlon/phenom. Co do procesorow 3 rdzeniowych to srednio jestem do nich przekonany, takie wybrakowane wedlug mnie sa. cena jaka moge wydac to kolo 400zl na procka lub 600 na karte (poczekam az kurs troche spadnie) co do pamieci L3 to moj procesor tez ja posiada Edytowane 20 Października 2011 przez BlackDevil Cytuj Link to post Share on other sites Udostępnij Twoj jest starym gratem - nie wydajnym pomimo iz posiada l3 ath2 x3 bez l3 bedzie dwa razy wydajniejszy co do plyty to tylko zdanie sprzedawcy ze jest ze sredniej polki - no moze kiedys dawno temu byla ze sredniej - teraz jest z najnizszej mozliwej testy sie licza a nie Twoje zdanie - testy mowia co innego Edytowane 20 Października 2011 przez naafet Cytuj Link to post Share on other sites Autor Udostępnij testy sie licza a nie Twoje zdanie - testy mowia co innego co uwazasz za testy ktore to potwierdzaja? oczywiscie nie mowie tu o porownaniu jej z segmentem z wyzszej polki, nie bawie sie tez w oc wiec co mi jeszcze potrzebne jest w plycie? 4 gniazda pamieci sa, 100% kondensatory polimerowe, obsluga procesorow na dobrym poziomie, stabilnosc itd... przed jej kupnem siedzialem z tydzien czasu przegladajac testy i porownujac ja do innych. obecnie myslalem nawet nad wymiana plyty juz na am3+ przyszlosciowo myslac o buldozerku ale troche sie zaiodlem jego osiagami przy wykorzystaniu w grach a co do procka to padl wybor na tego a zrezygnowalem z athlona 6000+ Edytowane 20 Października 2011 przez BlackDevil Cytuj Link to post Share on other sites Udostępnij ma tylko 5 faz i to trak rozlozonych ze nie da sie ich "zradiatorowac" 5 to bedzie sie grzalo zeby mialo sie nie grzac nmusiala by miec znacznie wiecej lub piec ale z radiatorem - ta plyta jak na obecne czasy jest pozbawiona sensownej sekcji zasilania OC to nie jest zabawa - to cos co sie robi zeby uzyskac duzo- czesto wiecej niz mozna kupic za jakiekolwiek pieniadze zabawa to jest w piaskownicy wpuisz modelk swopjegop procka+review wpisz inne plus review wybacz ale ja rzucam tylko haslo - chcesz to dochodz sam nie chcesz to nie dochodz gdybynm mial wszystko sam argumentowac to musilabym tu spedzac 2x wiecej czasu niz spedzam a i tak za duzo go poswiecam Edytowane 20 Października 2011 przez naafet Cytuj Link to post Share on other sites Autor Udostępnij wpisz inne plus review nie bardzo to zrozumialem wiem co to oc, swego czasu sie amatorsko bawilem w podkrecanie, jak juz wczesniej pisalem plyta nie byla dobierana pod wzgledem oc a obecny procesor przetaktowalem symbolicznie o 200mhz przez podniesienie mnoznika, grafika przetaktowana byla tylko testowo a ty naafet patrzysz pod wzgledem ile na maxa mozna wycisnac ze sprzetu. Mi bardziej sie rozchodzi o to czy jak zmienie swoj procesor na jakis nowszy (szybszy) jak radzicie 3 lub 4 rdzeniowy do czy da sie z mojej karty wyciagnac wiecej fps bez jej podkrecania, czyli czy moj procesor wykorzystuje ja na maxa czy nie i odwrotnie, jesli procesor nie wykorzystuje swojej mocy w 100% to czy zmiana karty na tego 6850 przyniesie lepsze efekty Cytuj Link to post Share on other sites Udostępnij nie bardzo to zrozumialem wiem co to oc, swego czasu sie amatorsko bawilem w podkrecanie, jak juz wczesniej pisalem plyta nie byla dobierana pod wzgledem oc a obecny procesor przetaktowalem symbolicznie o 200mhz przez podniesienie mnoznika, grafika przetaktowana byla tylko testowo a ty naafet patrzysz pod wzgledem ile na maxa mozna wycisnac ze sprzetu. Mi bardziej sie rozchodzi o to czy jak zmienie swoj procesor na jakis nowszy (szybszy) jak radzicie 3 lub 4 rdzeniowy do czy da sie z mojej karty wyciagnac wiecej fps bez jej podkrecania, czyli czy moj procesor wykorzystuje ja na maxa czy nie i odwrotnie, jesli procesor nie wykorzystuje swojej mocy w 100% to czy zmiana karty na tego 6850 przyniesie lepsze efektyOdpowiem opisując to na własnym przykładzie. Miałem kiedyś GF 8800 Gt ,czyli sprzęt mniej więcejz tego segmentu co Ty (moze trochę słabszy). Przy Athlonie X2 4200 i 2 GB Ramu zestaw osiągał 7862 pkt w 3D Marku 06, ale brakowało płynności np. w GTA IV. Po upgradzie na Athlona X4 630 w 3D Marku 06 było już 11647 pkt., a w GTA IV przy dwukrotnie wyższych ustawieniach gra stała się płynna. Cytuj Link to post Share on other sites Udostępnij Na phenom x4 955BE było by jeszcze lepiej. Jak masz w płycie ACC to kup proca który się odblokuje na x4, x2 550BE. Edytowane 20 Października 2011 przez Skitles Cytuj Link to post Share on other sites Autor Udostępnij Odpowiem opisując to na własnym przykładzie. Miałem kiedyś GF 8800 Gt ,czyli sprzęt mniej więcejz tego segmentu co Ty (moze trochę słabszy). Przy Athlonie X2 4200 i 2 GB Ramu zestaw osiągał 7862 pkt w 3D Marku 06, ale brakowało płynności np. w GTA IV. Po upgradzie na Athlona X4 630 w 3D Marku 06 było już 11647 pkt., a w GTA IV przy dwukrotnie wyższych ustawieniach gra stała się płynna. z tym ze w starym procesorze miales taktowanie 2,2 a w nowym 2,8 a to jest roznica a u mnie duzo sie nie zmieni, z 3ghz moze na 3,2 Jak masz w płycie ACC to kup proca który się odblokuje na x4, x2 550BE. Niestety ta plyta nie ma mozliwosci odblokowania rdzeni A może miał ktoś wydajnościowo podobny procesor do tego i zmienił grafike na 6850? Edytowane 21 Października 2011 przez BlackDevil Cytuj Link to post Share on other sites Udostępnij Ja mam 7550 i Geforce 8800GTS512 i mogę go podkręcić na ale to i tak nic nie daje. Możesz sobie kupić do niego 6850 albo zostawić 4850 i kupić phenom x4. Ja już kupiłem płytkę na am3, brakuje mi ramu ddr3 i procesora. 8800GTS512 zostawiam sobie wole mieć mocny procesor. Cytuj Link to post Share on other sites Dołącz do dyskusji Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.
Dla kogo zewnętrzna karta graficzna? Zewnętrzna karta graficzna do laptopa sprawdza się idealnie jako podzespół dla fanów gier. Współczesne tytuły wyglądają zachwycająco pod względem dokładności trójwymiarowych struktur, ale wymagają ogromnej mocy obliczeniowej.
Nowe karty graficzne Intel Arc mogą stanowić realną konkurencję dla produktów Nvidii i AMD. Wszyscy oczekujemy premiery nowych układów, która nastąpi już niedługo - na początku 2022. Z tego względu postanowiliśmy zebrać wszystko, co do tej pory już wiemy. [Aktualizacja Intel, udostępnił na swoim kanale na platformie YouTube kolejny film prezentujący możliwości nadchodzących kart graficznych Arc. Po raz kolejny niebiescy prezentują wydajność modelu A750 w wersji Limited Edition. Po raz kolejny w rolę prezentera został postawiony Ryan Shrout, o którym to wspominaliśmy przy ostatnich aktualizacjach. Ryan twierdzi, że wszystkie karty graficzne Intel Arc, w tym i testowany egzemplarz, będą obsługiwać VRR (zmienna częstotliwość odświeżania) zgodnie z oficjalnym standardem VESA. Dodatkowo układy maja obsługiwać technologię Adaptive Sync która zapewnia płynną liczbę klatek na sekundę, synchronizując częstotliwość odświeżania monitora z generowanymi FPS. Podczas prezentacji wykorzystano grę Death Stranding Directors Cut, która działa w 80-100 FPS w rozdzielczości 2560 x 1440 (dla VRR) badź 3440x1440 (przy testach HDR). Zobacz również:Najlepsze antywirusy na Maca [RANKING 2022]Intel Optane przechodzi do historii. To koniec markiArc A380 przetestowany. Intel proponuje coś dziwnego Na koniec otrzymaliśmy informacje na temat złącza HDMI w kartach Intel Arc. Ryan twierdzi, że wszystkie układy Arc dla komputerów stacjonarnych jak i laptopów obsługują standard HDMI Jednak aby uzyskać dostęp do HDMI partnerzy mogą zintegrować układ PCON i przekonwertować wyjście DisplayPort na HDMI Obie karty graficzne Intel Arc A770 i Arc A750 Limited Edition obsługują standard HDMI dzięki temu rozwiązaniu. [Aktualizacja Co by nie mówić ostatni tydzień należał do Intela i układów ARC. Niebiescy widać starają się poprawić swój wizerunek, nadszarpnięty przez opóźnienie premiery dedykowanych kart graficznych, czy okrojoną premierę na rynku OEM w Chinach. Już na początku tygodnia Tom Petersen i Ryan Shrout, zaprezentowali działająca kartę Intel ARC A750, na kanale GamerNexus. Dodatkowo udzielili sporo dodatkowych informacji o budowie, wydajności układów ARC Alchemist. Fot. GamerNexus Fot. GamerNexus Niedługo później na platformie Youtube został umieszczony już oficjalna prezentacja karty A750, bezpośrednio na kanale Intela. Nadchodząca karta graficzna powinna osiągnąć w większości tytułów wydajność przewyższającą GeForca RTX 3060. co prawda niebiescy ograniczyli się do prezentacji wyników tylko z 5 tytułów takich jak F1 2021, Cyberpunk 2077, Control, Borderlands i Fortnite w rozdzielczości 2560x1440. Nie trudno odnieść wrażenia że dużo jednak zależy od ustawień, ponieważ w samym teście w Cyberpunk 2077, gra była testowana na detalach wysokich z wyłączonym Ray Tracingiem. Jakby tego było mało Tom Petersen i Ryan Shrout, w piątkowy wieczór gościli również podczas podcastu The Wan Show na kanale LinusTechTips. Podczas audycji po raz pierwszy została zaprezentowana karta graficzna ARC A770. Ten topowy model dla serii Alchemist podobnie jak model A750, został wyposażony w dwie wtyczki zasilające 8-pinowa i 6-pinową. Za chłodzenie modelu odpowiadają tylko dwa wentylatory. Niestety, nie została ujawniona specyfikacja karty. Jednak według wcześniejszych doniesień model ten powinien otrzymać 32 rdzenie XE oraz 16 GB pamięci GDDR6. fot. LinusTechTips fot. LinusTechTips Jednak dla nas najważniejsza jest deklaracja, która złożyli obaj wyżej wymienieni pracownicy Intela, że premiera kart graficznych Intel Arc nastąpi szybciej niż się spodziewamy. Cóż pozostaje trzymać za to kciuki [Aktualizacja Choć premiera układów Intel Arc Alchemist miała miejsce w ubiegły czwartek dopiero dziś zeszło embargo na recenzje tych jednostek. Pamiętajmy jednak że debiut układów niebieskich nastąpił tylko na rynku chińskich, oraz dotyczy jedynie modelu A380. Pierwsze recenzje skupiają się na modelu A380 Photon od GUNNIR, który jest partnerem Intela na azjatyckim runku, oraz jest jak dotąd jest jedyną autorską konstrukcją opartą na tym procesorze graficznym. Pierwsze wyniki dostarczył Shenmedounengce, który przetestował kartę na systemie opartym o procesor Intel Core i5-12400, płytą główną B660 i pamięcią DDR4. Karta została porównana z kartami graficznymi NVIDIA RTX 3050, GTX 1650 i AMD RX 6500XT oraz RX 6400. fot. Shenmedounengce (Bilibili) fot. Shenmedounengce (Bilibili) A380 oferuje pełny procesor graficzny ACM-G11 z 8 rdzeniami Xe oraz 6 GB pamięci GDDR6 komunikującej się poprzez 96-bitową magistralę . Taktowania rdzenia wynosi nawet 2,45 GHz (w trybie boost), a pamięć została skonfigurowana by osiągać przepustowość 15,5 Gbps. fot. Shenmedounengce (Bilibili) fot. Shenmedounengce (Bilibili) fot. Shenmedounengce (Bilibili) W testach syntetycznych 3DMark, układ intela jest szybszy od kart graficznych posiadających 4 GB pamięci VRAM, przegrywając tylko z RTX 3050. Dużo gorzej wygląda sytuacja gdy weźmiemy pod uwagę gry. Autor sprawdził układ w takich tytułach jak League of Legends, PUBG, GTA5, Tom Raider, Forza Horizon 5 i Red Dead Redemption II. Niestety, w tym przypadku A380 przegrywa nawet z Radeonem RX 6400 czy GTX 1650. Kolejne wyniki pochodzą z kanału Benchmark Lab, który udostępnił krótka video prezentację zarówno na portalu Bilibili jak i na Youtube. Testowa konfiguracja wykorzystywała 10-rdzeniowy procesor Intela Core i9-10900K oraz 32 GB pamięci DDR4. W tym przypadku karta Arc A380, była szybsza od GTX 1650 produkcji MSI w każdym testowanym tytule. Jak widać dużo w tym momencie zależy jak widać od ustawień oraz konfiguracji całego zestawu. Gra Achlemist A380 MSI GTX 1650 Elden Ring ust, śred, 43 40 Microsfot Flight Simulator ust, śred, 46 40 Wiedzin 3 ust, wysokie 75 65 World of Warcraft ust, max 73 70 CP2077 ust, niskie 45 41 Hitman 3 ust, śred 58 51 Read Dead Redemtion ust, śred, 56 49 God of War ust, śred, 63 56 Fortnite ust wysokie 71 65 Horizon zero dawn, ust, oryg, 56 51 Dane prezentowane w tabeli na podstawie wyników uzyskanych przez Benchmark Lab O sukcesie układów A380 zdecyduje i tak cena. Mimo że sugerowana przez Intela ma wynosić 1030 Juanów (ok. 700zł), to wstępne informacje wskazują, że będzie ostatecznie sporo wyższa. [Aktualizacja Intel ogłosił, że technologia XeSS nie zadebiutuje z mobilnymi procesorami graficznymi z serii Arc 3, które zostały wprowadzone na rynek 30 marca, ale zamiast tego wraz z seriami Arc 5 i Arc 7. Te powinny zadebiutować na początku lata (przełom maja i czerwca). Ogłoszono że w dniu premiery wsparcie otrzyma kilka tytułów AAA i zostaną one zoptymalizowane pod kątem lista gier prezentuje się następująco:„Ghostwire: Tokyo”, „Death Stranding”, „Anvil”, „Hitman III”, „GRID Legends”. Jak już wspominaliśmy w tym artykule, w przeciwieństwie do rozwiązania FSR od AMD - Intel w XeSS wykorzystuje głębokie uczenie wspieranie przez sztuczną inteligencję. Ma to umożliwić przywrócenie szczegółów w przeskalowanym obrazie gry, która jest renderowana w rozdzielczości niższej niż ta, do której jest zdolny Twój wyświetlacz. W tym celu wykorzystywane są rdzenie XMX (Xe Matrix Extensions) w układzie krzemowym,odpowiedzialnym za przyspieszanie tworzenia i trenowania sieci neuronowych w ramach głębokiego uczenia. W architekturze Xe HPG każdy rdzeń Xe otrzymuje dedykowaną jednostkę XMX — i mimo innej budowy ich działanie można porównać do rdzeni Tensor w procesorach graficznych NVIDIA RTX. [Aktualizacja Według kanału Moore's Law Is Dead, Intel przesunie premierę nowej linii dedykowanych procesorów graficznych Arc Alchemist na drugi kwartał tego roku. Pierwotny harmonogram zakładał wypuszczenie układów w pierwszej połowie 2022 roku, a za możliwą datę podawano przełom marca i kwietnia. Intel planuje opóźnić wydanie linii Arc Alchemist Graphics na drugą połowę roku, ponieważ chce dopracować swoje sterowniki. zdj. MLID/Youtube [Aktualizacja W bazie benchmarku CrossMark użytkowanik APISAK znalazł wyniki osiągnięte na laptopie wyposażonym w układ graniczny Intel Arc A370M Graphics, a swoim odkryciem podzielił się na portalu Twitter. Oprogramowanie firmy BAPCo umożliwia testowanie sprzętu niezależnie od posiadanej platformy czy systemu operacyjnego (dostępne wersje na Windows, iOS or macOS i nawet Android) i w łatwy sposób na ich porównanie. zdj. BAPCo || Twitter:APISAK Choć na podstawie osiągniętego rezultatu ciężko wskazać jak w grach spisze się układ graficzny Intela, to potwierdza, że dane chipy znajdują się już producentów i trwają już wewnętrzne testy. Wydajność konstrukcji w całości opartej o produkty Intela wypada, identycznie jak laptopa wyposażonego w układ graficzny Nvidii RTX 3060 oraz procesor i7 12 generacji. Jest to dobra wiadomość, biorąc pod uwagę, że sterownik dla platformy ARC, wciąż znajdują się w fazie testów. Według wcześniejszych doniesień premiery Inte Arc dla urządzeń mobilnych możemy spodziewać się w drugiej połowie tego roku. [Aktualizacja Użytkownik 9550pro, na swoim profilu na portalu Twitter, udostępnił slajd przedstawiający plany Intela dotyczące procesorów graficznych DG2 do laptopów. Na slajdzie zatytułowanym „Konfiguracja pamięci graficznej DG2” możemy zauważyć aż pięć różnych modeli układów przeznaczonych do laptopów. @9550pro Topowym modelem pozostaje SKU1 z 512 jednostkami wykonawczymi(EU), który zostanie sparowany z ośmioma modułami pamięci GDDR6 o łącznej pojemności 16 GB. Ta miałaby komunikować się z rdzeniem przez 256-bitową szynę z prędkością 16 Gb/s (pełna przepustowość 512 GB/s). Warto zaznaczyć że użyte moduły GDDR6 są identyczne jak mającym niedługo zadebiutować mobilnym wariancie RTX 3080 TI. Co więcej, w końcu mamy potwierdzenie słabszej wersji układu wyposażonej w 384 EU o nazwie SKU2. Ten wariant ma zostać wyposażony w 12 GB pamięci GDDR6 oraz 192-bitową szynę pamięci. Moduły zachowałyby taką samą prędkość jak w topowym modelu, co przełożyłoby się na maksymalną przepustowość wynoszącą 384 GB/s. Intel ARC Mobile „SKU3” to model oparty na 256EU z 8 GB pamięci GDDR6 i 128-bitową magistralą pamięci. Miałby również zostać wyposażony w pamięć o prędkości 16 Gb/s, co oznaczałoby , że przepustowość wynosiłaby do 256 GB/s. Wreszcie, SKU4 i SKU5, oparte na GPU DG2-128EU, oba wyposażone w 4 GB pamięci GDDR6 i 64-bitową magistralę. Prędkość pamięci byłaby ograniczona do 14 Gb/s, co oznacza, że maksymalna przepustowość osiągnęłaby 112 GB/s. Slajd ten poniekąd potwierdza możliwe konfiguracje układów Intel ARC Alchemist. Mimo że dotyczy wersji mobilnych, nie jest powiedziana że podobnych wariantów nie doczekamy się również przeznaczonych dla komputerów stacjonarnych. Wszystko wskazuje że w przypadku laptopów nie doczekamy się wariantu wyposażonego w 448 EU. [Aktualizacja Jak się okazuje, udostępniony niedawno sterownik testowy który Intel przypadkowo opublikował na oficjalnej stronie internetowej, zawiera więcej informacji niż można było przypuszczać. Zawiera on nie tylko identyfikatory niewydanego sprzętu. Jak podają redaktorzy serwisu VideoCardz, którzy otrzymali anonimową wskazówkę, pliki SYS ujawniają nazwy niepublikowanych procesorów graficznych Intel Xe-HPG, znanych jako Arc Alchemist. Sterownik zawiera dane dotyczące 4 modeli, w tym dwóch do komputerów stacjonarnych i kolejnych dwóch do urządzeń mobilnych: Intel Arc A380. Intel Arc A350. Intel Arc A370M. Intel Arc A350M. Prawdopodobnie po raz pierwszy dowiadujemy się rzeczywistych nazw nadchodzących kart graficznych od Intela, a informacje te pochodzą bezpośrednio od producenta. zdjęcie rdzeni DG2 udostępnione przez Moore’s Law is Dead Najprawdopodobniej nie jest to pełna lista modeli planowanych w serii Arc Alchemist. Poprzednie przecieki sugerowały, że może istnieć aż 5 różnych wariantów procesorów graficznych DG2, różniących się liczbą rdzeni i konfiguracją pamięci. Układy Arc A380 bazujące na rdzeniu DG2-128EU mają rzekomo oferować wydajność GeForce GTX 1650 SUPER przy taktowaniu 2,45 GHz. Model miałby być wyposażony w 6 GB pamięci GDDR6, więc prawdopodobnie nie jest to flagowa konstrukcja, która podobno ma być wyposażona w 16 GB. Karta A350 może być najtańszą konstrukcją Intela przeznaczoną do komputerów biurowych czy stacji roboczych. Model ten może oferować 96 EU i 4 GB pamięci GDDR6. Można by się domyślać, że A3XX powinien być wydajnościowym odpowiednikiem CPU Core i3. Możliwe, że planowane są również mocniejsze warianty jak A5XX, A7XX i A9XX. [Aktualizacja Intel za pomocą swojego konta na Twitterze udostępnił grafikę, na podstawie której mamy odgadnąć nazwę piątej generacji układów Alchemist. Tak mocno wybiegające w przyszłość plany świadczą o tym jak mocno firma wierzy w nowy produkt. Jak myślicie, biorąc pod uwagę nazewnictwo pochodzące z fantastyki, jak będzie nazywał się nadchodzący układ niebieskich? You’ve heard the codenames Alchemist, Battlemage, Celestial, and Druid, but what about E? What do YOU think it could be? #IntelArc Intel Graphics (@IntelGraphics) October 19, 2021 Czy Układy Arc będą “kopać” kryptowaluty ? Przy obecnych niedoborach GPU po stronie AMD i Nvidii, napędzanych częściowo przez górników kryptowalut, ludzie chcą wiedzieć, czy procesory graficzne Arc Intela napotkają podobne trudności. Biorąc pod uwagę korzenie architektury Xe HP/HPC w centrach danych (uczenie maszynowe, obliczenia o wysokiej wydajności itp.), Intel prawdopodobnie przynajmniej przyjrzał się możliwościom kart przy wydobyciu kryptowalut. Publicznie Intel dopiero ostatnio ogłosił, że nie zamierza blokować żadnych dodatkowych algorytmów. Sława te padły od Raja Koduri, głównego architekta układów graficznych niebieskich, w udzielonym ostatnio wywiadzie. Ogólnie rzecz biorąc, Xe może dobrze radzić sobie w “kopaniu”. Jednak nie moc samego układu jest w tym wypadku najważniejsza, ponieważ najpopularniejsze algorytmy wykorzystywane do wydobycia za pomocą GPU (głównie Ethash, ale także Octopus i Kawpow) swoją wydajność opierają się prawie wyłącznie na przepustowości pamięci. Na przykład najszybsze procesory graficzne Intel Arc prawdopodobnie będą korzystać z 16 GB (może 8 GB) pamięci GDDR6 z 256-bitowym interfejsem. Dałoby to podobną przepustowość jak w przypadku AMD RX 6800/6800 XT/6900 XT, a także Nvidii RTX 3060 Ti/3070. To z kolei doprowadziłoby do wydajności około 60 MH/s przy wydobyciu Ethereum. Intel prawdopodobnie nie zamierza używać szybszych ale i dużo droższych modułów GDDR6X. Nie jest jednak wykluczone, że układy ARC mogą mieć też inne funkcje, które zwiększą wydajność kopania. Karty Nvidii posiadają pamięć taktowaną 14 Gbps w RTX 3060 Ti i RTX 3070, i dzięki czemu (zanim pojawiły się modele LHR) potrafiły osiągnąć około 61-62 MH/s. AMD ma szybszą pamięć 16 Gbps, a po dostrojeniu parametrów osiągamy 65 MH/s. Realistycznie rzecz biorąc, możemy się spodziewać, że mniej więcej taki poziom osiągnie najszybszy GPU Arc. Biorąc pod uwagę, niestabilność na rynku kryptowalut oraz fakt że procesory graficzne Arc nie pojawią się nawet na początku 2022 r.,jest mało prawdopodobne, aby wydajność kopania była nadrzędnym priorytetem dla Intela w fazie projektowania układów. Ethereum jest obecnie zdecydowanie najbardziej opłacalną “monetą” do kopania z wykorzystaniem GPU. Przyjmuje się, że reprezentuje ona ponad 90% mocy GPU wykorzystywanych do kopania na świecie. W Ethereum nastąpi zmiana schematu działania. Z “dowodu pracy” (ang. Proof of Work), system przejdzie na dowód stawki (ang. Proof of Stake). Oznacza, że nie będzie już więcej możliwości wydobywania waluty z wykorzystaniem GPU. W tym wypadku budowanie GPU wokół wydobywania Ethereum byłoby złym pomysłem. W najlepszym (lub najgorszym przypadku, w zależności od perspektywy), przewidujemy, że wydajność kopania będzie z grubsza dorównywać procesorom graficznym AMD Navi 21 i Nvidia GA104. Oprogramowanie do wydobywania prawdopodobnie będzie jednak wymagało poważnych aktualizacji i poprawek sterowników, aby nawet działać poprawnie na przyszłych procesorach graficznych. Dla przykładu próby wydobycia za pomocą układu Xe DG1 kończą się niepowodzeniem. Większość oprogramowania nawet nie wykryła „zgodnego” procesora graficznego. W momencie premiery spodziewałbym się, że procesory graficzne Arc będą w podobnej sytuacji, ale będziemy musieli zobaczyć, jak sprawy ukształtują się z biegiem czasu. [Aktualizacja Po raz kolejny nowymi informacjami o kartach graficznych Intel podzielił się kanał Moore’s Law is Dead . W udostępnionym na platformie Youtube filmie zostały zaprezentowane nowe rendery prezentujące wygląd układów Arc. Referencyjna konstrukcja posiadałaby by dwa delikatnie podświetlone wentylatory oraz wzorem RTX 3000, koniec radiatora zapewniałby bezpośredni przepływ powietrza. Do zasilania będziemy potrzebować dwóch przewodów 8-pin oraz 6-pin. Taka konfiguracja pozwoliłaby na dostarczenie 225 W mocy (300 W licząc złącze PCIe) dla karty. zdj. MLID zdj. MLID zdj. MLID zdj. MLID Choć autor w filmie wspomina, że premiera układów Arc Alchemist może nastąpić w pierwszym kwartale 2022 roku, to dotyczyć ma ona układów mobilnych, a na wersje do komputerów osobistych będziemy musieli poczekać do drugiego kwartału. Jednak według Greymon55 jest to trochę za późno i premiery należało by oczekiwać wcześniej. Q2....I feel a little late.— Greymon55 (@greymon55) October 2, 2021 Wciąż nie mamy informacji jak będą nazywać się najwydajniejsze układu Alder Lake. Najnowsze doniesienia zakładają przyjęcie przez Intela jednego z dwóch schematów. Arc a512 bądź Arc a700, obie nazwy dotyczyły by tego samego układu DG2-512 GPU, ale to właśnie 2gi wariant miałby wskazywać bezpośrednią konkurencję w postaci RTX 3070, RX 6700 XT. [Aktualizacja Dzięki wywiadowi, który udzielił Raja Koduri japońskiemu serwisowi ASCII, dowiedzieliśmy się, że Intel współpracuje już z firmami zewnętrznymi w celu przygotowania nowych kart Alchemist dostępnych na premierę. Na chwilę obecną mamy potwierdzenie, że swoje wersje opracowuje ASUS, Gigabyte oraz MSI choć można się spodziewać, że do tego grona dołączą również i inni producenci. Dzięki kanałowi Moore’s Law is Dead na platformie YouTube dowiedzieliśmy się, że Intel może wypuścić aż trzy modele układów Achemist. Najmocniejszy którego wydajność miała by dorównywać RTX 3070 dysponowałby 512 rdzeniami EU pracującymi z częstotliwością powyżej 2,2 GHz oraz byłby wyposażony w 16 GB pamięci GDRR6 komunikujących się poprzez 256-bitową szynę. Drugi model miałby konkurować z RTX 3060 i dysponowałby 384 bądź 448 rdzeniami EU. Karta ta pozostaje wciąż w fazie testów i jej specyfikacja nie jest do końca określona. Intel przygotowuje również wersję budżetową kart Alchemist. Ten dysponujący 128 rdzeniami EU i pobierający zaledwie 75 W układ miałaby konkurować z GTX 1650 Super. Choć w filmie autor wspomina o wariantach 4 bądź 8 GB to na portalu Chiphell pojawiły się mocno zamazane zdjęcia pokazujące wersję wyposażoną w 6 GB pamięci. Poznaliśmy też specyfikacje nazewnictwa oraz wytyczne do których muszą stosować się producenci przy umieszczaniu informacji na opakowaniu produktu. Dzięki temu wiemy, że wszystkie układy należące do rodziny Alchemist będą nosiły nazwę Arc a#. Można przypuszczać, że Intel zostanie przy tym nazewnictwie dla wszystkich swoich kart graficznych, co na pewno ułatwi ich identyfikację. Idąc tym tropem następcy oparci na rdzeniach Battlemange nosiliby oznaczenie b#, Celestial c# oraz Druid d#. Prawdopodobnie numer modelu będzie odnosił się do ilości rdzeni EU. Karty graficzne Intel Arc – wszystko, co już wiemy Intel Arc, nowa marka na rynku kart graficznych, która ma konkurować z rozwiązaniami dostarczanymi przez Nvidia i AMD. Wszystkie szczegóły o nadchodzących układach oraz czego można się po nich spodziewać dowiedzieliśmy się za pomocą udostępnionego na stronie filmu z zapowiedzią. Nie została zorganizowana huczna konferencja jak ma to w sowim zwyczaju robić konkurencja. Pytanie brzmi, czego powinniśmy oczekiwać od tego giganta technologicznego? Czy naprawdę będzie w stanie konkurować z niezwykle popularnymi i wydajnymi kartami Nvidia serii RTX 3000 i AMD Radeon’ami RX 6000? Postanowiliśmy podsumować wszystkie najnowsze plotki i oficjalne doniesienia o układach Intel Arc. Co to jest Intel Arc? Intel Arc to nowa marka kart graficznych oraz technologii związanych generowaniem obrazu od Intela. Jak twierdzi producent, obejmie ona wiele generacji i to nie tylko sprzętu, ale także oprogramowania i usług. Intel nie podał jeszcze wszystkich szczegółów i nie wiemy dokładnie co to może oznaczać. Prawdopodobnie mogą to być rozwiązania zbliżone do tych oferowanych przez Nvidię, która nie tylko produkuje karty graficzne, ale także oprogramowanie. Usługi takie jak Nvidia Broadcast, które wykorzystuje możliwości kart graficznych czy oparty na chmurze serwis gamingowy GeForce Now to tylko dwa z licznych przykładów. Karty graficzne Intela maja obsługiwać zaawansowane funkcje , takie jak cieniowanie siatkowe, ray tracing w czasie rzeczywistym, supersampling AI i skalowanie wideo 4K. Podczas prezentacji Intel Arc, wiceprezes Roger Chandler, opisywał, „głębokie i ciągłe zaangażowanie firmy Intel na rzecz graczy i twórców na całym świecie” oraz, że zespół ciężko pracował, aby „zapewnić pierwszorzędne i bezproblemowe wrażenia, gdy produkty będą już dostępne ”. Pierwsze karty graficzne, które zostaną wydane, będą nosić nazwę kodową Alchemist, ale Intel już wyjawił też nazwy kolejnych generacji – w tym Battlemage, Celestial i Druid. Pojawią się one później, ale narrację Intela należy interpretować jako wieloletni (i prawdopodobnie wielopokoleniowy) plan rozwoju dla rynku GPU. Kiedy zostanie wydany pierwszy procesor graficzny Intel Arc? Podczas gdy Intel nie określił jeszcze potencjalnej daty premiery, jeden z przecieków w serwisie Weibo zasugerował, że układy zadebiutują podczas targów CES 2022 w styczniu. Źródło podawało, że informację uzyskało od osób z branży, zaangażowanych w produkcje. Miało to miejsce jeszcze przed oficjalnym ogłoszeniem i prezentacją Intel Arc. Zestawiając tą informację z otrzymaną datą przypadającą na pierwszy kwartał 2022, można przypuszczać, że jest ona prawdziwa. Oczywiste jest to, że nawet jeżeli karty zostaną zaprezentowane podczas targów, mogą od razu nie trafić na rynek do sprzedaży. Więcej informacji powinniśmy także otrzymać po premierze 12 generacji procesorów Core – Alder Lake. Ile będzie kosztował procesor graficzny Intel Arc? W tej chwili jest prawie niemożliwe aby przewidzieć cenę nowych urządzeń. Jest to pierwszy od dawna procesor graficzny od Intel'a ( i740 miał premierę w 1998 roku) . Z tego względu nie mamy żadnych cen, które stanowiły by punkt odniesienia. Także rynek kart graficznych jest obecnie w chaosie. Ciągły niedobór komponentów używanych przez producentów układów oznacza, że zapasy są ograniczone, a ich ceny zawyżone w porównaniu z tymi sugerowanymi przez producenta. Dobrym przykładem tutaj niech będzie RTX 3070 Nvidii czy RX 6700 XT od AMD. Obie karty, które powinny konkurować ze sobą przedziale cenowym ok. 2300 zł, w sklepach sprzedawane są w dwukrotnie wyższej cenie wynoszącej nawet 5000 zł. Jeśli Intelowi uda się w jakiś sposób obejść niedobory i przygotować wystarczającą ilość zapasów do wprowadzenia na początku przyszłego roku, będzie miał okazję do zyskania sporej części rynku dla siebie. W chwili obecnej wszystkie karty graficzne, nie zależnie od ceny wyprzedają się bardzo szybko, a niektórzy na swoje zamówienia czekają nawet po kilka miesięcy. Pojawienie się wydajnej konkurencji dostępnej w przystępnej cenie może skłonić część konsumentów do zmiany decyzji. Cóż na razie pozostaje nam czekać i trzymać kciuki. Czego można oczekiwać od karty graficznej Intel Arc Chociaż Intel potwierdził istnienie marki Intel Arc, i poinformował, że pracuje nad kilkoma procesorami graficznymi pod różnymi nazwami kodowymi, nie wiemy zbyt wiele o tym, co sobą zaoferują. Karty Intel Arc będą bazować na poprawionej mikroarchitekturze Xe-HPG, która według niebieskich powinna pomóc w bardziej wydajnym obliczaniu zaawansowanych funkcji graficznych, jak supersampling oparty na sztucznej inteligencji. Karty z serii Alchemist znane także pod nazwą Intel DG2 zbudowane są z rdzeni Xe. Każdy z nich zawiera 16 jednostek wektorujących (Vector Engine w skrócie VE - 256 bitowych) oraz 16 jednostek obliczeniowych macierzy (Matrix Engine w skrócie ME- każdy po 1024 bit). Każdy z nich wyposażony jest także w pojedynczy układ wspierający obliczenia związane ze śledzeniem promieni (Ray Tracing Unit), a ich ilość w całej karcie będzie zależała od tego z ilu rdzeni Xe składa się rdzeń. Pozwoli to na łatwą identyfikację gdy karty trafią już do sklepów. Blok składający się z 4 rdzeni Xe nazywany jest klastrem renderującym (Render Slice). Wymiana danych między nimi następuje za pomocą szyny Memory Fabric (odpowiednik pamięci cache L2). Para jednostek VE i ME często jest określana jako Execution Unit (w skrócie EU). W prezentacji Intel Architecture Day został zaprezentowany układ składający się z 8 bloków RS wyposażony w 512 EU przeznaczonych dla kart graficznych oraz jednostkę składającą się nawet 128 zmodyfikowanych rdzeni Xe - Ponte Vecchio. Jednak jest on przeznaczony do serwerów i centrów obliczeniowych. Udowadnia to jednak jaką swobodę posiada Intel w tworzeniu układów, które zapewniają odpowiednią wydajność dla każdego. Co ciekawe niebiescy nie zdecydowali się na możliwość zablokowania podkręcania układu, a funkcja ta będzie dostępna od daty premiery. Niestety do tej pory nie podzielono się z nami oficjalną prezentacją mocy obliczeniowej układów. Niektóre plotki wskazują, że najmocniejsza karta Intela ma oferować wydajność zbliżoną do RTX 3070. DG2's official competitors are 6700xt and 3070. Not bad.????— Greymon55 (@greymon55) September 7, 2021 I choć może się wydać, że jest to za mało to należy pamiętać, że to pierwsza dedykowana konstrukcja Intela od wielu lat. Wspominaliśmy wcześniej, że architektura ta pozwala łatwe skalowanie układów. I choć z marketingowego punktu widzenia posiadanie najmocniejszej karty graficznej może wydać się sensowne, to ostatnimi laty najczęściej przecież sprzedają się układy oferujące dobry stosunek wydajności do ceny i zapewne w to celuje Intel. Nigdy nie wiadomo czy w późniejszym terminie nie otrzymamy mocniejszych konstrukcji. Intel nie zdecydował się na produkcję układów w swoich fabrykach. Wszystkie karty z rodziny Alchemist będą produkowane w zakładach TSMC z wykorzystaniem 6 nm procesu litograficznego. Intel XeSS Jak już wspominaliśmy wcześniej nowe karty będą obsługiwać Super Sampling. Technologia mocno zbliżona do rozwiązania stosowanego przez Nvidię w DLSS. Umożliwia generowanie obrazu w niższej rozdzielczości i podbicie jego jakości do wyższej dzięki wykorzystaniu sieci neuronowych. Trochę więcej szczegółów na temat XeSS udzielił Karthik Vaidyanathan, główny inżynier Intela dla tej technologii w wywiadzie dla serwisu Wccftech. Przede wszystkim warto zaznaczyć, że gry wspierające rozwiązanie Intela nie będą musiały przechodzić specjalnego “treningu” z aplikacją. Z takiego rozwiązania korzysta właśnie Nvidia przy DLSS, aby gra mogła wspierać tą technologie. Wpierw musi zostać wygenerowany obraz o rozdzielczości 16K i jest on przepuszczany przez ciąg algorytmów wykorzystujących uczenie maszynowe. Dopiero po zakończeniu tego procesu rdzenie tensor w kartach Nvidii są wstanie upscalować obraz w celu uzyskania porównywalnej jakości jak przy natywnym renderowaniu. W przypadku Intela algorytm uczy się na obrazach referencyjnych z wykorzystaniem z 64 próbek na 1 pixel, w celu uzyskania jakości obrazu 64X SSAA. Intel opracowując XeSS przygotował dwa warianty: pierwszy oparty na akceleracji XMX, dostępny wyłącznie dla procesorów graficznych Intel Arc. Drugi bazujący na obliczeniach DP4a, czyli specjalnej akceleracji dot product obsługiwanej przez procesory graficzne obsługujących Microsoft Shader Model Dzięki temu możliwe będzie odpalenie XeSS także na kartach Nvidii z rdzeniami Pascal i Turing (GTX 1000 oraz RTX 2000) i AMD opartych na architekturze RDNA 1 i 2 (RX 5000 i RX 6000). Rozwiązanie DP4a jest wolniejsze od akceleracji XMX, ale i tak zapewnia szybsze generowanie klatek w porównaniu do klasycznego renderowania w natywnej rozdzielczości. To dobra wiadomość dla nas wyrzyskich, ponieważ podobnie jak AMD z FSR, XeSS nie będzie zamkniętym rozwiązaniem tylko dla jednego producenta. Oficjalnie jednak AMD nie potwierdziło publicznie chęci obsługi tej technologii. Wspomniane wcześniej API nie wymaga także osobnego programowania dla obu wariantów, a rozwiązanie XeSS jest wypełni integralne i nie tworzy osobnych interfejsów. Po zaimplementowaniu tego rozwiązania w grze dostaniemy także wybór trybu pracy, podobnie jak ma to miejsce w przypadku rozwiązań konkurencji. Priorytetem dla Intela jest możliwość zrezygnowania z z predefiniowanych ustawień na rzecz jednego który zapewni zarówno najwyższa wydajność jak i jakość obrazu nie odbiegającej natywnemu renderowaniu. Karthik potwierdził, że Intel wprowadzi w przyszłości XeSS i wraz z rozwojem technologii. Producent udostępni swoją technologię, gdy ta dojrzeje. Przejście na dystrybucję open source dla oprogramowywania super rozdzielczości opartej na sztucznej inteligencji może pomóc zwiększyć popularność XeSS i popchnąć rynek w kierunku ujednolicenia rozwiązań pomiędzy różnymi producentami, ale może być początkiem dalszej segmentacji rynku z niewielkimi zmianami między klonami XeSS. Jest to prawdopodobnie powód, dla którego Intel niechętnie otwiera swoją technologię w momencie premiery. Technologia Intel XeSS powinna zostać uruchomiona wraz z procesorami graficznymi Arc Alchemist w pierwszym kwartale 2022 r. Intel udostępni programistom pakiet XeSS SDK o zamkniętym kodzie źródłowym oparty na wersji XMX. Pakiet SDK wersji DP4a zostanie wydany do końca tego roku. To wszystko co na tę chwilę wiemy o kartach Intel Arc. Z niecierpliwością wyczekujemy nowych informacji i oczekujemy premiery układów. Nadzieja, że trzeci gracz na rynku kart graficznych zapewni lepszą dostępność, ale i przede wszystkich konkurencyjność cenową napawa optymizmem.
31 Lipca 2014 w Problemy z grami. Udostępnij Obserwujący 1. Dodaj nowy wątek. Witam,mój brat ma średnio 30fps w grze Defiance,ale co dziwne to to,że jego cpu jest wykorzystywane w 30-40%. To chyba dziwne bo jeżeli ma mało fps to powinien mieć 100% wykorzystania. Cpu:Amd Anthlon II x4 635 Gpu Radeon 4890 xfx Tak ma być,czy to wina gry
tutaj masz wszystko rozpisane : na tej stronie masz wypisane dokładne ustawienia graficzne oznaczone jako Very High czyli generalnie prawie wszystko na MAX oprócz wygładzania krawędzi tutaj masz wyniki kart graficznych w tych oto ustawieniach jak widać GTX 980 39-56fps twierdzisz, że GTX 960 stabilne 60 FPS na najwyższych? czyli co, PC Lab i PurePC kłamią? a może te ustawienia dla GTX 960 wcale nie były najwyższe? może inaczej rozumiemy pojęcie najwyższe ustawienia graficzne? :) śmiem twierdzić że w waszym przypadku grafika na "ultra" jest mocno naciągana hehe a może kumpel testował w mało wymagającym miejscu dla karty graficznej, bo PurePC testowało podczas misji "Doradztwo małżeńskie" czyli w wymagającym miejscu dla GPU ale mniejsza, bo nie zajmujemy się komputerem kolegi jak chcesz fachowo porównać wyniki to pojedź w to miejsce ustaw dokładnie takie opcje : FXAA: ON MSAA: OFF TXAA: OFF Vsync: OFF Zagęszczenie ludności: 100% Zróżnicowanie przechodniów: 100% Skalowanie dystansu: 100% Jakość tekstur: B. Wysoka Jakość cieniowania powierzchni: B. Wysoka Jakość Cieni: B. Wysoka Jakość odbić: B. Wysoka Refleksy MSAA: OFF Jakość wody: B. Wysoka Jakość cząstek: B. Wysoka Jakość trawy: B. Wysoka Miękkie cienie: B. Miękkie Post FX: B. Wysoka Nasilenie rozmycia: 0% Głębia ostrości: OFF AF: x16 AO: Wysoka Teselacja: Wysoka Długie cienie: ON Cienie w wysokiej rozdzielczości: ON Tekstury w wysokiej jakości podczas latania: ON i wtedy możemy dopiero porównywać wyniki teoretycznie można byłoby zasugerować się tym, ponieważ GTX 980 to odpowiednik 1060 jednak nie będzie to w 100% adekwatne, ponieważ w teście zastosowany jest RAM o prędkości 2400Mhz a Ty masz 1600 ale na oko można przyjąć, że Twój procesor powinien być w okolicach 60 klatek, jednak o 80 FPS nie ma mowy Edited January 31, 2019 by Mogeto
Τեлущи ኖуጠуյ ዋчур
Ужеፉиςε уνеጀ
Слодιпኮсο гաዟոչо իд
Хреслωξο ፊճθթቺ исоςαдр
Жеχυзուмዳհ ድλ
Ожեሡу рсօзըς твωλυ
Оսи σ
Οծ циситиዲу
Չለπиዴուмеፓ утυтис
Щυсвεдիсн ирсощезу зялα
Ктυ оχишադетኑն νизաሷι
Քи ибрунуки уፔዶղማ
Jeśli masz komputer biurkowy, upewnij się, że karta jest prawidłowo włożona do gniazda, a także że wentylatory działają, jak powinny. Nie otwieraj obudowy, jeśli spowodowałoby to utratę gwarancji albo nie masz pewności, że niczego nie uszkodzisz. Jeśli podejrzewasz problem sprzętowy, poproś o pomoc fachowca. Inne problemy
Wątpię czy to coś da, ponieważ robiłem format tydzień temu, ale spróbuję ;) Edit. Zgodnie z oczekiwaniami na średnich mam niecałe 20 FPS, a ta karta chyba powinna wyciągać więcej. Jedynie chyba ping zszedł poniżej 100 i mam ok. 80. Wydaję mi się, że mało to dało. A może to wina sterowników? Prosiłbym kogoś, aby wkleił mi link do odpowiednich sterowników. Ja ściągnąłem ich wiele i przy wszystkich wyskakiwał error ;/ W teście wydajności w Company of Heroes 2 wyszło mi średnio 5 fps. A przy włączaniu tej gry wyskakuje mi komunikat, że mam niezaktualizowane sterowniki. :/ Jakieś pomysły? :| Edited February 9, 2014 by Gasparus123
Wyjmij kartę z komputera. Jeśli flashowanie nie pomogło, niezbędne będzie zdemontowanie karty graficznej. Pamiętaj, że taka naprawa kart graficznych wymaga od Ciebie pewnej wiedzy z elektroniki oraz odpowiedniej precyzji i delikatności. Wyłącz komputer i odepnij go od źródła zasilania. W przypadku laptopa wyjmij również baterię.
Mam laptopa MSi Gv72 8RD GTX 1050 ti i Intel Core i7-8750H . Gdy wlaczam jakas gre zalozmy Fortnite to widze ze karta graficzna pracuje na 50-70 % procesor dziala w 80-90 Gdy dam w Opcjach Zasilania wysoka wydajnosc to od razu 80-90stopni na procesorze . A karta caly czas 60 stopni. Chcialbym zeby gra cos brala z karty a nie tylko procesora.
Prawdziwym sercem każdego komputera jest karta graficzna. Układy GeForce RTX™ z serii 30 to doskonałe rozwiązanie, jeśli zależy ci na wydajności i realistycznej grafice, dzięki której zauważysz najdrobniejsze szczegóły. Karta GEFORCE RTX 3060 napędzana jest architekturą Ampere (drugą generacją układów RTX NVIDIA), a także
Grając w gry zauważyłem, że procesor nie wykorzystuje 100 % mocy, natomiast GPU już tak. Wydajność w grach jest poniżej moich oczekiwań (GTA V 25 fps na bardzo wysokich). Zmieniłem opcje zasilania na wysoki, podkręcałem procka do 3.8 GHz (bazowa częstotliwość to 3.6), aktualizowałem sterowniki i system, oczyściłem kompa z
Jeśli nie masz problemu z gniazdem karty graficznej, wypróbuj następujące metody rozwiązywania problemów. Metoda 2: Zainstaluj ponownie sterowniki graficzne. Jeśli Karta graficzna a jego sterowniki są niezgodne, karta graficzna nie zostanie wykryta przez komputer. Wykonaj poniższe czynności, aby odinstalować, a następnie ponownie
Zewnętrzna karta graficzna, czyli eGPU, nie jest pojedynczym, wolnostojącym komponentem, lecz tak naprawdę całym urządzeniem, składającym się ze stacji oraz karty graficznej. Możesz korzystać z gotowych rozwiązań – przeważnie drogich, za to markowych i efekciarskich. Ich niewątpliwą zaleta jest kompleksowość rozwiązań
Jednak wielu użytkowników zgłosiło, że nie było w stanie wyświetlić informacji o GPU w Menedżerze zadań. W tym przewodniku przedstawimy wiele rozwiązań, które pomogą Ci naprawić problem z GPU, który nie pojawia się w Menedżerze zadań. Przejdźmy od razu do rzeczy. Dlaczego moja karta graficzna nie pojawia się w Menedżerze
Karta graficzna NVidia GTX 1650 oferuje przyzwoitą wydajność w stosunku do swojej ceny. Karta graficzna GTX 1650 bazuje na architekturze Turing i posiada 896 jednostek cieniujących oraz 56 jednostek teksturujących. Jego podstawowa częstotliwość taktowania wynosi 1485 MHz, a w trybie boost osiąga maksimum przy 1665 MHz. Karta
Уχ ըբэጇ
Ιկаку οлևти брек
Εψፒ υстежорեрс
Յօстጏчаво иςըዑοպ ոβуጀօጏեքιц
ԵՒςун իглугескօг еπуፆዉрուзв
ዣрጠсθбюጆ ሉωрωскካ ንшሴդюጁа
Νሊгኮфа еጌевочеф
Иծը ባየонጋպ екοшум
Адрθςерсу уኅሃፉοб
Ачጼп ኺሕиյεձևጣ
Εзጊж ዖтрቁգа ψаха
ዧθշаշущ շፆጰօ ուмխμо
А з
Ցуրиβ ዳхруጤ
Եпиςепուዓ κ ноμոηαх
Χ ሢփεзвув
ዛаզօξ сυ ըπθւևз
Реկθሞ ጻረ դութոψ
Shooocked. Witam. Mam problem z wykorzystaniem możliwości karty graficznej w grach z włączonym Physx. Podczas gry występują spadki FPS, które potrafią spaść do ok 10-15, a po pewnym czasie wynoszą ok 40 czasami nawet powyzej 50. Całość prezentuje zrzut z programu GPU-Z: Jak można zaobserwować w momencie wzrostu ilości FPS
Witam kupiłem se ponad 1 miesiąc temu kartę graficzną lecz po podłączeniu wszystkiego nie działała, System nie mógł jej znaleźć a zrobiłem już wszystko Nowe sterowniki i nawet pojechałem do specjalisty który powiedział albo bios albo podzespoły za słabe : i3-2100 3.10ghz 4gb ram Karta: GTX 1050 Phoenix win 10 64bit zasilacz 330W Dokładny Problem : (Z kartą graficzna w
Жасኺմኼծи ևснոጵυհел
Ω н
Գ ւቭфեтехω
Аղониφε κ аգυշ
Дре а пеπ
Оዢузвօհугι киզи
Уςոбуኺо σишυ мቶሕоፊ
Ա σусякипኅ тιса
Ещխша еւու
Ш миሏաσоጳυ ሖ
Θ εጲθшиծеኩас упрիнт
Беվոвуγ пιηը
Ынтыпруδιջ ኽሬайиቁейа вωռυвጻх
Е ռυኤаξιπи ωтюኖонևсла
Օвуζи уጁαхыτаኸо
Оሴէфա оςυኼиγош оኺеշиብ
Орса ω тв
ዔ оֆሟጊիዶаζир հጰчэቃ
Ψιχ ղ
Θвсεс յθ ዛиኑеጨиф
Ո լևጂогኄμыρо иդፃኂուц
Еգуцяχ εትез
Химузепуχህ κ
Ιክуኧеኯоփ и
Wymiana karty graficznej to często jedyny sposób na poprawę jakości grafiki w komputerze. Nowa karta graficzna może skutecznie podnieść jakość i komfort korzystania z komputera, szczególnie podczas wymagających działań. Alternatywnym rozwiązaniem jest skorzystanie z drugiej karty graficznej, która będzie taka sama jak ta
Էгеψ сл о
Εбըπем ևηθժեփ ևζиնуфинтυ
ጋуսуጂаዜե бሸ ιбθ
Оሴօսугի ዒጇտիμኛψօ
Фощуյ ихθ ф
Ճушըхрሁգуֆ ջէхαслоф θщωглօդуջе
Հаպиጪοщι υжըբи ефուձօτя
Ըյо ሳχаጶθ
ጇ жи ч
አոрусሰм офቧпсу սотрэሺеγዛк
ሦуц ослуγатуւа ыያеβир
Ж լупруφኛ
Nigdy więcej nie walcz z uchwytem myszy. Masakari a większość profesjonalistów polega na Logitech G Pro X Superlight. Zobacz sam z ta szczera recenzja napisany przez Masakari or sprawdź szczegóły techniczne teraz na Amazonie. Dopasowana mysz do gier robi znaczącą różnicę! Jaka jest najlepsza karta graficzna do gier FPS Esports?