1979 Revolution: Black Friday na Androida za darmo

Sklepy:
Niektóre odnośniki w artykułach to linki afiliacyjne. Klikając w nie lub też finalizując za ich pomocą kupno produktu, nie ponosisz żadnych kosztów. Jednocześnie sprawiasz, że otrzymujemy wynagrodzenie, dzięki któremu praca Redakcji jest możliwa.

Komentarze do "1979 Revolution: Black Friday na Androida za darmo"

  1. Eh, doszło już do tego, że gry są po turecki, a nie ma po polsku. Skoro tak, to nie chcę 😛

    1. 3GB RAM to już standard, więc nie wiem co Cię dziwi lol 😛 Ja w swoim Honor 8 mam 4GB 😉

      1. yup, mój oneplus3t ma 6gb ram. takie czasy że gierki na telefony beda doganiać wymaganiami gry sprzed 2/3 lat

        1. Komórki przyspieszają, wydajnościowo są już na poziomie komputerów sprzed 5-7 lat.
          Developerzy nie chcą tracić czasu na pisanie gry po raz kolejny więc przenoszą całą piaskownicę na komórkę – a to wymaga mocnej komórki.

        2. Niezły żart z tą „wydajnością komputerów sprzed 5-7 lat”. Może lowendu z marketów na Atomach i Celeronach. Komputer do gier sprzed 5 lat to i5 Ivy Bridge albo Sandy Bridge (czyli 4 rdzenie i ponad 3GHz) i co najmniej GTX660Ti.

        3. ARMy mają zupełnie inną architekturę – tego nie porównuje się szybkością zegara.
          .
          Prosty przykład wydajności procka – filmy FullHD – 1920 x 1080 px – na pecetach przycinały się na 2GHz, na 3GHz niektóre kodeki potrafiły zająć cały procek.
          Na komórkach spokojnie lecą przy zegarze 1GHz.
          .
          Analogicznie GFX – nie bardzo mam tu przykład – lecz choćby anagram Adreno jest od Radeon – nie ma tylu rdzeni, szerokiej szyny lecz czy faktycznie jest potrzebne? Czy na komórce o wyświetlaczu 5” trzeba animować każdy liść w lesie ? Wg mnie nikt tego i tak nie dojrzy.

        4. No ale my jednak rozmawiamy o wydajności a nie o tym, że na komórce dana gra może działać bez detali.

          Co do wyświetlania filmów to tu zawsze kluczowa była karta graficzna a nie procek wiem Sama Tegra X1 w switchu robi CUDA ale po pierwsze nie ma szans aby taki układ znalazł się w komórkach a po drugie to i tak przegrywa z 5 letnimi PC middle end 😉
          Choć mam Switcha i uważam, że to jak na razie jest najmocniejsza przenośna platforma 😉 i komóreczki mogą się schować czy gotować przez kilka minut gry a nie jak Switch przez kilka godzin potrafi uciągnąć skomplikowaną grę jak Zelda Breath of the Wild

        5. Ten „prosty przykład” jest invalid, bo te filmy FullHD nie odtwarzają się na procesorze, tylko na sprzętowym dekoderze w niego wbudowanym. Jestem dość spokojny o to, że gdy na pececie dekodowaniem zajmie się grafika, to wystarczy i 1GHz jednordzeniowy Celeronek i nic się przycinać nie będzie.
          Oczywiście, że różnych architektur nie porównuje się szybkością zegara, nawet w ramach tej samej platformy (choćby netburst vs K7), ale da się przecież porównać moc obliczeniową różnych procesorów, np. porównując wydajność w tych samych benchmarkach, czy tych samych aplikacjach. Np. Geekbench 3, najszybsze ARMy osiągają wynik ok. 2000 na jednym rdzeniu i 6500 na czterech. Taktowany 3,5GHz i7 to odpowiednio ok. 4500 i 16500. Jak widać nie ma co porównywać, chyba że tak jak napisałem – topowego ARMa z dwurdzeniowym Celeronem. Z porównywania wydajności układów graficznych sam się wycofałeś, botu różnica w wydajności będzie jeszcze większa, chyba że miałeś na myśli grafiki zintegrowane w procesorach.

        6. 2000 do 4500 to prawie połowa czyli się zbliżają. Podejrzewam, że głównym problemem jest usuwanie ciepła – tylko, że w komórce nie ma nawet na to miejsca, a na drugim zasilanie.
          .
          Karta GFX na PCI-E to osobne urządzenie – nie biorę pod uwagę.

        7. Fajnieś to sobie wykoncypował, aż warto było samego siebie plusować (LOL). Napisałeś że wymagania gier na komórki rosną bo „komórki są już na poziomie komputerów sprzed 5-7 lat”, a gdy ktoś Ci zwrócił uwagę że to kiepski żart, to się okazuje że nie na poziomie, tylko co najmniej 2 razy wolniejsze (i to te topowe modele komórek), i nie do komputerów na których się 5-7 lat temu grało w gry (czyli z GTX6xx), tylko ze zintegrowanymi grafikami, na których się „gra” co najwyżej w „pasjansa”.

        8. Przede wszystkim na jakiej podstawie twierdzisz: „Komputer do gier sprzed 5 lat to i5 Ivy Bridge albo Sandy Bridge” skoro w wielu firmach sprzęt o takiej mocy robi za serwer z kilkoma wirtualkami.
          To, że ktoś kupuje maszynę o mocy serwera do domu w pudle pod stół a nie do szafy rackowej to nie jest wyznacznik.
          Ja miałem 2x2GHz & GT9500 i Wiedźmin 2 śmigał
          https://cdppl.zendesk.com/hc/pl/articles/203765738-Wymagania-sprz%C4%99towe-PC-Wied%C5%BAmin-2-
          .
          Idąc Twym tokiem rozumowania to za peceta można wziąć maszynę z 4 prockami po 16
          rdzeni każdy i włożyć fafnaście kart GFX – bo się da kupić / zmontować i postawić pod biurkiem – i wtedy powiedzieć, że komórka
          jest 100000000 razy wolniejsza więc nie ma co porównywać, chyba, że z 8
          bitowcami.
          .
          A jednak gry wydane na peceta i komórkę działają równie sprawnie i wydajnie. Czasem to okrajanie gier na komórkach to często by gra ważyła mniej a nie bo mocy zabrakło.

        9. Bo sam się o to prosiłeś, usprawiedliwiając wymagania komórkowych gwnogierek tym, że dzisiejsze komórki dogoniły mocą komputery sprzed 5-7 lat (w domyśle oczywiście komputery do gier, przecież na komputerach biurowych nikt nie gra, bo się nie da, więc co tu w ogóle porównywać?), nie pisałeś przecież że „dzisiejsze komórki dogoniły już przestarzały złom którego używałem 5 lat temu”?

          Ja nie pisałem o żadnej wydziwianej highendowej konfiguracji z i7-K i GTX680 w SLI (a „hardkorowi” gracze kupowali te 5 lat temu właśnie takie zestawy), tylko o sensownym minimum kupowanym przez normalnych graczy 5 lat temu, czyli właśnie 2500K albo jego następca (a dla ubogich wersja bez K)i najsłabszy ówczesny geforce przeznaczony dla graczy, czyli 660.

          Gry wydane na peceta i komórkę nie działają ani równie sprawnie (masz na komórce 60+FPSów, w marzeniach, napisz jeszcze że „nie ma różnicy”), ani równie wydajnie, bo jak sam w opowiedzi komuś innemu zauważyłeś, nawet mało wymagające gry typu przygodówki mają na komórkach poobcinaną grafikę.

          Prosty przykład, pierwszy Crysis ma nie „5-7”, a 10 lat. Na komputerach sprzed 5-7 lat przeznaczonych do gier śmigał. Pokaż mi komórkę na której można w niego zagrać, bez żadnych cudów, wystarczy zwykłe 1080p.

        10. Ja mam akurat 5 lat temu złożony komp z i5 2500K 16GB Ramu, grafike wtedy akurat kupiłem słabą GTX 560 bo miała być wymieniana później i raczej wątpię aby jakikolwiek sprzęt mobilny zbliżył się do wydajności tego kompa a to już wtedy był middle-end ciągnący jednak nawet teraz gry w wysokich detalach. Mocno przesadziłeś – wręcz się całkowicie pomyliłeś tym porównaniem 😀

        11. No tak ale komp to komp – nikt nie jedzie na grafice wbudowanej w i5 bo by się marnował potencjał całego zestawu. W Komórki i tablety nie mają szans na dogonienie PC nawet 10 letnie. Co innego takie rozwiązania jak Nintendo Switch gdzie urządzenie jest grubsze i ma wbudowany wentylator, który odprowadza ciepło nawet w trybie mobilnym. Tam zainstalowana Tegra X1 to chyba jak na razie najbardziej wydajny układ w mobilnym sprzęcie (nie licząc laptopów bo kupiłem dwa lata temu Lenovo Y50-70 z GTX860 z 4GB DDR5 i 8GB RAMu i dawał rady – był lepszy od mojego kompa do którego jednak po tych dwóch latach wróciłem.

        12. Naprawdę? GTX560 to nie jest element „komputera sprzed 5-7 lat”, a „osobne urządzenie”? Do jakich jeszcze bredni się posuniesz żeby „udowodnić” to czego się udowodnić nie da?

        1. Bo Android z 3GB Ramu bez odpalonej gry potrafi mulić. Mam akurat roczną Moto X Force z 3GB Ramu, z której jestem zadowolony ale po upgrade do Android 7 zaczęła przycinać nawet w Super Mario Run 😀 Jedyna gra, którą odpalam w sumie

  2. Czy przypisuje się to jakoś do konta, czy po usunięciu i powrocie do standardowej ceny trzeba zakupić?

    1. Przypisuje się do konta (: Każda chwilowa darmówka na Adku jest na zawsze.

  3. Nie czytałem wszystkiego ale ten Crysis 3D to jakaś mocno okrojona wersja patrząc na grafikę no i nie powiedziałbym, że to działa płynnie – może w niektórych scenach gdzie prawie nie ma „grafiki” (jest uboga w detale)

  4. Tak ja składając swój komputer nie myślałem tylko o grach – wręcz nie był kupiony do gier bo gram głównie na konsolach (XOne, PS4, Switch)

  5. Naprawdę ciągle chce Ci się brnąć w te brednie? Napisałeś że „komórki przyspieszają, wydajnościowo są już na poziomie komputerów sprzed 5-7 lat” co jest wierutną bzdurą co sam przyznałeś, to teraz zamiast zamilknąć odwracasz kota ogonem, najpierw że nie miałeś na myśli komputerów z kartą graficzną (pewnie wszyscy poza najbogatszymi używają grafik zintegrowanych?), potem że pisząc „komputer sprzed 5-7 lat” wcale nie miałeś na myśli komputera sprzed 5-7 lat, tylko komputer którego 5 lat temu sam używałeś (i który już wtedy miał 5 lat, taki szczegół), albo którego używało ileś tam ludzi mających zainstalowanego steama po to żeby sobie w nim grać w jakieś gwno free2play typu TF2 (działające rzeczywiście na byle czym, w końcu to gra z 2007 roku), albo inne badziewie latające na intelowskiej integrze (np. „indyki”). Rzeczywiście, jeśli to ma być poziom do porównywania dzisiejszych komórek, to trafiłeś, sam zresztą też to napisałem i nawet powtórzę – dzisiejsze smartfony są już tak wydajne jak marketowe badziewie na celeronach iatomach sprzed 5 lat. A w niektórych zastosowaniach nawet wydajniejsze (bo mają hardware’owy dekoder h.264 a może i h.265).

    Nie wiem skąd te „16 rdzeni”, nigdzie o takich procesorach nie pisałem, choć pewnie gdyby nie prawie 10-letni zastój w branży zafundowany przez AMD, to dawno byłoby to standardem. Podobnież nie wiem co ma wynikać z tego „żartobliwego” filmiku, bo Crysisa w 60FPS w nim nie widzę, jakieś szarobure plamy tylko, na dodatek klatkujące niczym Wiedźmin 2 „śmigający” na GT9500. Crysisa podałem, bo to do dziś synonim pecetowej grafiki, posiada takie poziomy ustawień jakości że generuje lepszą grafikę niż (w przeciwieństwie do niego dostępny na konsolach) sequel. Oczywiście podałem żartobliwie, przecież doskonale wiem że nie ma smartfoona ani tabletu na ARMie zdolnego wygenerować grafikę 3D takiej jakości jak ta 10-letnia gra na powiedzmy 5-letnim pececie do gier, nawet ze średnio-niskiej półki.

    60 FPS podałem, bo to dość zgodnie przyjęta granica płynności animacji dla ludzkiego oka, każdy doskonale widzi różnicę między 60 a 30 FPS (jeśli nie widzi, to ślepy, albo tylko twierdzi że nie widzi), są i tacy którzy twierdzą że i różnicę między 60 a 120 albo 144Hz widzą tak jak są i tacy którzy „słyszą” audiofilski kabel zasilający), ale o 800Hz to słyszę po raz pierwszy, w końcu musisz próbować zejść do absurdu, żeby się tylko nie przyznać wprost jaką głupotkę z tą wydajnością ARMów palnąłeś.

    Podąłem Ivy Bridge i Sandy Bridge, bo były to architektury procesorów kupowane przez graczy w okresie który podałeś (5 lat temu), żaden rozsądny gracz nie kupował wtedy wynalazków AMD, bo co z tego że tanie, skoro były o ~5 lat opóźnione mogąc konkurować co najwyżej z intelowskimi C2D i C2Q, „6 rrdzeniowe” (a tak naprawdę 3-rdzeniowe plus udające dodatkowe rdzenie wodotryski) procesory AMD były w grach miażdżone przez intelowski lowend w postaci i3. Widać to nawet w artykule ze spidersweb, któy sam zacytowałeś (tylko 26% graczy używało wynalazków AMD).

    Firefox na komórki a firefox na normalne systemy operacyjne to nie program „optymalizowany na każdej platformie”, tylko zupełnie inny program, z innym gui, ma tylko ten sam silnik renderujący strony. Nic dziwnego że optymalizowany jest pod oszczędzanie pamięci, a nie szybkość wyświetlania wszystkich otwartych kart, w końcu komóreczki nadmiarem pamięci nie grzeszą, skoro topowe modele mają 3-4GB, czyli tyle co pecetowy lowend sprzed 5 lat albo lepiej (3GB to raczej nawet z czasów przed Windows 7, czyli ponad 8 lat temu). Swoją drogą Firefox właśnie dlatego zaczął używać więcej pamięci (nie „dla hecy” tylko dla bezpieczeństwa i stabilności, podobnie jak Chrome sandboksując każdą kartę oddzielnie), że przeciętny pecet tej pamięci coraz więcej ma, a jak wiadomo pamięć nieużywana się marnuje. Wydajność obliczeniową już przecież porównaliśmy i wyszło jak wyszło, topowe ARMy osiągają max 1/3 tego co zwykłe czterordzeniowce, a na horyzoncie pecetowy standard „przeciętności” już przesuwa się z tych 4 rdzeni (i5 do Kaby Lake) do co najmniej 6 rdzeni (i5 Coffe Lake), czy nawet 12 wątków (Ryzen R5). Zabawki montowane w telefonach jak słusznie zauważyłeś nie mogą sobie pozwolić na mnożenie rdzeni, bo nic to nie da, ilość ciepła możliwa do rozproszenia bez denerwowania użytkownika, a także pojemność baterii, skutecznie to ograniczają.

  6. Wmawiasz innym „cherry picking” a sam pajacujesz kolejny raz z tym „komputerem który sam kupiłeś”/ Nie kupiłem, bo ani 5 ani 7 lat temu nie kupowałem komputera, używałem wtedy komputera starszego (C2Q), którego dziś nazywałbym zatem zgodnie z prawdą „kompuerem 10-letnim” a nie „5-7 letnim” tylko dlatego że właśnie wtedy go używałem. Co jest w tym niezrozumiałego, że wiek sprzętu datuje się po dacie w której trafił do sprzedaży, a nie kiedy był używany (np. przez kolejnego użytkownika, kupującego sprzęt używany)?

    To że w statystykach steama pełno jest złomu już pisałem, to nie są dane w jakikolwiek sposób identyfikujące komputer używany do gier, steama można mieć zainstalowanego na laptopie na którym zupełnie nie da się grać, tylko po to by mieć jego funkcje społecznościowe, handel, market i dostęp do sklepu. Albo na firmowym komputerze (zupełnie nie nadającym się do grania), z tych samych powodów. Idiotyczne nazewnictwo mobilnych procesorów Intela (gdzie i5 czy i7 nic nie znaczy) nie przekłada się na szczęście na procesory do desktopów, tam każdy i5 zawsze miał 4 rdzenie (wkrótce 6), a i7 dodatkowo HT..

    Po co są w sprzedaży stare karty pytasz? Po to, że się nie sprzedały, i nikt ich z tego powodu nie wyrzuci. A w pewnym momencie może okazać się, że komuś akurat taka będzie potrzeba i ją za pełną kasę kupi. Chyba nie sugerujesz że się świetnie sprzedają i dlatego sklep ciągle „dosypuje” nowe egzemplarze żeby zawsze mieć na stanie te 7 sztuk? 7 sztuk których prawdopodobnie nawet „na stanie” nie ma wcale, tylko podaje stan z bazy danych magazynu swojego dostawcy.

    Tym youbuowym „Crisisem” udowodniłeś jedynie że pajacujesz, bo nie widać tam ani jakości Crysisa (nawet na tak małym ekranie widać ewidentnie absurdalnie niską rozdzielczość i niski poziom detali), ani „płynnego działania” bo klatkuje cały czas, a momentami dosłownie do posziomu pojedynczych FPSów.

    A dlaczego NTSC miał 60 półobrazów (czy PAL 50), a nie odpowiednio 30 i 25 pełnych obrazów? Właśnie dlatego, że lepszy interlace, czyli niepełna informacja o obrazie, niż ewidentnie klatkująca animacja przy 25 czy 30 pełnych obrazach.

    Jeśli ktoś rzeczywiście potrzebuje mieć otwartych 600 kart, to na komóreczce z 3GB RAM i tak by ich nie otworzył, na komputerze pewnie wystarczy zmienić jakieś ustawienie w about:config czy gdzie się tam konfiguruje aktualnie zaawansowane opcje firefoxa (nie używam, dawno przerzuciłem się na bardziej pamięciożerną, ale bezpieczniejszą przeglądarkę nawet na komputerach z zaledwie 8GB RAM), należę raczej do normalnych ludzi i więcej niż 30-50 jednocześnie otwartych stron nigdy nie mam.

    O tym że 1GHz=/=1GHz przecież dawno sam pisałem (podałem nawet najbardziej jaskrawy przykład z podwórka PC, czyli K7 vs Netburst), trzykrotna różnica w wydajności między topowymi czterordzeniowymi ARMami a czterordzeniowymi Intelami x86 wynika z benchmarków (6500 vs 16500 w Geekbench 3), nie rozumiem zatem coś się tak kolejny raz tego taktowania uczepił.

    Nie odrzucał indyków (choć sam prawie w nie nie gram i nie kupuję), jednak skoro chcesz porównywać wydajność sprzętu w grach, to oczywiście bierze się na tapetę gry wymagające jakiegoś hardware/. Chyba że znowu tym razem próbujesz udowodnić, że komóreczki już dogniły PC w wydajności w grach 2D, wtedy zapraszam znowu do mojej tezy z wcześniejszych postów: tak, dogoniły, złom z marketów, z jednordzeniowymi atomami i celeronami, VVVVVV i tym podobne giereczki pewnie działają na nich równie płynnie (na Celeronie 300A z 1998 roku pewnie też).