MAKE AdvancedMicroDevices GREAT AGAIN!

Słowem wstępu przepraszam za dłuższą chwilę ciszy, nie miałem większej ochoty walki tylko lewą ręką z klawiaturą – wystarczyło mi kodowanie w drodze wyjątku z domu, po czym ręka zdrowa odmawiała posłuszeństwa, a druga pogruchotana dawała o sobie znać puchnąc popołudniu w gipsie. Udało mi się w tym okresie naskrobać tylko jeden artykuł, ale to już za mną i postanawiam poprawę. Dziś na rozkładówkę trafia, kolejny raz zresztą, AMD. A to za sprawą niebywałej wręcz afery w światku IT oraz głównie procesorów x86 (choć i ARM oraz GPU).

Początkiem roku jak zapewne wiecie świat obiegła wiadomość o wykryciu „dziur” nazwanych później Meltdown oraz Spectre. Gdyby ktoś mieszkał pod kamieniem przez ostatnie dwa tygodnie, to pokrótce przypomnę na czym polegają owe „dziury”. Otóż najprościej rzecz ujmując dotyczą sposobu działania praktycznie wszystkich nowoczesnych jednostek obliczeniowych, a dokładniej czegoś co nazywamy „Speculative execution”. Aby obrazowo przedstawić zagadnienie, pozwólcie że uproszczę mocno temat. Otóż w dzisiejszych czasach procesory wykonują czasem obliczenia, które mogą lecz nie muszą się przydać w dalszym toku ich wykonywania niejako przewidując, jakich danych będzie potrzebował użytkownik. Dane te trafiają do specjalnego cache’u skąd później mogą zostać odczytane. Problem w tym, że zespół ekspertów z Google potrafił się do tych specjalnych danych „włamać” ponieważ pamięć kernel nie została poprawnie oddzielona w tym przypadku i przy atakach Meltdown oraz Spectre złośliwy kod może pobierać stamtąd wrażliwe dane, takie jak choćby hasła.
Problem zatem mają praktycznie wszyscy producenci procesorów, jednak Meltdown to zmartwienie głównie Intela. A to dlatego, że pomimo odpowiednich łatek do wszystkich systemów na całym świecie zgłaszane są spowolnienia procesorów od 5% do aż 30% wydajności w zależności od środowiska i wykonywanych obliczeń. 1/3 mocy to bardzo dużo, wyobrażacie sobie sytuacje jeśli pojawiłby się pozew zbiorowy taki jak kiedyś przeciwko Nvidii, aby za utraconą moc obliczeniową zapłacić (w przypadku Nvidii było to niesławne utajenie specyfikacji, która w rezultacie dawała 3,5GB VRAM dla GTX970 zamiast pełnych 4GB)? Nvidia zapłaciła 20 dolarów użytkownikom w USA. Do tego CEO Intela Brian Krzanich w ostatnich dniach roku 2017 czyli także na kilka dni przed ujawnieniem dziur w ich procesorach sprzedał wszystkie możliwe do upłynnienia akcje, pozostawiając sobie niewiele ponad 250 000, do których posiadania jest zobligowany jako CEO. O całym problemie natomiast wiedziano już od ponad pół roku! Podejrzane prawda? W Stanach Zjednoczonych także się tak uważa i podobno toczy się już kilka wyjaśniających czynności w tej sprawie.

Tyle słowem wprowadzenia, ponieważ jak słusznie pewnie zauważyliście nazwa poniższych „wypocin” stanowi o głównym rywalu Intela – AMD. Nie będę owijał w bawełnę, odkąd Advanced Micro Devices sięgnęło dna na parkiecie giełdy NASDAQ (ok. 1,7 dolara) od razu wiedziałem, że trzeba zaryzykować i akcje AMD po prostu nabyć. Owszem – wizja bankructwa niegdysiejszego giganta była bardzo realna, natomiast intuicja i zdrowy rozsądek nakazywały wiarę w ostatnią deskę ratunku – architekturę Zen, która miała zastąpić nieszczęsne modularne jednostki FX. Niestety – nie miałem jednak wtedy odpowiedniego kapitału, a także kupno akcji na amerykańskiej giełdzie wydawała się wtedy karkołomnym i ryzykownym zagraniem. Dziś dwa lata później zakumulowałem około 500 akcji. Niedużo, ale dla mnie wystarczy – uśredniona cena natomiast sześciokrotnie wyższa niż być powinna. Do tego dolar w rekordowej do złotówki relacji 4,1zł spadł już na 3,4zł. Jakby tego było mało pierwsze akcje zakupiłem na dwa tygodnie przed premierą Ryzena. Pierwsze recenzje były skrajnie różnie, jedni chwalili nową jednostkę za zdecydowanie silniejszy pojedynczy wątek i mnogość rdzeni w zadaniach pół-profesjonalnych inni natomiast dalej kwestionowali wydajność w grach szczególnie niższych rozdzielczościach. Na dodatek niektóre gry miały wyraźne problemy z obsługą Ryzenów tak jak Tomb Raider, który musiał doczekać się stosownej łatki, aby znacznie podwyższyć wydajność i to aż o kilkadziesiąt procent. Także Nvidia miała problem ze sterownikami gdzie ich karty graficzne w połączeniu z nowymi procesorami AMD obniżały wydajność całego systemu, pozostawiając wrażenie niższej wydajności Ryzena. Nawet nasza rodzima redakcja PurePC ponad pół roku walczyła z pewnym błędem, który stawiała jednostki AMD w Witcherze 3 niewiele wyżej od starej architektury modułowej FX. Dodajmy do tego niewielką ilość dobrych i tanich płyt na podstawkę AM4 oraz problemy z kompatybilnością i podkręcaniem pamięci RAM DDR4 i otrzymamy obraz apokalipsy dla inwestora kupującego pierwsze akcje na amerykańskiej giełdzie. Apokalipsa przyszła jednak dopiero w kwietniu 2017 – po opublikowaniu raportu kwartalnego, w którym to nie wiedzieć czemu, spodziewano się mocnego przebicia oczekiwań pomimo sprzedaży nowych procesorów tylko na rynku DIY (do it yourself – jako sam procesor, nie w zestawach OEM gotowych komputerów) przez jeden miesiąc i to tylko najwyższych i najdroższych 8-rdzeniowych jednostek serii Ryzen 7. Kiedy akcje z ponad 13 dolarów, w jednym dniu spadły do 10 dolarów przełknąłem gorzką pigułkę i zaryzykowałem dokupując kolejne akcje, uznając to za dobrą „promocję”. Od tamtego czasu architektura Ryzen zyskała uznanie, AMD zaprezentowało serwerowe procesory Epyc, nową serię kart graficznych Vega, APU z rdzeniami Zen oraz Vegą dla laptopów, a pomimo tego do niedawna cena znowu spadła od wyników za 3 kwartał 2017 z 15$ na 10. Nie wahałem się ani chwili z uśmiechem na twarzy wydając swoje niewielkie oszczędności zgromadzone w międzyczasie na niedowartościowane według mnie papiery.

Skąd ta niezachwiana wiara w przyszłość firmy, która w przeszłości nie potrafiła wykorzystać swoich atutów? Która pomimo przewagi technologicznej i wyższej wydajności, czy opłacalności swoich rozwiązań nie potrafiła praktycznie nigdy zdobyć więcej niż 50% danego segmentu rynku? Składa się na to kilka faktów:

  1. Po pierwsze – proces technologiczny. AMD praktycznie od ponad dekady zawsze było za plecami Intela jeśli chodzi o poziom zmniejszania tranzystorów, przez co musieli uciekać się do różnych sztuczek i kompromisów lub po prostu oferować tańsze produkty. Te lata to już historia – dziś Ryzen to litografia 14nm LPP, która choć jeszcze sporo jej brakuje do 14nm+++ Intela (nazewnictwo nie odpowiada już fizycznym rozmiarom bramek, zbyt dużo dziś w tym marketingu) pokazuje pazur pomimo tego, że praktycznie rzecz biorąc blokuje częstotliwość na poziomie 4Ghz, kiedy Intel pozwala w najnowszych Coffee Lake na przetaktowania nawet do 5Ghz i wyżej. Jest to okupione jednak temperaturami tak wysokimi, że wymaga to tzw. „deliddingu” czyli skalpowania, a więc niebezpiecznego procesu rozcięcia wierzchniej warstwy przykrywającej procesor, aby wymienić pastę termo-przewodzącą, którą to od pewnego czasu niebieski gigant zaczął stosować odchodząc od lepszej (i zapewne droższej) metody lutowania rdzenia do powierzchni IHS rozpraszającej ciepło w styku z chłodzeniem. Ale do rzeczy – przecież sam napisałem, że 14nm nie ma szans z 14nm+++ fabryk Intela. Jednak już za 3 miesiące, w kwietniu 2018 procesory AMD produkowane w fabrykach Global Foundries przejdą na litografię 12nm (wcześniej nazywaną po prostu 14nm+) obiecując co namniej 10% większą wydajność i 15% większe upakowanie tranzystorów. W połączeniu z usprawnieniem architektury druga generacja układów Ryzen powinna przyspieszyć od 10 do 15%. Pokrywa się to z zapowiedziami AMD z tegorocznych targów CES, kiedy pokazywali wykres trendów wzrostów w procesorach x86 na generację szacując je na 7-8% – zaznaczając, że Ryzen+ (nazywany 2nd gen.) oraz późniejsze Ryzen 2 i 3 przyrost ten zwiększą o kolejne kilka %. Ale to dalej nie koniec, pomimo że 12nm może być w wydaniu AMD całkiem niezłe – będzie tylko niwelować wydajnościową przewagę i7-8700k oraz i5-8600K szczególnie w grach, które tak nagle stały się sześciordzeniowymi jednostkami nikt jednak nawet nie marzy o zrównaniu się wydajności. Jeszcze nie teraz… A kiedy? No właśnie – prawdopodobnie w przyszłym roku tj. 2019 kiedy to odkupiona od IBM technologia 7nm, która z wszystkich znaków na ziemi i niebie zdaje się być gotowa do produkcji pierwszych sampli inżynieryjnych już w drugiej połowie tego roku, zostanie wdrożona w masowej produkcji Global Foundries, najprawdopodobniej w postaci Vegi 7nm dla centr danych i obliczeń AI (o tym później). Co na to Intel? Wszystkie nadzieje wiążą się tutaj z 10nm, jednak premiera układów wykorzystujących tę litografię jest systematycznie przekładana, obecnie na końcówkę roku 2018 – chodzą jednak słuchy o tragicznym uzysku w tej litografii. Co prawda Intel wypuścił próbkę chipu na 10nm… Była to natomiast jednostka 2-rdzeniowa taktowana ok. 2Ghz z TDP 15W – nic co w dzisiejszych czasach miałoby prawo bytu w choćby średniej klasy laptopie. Wygląda na to, że Intel utknął ze swoją technologią, a dodatkowo tworzy monolityczne układy co tylko pogłębia problem niskiego uzysku sprawnych układów w produkcji. 7nm Global Foundries jest porównywane do 10nm Intela (z mikro przewagą, a właściwie nano przewagą dla 7nm). Jeśli AMD potrafiło być tak konkurencyjne przy 14nm LPP (Low power – więc technologią dla urządzeń o niższych poborach prądu) to nie mam wątpliwości, że dzięki procesowi technologicznemu 7nm, który to według jego twórców, tj. IBM ma posłużyć dla układów wysokich częstotliwości ok. 5Ghz, przy relatywnie niskim poziomie energii oraz dużemu uzyskowi układów (dzięki produkcji mniejszych płytek Zeppelin łączonych przy pomocy Infinity Fabric w większy układ w przypadku procesorów serwerowych i HEDT, a 2 modułów CCX w obrębie jednego Zeppelina, który to odpowiada w pełni sprawnemu 8-rdzeniowemu Ryzenowi 7) będzie prawdziwym Graalem procesorów x86 – wysoko-taktowanym, wielordzeniowym układem o niskim poborze mocy, a na dodatek tanim w produkcji. Nieźle prawda? A to powinno stać się w ciągu najbliższych kilkunastu miesięcy.
  2. Po drugie jak już wspomniałem AMD najprawdopodobniej szykuje się na podbój rynku AI. Ten jest póki co w rękach Nvidii, jednak Vega dzięki serii Radeon Instinct wstawiła malutką, bo malutką ale jednak stopę w drzwiach zielonego giganta. Wygląda na to, że TSMC dysponuje lepszym dla układów Nvidii 16nm raz 12nm, pozwalających im na wyższe taktowanie układów. Nie jest to oczywiście jedyna przewaga Nvidii, mają po prostu zabójczo dobrą architekturę oraz CUDA wyznaczyła kierunek rozwoju obliczeń na kartach graficznych, co AMD dopiero teraz próbuje naprawiać w pocie czoła tworząc narzędzia choćby do automatycznych konwersji kodów programów pisanych pod obliczenia CUDA na swoje własne OpenCL.Tak czy owak Vega w 7nm powinna skorzystać z dobrodziejstw nowego procesu tak samo jak Ryzen – pozwalając na produkcję pierwszych układów w wysokich cenach na poczatku produkcji, kiedy uzysk nie jest jeszcze optymalny tak samo jak robi to Nvidia z akceleratorami Tesla na architekturze Volta. Nie wiadomo jednak co z konsumenckimi GPU, Vega okazała się dla wielu rozczarowaniem, wydaje mi się jednak, że odczucia te są spotęgowane przez pewne specyficzne wydarzenia na rynku. Otóż w kwietniu minionego roku wybuchła druga już gorączka kopania kryptowalut. Tak samo jak było to w roku 2013 tak i teraz grafiki z czerwonym logo Radeon okazały się lepsze do tych specyficznych typów obliczeń. W wyniku tego tzw. „kopacze” zaczęli w setkach sztuk wykupywać hurtowe ilości bezpośrednio u producentów oraz w największych sklepach. Ceny wzrosły tak mocno, że gracze zostali skazani na zieloną konkurencję, po czym nawet magazyny Nvidii okazała się niedostateczne, ponieważ zdesperowani „minerzy” z powodu niższych cen Nvidii uznali, że zielone GPU jednak nadają się ostatecznie do celów zarobkowych. Napędziło to totalną inflację cen, która odnowiła się kolejny raz na jesień i końca jej niestety nie widać. Piszę niestety, choć z punktu widzenia inwestującego pieniądze w firmę produkującą te układy powinienem być zadowolony. I w gruncie rzeczy tak jest, bo przecież AMD sprzedaje wszystko na pniu, wszystko co tylko potrafi wyprodukować – minus tego rozwiązania jest taki, że udziały w runku GPU dla graczy spadły o ok. 3 punkty procentowe z 30% na 27%. Wiąże się to z kojarzeniem marki Radeon dla rozwiązań blockchain aniżeli segmentem „gamingowym”. Należy sobie zdać jednak sprawę, że Vega nie jest wcale taka zła – sam ją posiadam w wersji 56 i ma niezaprzeczalne w tej wersji zalety – darmowy Freesync, który synchronizuje ilość FPS z odświeżaniem pionowym monitora (herzami – Hz), a sama technologia nie jest droższa w użyciu – monitory z odpowiednikiem Freesync kosztują ok. 100 dolarów więcej – potrzebują modułu G-sync od zielonego konkurenta. O ile Vega 64 faktycznie wciąga dużo prądu to Vega 56 nawet po ostrym podkręcaniu i jednoczesnym undervoltingu zadowoli się 250 Watami, co może nie jest wartością niską, ale przystępną – swego czasu zmuszając Nvidię do rychłego wypuszczenia na rynek 1070ti, ponieważ zwykła 1070-ka zbierała okrutne lanie od czerwonego konkurenta. Dodatkowo niesamowita wręcz wydajność gier korzystających z nowszego API, a w szczególności Vulkana (Doom, Wolfenstein II) gdzie w tym drugim czasem Vega 64 wyrównuje do droższego (w cenach MSRP AMD nie uwzględniających „kopaczowej” inflacji) 1080ti czy DX12 (Battlefield 1, Star Wars Battlefront 2, Forza 7, Hitman) gdzie Vega 56 ustępuje tylko trochę GTX 1080 zacięcie rywalizując z także droższym 1070ti. Vega nie jest taka zła jak ją malują, miała zły start i zbyt długo czekano na wersje niereferencyjne, które dziś trafiły i tak do koparek, a wcześniej chipy trafiały prosto do Apple z zamiarem wykorzystania ich w iMac PRO (co jest dla mnie zrozumiałe – użyte są tam wersje PRO, odpowiednio droższe od konsumenckiej serii RX). Jeśli architektura ta „dostanie kopa” w 7nm z dodatkowymi usprawnieniami (ciągłe kontrowersje z rzekomo niedziałającymi obiecanymi „featerami” jak DSBR czy primitive shaders), szerszym wykorzystaniem obliczeń precyzji FP16 (na premierę Far Cry 5 ciągle czekamy jaki będzie to miało wpływ na wydajność) i niższym zużyciem energii lub chociaż utrzymaniem jej w ryzach max. 250W powinno być wybawieniem dla growych entuzjastów czerwonego loga. Jeśli te obietnice się nie ziszczą, zastosowania w obliczeniach blockchain i/lub AI ciągle gwarantują sporą sprzedaż – można to traktować jako plan awaryjny na wypadek niemożności konkurowania z Nvidią w pewnych segmentach rynku, tj. najwyższym hi-endowym. Być może będzie to tak naprawdę Navi, czyli następna architektura, a Vega w 7nm w ogóle nie pojawi się dla graczy. Pociąga to za sobą możliwość „skalarnej architektury” co powinno być rozumiane jako modularną budowę MCM – analogiczną do „klejonych” modułów CCX orax Zeppelin w procesorach Ryzen. Wtedy dokonałby się przełom w architekturach GPU, jest to o tyle możliwe, że AMD twierdzi, iż już w Vedze obecne są połączenia Infinity Fabric, a sama Nvidia już pół roku temu doszła do wniosku, że chipy stają się zbyt duże i przyszłość nie leży raczej w monolitycznych ogromnych chipach. Ta wizja napawa optymizmem, ponieważ tutaj AMD miałoby teoretyczną znaczącą przewagę nad „obozowiskiem zielonych”.
  3. Po trzecie – SEMI-CUSTOM biznes. Jest to nazwa działu AMD, która wzięła początek wraz z wygraniem kontraktu na produkcję jednostek dla konsol obecnej (właściwie już zeszłej licząc PS4 Pro oraz Xbox One X). Firma była wtedy pogrążona w kryzysie, nie mogła pozwolić sobie na spore wydatki w ramach R&D dlatego, zaproponowano w dużym uproszczeniu, następujący model biznesowy. Otóż klient, w tym wypadku Sony oraz Microsoft płaciło kilkadziesiąt milionów dolarów na opracowanie specjalnego układu dla ich konsol, ustalało specyfikację oraz cenę produkcji, a AMD tak opracowane układy sprzedawały z niestety niską marżą. Stało się tak, ponieważ AMD potrzebowało tych kontraktów, aby zapewnić sobie stały i pewny przychód na kolejne „chude” lata, Sony i Microsoft nie są jednak organizacjami charytatywnymi – nie dość, że kondycja AMD była im znana, to jeszcze potrzebowali taniej konsoli (PS3 oraz Xbox 360 były zbyt drogie w produkcji, szczególnie ta pierwsza). Dziś PS4 Pro oraz Xbox One X na pewno poprawiły ilość zdobywanej w ten sposób gotówki natomiast nadal są to raczej niewspółmierne zyski dla oferowanych rozwiązań. Nie ma jednak tego złego co b na dobre nie wyszło mówią i rzeczywiście – w listopadzie opublikowałem sam będąc w szoku artykuł, że Intel ogłosił współpracę z AMD zamawiając konkretny typ Vegi i w paczce ze swoimi procesorami oraz 4 gigabajtami pamięci HBM2 będzie je sprzedawać na rynek cienkich laptopów i wydajnych ultra-booków. Sama ta umowa według pobieżnych rachub w odzyskaniu 10% rynku tego typu laptopów oscyluje w granicach 300 milionów dolarów przychodu rocznie. Do tego dochodzą inne wygrane jak ta Atari (choć ostatnio zawieszona – na centrum rozrywki domowej) i inne nieujawnione jeszcze przez AMD – zapowiedziane. Gdzieś w tle krąży także ciągle plotka CNBC, której nigdy nie zdementowano oficjalnie – o przygotowaniu produkcji chipów dla Tesli do ich systemu autonomicznej jazdy, na co wskazywałyby wypowiedzi pracowników Global Foundries oraz zatrudnienie Jima Kellera w szeregach firmy Elona Muska. Przecież to ten sam człowiek, który dał początek najlepszym architekturom x86 AMD – K8 oraz dzisiejszemu Ryzenowi. Coś musi być na rzeczy, prawda? 🙂 Na koniec tego podpunktu pozostawiam coś, co jest według mnie nieuniknione. Dziś kiedy mówi się o powolnym końcu życia i zmniejszeniu sprzedaży konsol, choć najnowsze dane temu i tak zaprzeczają dzięki wprowadzeniu „pół-generacji” PS4 PRO oraz Xbox One X, myśli graczy powoli acz nieustannie zaczną wyobrażać sobie prawdziwy next-gen. Taki gdzie nie tylko podbijemy rozdzielczość do 4K czy polepszymy jakość tekstur lub zwiększymy ilość wyświetlanych klatek na sekundę. Rdzenie Jaguar produkowane od 2012 roku, pomimo że mają podbite taktowania, mocno ograniczają sprzęt. A bez tego – nie zobaczymy kolejnych skoków algorytmów AI, niesamowitej i dokładnej fizyki, ani miast wypełnionych tysiącami NPCtów. Do tego potrzeba czegoś więcej… Czego – ano tak APU na miarę dzisiejszych czasów. Kiedy powinna nastąpić zapowiedź PS5? Ja obstawiam drugą połowę roku 2019. No właśnie… 7nm Ryzen 2 lub 7nm+ 3 (zakładając rok produkcji 2020) + rdzenie Vega lub Navi w 7nm w jednej paczce z 16/32GB HBM2 lub 3 jako współdzielona pamięć operacyjna oraz VRAM? Tak – tylko AMD dysponuje taką technologią na dzień dzisiejszy. I będzie ją w stanie zaoferować taniej niż konkurencyjne rozwiązania Intela czy Nvidii. Na dodatek wcześniej wspomniana umowa między AMD i Intelem praktycznie przekreśla niebiesko-zielone partnerstwo, Intel ewidentnie stara się ukrócić zapędy Nvidii w dominacji obliczeń, które mogłyby w przyszłości przeszkodzić planom giganta z Santa Clara w rynku AI oraz odebrać większe udziały na rynku centr danych.
  4. Dorzućmy do tego wszystkiego wcześniej wspomniane problemy Intela z Meltdown, na których AMD już teraz zyskało prawie 20% od początku roku w cenie akcji (Meltdown powoduje spadki wydajności po łataniu dziur, z czego nie będą zadowoleni dostawcy obliczeń w chmurach i centra danych), w połączeniu z wygranymi dostawami procesorów serwerowych Epyc dla kilku z przedstawicieli Super 7 + OEMów jak HP, czekając na oficjalne ogłoszenie sprzedaży konstrukcji DELL daje to całkiem niezły obraz przyszłości co do udziału w rynku serwerów. A ten może być tylko lepszy, ponieważ Intel dysponuje ok. 99,5% rynku serwerów x86. Lisa SU – CEO AMD w swoich bardzo konserwatywnych przewidywaniach szacuje ok. 5-6% udział w sprzedawanych jednostkach końcem roku 2018. To jakieś 800-960 milionów zysków rocznie począwszy od odległego za rok momentu, ale już w 2018 powinno to być kilkaset milionów przychodu. Przypomnę, że Epyc pod względem linii PCI Express przebija Intela o wręcz porażającą ilość połączeń 128 w 1-socketowej konfiguracji vs 48 i 128 w 2-socketowej vs 96 Intela, a także zapewniając 8-kanałowy kontroler pamięci vs 6-kanałowy. Samych rdzeni, mimo iż ciągle trochę słabszych, AMD oferuje w podobnych cenach większą ich ilość, a brak AVX512 będzie minusem tylko w pewnych zastosowaniach, w których i tak w wielu testach procesory Xeon dławią się pod wpływem ograniczeń termicznych oraz energetycznych, same siebie właściwie ograniczając. Tym jednakże nie neguję wyższości w instrukcjach AVX512 – Xeony będą tam niezastąpione. Nikt jednak nie chce, aby Epyc przejął wszystkie centra danych. Wydaje się, że AMD podjęło inną decyzję – zachęcić dostawców do używania większej ilość konfiguracji jedno-socketowych, w szczególności tam, gdzie potrzebna jest duża ilość akceleratorów danych (jak Radeon Instinct lub Tesla) oraz duża przepustowość pamięci. Farmy renderingu dzięki dużej ilości rdzeni to także jasny wybór AMD, a często niższe zużycie energii od Intela (co było jeszcze nie do pomyślenia 2 lata temu!) znajdzie uznanie wśród wszystkich serwerowni. Należy także zrozumieć jak sama Lisa Su stwierdziła, że pierwsza generacja Epyc to tzw. „Proof of concept” – swoisty dowód, na to iż, parafrazując słowa prezydenta zeszłej kadencji w USA, „Yes, we can!”. Dodatkowo rozpisana „roadmapa” na lata 2017-2020 upewnia w przekonaniu, że inwestycja w ekosystem AMD nie pójdzie na marne, ponieważ Epyc 7nm oraz 7nm+ zachowają ciągłość dostaw ze skokowym wzrostem wydajności i przede wszystkim – tak pożądanej na rynku serwerowym sprawności energetycznej.
  5. Na koniec szybko dodam, że AMD dzięki renegocjacji bardzo niegdyś niekorzystnego Waffer Supply Agreement z fabrykami Global Foundries, pozbyło się braku możliwości produkcji oraz istotnych kar z tym związanych u innych dostawców wafli krzemowych. 7nm dla kart graficznych odbędzie się w TSMC (tam gdzie Nvidia produkuje swoje chipy), co powinno „odkorkować” wąskie gardła produkcji, które są największą zmorą AMD – możliwości produkcyjne nie nadążają za pobytem na GPU marki Radeon oraz prawdopodobnie chipów serwerowych dla centr danych. Wszystko to powinno być przeszłością wraz z wprowadzeniem 7nm – które powinno dodatkowo polepszyć konkurencyjność wszystkich układów jak już wspomniałem wcześniej.

Niezależnie od tego jak AMD poradzi sobie w roku 2018, za niecały rok w grudniu – dam znać co z tego wyszło i podsumuję czy cokolwiek z moich przewidywań się sprawdziło, a gdzie moje rokowania spaliły na panewce. Życzę sobie, aby przynajmniej niektóre z nich się ziściły, bo nie ma nic lepszego na rynku rządzonym przez dwa duopole (AMD-Intel, AMD-Nidia) niż wyrównana konkurencja.