Mini PC wracają do łask, siłę daje im potężne serce

Lokowanie produktu

Historia miniaturowych komputerów to właściwie historia komputerów osobistych jako całości. Od dekad producenci „pecetów” starają się, by komputery były coraz mniejsze, coraz wydajniejsze i coraz wygodniejsze w obsłudze. Jednak dopiero od niedawna obserwujemy eksplozję popularności tak zwanych „mini-PC”, których historia sięga lat siedemdziesiątych.

17.04.2014 11.52
Mini PC wracają do łask, siłę daje im potężne serce

Historia komputerów osobistych tak na dobrą sprawę sięga XIX wieku i maszyny różnicowej Charlesa Babbage’a. Był to komputer całkowicie mechaniczny i ciężko go nazwać w jakikolwiek sposób „osobistym”. Nawet sto lat później, kiedy opanowaliśmy arkana elektroniki na tyle, by stworzyć ENIAC-a, było to zdecydowanie poza zasięgiem typowego konsumenta. Wizjonerzy i autorzy opowiadań science-fiction snuli wizję komputera osobistego, dostępnego w każdym gospodarstwie domowym. Komputer taki miałby się mieścić na biurku i pomagać „Kowalskim” w planowaniu wydatków i zdobywaniu wiedzy. Na tę rewolucję musieliśmy jednak poczekać aż do 1975 roku.

Wtedy bowiem pojawił się pierwszy programowalny komputer przeznaczony do użytku konsumenckiego. Nazywał się Altair i nie przypominał ani HAL-a 9000, ani żadnego innego komputera z filmów, książek i komiksów. Nie dysponował on klawiaturą ani monitorem, a z użytkownikiem porozumiewał się za pomocą… wbudowanych diod LED. Wynalazek ten zainteresował Steve’a Jobsa i Steve’a Wozniaka, którzy wspólnie zaprojektowali komputer Apple, oraz jego następcę, Apple II. Małe komputery osobiste w końcu trafiły pod strzechy. I zaczęły się rozwijać w zupełnie innym kierunku niż pierwotnie zakładanego.

Altair

Kluczem jest technologia

Producenci sprzętu komputerowego, odkąd tylko musieli zacząć liczyć się z czymś takim jak cena rynkowa, muszą walczyć z dostępną dla nich technologią. Nie jest sztuką zrobić superwydajny komputer, który potrafi „wszystko”. Problemem jest uczynieniem go wygodnym, energooszczędnym, a przede wszystkim… tanim. Dlatego też przez dekady w gospodarstwach domowych królowały komputery typu desktop, a więc duże „pudła” zajmujące sporo miejsca na lub przy biurku. Urządzenia zużywające dużą ilość prądu, by móc zapewnić odpowiednią wydajność za pomocą podzespołów wykonanych przez najatrakcyjniejszego cenowo podwykonawcę.

Starsi Czytelnicy zapewne pamiętają, że jeszcze nie tak dawno temu, komputer typu notebook był absurdalnie drogi i dużo wolniejszy od desktopa, a cienkie, lekkie i bardzo wydajne notebooki, jakie znajdujemy dziś w elektromarketach, były równie fantastyczną wizją, co HAL-9000 z Odysei Kosmicznej.

Problemem desktopa jest jednak jego rozmiar i ilość pobieranej energii. Nie każdy jest graczem, potrzebującym grać w gry w rozdzielczości 4K. Do niedawna jednak zbudowanie małego, domowego komputera w rozsądnej cenie było problemem. To nie oznacza, że nie próbowano. Komputery typu HTPC są znane już od lat. Nie nadawały się jednak do zbyt wielu celów: były wolne i nieporadne i właściwie sprawdzały się głównie jako linuxowa maszyna do pisania lub inteligentny odtwarzacz multimediów. Właściwie tylko Apple opracował sensowne rozwiązanie (o nazwie Mac Mini), ale tak jak ów komputer był jak najbardziej sukcesem sprzedażowym, tak nie zainspirował innych do pójścia tą drogą. Nadeszła jednak pewna rewolucja, która wywróciła ten rynek do góry nogami i faktycznie pozwoliła na zbudowanie wygodnego, malutkiego komputerka, który poradzi sobie z większością typowych zastosowań.

SONY DSC

Gorąca fuzja

W 2006 roku w firmie AMD narodził się projekt Fusion. Jego celem było zbudowanie układu scalonego, który łączyłby to, co najlepsze w procesorach CPU i GPU. To najprawdopodobniej właśnie dlatego gigant zdecydował się na przejęcie ATI, firmy odpowiedzialnej za układy graficzne Radeon. AMD Fusion nie miały być wysokowydajnymi procesorami, od początku było jasne, że wyspecjalizowane układy osiągną lepsze wyniki. Jednak umieszczanie osobno wydajnego procesora i wydajnej karty graficznej zwiększa koszty produkcji i wymusza większe rozmiary komputera z uwagi na konieczność schłodzenia tych układów. Pojedynczy układ, łączący GPU i CPU w jedno, jest wystarczająco wydajny do większości zastosowań, a zarazem tańszy i łatwiejszy w instalacji. Intelowi udało się zaprezentować swoją wersję układu hybrydowego na dwa miesiące przed premierą układu AMD, ale wydajnościowo nie dorastał do pięt rozwiązaniu od AMD.

APU (Accelerated Processing Unit), bo tak nazwano procesory z projektu Fusion, miał aż trzy generacje prototypów zanim został zaprezentowany w 2011 roku na targach CES. Składał się z CPU o architekturze K10 oraz układu graficznego Radeon HD 6000. Całość umieszczono na podstawce FM1. Pojawiła się też bardziej energooszczędna wersja, różniąca się architekturą procesora (Bobcat). Pierwszy z układów nazwano Llano, drugi zaś Brazos.

APU wzbudziły olbrzymie zainteresowanie partnerów AMD. Firmy takie, jak Zotac czy Sapphire były w stanie zbudować malutkie a zarazem wydajne komputery dla Kowalskich, nie wydając przy tym astronomicznych pieniędzy na ich produkcję, co oznaczało niższe ceny rynkowe przy zachowaniu odpowiedniej marży. AMD zaskoczył swojego największego rywala, a więc Intela, który również zaczął interesować się rynkiem procesorów GPU. Nie miał jednak tak potężnego zaplecza, jak przejęta przez AMD firma ATI. W czasie gdy Intel szykował swoją odpowiedź (powstał nawet krótkotrwały sojusz z Nvidią, czego efektem była platforma Ion), AMD pracował już nad kolejną generacją swoich APU.

AMD-APU-diagram-1

Owa druga generacja nosiła miano Trinity i była fuzją procesora Pilediver i układu Radeon HD 7000. Pojawiły się nowe pododmiany APU, umożliwiając partnerom OEM oferowanie bardziej zróżnicowanych maszyn, zarówno jeśli chodzi o wydajność, jak i ceny. Architektura tych układów skaluje się na tyle dobrze, że APU AMD nadają się równie dobrze do malutkich komputerków w cenie poniżej tysiąca złotych jak i… konsol do gier, takich jak Xbox One czy PlayStation 4.

AMD nie spoczywa na laurach

Firma AMD nieraz już miała niemałe kłopoty z powodu jej wielkiego rywala, a więc Intela. I jak każda firma mająca godnego i wartego szacunku rywala, miewała swoje lepsze i gorsze chwile. To ją jednak nauczyło konsekwencji i tego, że nie ma czasu na odpoczynek. Platforma AM1, którą właśnie zaprezentowano, pozwala na zbudowanie małego i dostatecznie wydajnego komputera za… 500 złotych. Na takim komputerze nie pogramy na „pełnych detalach” w najnowsze superprodukcje. Ale na tym samym komputerze, zajmującego na biurku mniej więcej tyle miejsca, co sam zasilacz do typowego desktopa, będziemy sprawnie pracować w Microsoft Office bez zacięć, obrobimy zdjęcia z wakacji w rozbudowanym programie graficznym, wyślemy na nasz telewizor film w Full HD a nawet w coś pogramy.

Wiemy też, że to dopiero początek tego, co ma w zanadrzu AMD. Szykowane są już 28-nanometrowe APU o nazwie Mullins, które będą napędzały komputery micro-PC rozmiarem przypominające… smartfon. Procesory te są, jeżeli wierzyć deklaracjom AMD, wydajniejsze o kilkadziesiąt procent od układów Atom Bay Trail Z3770. Tłumacząc z technicznego na polski: to komputer wielkości paczki papierosów, który bez problemu poradzi sobie z Windows 8.1, pakietem biurowym i filmem Full HD strumieniowanym na ekran telewizora. Na raz.

mullins_pc_1

Jesteśmy też przekonani, że konkurencja nie marnuje czasu i szykuje swoją odpowiedź. Na razie najbliższym, choć zauważalnie większym konkurentem, jest zaproponowana i oferowana przez Intela od jakiegoś czasu platforma NUC, wykorzystująca zarówno procesory z rodziny Atom, jak i Core. Patrząc na powyższe fakty możemy podejrzewać, że wielkimi krokami zbliża się prawdziwa eksplozja na rynku komputerów osobistych. Komputerów osobistych na każdą kieszeń i które zamiast irytować nas swoją ułomnością, wystarczą nam do większości zastosowań. A to, jakkolwiek na to nie spojrzeć, fantastyczna informacja dla nas wszystkich.

Lokowanie produktu
Najnowsze