Prawo krzemu
ambitnie ::: 2017-06-15 ::: 400 słów ::: #588
Czytasz starą notkę zaimportowaną z WordPressa. Niektóre elementy układu stron – w szczególności rozmiary i zakotwiczanie ilustracji oraz światło – mogą pozostawiać sporo do życzenia. Gdzieniegdzie wyparowały też multimedia, w szczególności zagnieżdżone wideo z YT.
Od pół wieku tak zwane prawo Moore'a zaskakująco precyzyjnie opisuje rozwój techniki informatycznej. Gordon Moore, współzałożyciel Intela, sformułował jego pierwszą wersję w 1965 r. w artykule pt. „Upychanie dodatkowych komponentów w układach scalonych”. Ogłosił podówczas, że liczba tranzystorów mieszczących się w procesorach będzie podwajać się średnio raz na dwa lata. W przeciągu następnych dziesięciu lat skorygowano ten okres do osiemnastu miesięcy. Prognoza sprawdziła się jak mało która.
Jednakże każdy realny postęp geometryczny w pewnym momencie zderzy się z fizycznym sufitem. Dla gęstości upakowania tranzystorów pryncypialne ograniczenie stanowi rozmiar atomów. W chwili obecnej odstęp między komponentami wynosi około dziesięciu nanometrów. Tę odległość da się zapewne jeszcze trochę zmniejszyć, lecz jeśli prawo Moore'a miałoby utrzymać się w mocy przez kilka kolejnych dekad, inżynierowie musieliby wkrótce wymyślić tranzystor mniejszy od atomu wodoru. Eufemistycznie mówiąc, to trudne zadanie, więc branża półprzewodnikowa sądzi, że prawo Moore'a lada rok odejdzie do lamusa. Z drugiej strony pamiętajmy, iż w przeszłości jego żywotność zaskoczyła sceptyków kilkukrotnie.
Czy ewentualny kres prawa Moore'a oznacza koniec informatycznego postępu? Bynajmniej. Tim Cross na łamach The Guardiana opowiedział, jak może wyglądać „życie po Moorze”; skąd będzie brał się przyrost mocy obliczeniowej i szybkości pracy z komputerami, gdy tranzystory osiągną już minimalne rozmiary.
- Lepsza optymalizacja kodu. Częsta wymiana hardware'u przestanie być wymówką dla leniwych programistów.
- Procesory będą specjalizować się w określonych zadaniach (np. rozpoznawanie obrazu).
- Procesory staną się trójwymiarowe, tzn. będą składać się z wielu warstw tranzystorów połączonych ze sobą w trzech osiach. Samsung rozpoczął przecieranie szlaku kilka lat temu. Główny problem tej architektury stanowi jednak chłodzenie. Trzeba wiercić mikrootwory i pompować specjalną ciecz chłodzącą.
- Komputery kwantowe – w które osobiście nie wierzę. Obiecuje się je nam od kilkunastu lat. W urzeczywistnienie wielkoskalowej koncepcji kubitów zainwestowano ogromne pieniądze, natężały się nad nią genialne umysły. Gdyby ich zbudowanie było możliwe, już by to nastąpiło. Albo więc pomysł jest niewypałem, albo najpierw musi nastąpić zmiana naukowo-technologicznego paradygmatu. (Swoją drogą, w sztuczną inteligencję też nie wierzę, ale o tym napiszę innym razem.)
- Skoncentrowanie mocy obliczeniowej w superkomputerowych serwerowniach. Nasze komputery, tablety i smartfony będą „głupimi” klientami czerpiącymi z niezmierzonych zerojedynkowych zasobów poprzez błyskawiczny internet, jeszcze szybszy niż dzisiejszy.
- Wygodniejszy interfejs. Pierwszy przełom – ekrany dotykowe – dokonał się już za sprawą Apple'a. Czekamy na następne: porozumiewanie się głosem i gestami oraz rzeczywistość wspomaganą a'la Google Glass.
____________________
Zdjęcie nagłówkowe przedstawia procesor z rodziny PowerPC G3 wykorzystywany w sprzęcie Apple'a. Autorem fotografii jest Ian Peters.
Komentarze
xpil (2018-02-21 22:57:04)
Tu jest bardzo fajny, łopatologiczny opis dlaczego tak trudno wywalczyć każdy kolejny gigaherc: https://software.intel.com/en-us/blogs/2014/02/19/why-has-cpu-frequency-ceased-to-grow
Krótko mówiąc, ilość odprowadzonego ciepła jest wprost proporcjonalna do *sześcianu* napięcia, więc wzrost napięcia (który umożliwia zwiększenie przepływu prądu czyli skrócenie czasu potrzebnego na naładowanie tranzystora, żeby się przełączył) o 10% powoduje wzrost wydzielanego ciepła o ponad 33%, a podniesienie napięcia o połowę da na wyjściu prawie trzyipółkrotność ciepła, które nadal jakoś trzeba odprowadzić.
Przejście na 3d niewiele tu zmieni, niestety. Fizyki nie oszukasz.
Komputery kwantowe... no, to jest ciągle jeszcze carta blanca, może, kiedyś... Tylko że tutaj znane nam algorytmy się raczej nie przydadzą, trzeba wykształcić całe rzesze ludzi z mózgami całkiem w inny poprzek ;)
Jedyna szansa w przetwarzaniu równoległym, ale tu też są limity, o które już się ocieramy.
Można też postawić na chipy wąskowyspecjalizowane, ale tam też prędzej czy później ściana.
Teoretycznie najbardziej wydajny komputer to taki, który będzie potrafił zapamiętać, a potem odczytać stan (zero-jeden) używając spinu pojedynczego elektronu, ponieważ zmiana spinu wymaga dostarczenia minimum energii, ale do takiej skali to jeszcze nam daleko.
Jak nie spojrzeć, tak dupa z tyłu...
Borys (2018-02-22 08:47:18)
O, dzięki za merytoryczny komentarz (i wszystkie pozostałe). Ja w komputery kwantowe nie wierzę, bo uważam, że jeżeli w dzisiejszym świecie (nasyconym zdolnymi doktorantami i życzliwymi inwestorami) przez kilka lat próbuje rozwinąć się jakąś technikę, ale nie prowadzi to do przełomu – to ta koncepcja była przeceniona. W pierwszej dekadzie bieżącego stulecia byliśmy wszak „o krok” od kwantowej rewolucji. Jakoś się nie udała.
xpil (2018-02-22 09:58:51)
Na niektóre "rewolucje" trzeba poczekać. Przyzwyczailiśmy się, że w naszych czasach jajogłowi potrafią przeskoczyć pewne bariery w miarę szybko, jednak w przypadku technologii kwantowych to nie jest zmiana liniowa. To nie jest dodanie kolejnego konia mechanicznego ani megaherca, tylko kompletne przestawienie się ze sposobem myślenia. Nasze mózgi są ewolucyjnie nastawione na to, żeby drzeć się z czubka drzewa na młpę siedzącą na drugim drzewie, ewentualnie podłubać sobie palcem w... uchu, dajmy na to. Z kwantami nam ewolucyjnie całkiem nie po drodze, dlatego może nam zająć ciut dłużej, zanim zaprzęgniemy je do praktycznej pracy.
Ale może się to w końcu udać. Fizykę nienewtonowską też w miarę ujarzmiliśmy (vide: poprawka relatywistyczna na ruch satelitów GPS), więc i z kwantami sobie kiedyś poradzimy. Kiedyś.
Borys (2018-02-22 16:02:54)
Pożyjemy, zobaczymy. Jestem sceptyczny. Do największego przełomu końca XX wieku – Internet, a potem Internet 2.0 – doszło całkiem niespodziewanie. Nie był wynikiem wytężonej pracy naukowców, którzy chcieli zrewolucjonizować sferę komunikacyjną. (Chociaż oczywiście możesz odpowiedzieć, że komputery jako takie były efektem kilkudziesięciu lat wytężonych badań nad elektroniką).
xpil (2018-03-08 11:11:24)
No i jak t z większością wielkich wynalazków bywa, zamiast używać go do Wyższych Celów, używamy go głównie do tego, żeby gosposyni wiejska z Masachussets mogła podzielić się z gospodynią wiejską z Archangielska przepisem na schabowe, albo żeby ułatwić Kowalskiemu dostęp do oglądania gołych bab...
Borys (2018-03-08 16:10:29)
Czasami zastanawiam się, gdzie byłaby dzisiaj Europa, gdyby nie wprowadzono socjalu i gdyby pchnięto te ogromne ilości pieniędzy w zupełnie innym kierunku.