Zapewne wielu czytelników, podobnie do mnie, doskonale pamięta czasy Commodore 64, Atari Falcon czy Amigi 1200. Trudno uwierzyć, że wystarczyło ćwierćwiecze, aby urządzenia o stokrotnie większej mocy obliczeniowej mieściły się w dłoni. Ale czy ten bujny rozwój technologii krzemowej, może trwać bez końca?

Krótko. Jesteśmy już bardzo blisko momentu, w którym elementy elek­tro­niczne staną się tak małe, że do głosu zaczną docho­dzić efekty kwantowe.

Ciut dłużej. Nie będę ściem­niał – począt­kowo pla­no­wa­łem zupełnie inny tekst, poświę­cony jednemu z zagad­nień funk­cjo­no­wa­nia kom­pu­te­rów kwan­to­wych. Jednak z uwagi na istną lawinę nowych infor­ma­cji, stwier­dzi­łem, że muszę na razie spasować i najwyżej wrócę do tematu w przy­szło­ści. W zamian pro­po­nuję roz­wa­że­nie pytania pokrew­nego. Zasta­nówmy się nad tym, jak może wyglądać przy­szłość kom­pu­te­rów kon­wen­cjo­nal­nych. Gdzie leży granica poten­cjału współ­cze­snych urządzeń elek­tro­nicz­nych i z czego wła­ści­wie ona wynika?

Żeby to wyjaśnić, przyj­rzyjmy się pokrótce zasadzie dzia­ła­nia naszych pro­ce­so­rów. Cały sposób “rozu­mo­wa­nia” kom­pu­tera oparty jest o prze­twa­rza­nie bitów, sta­no­wią­cych naj­mniej­sze możliwe do wyod­ręb­nie­nia porcje infor­ma­cji. Na poziomie logicz­nym jeden bit spro­wa­dza się do wyboru między dwoma opcjami, jak: prawda i fałsz, tak i nie, orzeł i reszka  bądź cyfrowo  jeden i zero. To pry­mi­tywny, ale nie­zwy­kle uży­teczny i uni­wer­salny system, łatwy do zaim­ple­men­to­wa­nia w niemal każdym mecha­ni­zmie. Jeśli umówimy się, że wyłą­czony prze­łącz­nik oznacza zero, a włączony jeden, to możemy sku­tecz­nie prze­sy­łać lub zapi­sy­wać dane w języku binarnym. W elek­tro­nice rolę takich prze­łącz­ni­ków pełniły począt­kowo nie­po­ręczne lampy elek­tro­nowe, z powo­dze­niem zastą­pione przez tran­zy­story. W rzeczy samej, cały rozkwit branży elek­tro­nicz­nej, od dekad spro­wa­dza się do jak naj­gęst­szego upy­cha­nia w układach sca­lo­nych maleń­kich tran­zy­sto­rów, tak aby mieliły nie­zli­czone ciągi zer i jedynek, z coraz lepszą wydaj­no­ścią.
Rozwój tranzystorów
Rozwój elek­tro­niki: od pierw­szego tran­zy­stora do nano­tech­no­lo­gii.

Stąd uza­sad­nione wydaje się pytanie, jak długo będziemy mogli bez­pro­ble­mowo pomniej­szać i ście­śniać elementy elek­tro­niczne? Niestety wiele wskazuje na to, iż kres inten­syw­nej minia­tu­ry­za­cji nadej­dzie już niebawem.

Trzeba przyznać, że jak dotąd tempo rozwoju mikro­chi­pów było doprawdy impo­nu­jące. Dosko­nale pamiętam mój “wypa­siony” PC z 2002 roku wypo­sa­żony w Pentium 4 z tak­to­wa­niem 1,6 GHz i 256 MB pamięci RAM. Minęło zaledwie kil­ka­na­ście lat, a wydaj­niej­szymi bebe­chami dys­po­nuje miesz­czący się w dłoni, prze­ciętny smartfon. Skąd taka różnica? Pomyśl o tym, że pierwszy procesor Pentium zawierał 3 miliony tran­zy­sto­rów o wiel­ko­ści 0,8 mikro­me­tra (0,0008 mili­me­tra). We współ­cze­snych urzą­dze­niach obecne są tran­zy­story 14 lub 10 nano­me­trowe (0,00001 mili­me­tra), a gdzie­nie­gdzie pojawia się już tech­no­lo­gia 7 nm (jest w tym co prawda trochę mar­ke­tingu, bo w realnie urzą­dze­nie jest ciut większe, ale to nadal kwestia nano­me­trów). Żebyś miał jasność w jakiej skali ope­ru­jemy: to zaledwie kilka grubości helisy DNA i dziesięć tysięcy razy mniej niż długość ludz­kiego plemnika!
Wielkość tranzystora
Co będzie dalej? IBM już przed­sta­wił procesor w stan­dar­dzie 5 nm i prze­ko­nuje, że można ten wynik jeszcze poprawić schodząc do 3 i 2,1 nm. Mniej więcej w tym miejscu, współ­cze­sna elek­tro­nika trafi na prze­szkodę czysto fizyczną. Operując w skali de facto poje­dyn­czych molekuł, szyki inży­nie­rom zaczną mieszać prawidła mecha­niki kwan­to­wej. Pamiętaj, że podstawą funk­cjo­no­wa­nia naszych urządzeń jest przepływ prądu i zjawisko pół­prze­wod­nic­twa. Korzy­sta­jąc z tego dobro­dziej­stwa, elementy elek­tro­niczne mogą zależnie od warunków i naszych potrzeb, prze­wo­dzić prąd lub stawić mu opór. Ale jak zachować pełną precyzję w prze­twa­rza­niu zer i jedynek, kiedy wszyst­kie tran­zy­story są tuż obok siebie? Jak to osiągnąć, gdy bariery powstrzy­mu­jące ładunki elek­tryczne mają grubość dosłow­nie paru atomów?

Główną zmorą kon­wen­cjo­nal­nych mikro­chi­pów jest zjawisko zwane tune­lo­wa­niem kwan­to­wym. (W tym miejscu muszę się pokajać, ponieważ jakimś cudem na łamach Kwantowo nie pojawił się dotąd żaden obszer­niej­szy artykuł na ten temat. Rzecz do nad­ro­bie­nia). Podobnie jak w przy­padku innych dziwactw mikro­świata, tak i tu o wszyst­kim decyduje nie­zno­śna losowość i praw­do­po­do­bień­stwo. Wyobraź sobie, że jedziesz na desko­rolce i masz przed sobą do poko­na­nia pagórek. Odpy­cha­jąc się nogą dostar­czasz sobie energii i możesz wtoczyć się na szczyt. Jednak jeśli energii będzie zbyt mało – tj. nie ode­pchniesz się dość mocno – zatrzy­masz się i zsuniesz z powrotem w dół. Tak to działa w świecie fizyki kla­sycz­nej. Mecha­nika kwantowa pozwo­li­łaby na coś zupełnie nie­in­tu­icyj­nego: zaist­nia­łaby pewna szansa na to, że znik­niemy i pojawimy się z drugiej strony prze­szkody. Jak mogłeś słyszeć, losem cząstek ele­men­tar­nych rządzi Heisen­berg i jego zasada, wedle której nie da się z całą pew­no­ścią określić poło­że­nia i pędu cząstki. Istnieje również nie­ze­rowe praw­do­po­do­bień­stwo, że opi­sy­wana przez funkcję falową cząstka o nie­okre­ślo­nej energii i loka­li­za­cji, zigno­ruje nie­wielką prze­szkodę i przebije się na drugą stronę.
Tunelowanie kwantowe
Efekt jest taki, że lada chwila skon­stru­ujemy układy na tyle drobne, że ładunki elek­tryczne zaczną igno­ro­wać cie­niut­kie bariery, prze­ska­ku­jąc tam gdzie nie powinny. Z pewnym praw­do­po­do­bień­stwem zamiast zera, może wysko­czyć jedynka – a na to nie możemy sobie pozwolić. 

Zapewne obiło Ci się o uszy prawo Moore’a. Zgodnie z nim, liczba tran­zy­sto­rów w mikro­pro­ce­so­rach i co za tym idzie moc obli­cze­niowa kom­pu­te­rów, powinna się podwajać mniej więcej co dwa lata. Trzeba przyznać, że pro­roc­two prezesa Intela okazało się zdu­mie­wa­jąco poprawne. Goordon Moore miał jednak rację nie tylko co do opty­mi­stycz­nej wizji bujnego rozkwitu elek­tro­niki, ale również trafnie prze­wi­dział moment jego zała­ma­nia. Jako cezurę lat tłustych dla branży obstawił rok 2020. Rze­czy­wi­ście, dynamika minia­tu­ry­za­cji już znacznie osłabła, zaś inży­nie­ro­wie znajdują się o kilka kroków od wyci­śnię­cia z kon­wen­cjo­nal­nych roz­wią­zań maksimum efek­tyw­no­ści. Oczy­wi­ście nie oznacza to zupeł­nego wyha­mo­wa­nia postępu. Jeszcze przez wiele lat będziemy świad­kami gim­na­styki z udziałem nowych mate­ria­łów, kształ­tów i struktur (patrz: tran­zy­story FinFET), jak również prób wyko­rzy­sta­nia nie­zno­śnego tune­lo­wa­nia na naszą korzyść (tran­zy­story TFET). Nie zmienia to jednak faktu, że poten­cjał kla­sycz­nych kom­pu­te­rów posiada wyraźne ogra­ni­cze­nia, a ich dalsza ewolucja nie będzie już tak gwał­towna jak kiedyś.

  • engineer

    Adamie, skąd taki pesymizm w Tobie? Dosko­nale wiadomo, że jeden przełom zastę­puje drugi i pewnie ten rozwój na chwilę zwolni żeby zaraz znów przy­śpie­szyć, zastę­pu­jąc obecne pro­ce­sory zupełnie innymi. 🙂

    Dobrze gada? Dobre 0 Słabe 0

    • https://www.kwantowo.pl/ Adam Adamczyk

      Nie pesymizm. 😉 Nie wątpię w to, że możemy być świad­kami kolejnej rewo­lu­cji w elek­tro­nice, ale (!) praw­do­po­dob­nie będzie się ona wiązała z jakimś prze­su­nię­ciem para­dyg­ma­tów. Jak sam napi­sa­łeś, być może pro­ce­sory przy­szło­ści w niczym nie będą przy­po­mi­nać obecnych i nie chodzi mi tu tylko o zasto­so­wany materiał. Prognoza Moora, dotyczy tego jak daleko mogą zajść kon­wen­cjo­nalne kom­pu­tery, których zasada dzia­ła­nia co do zasady pozo­staje taka sama już od kilku dekad.

      Dobrze gada? Dobre 0 Słabe 0

      • Michał Skichał

        A może zamiast dalszego wzrostu mocy obli­cze­nio­wej po przez upy­cha­nie coraz to mniej­szych tran­zy­stor­ków w pro­ce­so­rze, będziemy korzy­stać z wir­tu­al­nej mocy obli­cze­nio­wej sie­dzą­cej w czymś na kształt chmury? Czyli zamiast coraz więcej w mniej­szej skali w moim tele­fo­nie, mój telefon będzie prze­sy­łał ileśet GB danych na sekundę na serwery ope­ra­tora i drogą powrotną otrzy­my­wał rezul­taty.…

        Dobrze gada? Dobre 0 Słabe 0

      • Jakub

        Przy­kła­dem tego typu usług są stru­mie­nio­wane gry, np. z NVidia. NIedługo Micro­soft ma odpalić taka usługę na bazie Azure. Będzie można grać w gry typu AAA na byle tablecie czy tele­fo­nie.

        Dobrze gada? Dobre 0 Słabe 0

  • Dominik Kurek

    raczej 1000-krotnie moc­niej­sze

    Dobrze gada? Dobre 0 Słabe 0

  • AdamK

    Łoo, kolega pamięta Atari Falcon, widać Ata­ro­wiec 😀

    Dobrze gada? Dobre 0 Słabe 0

  • Głowa Bez Jeźdźca

    Coz, powie­dzial­bym, ze granice pred­ko­sci pre­ce­so­row wyznaczy, jak zawsze, predkosc swiatla — czyli gra­niczna predkosc tak­to­wa­nia pro­ce­sora obslu­gu­ja­cego nasza symu­la­cje 😉

    Dobrze gada? Dobre 0 Słabe 0

  • arthy

    486 dx/2 66 4mb ramu 310hdd — bylem panem swiata :)))

    Tune­lo­wa­nie kwantowe to fascy­nu­jące zjawisko. Byłoby miło jakbyś arty­ku­łowi o nim nadał naj­wyż­szy prio­ry­tet.

    Dobrze gada? Dobre 0 Słabe 0

    • Jakub

      286 z Turbo 16 mhz, 1 mb RAM 40 mb hdd 😀

      Dobrze gada? Dobre 0 Słabe 0

  • Lucyna

    A chciałam dopytać co z pro­ce­so­rami z trój­wy­mia­ro­wym układem scalonym? Ray Kurzweil z tego co pamiętał opisywał to jako szanse by moc pro­ce­so­rów mogła się wciąż podwaja co roku.

    Dobrze gada? Dobre 0 Słabe 0

  • M Se

    Ech te wspomnienia.…skoro już jest o c64, tak dla czystej for­mal­no­ści przy­da­łoby się jeszcze porów­na­nie mocy obli­cze­nio­wej współ­cze­snego smart­fona z Eniac czy cho­cia­zby nasz rodzima Odrą

    Dobrze gada? Dobre 0 Słabe 0

  • rober­trock

    Wszystko zanosi się na to, że elek­tro­nika pójdzie bardzo do przodu. Już teraz są próby bez­po­śred­niego połą­cze­nia czipów krze­mo­wych z żywymi komór­kami i które komu­ni­kują się ze sobą. I nie trzeba do tego kom­pu­te­rów kwan­to­wych tylko tech­no­lo­gii która istnieje obecnie (jak znajdę źródła w notat­kach to podam).
    A może właśnie czas elek­tro­niki taką jaką znamy się kończy? Kilka lat temu udało się w nici DNA zako­do­wać całkiem dużo infor­ma­cji takich jak sonety Szek­spira, plik wideo z prze­mó­wie­niem Martina Luthera Kinga, pliki mp3 i inne (naukowcy z European Bio­in­for­ma­tics Insitute).
    Udało się także (Imperial College of London) zmo­dy­fi­ko­wać bakterie E.coli, które pod wpływem pewnych enzymów zaczęły działać jak proste układy elek­tro­niczne wyko­nu­jące proste liczenie.
    Mówiło się także swego czasu o kom­pu­te­rach DNA (badania na Uni­ver­sity Columbia, a także badania pro­wa­dzone w Polsce na AGH) gdzie syn­te­tyczne nici DNA pra­co­wały jako komputer pro­wa­dzący proste obli­cze­nia.
    Oczy­wi­ście powra­ca­jąc do pytania w tekście to nadal zasta­na­wiamy się nad kwantami, grafenem czy czarnym fosforem. A ostatnio nawet nad powrotem — po pewnych mody­fi­ka­cjach, do układów zbu­do­wa­nych z germanu.
    Jakiś przełom musi nadejść. Wiadomo przecież, że współ­cze­sna tech­no­lo­gia i używane mate­riały stawiają ogra­ni­cze­nia doty­czące czę­sto­tli­wo­ści tak­to­wa­nia pro­ce­so­rów, dlatego właśnie idzie się w ilość rdzeni.

    Pytanie posta­wione w tekście jest nie­sa­mo­wi­cie ciekawe dla mnie oso­bi­ście nie tylko dlatego, że inte­re­suję się elek­tro­niką od wielu lat ale także z zupełnie innego powodu. Mia­no­wi­cie ze względu na to jaki wpływ na czło­wieka i spo­łe­czeń­stwa ten rozwój będzie miał. Wiem, że to taka dyskusja nie do końca zgadza się z profilem tego bloga, jednakże nie można tego pominąć.
    Istnieją wielkie problemy, które stoją tuż za rogiem. Problemy dla czło­wieka i śro­do­wi­ska.
    Nie­za­leż­nie w jaki sposób rozwiną się kom­pu­tery a co za tym idzie i tech­no­lo­gia, to naj­więk­szy problem jest taki, ze stworzy to jeszcze większe nie­rów­no­ści wśród ludzi i w spo­łe­czeń­stwach. Oso­bi­ście uważam, że jest to zły omen na przy­szłość, z wielu powodów o których nie będę pisał ponieważ prze­kra­cza to ramy tematu tego artykułu, choć jest to bardzo inte­re­su­jące.
    Na koniec dodam jeszcze, że wymie­niony wcze­śniej Ray Kurzweil zapo­wia­dał dokład­nie na rok 2019 takie rzeczy jak: cał­ko­wity i powszechny brak kla­wia­tury do komu­ni­ko­wa­nia się z kom­pu­te­rem, wszech­obecną nano­tech­no­lo­gię, mini­kom­pu­tery w ubra­niach, meblach czy biżu­te­rii, kom­pu­te­rowi asy­sten­cji poma­ga­jący zała­twiać osobiste codzienne sprawy czy domowe roboty sprzą­ta­jące w domach. Jak wyszło i co z tego będzie każdy widzi.
    Pozdra­wiam. rober­trock

    Dobrze gada? Dobre 0 Słabe 0

  • rober­trock

    Wszystko zanosi się na to, że elek­tro­nika pójdzie bardzo do przodu. Już teraz są próby bez­po­śred­niego połą­cze­nia czipów krze­mo­wych z żywymi komór­kami i które komu­ni­kują się ze sobą. I nie trzeba do tego kom­pu­te­rów kwan­to­wych tylko tech­no­lo­gii która istnieje obecnie (jak znajdę źródła w notat­kach to podam).
    A może właśnie czas elek­tro­niki taką jaką znamy się kończy? Kilka lat temu udało się w nici DNA zako­do­wać całkiem dużo infor­ma­cji takich jak sonety Szek­spira, plik wideo z prze­mó­wie­niem Martina Luthera Kinga, pliki mp3 i inne (naukowcy z European Bio­in­for­ma­tics Insitute).
    Udało się także (Imperial College of London) zmo­dy­fi­ko­wać bakterie E.coli, które pod wpływem pewnych enzymów zaczęły działać jak proste układy elek­tro­niczne wyko­nu­jące proste liczenie.
    Mówiło się także swego czasu o kom­pu­te­rach DNA (badania na Uni­ver­sity Columbia, a także badania pro­wa­dzone w Polsce na AGH) gdzie syn­te­tyczne nici DNA pra­co­wały jako komputer pro­wa­dzący proste obli­cze­nia.
    Oczy­wi­ście powra­ca­jąc do pytania w tekście to nadal zasta­na­wiamy się nad kwantami, grafenem czy czarnym fosforem. A ostatnio nawet nad powrotem — po pewnych mody­fi­ka­cjach, do układów zbu­do­wa­nych z germanu.
    Jakiś przełom musi nadejść. Wiadomo przecież, że współ­cze­sna tech­no­lo­gia i używane mate­riały stawiają ogra­ni­cze­nia doty­czące czę­sto­tli­wo­ści tak­to­wa­nia pro­ce­so­rów, dlatego właśnie idzie się w ilość rdzeni.

    Pytanie posta­wione w tekście jest nie­sa­mo­wi­cie ciekawe dla mnie oso­bi­ście nie tylko dlatego, że inte­re­suję się elek­tro­niką od wielu lat ale także z zupełnie innego powodu. Mia­no­wi­cie ze względu na to jaki wpływ na czło­wieka i spo­łe­czeń­stwa ten rozwój będzie miał. Wiem, że to taka dyskusja nie do końca zgadza się z profilem tego bloga, jednakże nie można tego pominąć.
    Chciał­bym tu tylko zasy­gna­li­zo­wać wielkie problemy jakie stoją tuż za rogiem. Problemy dla czło­wieka i śro­do­wi­ska.
    Nie­za­leż­nie w jaki sposób rozwiną się kom­pu­tery a co za tym idzie i tech­no­lo­gia, to naj­więk­szy problem jest taki, ze stworzy to jeszcze większe nie­rów­no­ści wśród ludzi i w spo­łe­czeń­stwach. Oso­bi­ście uważam, że jest to zły omen na przy­szłość, z wielu powodów o których nie będę pisał ponieważ prze­kra­cza to ramy tematu tego artykułu, choć jest to bardzo inte­re­su­jące.
    Na koniec dodam jeszcze, że wymie­niony wcze­śniej Ray Kurzweil zapo­wia­dał dokład­nie na rok 2019 takie rzeczy jak: cał­ko­wity i powszechny brak kla­wia­tury do komu­ni­ko­wa­nia się z kom­pu­te­rem, wszech­obecną nano­tech­no­lo­gię, mini­kom­pu­tery w ubra­niach, meblach czy biżu­te­rii, kom­pu­te­rowi asy­sten­cji poma­ga­jący zała­twiać osobiste codzienne sprawy czy domowe roboty sprzą­ta­jące w domach. Jak wyszło i co z tego będzie każdy widzi.
    Pozdra­wiam. rober­trock

    Dobrze gada? Dobre 0 Słabe 0

  • ErykIQ

    Apropo zasady nie­ozna­czo­no­sci i limitów w obli­cze­niach. Może się przydać przy tekście o kom­pu­te­rach kwan­to­wych.
    https://en.wikipedia.org/wiki/Bremermann%27s_limit

    Dobrze gada? Dobre 0 Słabe 0

×