Czytaj dalej

Zapewne wielu czytelników, podobnie do mnie, doskonale pamięta czasy Commodore 64, Atari Falcon czy Amigi 1200. Trudno uwierzyć, że wystarczyło ćwierćwiecze, aby urządzenia o stokrotnie większej mocy obliczeniowej mieściły się w dłoni. Ale czy ten bujny rozwój technologii krzemowej, może trwać bez końca?

Krótko. Jesteśmy już bardzo blisko momentu, w którym elementy elek­tro­niczne staną się tak małe, że do głosu zaczną docho­dzić efekty kwantowe.

Ciut dłużej. Nie będę ściem­niał – począt­kowo pla­no­wa­łem zupełnie inny tekst, poświę­cony jednemu z zagad­nień funk­cjo­no­wa­nia kom­pu­te­rów kwan­to­wych. Jednak z uwagi na istną lawinę nowych infor­ma­cji, stwier­dzi­łem, że muszę na razie spasować i najwyżej wrócę do tematu w przy­szło­ści. W zamian pro­po­nuję roz­wa­że­nie pytania pokrew­nego. Zasta­nówmy się nad tym, jak może wyglądać przy­szłość kom­pu­te­rów kon­wen­cjo­nal­nych. Gdzie leży granica poten­cjału współ­cze­snych urządzeń elek­tro­nicz­nych i z czego wła­ści­wie ona wynika?

Żeby to wyjaśnić, przyj­rzyjmy się pokrótce zasadzie dzia­ła­nia naszych pro­ce­so­rów. Cały sposób “rozu­mo­wa­nia” kom­pu­tera oparty jest o prze­twa­rza­nie bitów, sta­no­wią­cych naj­mniej­sze możliwe do wyod­ręb­nie­nia porcje infor­ma­cji. Na poziomie logicz­nym jeden bit spro­wa­dza się do wyboru między dwoma opcjami, jak: prawda i fałsz, tak i nie, orzeł i reszka  bądź cyfrowo  jeden i zero. To pry­mi­tywny, ale nie­zwy­kle uży­teczny i uni­wer­salny system, łatwy do zaim­ple­men­to­wa­nia w niemal każdym mecha­ni­zmie. Jeśli umówimy się, że wyłą­czony prze­łącz­nik oznacza zero, a włączony jeden, to możemy sku­tecz­nie prze­sy­łać lub zapi­sy­wać dane w języku binarnym. W elek­tro­nice rolę takich prze­łącz­ni­ków pełniły począt­kowo nie­po­ręczne lampy elek­tro­nowe, z powo­dze­niem zastą­pione przez tran­zy­story. W rzeczy samej, cały rozkwit branży elek­tro­nicz­nej, od dekad spro­wa­dza się do jak naj­gęst­szego upy­cha­nia w układach sca­lo­nych maleń­kich tran­zy­sto­rów, tak aby mieliły nie­zli­czone ciągi zer i jedynek, z coraz lepszą wydaj­no­ścią.

Rozwój tranzystorów
Rozwój elek­tro­niki: od pierw­szego tran­zy­stora do nano­tech­no­lo­gii.

Stąd uza­sad­nione wydaje się pytanie, jak długo będziemy mogli bez­pro­ble­mowo pomniej­szać i ście­śniać elementy elek­tro­niczne? Niestety wiele wskazuje na to, iż kres inten­syw­nej minia­tu­ry­za­cji nadej­dzie już niebawem.

Trzeba przyznać, że jak dotąd tempo rozwoju mikro­chi­pów było doprawdy impo­nu­jące. Dosko­nale pamiętam mój “wypa­siony” PC z 2002 roku wypo­sa­żony w Pentium 4 z tak­to­wa­niem 1,6 GHz i 256 MB pamięci RAM. Minęło zaledwie kil­ka­na­ście lat, a wydaj­niej­szymi bebe­chami dys­po­nuje miesz­czący się w dłoni, prze­ciętny smartfon. Skąd taka różnica? Pomyśl o tym, że pierwszy procesor Pentium zawierał 3 miliony tran­zy­sto­rów o wiel­ko­ści 0,8 mikro­me­tra (0,0008 mili­me­tra). We współ­cze­snych urzą­dze­niach obecne są tran­zy­story 14 lub 10 nano­me­trowe (0,00001 mili­me­tra), a gdzie­nie­gdzie pojawia się już tech­no­lo­gia 7 nm (jest w tym co prawda trochę mar­ke­tingu, bo w realnie urzą­dze­nie jest ciut większe, ale to nadal kwestia nano­me­trów). Żebyś miał jasność w jakiej skali ope­ru­jemy: to zaledwie kilka grubości helisy DNA i dziesięć tysięcy razy mniej niż długość ludz­kiego plemnika!

Wielkość tranzystora

Co będzie dalej? IBM już przed­sta­wił procesor w stan­dar­dzie 5 nm i prze­ko­nuje, że można ten wynik jeszcze poprawić schodząc do 3 i 2,1 nm. Mniej więcej w tym miejscu, współ­cze­sna elek­tro­nika trafi na prze­szkodę czysto fizyczną. Operując w skali de facto poje­dyn­czych molekuł, szyki inży­nie­rom zaczną mieszać prawidła mecha­niki kwan­to­wej. Pamiętaj, że podstawą funk­cjo­no­wa­nia naszych urządzeń jest przepływ prądu i zjawisko pół­prze­wod­nic­twa. Korzy­sta­jąc z tego dobro­dziej­stwa, elementy elek­tro­niczne mogą zależnie od warunków i naszych potrzeb, prze­wo­dzić prąd lub stawić mu opór. Ale jak zachować pełną precyzję w prze­twa­rza­niu zer i jedynek, kiedy wszyst­kie tran­zy­story są tuż obok siebie? Jak to osiągnąć, gdy bariery powstrzy­mu­jące ładunki elek­tryczne mają grubość dosłow­nie paru atomów?

Główną zmorą kon­wen­cjo­nal­nych mikro­chi­pów jest zjawisko zwane tune­lo­wa­niem kwan­to­wym. (W tym miejscu muszę się pokajać, ponieważ jakimś cudem na łamach Kwantowo nie pojawił się dotąd żaden obszer­niej­szy artykuł na ten temat. Rzecz do nad­ro­bie­nia). Podobnie jak w przy­padku innych dziwactw mikro­świata, tak i tu o wszyst­kim decyduje nie­zno­śna losowość i praw­do­po­do­bień­stwo. Wyobraź sobie, że jedziesz na desko­rolce i masz przed sobą do poko­na­nia pagórek. Odpy­cha­jąc się nogą dostar­czasz sobie energii i możesz wtoczyć się na szczyt. Jednak jeśli energii będzie zbyt mało – tj. nie ode­pchniesz się dość mocno – zatrzy­masz się i zsuniesz z powrotem w dół. Tak to działa w świecie fizyki kla­sycz­nej. Mecha­nika kwantowa pozwo­li­łaby na coś zupełnie nie­in­tu­icyj­nego: zaist­nia­łaby pewna szansa na to, że znik­niemy i pojawimy się z drugiej strony prze­szkody. Jak mogłeś słyszeć, losem cząstek ele­men­tar­nych rządzi Heisen­berg i jego zasada, wedle której nie da się z całą pew­no­ścią określić poło­że­nia i pędu cząstki. Istnieje również nie­ze­rowe praw­do­po­do­bień­stwo, że opi­sy­wana przez funkcję falową cząstka o nie­okre­ślo­nej energii i loka­li­za­cji, zigno­ruje nie­wielką prze­szkodę i przebije się na drugą stronę.

Tunelowanie kwantowe

Efekt jest taki, że lada chwila skon­stru­ujemy układy na tyle drobne, że ładunki elek­tryczne zaczną igno­ro­wać cie­niut­kie bariery, prze­ska­ku­jąc tam gdzie nie powinny. Z pewnym praw­do­po­do­bień­stwem zamiast zera, może wysko­czyć jedynka – a na to nie możemy sobie pozwolić.

Zapewne obiło Ci się o uszy prawo Moore’a. Zgodnie z nim, liczba tran­zy­sto­rów w mikro­pro­ce­so­rach i co za tym idzie moc obli­cze­niowa kom­pu­te­rów, powinna się podwajać mniej więcej co dwa lata. Trzeba przyznać, że pro­roc­two prezesa Intela okazało się zdu­mie­wa­jąco poprawne. Goordon Moore miał jednak rację nie tylko co do opty­mi­stycz­nej wizji bujnego rozkwitu elek­tro­niki, ale również trafnie prze­wi­dział moment jego zała­ma­nia. Jako cezurę lat tłustych dla branży obstawił rok 2020. Rze­czy­wi­ście, dynamika minia­tu­ry­za­cji już znacznie osłabła, zaś inży­nie­ro­wie znajdują się o kilka kroków od wyci­śnię­cia z kon­wen­cjo­nal­nych roz­wią­zań maksimum efek­tyw­no­ści. Oczy­wi­ście nie oznacza to zupeł­nego wyha­mo­wa­nia postępu. Jeszcze przez wiele lat będziemy świad­kami gim­na­styki z udziałem nowych mate­ria­łów, kształ­tów i struktur (patrz: tran­zy­story FinFET), jak również prób wyko­rzy­sta­nia nie­zno­śnego tune­lo­wa­nia na naszą korzyść (tran­zy­story TFET). Nie zmienia to jednak faktu, że poten­cjał kla­sycz­nych kom­pu­te­rów posiada wyraźne ogra­ni­cze­nia, a ich dalsza ewolucja nie będzie już tak gwał­towna jak kiedyś.

Autor
Adam Adamczyk

Adam Adamczyk

Naukowy totalitarysta. Jeśli nie chcesz aby wpadli do Ciebie naukowi bojówkarze, zostaw komentarz.