MASZYNY LICZĄCE – jak dalekich przodków miały komputery?
Jeśli należysz do tych osób, które mówią, że matma jest głupia, to weź wyrzuć w cholerę przez okno komputer, smartfona i tablet bo, idąc Twoim tokiem myślenia, one też głupie. Gdyby nie matematyka, nigdy nie korzystalibyśmy z tego typu urządzeń. Zobacz dlaczego…
Jeśli wolisz oglądać, to zapraszam Cię do obejrzenia poniższego materiału, jeśli zaś wolisz czytać – tekst znajdziesz pod filmem.
Zastanawiałeś się kiedykolwiek czemu zawdzięczasz, to że w tym momencie możesz korzystać z YouTuba i oglądać ten i inne filmiki? No nie jest to zbyt skomplikowane pytanie i nie ma się tu za bardzo nad czym głowić – najogólniej rzecz biorąc zawdzięczasz to przecież rozwojowi internetu.
A skąd się wziął internet? No z połączenia komputerów w sieć – najpierw kilku a potem kilku milionów/miliardów komputerów.
No dobra, a po co wynaleziono komputer? No jak to po co! A np. żeby pisać w Wordzie, grać w gry czy śmigać po internecie.
No właśnie nie!
Może Cię rozczaruję, ale komputer wynaleziono z bardziej banalnego i do tego matematycznego powodu – po prostu, żeby łatwiej i szybciej liczyć (dlatego, do nie tak dawna, komputer nazywano maszyną matematyczną).
Jeśli więc należysz do tych osób, które mówią, że matma jest głupia, to weź wyrzuć w cholerę przez okno komputer, smartfona i tablet bo, idąc Twoim tokiem myślenia, one też głupie. Gdyby nie matematyka, nigdy nie korzystalibyśmy z tego typu urządzeń.
Jeśli to zrozumiemy i komputer potraktujemy w pierwszej kolejności jako maszynę liczącą, to okazuje się, że jego historia sięga czasów prehistorycznych. I myślę, że warto ją poznać.
Dlatego dziś opowiem Ci historię ewolucji urządzeń i maszyn matematycznych wspomagających liczenie. Opowiem Ci o drzewie genealogicznym (czyli dziadkach, pradziadkach, prapradziadkach,…) dzisiejszych komputerów.
A jak się okaże, w opowieści tej pierwsze skrzypce będzie grała matematyka.
Człowiek z natury jest istotą leniwą, ale pomysłową, więc przeważnie, gdy jest coś do zrobienia szuka sposobów jak wykonać to prościej i szybciej, szczególnie gdy chodzi o jakieś powtarzające się czynności jak np. … liczenie.
Nie dziwi więc, że od tysiącleci wymyśla się i używa różne urządzenia wspomagające liczenie . Oczywiście ich poziom zaawansowania zależał zawsze od dwóch rzeczy: poziomu wiedzy matematycznej oraz technologii dostępnej w danym czasie.
I tak. W czasach prehistorycznych, gdy wiedza matematyczna była zerowa, a technologia… prawie zerowa, człowiek tworzył sobie maszyny liczące z kości zwierząt. Liczby dla ludzi z tamtej epoki były czystą abstrakcją – intuicyjnie rozróżniali tylko 1 i 2, a wszystkie większe wartości określali jako dużo. Ale pomimo tego udawało im się wykonywać prymitywne rachuby poprzez nacinanie kości zwierząt.
Jak? Załóżmy, że taki prehistoryczny człowiek miał w swoim dobytku np. 20 owiec. Jak je liczył skoro nie znał w ogóle cyfr? Ano siadał sobie przed swoją jaskinią z kawałkiem kości i krzemienia i gdy owca wchodziła do środka nacinał sobie kość – i tak do czasu, gdy do jaskini weszły wszystkie owce. Od tego momentu zawsze mógł sprawdzić, czy wszystkie owce wróciły z pastwiska, po prostu przesuwając palcem po kości i sprawdzając nacięcia.
Pierwszymi poważnymi urządzeniami zliczającymi były konstrukcje podobne do liczydeł. Już 3000 lat p.n.e. Sumerowie wykorzystywali do obliczeń gliniane tabliczki z rowkami, do których wkładano kamyki, nieco potem Chińczycy wymyślili suanpan a Egipcjanie, Grecy i Rzymianie korzystali z abacusa.
I to właśnie nazwa abakus chyba jest najbardziej kojarzona przez większość ludzi. Tak nawet nazywa się biuro podatkowe, z którego usług korzystam.
Abacus był początkowo deską pokryta piaskiem, na której przeciągnięte zostały równoległe rysy. W utworzonych w ten sposób polach umieszczano kamienie: w pierwszej kolumnie oznaczały one jedności, w drugiej dziesiątki, w trzeciej setki, w czwartej tysiące itd. Obliczenia były wykonywane przez wkładanie i przekładanie kamyków, umieszczonych w rowkach. Z biegiem czasu wygląd abakusów się zmieniał, jednak zasady posługiwania się nim były bardzo podobne. Na urządzeniach tych można było wykonywać 4 podstawowe działania arytmetyczne, czyli dodawanie, odejmowanie, mnożenie i dzielenie.
W późniejszym okresie abakusy przekształciły się w liczydła i wykorzystywane aż do 2 połowy XX wieku – sam uczyłem się posługiwania liczydłem. Dziś oczywiście bez trudu kupimy liczydło sklepie, ale bardziej traktuje się je jako zabawkę dla dzieci albo element ozdobny.
Kolejnym przełomowym wynalazkiem, który znacznie usprawnił proces liczenia, był suwak logarytmiczny – przyrząd rachunkowy działający na zasadzie dodawania logarytmów, wynaleziony na w pierwszej połowie XVII wieku przez Williama Oughtreda.
Składał się on z 2 listewek – na jednej umieszczona była skala równomierna a na drugiej skala logarytmiczna. Listewki te zamocowane były w obudowie tak, aby jedna mogła przesuwać się wzdłuż drugiej.
Suwak logarytmiczny pozwalał znacznie szybciej niż abakusy wykonywać 4 podstawowe działania arytmetyczne a ponadto dawał możliwość potęgowania i pierwiastkowania i to zarówno liczb całkowitych jak i ułamków. A wszystko to bez wykonywania jakichś skomplikowanych, dodatkowych obliczeń – wystarczyło wynik odczytać ze skali.
Ta maszyna licząca była w tamtym czasie przełomowym wynalazkiem porównywanym do wynalezienia komputera w XX wieku. Przyczyniła się bowiem do rozwoju wielu dziedzin nauki, gdzie trzeba było wykonywać obliczenia na dużych liczbach jak np. w astronomii.
Suwak logarytmiczny był z powodzeniem powszechnie używany przez inżynierów do końca lat 80-tych XX wieku.
INNE URZĄDZENIA
Mniej więcej w tym samym czasie co suwak logarytmiczny powstało inne urządzenie liczące. Właściwie była to pierwsza swego rodzaju maszyna licząca zwana Zegarem liczącym, wykorzystywała bowiem mechanizmy zegarowe – tryby, koła, których ruchy są od siebie wzajemnie uzależnione. Potrafiła dodawać, odejmować, mnożyć i dzielić.
Stworzył ją na zamówienie znanego astronoma i matematyka Jana Keplera inny niemiecki matematyk Wilhelm Schickard.
Chwilę później – w 1642 roku, 19-letni wówczas matematyk i fizyk, Błażej Pascal zbudował dwudziałaniową maszynę arytmetyczną zwaną Paskaliną – maszyna ta tylko dodawała i odejmowała. Miała ona ułatwić obliczanie podatków jego ojcu, który był królewskim poborcą podatkowym.
30 lat później inny matematyk Gottfried Wilhelm Leibniz, idąc śladami Pascala, zbudował arytmometr, za pomocą którego można było już wykonywać już cztery działania matematyczne.
Ale przełom w rozwoju maszyn liczących nastąpił w 1801 roku, kiedy zaprezentowany został wynalazek tkacza francuskiego Josepha-Marie Jacquarda, polegający na sterowaniu krosnem tkackim przy użyciu kart dziurkowanych (tzw. perforowanych) z zakodowanym wzorem, który miał być tkany. W późniejszych latach takie perforowane karty Jacquarda zostały zastosowane m.in. do zapisywania muzyki odgrywanej za ich pomocą przez automatyczne pianina. Ale znacznie ważniejsze jest to, że przez wiele dziesięcioleci stały się one uniwersalnym nośnikiem informacji np. danych do obliczeń, programów czy wyników.
Ten sam sposób sterowania maszyną wykorzystał przy tworzeniu tzw. maszyny różnicowej angielski matematyk Charles Babbage, obecnie uważamy za najwybitniejszego twórcę maszyn liczących, żyjącego w epoce przedkomputerowej. Maszyna różnicowa skonstruowana przez niego była czymś w rodzaju „kalkulatora”, który wykorzystywał pewne fakty z matematyki. Niestety Babbage nie zrealizował tego projektu do końca i prace nad nim porzucił na rzecz konstruowania maszyny analitycznej.
Ciekawostką jednak jest, że maszynę różnicową skonstruowano (na podstawie planów Babbage’a i przy użyciu XIX wiecznych środków) dopiero w latach 1989-91. I co? I maszyna różnicowa działała w pełni sprawnie wykonując obliczenia do 31 cyfr.
Maszyna analityczna, nad którą później pracował Babbage, okazała się rewolucją. Miała być ona wyposażona w arytmometr (sterowany za pomocą kart perforowanych), w pamięć o pojemności do tysiąca liczb i w urządzenie do wczytywania kart perforowanych a napędzana miała być silnikiem parowym – ot np. takim jakie stosowano w ówczesnych lokomotywach. Być może złożoność konstrukcji i sama technologia realizacji sprawiły, że matematyk również tej maszyny nie ukończył, ale jej koncepcja i konstrukcja posłużyła późniejszym twórcom do opracowania dzisiejszych komputerów.
W 1887 roku Herman Hollerith zbudował w Baltimore maszynę liczącą, której zadaniem było znormalizowanie danych o umieralności ludności USA. Maszyna działała przy użyciu kart perforowanych i automatycznie odczytywała, porządkowała i grupowała dane na podstawie określonych kryteriów.
Mówi się, że urządzenie to pozwoliło 8-krotnie przyspieszyć prace obliczeniowe związane ze spisem powszechnym w roku 1890.
Nie dziwi więc fakt, że na fali sukcesu i sławy w 1896 Hollerith założył przedsiębiorstwo Tabulating Machine Company, które niespełna 20lat później przekształciło się w International Business Machine, czyli dzisiejsze IBM.
WIEK XX I CZASY WSPÓŁCZESNE
Kolejny ważny okres w rozwoju automatycznych maszyn cyfrowych przypada na czas II wojny światowej, kiedy to kierunek ich rozwoju zmienił się z typowo naukowego na militarny. Postęp techniki wojskowej wiązał się bowiem z zapotrzebowaniem na szybko liczące maszyny cyfrowe.
Jeszcze przed wojną, w 1936 roku Konrad Zuse, stworzył (oczywiście w Niemczech) maszynę liczącą Z1. W kolejnych latach powstały jej udoskonalone wersje – Z2 i Z3 oraz Z4. Maszyny te, przeznaczone oczywiście dla potrzeb militarnych, pozbawione były części mechanicznych a wykorzystywały przekaźniki elektromagnetyczne. Wykonywały one obliczenia w systemie dwójkowym , a sterowane były programem zapisanym na taśmie perforowanej.
Ciekawostką jest to, że wojnę przetrwał jedyny egzemplarz maszyny w wersji Z4, ukryty w Alpach Bawarskich, który po wojnie zakupił jeden z banków w Zurychu. Na potrzeby banku maszyna działała bezbłędnie przez kilka powojennych lat, będąc w tym czasie jedynym komputerem w Europie.
Warto wspomnieć, że również podczas II wojny światowej, przy okazji rozpracowywania szyfru Enigmy (czyli niemieckiej maszyny szyfrującej), skonstruowano na teoretycznych podstawach prac wybitnego matematyka Alana Turinga, urządzenie elektroniczne pod nazwą Colossus oraz jego późniejsze wersje. Urządzenie to zasadą działania przypominało dzisiejsze komputery – było pierwszą maszyną elektroniczną w pełni programowalną. Projektem Colossus kierowali Max Newman i Tommy Flowers (uznawany za konstruktora), a uczestniczył w nim również sam Alan Turning.
Troszkę więcej o tym wątku wspominałem w materiale o kryptologii.
Pod koniec wojny w latach 1943-45 w USA powstał ENIAC (po polsku Elektroniczny, Numeryczny Integrator i Komputer) – i choć zdania są podzielone, urządzenie to uznaje się powszechnie z pierwszy komputer. Jest to pierwsza maszyna, w której użyto wyłącznie elementy elektroniczne – lampy elektronowe. A było ich blisko 18 000. ENIAC ważył ponad 27 ton i zajmował powierzchnię ok. 140 metrów kwadratowych. Nie miał żadnej pamięci operacyjnej i początkowo programowany był przez przełączanie wtyków kablowych, natomiast później za pomocą kart perforowanych. Do pracy nad ENIAC-iem a potem nad jego innymi, lepszymi wersjami, wcielono cały sztab matematyków i fizyków. Szczególną rolę odegrały przy tym prace amerykańskiego matematyka pochodzenia węgierskiego Johanna von Neumanna. Jako pierwszy wprowadził on podział komputera na trzy podstawowe części: pamięć operacyjną, procesor , urządzenia wejścia/wyjścia.
Ciekawostką jest fakt, że Neumann przed II wojną światową przebywał w Polsce, gdzie zapoznawał się z osiągnięciami znanej na całym świecie polskiej szkoły matematycznej. Próbował nawet bez powodzenia namówić wybitnego polskiego matematyka Stefana Banacha do wyjazdu do Stanów Zjednoczonych i podjęcia tam pracy naukowej.
Bardzo ważnym etapem w rozwoju komputerów było wynalezienie tranzystora, a potem układów scalonych. Spowodowało to zdecydowane polepszenie się wielu parametrów komputera – przede wszystkim zmniejszenie jego wagi i wymiarów, zwiększenie pamięci oraz dużo szybsze wykonywanie operacji.
Ale to dopiero wynalezienie mikroprocesora w 1971 roku dało nadzieję na to, że komputer za jakiś czas będzie mógł być dostępny w każdym domu.
I rzeczywiście już 4 lata później powstał pierwszy komputer osobisty o nazwie Altair. Miał on zaledwie 8-bitowy procesor i 256 bajtów pamięci. Nie posiadał ani żadnego napędu, ani klawiatury, ani nawet monitora. Ciekawostką jest, że język BASIC dla tego komputera napisał Bill Gates.
Altair zyskał ogromną popularność i był prekursorem całej serii komputerów ośmiobitowych.
W 1976 roku powstał prekursor tak popularnych dziś jabłuszek a mianowicie komputer domowy Apple I. Zaprojektowany przez jednego z założycieli firmy Apple – Steve’a Wozniaka.
Jednak absolutnym przełomem w historii komputerów, było powstanie w 1980 roku komputera IBM PC (ang. Personal Computer), czyli popularnie mówiąc dzisiejszego peceta.
Wszelkie późniejsze wydarzenia, związane z rozwojem komputeryzacji, potoczyły się już lawinowo a w konsekwencji dziś, zwykłemu zjadaczowi chleba takiemu jak ja, ciężko jest już nadążyć za rozwojem technologicznym urządzeń komputerowych i wszelkimi nowinkami z tym związanymi.
Jedno jest pewne! Gdyby nie matematyka i matematycy, na pewno nie bylibyśmy technologicznie w tym miejscu, w którym dziś jesteśmy i nie cieszylibyśmy się na co dzień tyloma zdobyczami techniki.
I co nadal twierdzisz, że matematyka jest głupia?
Jarosław Bigos
Podobał Ci się ten materiał?Jeśli tak, to zarejestruj się aby otrzymywać powiadomienia o nowych artykułach i innych materiałach na moim blogu. Nie martw się, nie rozsyłam spamu i na pewno nikomu nie ujawnię Twojego adresu! |