DZWON

Są tacy, którzy czytają tę wiadomość przed tobą.
Subskrybuj, aby otrzymywać najnowsze artykuły.
E-mail
Nazwa
Nazwisko
Jak chciałbyś przeczytać The Bell?
Bez spamu

Gdy tylko ktoś odkrył pojęcie „ilości”, od razu zaczął wybierać narzędzia, które optymalizują i ułatwiają liczenie. Dziś superpotężne komputery, oparte na zasadach obliczeń matematycznych, przetwarzają, przechowują i przesyłają informacje - niezbędny zasób i motorem postępu ludzkości. Nietrudno zorientować się, jak przebiegał rozwój technologii komputerowej, analizując pokrótce główne etapy tego procesu.

Główne etapy rozwoju technologii komputerowej

Najpopularniejsza klasyfikacja proponuje wyodrębnienie głównych etapów rozwoju technologii komputerowej w porządku chronologicznym:

  • Etap ręczny. Zaczęło się u zarania epoki ludzkiej i trwało do połowy XVII wieku. W tym okresie powstały fundamenty konta. Później, wraz z tworzeniem pozycyjnych systemów liczbowych, pojawiły się urządzenia (liczba, liczydło, później - suwak logarytmiczny), które umożliwiły obliczanie za pomocą cyfr.
  • etap mechaniczny. Rozpoczęła się ona w połowie XVII wieku i trwała prawie do końca XIX wieku. Poziom rozwoju nauki w tym okresie umożliwił stworzenie urządzeń mechanicznych, które wykonują podstawowe operacje arytmetyczne i automatycznie zapamiętują najwyższe cyfry.
  • Etap elektromechaniczny jest najkrótszym ze wszystkich, jakie łączy historia rozwoju technologii komputerowej. Trwało to tylko około 60 lat. Taka jest luka między wynalezieniem pierwszego tabulatora w 1887 r. a 1946 r., kiedy pojawił się pierwszy komputer (ENIAC). Nowe maszyny, oparte na napędzie elektrycznym i przekaźniku elektrycznym, umożliwiły wykonywanie obliczeń ze znacznie większą szybkością i dokładnością, ale cały proces liczenia musiał być kontrolowany przez człowieka.
  • Etap elektroniczny rozpoczął się w drugiej połowie ubiegłego wieku i trwa do dziś. To historia sześciu generacji komputerów elektronicznych - od pierwszych gigantycznych jednostek opartych na lampach próżniowych, po superpotężne nowoczesne superkomputery z ogromną liczbą procesorów równoległych, zdolnych do jednoczesnego wykonywania wielu instrukcji.

Etapy rozwoju technologii komputerowej są podzielone zgodnie z zasadą chronologiczną raczej warunkowo. W czasach, gdy używano niektórych typów komputerów, aktywnie tworzono warunki wstępne do pojawienia się następujących.

Pierwsze urządzenia liczące

Najwcześniejsze narzędzie do liczenia, jakie zna historia rozwoju technologii komputerowej, to dziesięć palców na dłoni człowieka. Wyniki liczenia początkowo rejestrowano za pomocą palców, nacięć na drewnie i kamieniu, specjalnych patyczków i sęków.

Wraz z pojawieniem się pisma pojawiły się i rozwinęły różne sposoby zapisywania liczb, wynaleziono pozycyjne systemy liczbowe (dziesiętne - w Indiach, sześćdziesiętne - w Babilonie).

Około IV wieku pne starożytni Grecy zaczęli liczyć za pomocą liczydła. Początkowo była to płaska gliniana tabliczka z napisami. ostry obiekt paski. Liczenie prowadzono umieszczając na tych paskach w określonej kolejności małe kamienie lub inne drobne przedmioty.

W Chinach w IV wieku n.e. pojawiło się siedmiopunktowe liczydło - suanpan (suanpan). Druty lub liny były naciągnięte na prostokątną drewnianą ramę - od dziewięciu lub więcej. Kolejny drut (lina), rozciągnięty prostopadle do pozostałych, dzielił suanpan na dwie nierówne części. W większym przedziale, zwanym "ziemią", na drutach nawleczono pięć kości, w mniejszym - "niebie" - były dwie. Każdy z przewodów odpowiadał miejscu dziesiętnemu.

Tradycyjne liczydło soroban stało się popularne w Japonii od XVI wieku, ponieważ przybyło tam z Chin. W tym samym czasie w Rosji pojawił się liczydło.

W XVII wieku, na podstawie logarytmów odkrytych przez szkockiego matematyka Johna Napiera, Anglik Edmond Gunter wynalazł suwak logarytmiczny. To urządzenie było stale ulepszane i przetrwało do dziś. Pozwala mnożyć i dzielić liczby, podnosić do potęgi, wyznaczać logarytmy i funkcje trygonometryczne.

Suwak stał się urządzeniem, które uzupełnia rozwój technologii komputerowej na etapie ręcznym (przedmechanicznym).

Pierwsze kalkulatory mechaniczne

W 1623 r. niemiecki naukowiec Wilhelm Schickard stworzył pierwszy mechaniczny „kalkulator”, który nazwał zegarem liczącym. Mechanizm tego urządzenia przypominał zwykły zegarek, składający się z kół zębatych i gwiazd. Jednak wynalazek ten stał się znany dopiero w połowie ubiegłego wieku.

Skokiem jakościowym w dziedzinie techniki komputerowej było wynalezienie w 1642 r. maszyny sumującej Pascaline. Jego twórca, francuski matematyk Blaise Pascal, rozpoczął pracę nad tym urządzeniem, gdy nie miał nawet 20 lat. „Pascalina” była urządzeniem mechanicznym w postaci pudełka z dużą liczbą połączonych ze sobą kół zębatych. Liczby, które należało dodać, były wprowadzane do maszyny za pomocą specjalnych kółek.

W 1673 r. saksoński matematyk i filozof Gottfried von Leibniz wynalazł maszynę, która wykonywała cztery podstawowe operacje matematyczne i była w stanie wydobyć pierwiastek kwadratowy. Zasada jego działania opierała się na systemie liczb binarnych, specjalnie wymyślonym przez naukowca.

W 1818 roku Francuz Charles (Carl) Xavier Thomas de Colmar, opierając się na pomysłach Leibniza, wynalazł maszynę sumującą, która potrafi mnożyć i dzielić. A dwa lata później Anglik Charles Babbage zabrał się za zaprojektowanie maszyny, która byłaby w stanie wykonywać obliczenia z dokładnością do 20 miejsc po przecinku. Projekt ten pozostał niedokończony, ale w 1830 roku jego autor opracował kolejny - silnik analityczny do wykonywania dokładnych obliczeń naukowo-technicznych. Miał on sterować maszyną programowo, a do wprowadzania i wyprowadzania informacji miały służyć karty dziurkowane z różnymi układami otworów. Projekt Babbage'a przewidywał rozwój technologii obliczeń elektronicznych i zadania, które można z jego pomocą rozwiązać.

Warto zauważyć, że sława pierwszego na świecie programisty należy do kobiety – Lady Ady Lovelace (z domu Byron). To ona stworzyła pierwsze programy na komputer Babbage'a. Jeden z języków komputerowych został później nazwany jej imieniem.

Opracowanie pierwszych analogów komputera

W 1887 roku ukazała się historia rozwoju techniki komputerowej Nowa scena. Amerykańskiemu inżynierowi Hermanowi Gollerithowi (Hollerith) udało się zaprojektować pierwszy komputer elektromechaniczny - tabulator. W jego mechanizmie znajdował się przekaźnik, a także liczniki i specjalna skrzynka sortownicza. Urządzenie odczytywało i sortowało zapisy statystyczne wykonane na kartach dziurkowanych. W przyszłości firma założona przez Golleritha stała się kręgosłupem światowej sławy giganta komputerowego IBM.

W 1930 roku amerykański Vannovar Bush stworzył analizator różnicowy. Zasilany był energią elektryczną, a do przechowywania danych używano lamp elektronicznych. Ta maszyna była w stanie szybko znaleźć rozwiązania złożonych problemów matematycznych.

Sześć lat później angielski naukowiec Alan Turing opracował koncepcję maszyny, która stała się teoretyczną podstawą dzisiejszych komputerów. Miała wszystkie niezbędne rzeczy. nowoczesne środki technologia komputerowa: potrafi krok po kroku wykonywać operacje zaprogramowane w pamięci wewnętrznej.

Rok później George Stibitz, naukowiec ze Stanów Zjednoczonych, wynalazł pierwszy w kraju elektryczny urządzenie mechaniczne, zdolny do wykonywania dodawania binarnego. Jego działania opierały się na algebrze Boole'a - logice matematycznej stworzonej w połowie XIX wieku przez George'a Boole'a: przy użyciu operatorów logicznych AND, OR i NOT. Później sumator binarny stałby się integralną częścią komputera cyfrowego.

W 1938 roku Claude Shannon, pracownik University of Massachusetts, nakreślił zasady logicznej struktury komputera, który wykorzystuje obwody elektryczne do rozwiązywania problemów algebry Boole'a.

Początek ery komputerowej

Rządy krajów uczestniczących w II wojnie światowej były świadome strategicznej roli komputerów w prowadzeniu działań wojennych. Był to impuls do rozwoju i równoległego pojawienia się pierwszej generacji komputerów w tych krajach.

Konrad Zuse, niemiecki inżynier, stał się pionierem w dziedzinie inżynierii komputerowej. W 1941 roku stworzył pierwszy automatyczny komputer sterowany programem. Maszyna, nazwana Z3, została zbudowana wokół przekaźników telefonicznych, a programy do niej zakodowane były na perforowanej taśmie. Urządzenie to było w stanie pracować w systemie binarnym, a także operować na liczbach zmiennoprzecinkowych.

Zuse Z4 został oficjalnie uznany za pierwszy naprawdę działający programowalny komputer. Do historii przeszedł także jako twórca pierwszego języka programowania wysokiego poziomu, zwanego Plankalkul.

W 1942 roku amerykańscy badacze John Atanasoff (Atanasoff) i Clifford Berry stworzyli urządzenie komputerowe, które pracowało na lampach próżniowych. Maszyna wykorzystywała również kod binarny, mogła wykonywać szereg operacji logicznych.

W 1943 roku, w atmosferze tajemnicy, w brytyjskim laboratorium rządowym zbudowano pierwszy komputer o nazwie „Colossus”. Zamiast przekaźników elektromechanicznych wykorzystano 2000 lamp elektronowych do przechowywania i przetwarzania informacji. Miał on na celu złamanie i odszyfrowanie kodu tajnych wiadomości przesyłanych przez niemiecką maszynę szyfrującą Enigma, powszechnie używaną przez Wehrmacht. Istnienie tego aparatu przez długi czas było utrzymywane w ścisłej tajemnicy. Po zakończeniu wojny rozkaz zniszczenia został osobiście podpisany przez Winstona Churchilla.

Rozwój architektury

W 1945 roku John (Janos Lajos) von Neumann, amerykański matematyk pochodzenia węgiersko-niemieckiego, stworzył prototyp architektury współczesnych komputerów. Zaproponował zapisanie programu w postaci kodu bezpośrednio do pamięci maszyny, co oznacza wspólne przechowywanie programów i danych w pamięci komputera.

Architektura von Neumanna stała się podstawą pierwszego uniwersalnego komputera elektronicznego ENIAC, powstającego w tym czasie w Stanach Zjednoczonych. Ten gigant ważył około 30 ton i zajmował powierzchnię 170 metrów kwadratowych. W eksploatację maszyny zaangażowanych było 18 tys. lamp. Ten komputer mógł wykonać 300 mnożeń lub 5000 dodawania w ciągu jednej sekundy.

Pierwszy uniwersalny komputer programowalny w Europie powstał w 1950 roku w Związku Radzieckim (Ukraina). Grupa kijowskich naukowców, kierowana przez Siergieja Aleksiejewicza Lebiediewa, zaprojektowała małą elektroniczną maszynę liczącą (MESM). Jego prędkość wynosiła 50 operacji na sekundę, zawierała około 6 tysięcy lamp próżniowych.

W 1952 r. Krajową technologię komputerową uzupełniono o BESM - dużą elektroniczną maszynę liczącą, również opracowaną pod kierownictwem Lebiediewa. Ten komputer, który wykonywał do 10 tys. operacji na sekundę, był wówczas najszybszy w Europie. Informacje zostały wprowadzone do pamięci urządzenia za pomocą dziurkowanej taśmy, dane zostały wydrukowane poprzez wydruk zdjęć.

W tym samym okresie seria dużych komputerów została wyprodukowana w ZSRR pod Nazwa zwyczajowa„Strzałka” (autor opracowania - Jurij Jakowlewicz Bazilewski). Od 1954 roku w Penzie rozpoczęto seryjną produkcję uniwersalnego komputera „Ural” pod kierownictwem Bashira Rameeva. Najnowsze modele były kompatybilne sprzętowo i programowo, był szeroki wybór peryferiów, pozwalających na montaż maszyn o różnych konfiguracjach.

Tranzystory. Premiera pierwszych komputerów masowo produkowanych

Jednak lampy bardzo szybko uległy awarii, co bardzo utrudniało pracę z maszyną. Tranzystor, wynaleziony w 1947 roku, rozwiązał ten problem. Wykorzystując właściwości elektryczne półprzewodników, wykonywała te same zadania co lampy próżniowe, ale zajmowała znacznie mniejszą objętość i nie zużywała tyle energii. Wraz z pojawieniem się rdzeni ferrytowych do organizowania pamięci komputera, zastosowanie tranzystorów umożliwiło znaczne zmniejszenie rozmiarów maszyn, czyniąc je jeszcze bardziej niezawodnymi i szybszymi.

W 1954 roku amerykańska firma Texas Instruments rozpoczęła masową produkcję tranzystorów, a dwa lata później w Massachusetts pojawił się pierwszy komputer drugiej generacji zbudowany na tranzystorach, TX-O.

W połowie ubiegłego wieku znaczna część organizacji państwowych i duże firmy używane komputery do obliczeń naukowych, finansowych, inżynierskich, praca z dużymi tablicami danych. Stopniowo komputery uzyskiwały znane nam dzisiaj funkcje. W tym okresie pojawiły się plotery wykresowe, drukarki, nośniki informacji na dyskach magnetycznych i taśmie.

Aktywne wykorzystanie technologii komputerowej doprowadziło do rozszerzenia jej obszarów zastosowań i wymagało stworzenia nowych technologii oprogramowania. Pojawiły się języki programowania wysokiego poziomu, które umożliwiają przenoszenie programów z jednej maszyny na drugą i upraszczają proces pisania kodu (Fortran, Cobol i inne). Pojawiły się specjalne programy-tłumaczy, które konwertują kod z tych języków na polecenia, które są bezpośrednio odbierane przez maszynę.

Pojawienie się układów scalonych

W latach 1958-1960, dzięki inżynierom ze Stanów Zjednoczonych, Robertowi Noyce i Jackowi Kilby, świat dowiedział się o istnieniu układów scalonych. W oparciu o kryształ krzemowy lub germanowy montowano miniaturowe tranzystory i inne elementy, czasami nawet setki, a nawet tysiące. Mikroukłady o wielkości nieco ponad centymetra były znacznie szybsze niż tranzystory i zużywały znacznie mniej energii. Wraz z ich pojawieniem się historia rozwoju technologii komputerowej łączy pojawienie się trzeciej generacji komputerów.

W 1964 roku IBM wypuścił pierwszy komputer z rodziny SYSTEM 360, który był oparty na układach scalonych. Od tego czasu można policzyć masową produkcję komputerów. W sumie wyprodukowano ponad 20 tysięcy egzemplarzy tego komputera.

W 1972 r. w ZSRR opracowano komputer ES (single series). Były to standaryzowane kompleksy do pracy centra komputerowe, który miał wspólny system dowodzenia. Na podstawie amerykańskiego System IBM 360.

W następnym roku DEC wypuścił minikomputer PDP-8, pierwszy komercyjny projekt w tej dziedzinie. Stosunkowo niski koszt minikomputerów umożliwił korzystanie z nich również małym organizacjom.

W tym samym okresie oprogramowanie było stale ulepszane. Opracowano systemy operacyjne do obsługi maksymalnej liczby urządzeń zewnętrznych, pojawiły się nowe programy. W 1964 powstał BASIC - język zaprojektowany specjalnie do szkolenia początkujących programistów. Pięć lat później pojawił się Pascal, który okazał się bardzo wygodny w rozwiązywaniu wielu problemów aplikacyjnych.

Komputery osobiste

Po 1970 roku rozpoczęto wypuszczanie czwartej generacji komputerów. Rozwój technologii komputerowej w tym czasie charakteryzuje się wprowadzeniem do produkcji komputerów dużych układów scalonych. Takie maszyny mogą teraz wykonywać tysiące milionów operacji obliczeniowych w ciągu jednej sekundy, a pojemność ich pamięci RAM wzrosła do 500 milionów bitów. Znaczące obniżenie kosztów mikrokomputerów doprowadziło do tego, że możliwość ich zakupu stopniowo pojawiała się u przeciętnego człowieka.

Apple był jednym z pierwszych producentów komputerów osobistych. Steve Jobs i Steve Wozniak, którzy go stworzyli, zaprojektowali pierwszy komputer w 1976 roku, nadając mu nazwę Apple I. Kosztował tylko 500 dolarów. Rok później wprowadzono kolejny model tej firmy, Apple II.

Komputer tamtych czasów po raz pierwszy upodobnił się do urządzenia gospodarstwa domowego: oprócz kompaktowych rozmiarów miał elegancki wygląd i przyjazny interfejs użytkownika. Rozpowszechnienie komputerów osobistych pod koniec lat 70. doprowadziło do znacznego spadku popytu na komputery typu mainframe. Fakt ten poważnie zaniepokoił ich producenta, firmę IBM, która w 1979 roku wprowadziła na rynek swój pierwszy komputer PC.

Dwa lata później pojawił się pierwszy mikrokomputer firmy o otwartej architekturze, oparty na 16-bitowym mikroprocesorze 8088 firmy Intel. Komputer został wyposażony w monochromatyczny wyświetlacz, dwa napędy na pięciocalowe dyskietki i 64 kilobajty pamięci RAM. W imieniu twórcy firmy Microsoft specjalnie opracował system operacyjny dla tego komputera. Na rynek trafiły liczne klony IBM PC, stymulując wzrost produkcja przemysłowa komputery osobiste.

W 1984 roku firma Apple opracowała i wypuściła nowy komputer - Macintosh. Jego system operacyjny był wyjątkowo przyjazny dla użytkownika: przedstawiał polecenia w postaci obrazów graficznych i umożliwiał wprowadzanie ich za pomocą myszy. Dzięki temu komputer stał się jeszcze bardziej dostępny, ponieważ od użytkownika nie były wymagane żadne specjalne umiejętności.

Komputery piątej generacji techniki komputerowej, niektóre źródła pochodzą z lat 1992-2013. W skrócie ich główna koncepcja jest sformułowana w następujący sposób: są to komputery stworzone w oparciu o superkompleksowe mikroprocesory, posiadające strukturę wektorów równoległych, co umożliwia jednoczesne wykonywanie dziesiątek poleceń sekwencyjnych osadzonych w programie. Maszyny z kilkuset procesorami pracującymi równolegle pozwalają na jeszcze dokładniejsze i szybsze przetwarzanie danych, a także tworzenie wydajnych sieci.

Rozwój nowoczesnej technologii komputerowej pozwala już mówić o komputerach szóstej generacji. Są to komputery elektroniczne i optoelektroniczne pracujące na dziesiątkach tysięcy mikroprocesorów, charakteryzujące się masywną równoległością i symulującą architekturę neuronowych systemów biologicznych, co pozwala z powodzeniem rozpoznawać złożone obrazy.

Po konsekwentnym rozważeniu wszystkich etapów rozwoju technologii komputerowej należy zauważyć interesujący fakt: wynalazki, które sprawdziły się na każdym z nich, przetrwały do ​​dziś i nadal są z powodzeniem wykorzystywane.

Zajęcia komputerowe

Istnieją różne opcje klasyfikacji komputerów.

Tak więc, zgodnie z przeznaczeniem, komputery są podzielone:

  • uniwersalne - te, które są w stanie rozwiązać różne problemy matematyczne, ekonomiczne, inżynierskie, naukowe i inne;
  • zorientowane problemowo - rozwiązywanie problemów o węższym kierunku, zwykle związanych z zarządzaniem określonymi procesami (rejestracja danych, gromadzenie i przetwarzanie niewielkich ilości informacji, obliczenia zgodnie z prostymi algorytmami). Mają bardziej ograniczone zasoby oprogramowania i sprzętu niż pierwsza grupa komputerów;
  • wyspecjalizowane komputery rozwiązują z reguły ściśle określone zadania. Mają wysoce wyspecjalizowaną konstrukcję i przy stosunkowo niewielkiej złożoności urządzenia i sterowania są dość niezawodne i wydajne w swojej dziedzinie. Są to np. kontrolery czy adaptery sterujące szeregiem urządzeń, a także programowalne mikroprocesory.

Według wielkości i mocy produkcyjnych nowoczesny elektroniczny sprzęt komputerowy dzieli się na:

  • do super-dużych (superkomputerów);
  • duże komputery;
  • małe komputery;
  • bardzo małe (mikrokomputery).

Widzieliśmy więc, że urządzenia, wynalezione najpierw przez człowieka do rozliczania zasobów i wartości, a następnie do szybkiego i dokładnego wykonywania skomplikowanych obliczeń i operacji obliczeniowych, są stale rozwijane i ulepszane.

Historia rozwoju technologii obliczeniowej


2. „Czas – wydarzenia – ludzie”


1. Etapy rozwoju technologii komputerowej

Aż do XVII wieku. działalność społeczeństwa jako całości i każdej osoby z osobna miała na celu opanowanie materii, tj. znajomość właściwości materii i wytwarzanie najpierw prymitywnych, a następnie coraz bardziej skomplikowanych narzędzi pracy, aż po mechanizmy i maszyny które umożliwiają produkcję wartości konsumenckie.

Następnie, w procesie formowania się społeczeństwa przemysłowego, na pierwszy plan wysunął się problem opanowania energii - najpierw termicznej, potem elektrycznej, a na końcu jądrowej. Opanowanie energii umożliwiło opanowanie masowej produkcji wartości konsumpcyjnych, a w efekcie podniesienie standardu życia ludzi i zmianę charakteru ich pracy.

Jednocześnie ludzkość charakteryzuje się potrzebą wyrażania i zapamiętywania informacji o otaczającym nas świecie – tak powstało pismo, druk, malarstwo, fotografia, radio i telewizja. W historii rozwoju cywilizacji można wyróżnić kilka rewolucji informacyjnych – przekształcenia relacji społecznych w wyniku fundamentalnych zmian w zakresie przetwarzania informacji, Technologie informacyjne. Konsekwencją takich przemian było nabycie przez ludzkie społeczeństwo nowej jakości.

Pod koniec XX wieku. ludzkość weszła w nowy etap rozwoju - etap budowy społeczeństwo informacyjne. Informacja stała się najważniejszym czynnikiem wzrostu gospodarczego, a poziom rozwoju działalności informacyjnej oraz stopień jej zaangażowania i wpływu na globalną infrastrukturę informacyjną stał się najważniejszym warunkiem konkurencyjności kraju w gospodarce światowej. Zrozumienie nieuchronności nadejścia tego społeczeństwa przyszło znacznie wcześniej. Już w latach 40. australijski ekonomista K. Clark mówił o podejściu epoki społeczeństwa informacji i usług, społeczeństwa nowych możliwości technologicznych i ekonomicznych. Amerykański ekonomista F. Machlup zasugerował nadejście gospodarki informacyjnej i przekształcenie informacji w najważniejszy towar pod koniec lat 50-tych. Pod koniec lat 60. D. Bell stwierdził przekształcenie społeczeństwa przemysłowego w społeczeństwo informacyjne. W krajach, które wcześniej były częścią ZSRR, procesy informatyzacji rozwijały się w nich powoli.

Informatyka zmienia cały system produkcja społeczna i interakcja kultur. Wraz z nadejściem społeczeństwa informacyjnego rozpoczyna się nowy etap nie tylko rewolucji naukowej i technologicznej, ale także społecznej. Zmienia się cały system komunikacji informacyjnej. Zniszczenie starych powiązań informacyjnych między sektorami gospodarki, dziedzinami działalności naukowej, regionami, krajami pogłębiło kryzys gospodarczy końca wieku w krajach, które nie poświęciły wystarczającej uwagi rozwojowi informatyzacji. Najważniejszym zadaniem społeczeństwa jest przywrócenie kanałów komunikacyjnych w nowych warunkach ekonomicznych i technologicznych, aby zapewnić wyraźną interakcję pomiędzy wszystkimi obszarami gospodarczymi, naukowymi i rozwój społeczny zarówno w poszczególnych krajach, jak iw skali globalnej.

Komputery we współczesnym społeczeństwie przejęły znaczną część pracy związanej z informacją. Według standardów historycznych technologie komputerowego przetwarzania informacji są jeszcze bardzo młode i znajdują się na samym początku swojego rozwoju. Dzisiejsza technologia komputerowa przekształca lub zastępuje starsze technologie przetwarzania informacji.


2. „Czas – wydarzenia – ludzie”

Rozważ historię rozwoju narzędzi i metod obliczeniowych „w osobach” i obiektach (tabela 1).

Tabela 1. Główne wydarzenia w historii rozwoju metod obliczeniowych, przyrządów, automatów i maszyn

John Napier

Szkot John Napier w 1614 roku opublikował Opis niesamowitych tablic logarytmicznych. Odkrył, że suma logarytmów liczb aib jest równa logarytmowi iloczynu tych liczb. Dlatego operacja mnożenia została zredukowana do prostej operacji dodawania. Opracował również narzędzie do mnożenia liczb – „Knuckles of Napier”. Składał się z zestawu odcinkowych prętów, które można było ułożyć w taki sposób, że sumując liczby w sąsiadujących ze sobą poziomo segmentach, uzyskiwały wynik ich mnożenia. Knuckles Napiera zostały wkrótce wyparte przez inne urządzenia komputerowe (głównie typ mechaniczny). Tabele Napiera, których obliczenia wymagały bardzo dużo czasu, zostały później „wbudowane” w wygodne urządzenie przyspieszające proces obliczania - suwak logarytmiczny (R. Bissacar, koniec 1620 r.)

Wilhelm Schickard

Uważano, że pierwsza mechaniczna maszyna licząca została wynaleziona przez wielkiego francuskiego matematyka i fizyka B. Pascala w 1642 roku. Jednak w 1957 roku F. Hammer (Niemcy, dyrektor Keplerowskiego Centrum Naukowego) odkrył dowody na stworzenie mechanicznego, licząca około dwie dekady przed wynalezieniem Pascala Wilhelma Schickarda. Nazwał to „zegarem liczącym”. Maszyna została zaprojektowana do wykonywania czterech operacji arytmetycznych i składała się z części: urządzenia sumującego; urządzenie mnożące; mechanizm wyników pośrednich. Urządzenie sumujące składało się z kół zębatych i stanowiło najprostszą formę sumowania maszyny. Zaproponowany schemat liczenia mechanicznego jest uważany za klasyczny. Jednak ten prosty i skuteczny schemat musiał zostać wymyślony na nowo, ponieważ informacje o samochodzie Schickarda nie stały się domeną publiczną.

Blaise Pascal

W 1642 roku, kiedy Pascal miał 19 lat, powstał pierwszy działający model maszyny sumującej. Kilka lat później Blaise Pascal stworzył mechaniczną maszynę dodawania („pascaline”), która umożliwiała dodawanie liczb w systemie liczb dziesiętnych. W tej maszynie cyfry liczby sześciocyfrowej ustawiano przez odpowiednie obroty tarcz (koła) z podziałkami cyfrowymi, wynik operacji można było odczytać w sześciu okienkach - po jednym na każdą cyfrę. Dysk jednostek był połączony z dyskiem dziesiątek, dysk dziesiątek z dyskiem setek i tak dalej. W ciągu zaledwie około dekady zbudował ponad 50 różnych wersji maszyny. Wynaleziona przez Pascala zasada połączonych kół była podstawą, na której przez następne trzy stulecia budowano większość urządzeń komputerowych.

Gottfried Wilhelm Leibniz

W 1672 roku w Paryżu Leibniz spotkał holenderskiego matematyka i astronoma Christiana Huygensa. Widząc, ile obliczeń musi wykonać astronom, Leibniz postanowił wynaleźć mechaniczne urządzenie do obliczeń. W 1673 ukończył tworzenie kalkulatora mechanicznego. Rozwijając idee Pascala, Leibniz użył operacji przesunięcia do bitowego mnożenia liczb. Dodanie przeprowadzono na nim w zasadzie w taki sam sposób, jak na „linii Pascala”, jednak Leibniz uwzględnił w projekcie część ruchomą (prototyp ruchomego wózka przyszłych kalkulatorów biurkowych) i uchwyt, za pomocą którego można było obracać koło schodkowe lub – w kolejnych wersjach maszyny – cylindry znajdujące się wewnątrz aparatu

Żakard Joseph Marie

Rozwój urządzeń obliczeniowych wiąże się z pojawieniem się kart perforowanych i ich zastosowaniem. Wygląd perforowanych kart kojarzy się z tkaniem. W 1804 roku inżynier Joseph-Marie Jacquard zbudował w pełni zautomatyzowaną maszynę (maszynę żakardową) zdolną do odtwarzania najbardziej złożonych wzorów. Działanie maszyny zaprogramowano za pomocą talii kart dziurkowanych, z których każda sterowała jednym ruchem wahadłowym. Przejście do nowego wzoru nastąpiło poprzez wymianę talii kart dziurkowanych
Karol Babbage (1791-1871) Odkrył błędy w tablicach logarytmicznych Napiera, które były szeroko stosowane w obliczeniach przez astronomów, matematyków i nawigatorów morskich. W 1821 r. zaczął opracowywać własny komputer, który pomagał w wykonywaniu dokładniejszych obliczeń. W 1822 r. zbudowano silnik różnicowy (model próbny), zdolny do obliczania i drukowania dużych tablic matematycznych. Było to bardzo złożone, duże urządzenie, przeznaczone do automatycznego obliczania logarytmów. Model oparto na zasadzie znanej w matematyce jako „metoda różnic skończonych”: przy obliczaniu wielomianów wykorzystuje się tylko operację dodawania, a nie wykonuje się mnożenia i dzielenia, które są znacznie trudniejsze do zautomatyzowania. Następnie wpadł na pomysł stworzenia mocniejszego silnika analitycznego. Musiała nie tylko rozwiązywać zadania matematyczne określonego typu, ale wykonywać różne operacje obliczeniowe zgodnie z instrukcjami podanymi przez operatora. Z założenia jest to nic innego jak pierwszy uniwersalny komputer programowalny. Silnik analityczny miał mieć takie komponenty jak „młyn” (urządzenie arytmetyczne we współczesnej terminologii) i „magazyn” (pamięć). Instrukcje (polecenia) wprowadzano do maszyny analitycznej za pomocą kart perforowanych (wykorzystano ideę sterowania programem Jaccarda za pomocą kart perforowanych). Szwedzki wydawca, wynalazca i tłumacz Per Georg Scheutz skorzystał z rady Babbage'a, aby zbudować zmodyfikowaną wersję tej maszyny. W 1855 roku maszyna Scheutza została nagrodzona złotym medalem na Wystawie Światowej w Paryżu. Później jedną z zasad leżących u podstaw idei silnika analitycznego – wykorzystanie kart dziurkowanych – wcielono w statystyczny tabulator zbudowany przez Amerykanina Hermana Holleritha (w celu przyspieszenia przetwarzania wyników spisu powszechnego USA z 1890 r.)

Augusta Ada Byron

(Hrabina Lovelace)

Hrabina Augusta Ada Lovelace, córka poety Byrona, pracowała z C. Babbage przy tworzeniu programów dla jego maszyn liczących. Jej prace z tej dziedziny zostały opublikowane w 1843 roku. Jednak w tym czasie uważano, że kobieta publikuje swoje pisma pod swoim pełnym nazwiskiem, a Lovelace umieszcza w tytule tylko swoje inicjały. W materiałach Babbage'a i komentarzach Lovelace'a zarysowują się takie pojęcia, jak „podprogram” i „biblioteka podprogramów”, „modyfikacja instrukcji” i „rejestr indeksów”, które zaczęto stosować dopiero w latach 50-tych. XX wiek Sam termin „biblioteka” został wprowadzony przez Babbage'a, a terminy „komórka robocza” i „cykl” zaproponował A. Lovelace. „Można słusznie powiedzieć, że silnik analityczny tka wzory algebraiczne w taki sam sposób, w jaki krosno Jacquecarda odtwarza kwiaty i liście”, napisała hrabina Lovelace. Była właściwie pierwszym programistą (język programowania Ada został nazwany jej imieniem)

George Bull

J. Boole jest słusznie uważany za ojca logiki matematycznej. Jego imieniem nazwano część logiki matematycznej, algebra Boole'a. W 1847 napisał artykuł „Matematyczna analiza logiki”. W 1854 Boole rozwinął swoje idee w pracy zatytułowanej An Inquiry into the Laws of Thought. Prace te przyniosły rewolucyjne zmiany w logice jako nauce. J. Boole wynalazł rodzaj algebry - system notacji i reguł stosowanych do wszelkiego rodzaju obiektów, od liczb i liter po zdania. Używając tego systemu, Boole mógł kodować instrukcje (wypowiedzi) używając swojego języka, a następnie manipulować nimi w taki sam sposób, w jaki manipuluje się zwykłymi liczbami w matematyce. Trzy podstawowe operacje systemu to AND, OR i NOT

Pafnuty Lvovich Czebyszew

Opracował teorię maszyn i mechanizmów, napisał szereg prac poświęconych syntezie mechanizmów zawiasowych. Wśród wielu wymyślonych przez niego mechanizmów jest kilka modeli maszyn sumujących, z których pierwszy został zaprojektowany nie później niż w 1876 roku. Maszyna sumująca Czebyszewa była w tym czasie jednym z najbardziej oryginalnych komputerów. W swoich projektach Czebyszew proponował zasadę ciągłego przekazywania dziesiątek i automatycznego przechodzenia karetki z cyfry na cyfrę podczas mnożenia. Oba te wynalazki weszły do ​​powszechnej praktyki w latach 30. XX wieku. XX wiek w związku z zastosowaniem napędu elektrycznego oraz upowszechnieniem półautomatycznych i automatycznych klawiatur komputerowych. Wraz z pojawieniem się tych i innych wynalazków stało się możliwe znaczne zwiększenie prędkości mechanicznych urządzeń liczących.
Aleksiej Nikołajewicz Kryłow (1863-1945) Rosyjski stoczniowiec, mechanik, matematyk, akademik Akademii Nauk ZSRR. W 1904 zaproponował projekt maszyny do całkowania równań różniczkowych zwyczajnych. W 1912 zbudowano taką maszynę. Była to pierwsza maszyna do ciągłego całkowania, która umożliwiała rozwiązywanie równań różniczkowych aż do czwartego rzędu.

Wilgodt Theophil Odner

Pochodzący ze Szwecji Vilgodt Theophilus Odner przybył do Petersburga w 1869 roku. Przez pewien czas pracował w rosyjskiej fabryce Diesla po stronie Wyborga, gdzie w 1874 roku wykonano pierwszą próbkę jego maszyny sumującej. Stworzone na bazie walców schodkowych Leibniza, pierwsze seryjne dodarki były duże, przede wszystkim dlatego, że konieczne było przydzielenie osobnego walca do każdego wyładunku. Odner zamiast wałków schodkowych zastosował bardziej zaawansowane i kompaktowe koła zębate ze zmienną liczbą zębów - koła Odnera. W 1890 r. Odner uzyskał patent na produkcję liczników sumujących, aw tym samym roku sprzedano 500 liczników sumujących (wtedy bardzo dużo). W Rosji arytmometry nazywano: „sumator Odnera”, „Original-Odner”, „sumator systemu Odnera” itp. W Rosji do 1917 r. wyprodukowano około 23 tys. sumatorów Odnera. Po rewolucji w Suschevsky Mechanical Plant powstała produkcja maszyn sumujących. F.E. Dzierżyński w Moskwie. Od 1931 roku zaczęto je nazywać „Felix” dodając maszyny. Ponadto w naszym kraju powstały modele dodawarek Odner z wejście klawiatury i napęd elektryczny
Herman Hollerith (1860-1929) Po ukończeniu Columbia University udaje się do pracy w biurze spisowym w Waszyngtonie. W tym czasie Stany Zjednoczone rozpoczęły niezwykle pracochłonne (trwające siedem i pół roku) ręczne przetwarzanie danych zebranych podczas spisu powszechnego z 1880 r. Do 1890 r. Hollerith zakończył opracowywanie systemu tabulacji opartego na wykorzystaniu kart dziurkowanych. Każda karta miała 12 rzędów, z których każdy mógł być przedziurkowany 20 otworami i odpowiadały one danym, takim jak wiek, płeć, miejsce urodzenia, liczba dzieci, stan cywilny i inne informacje zawarte w kwestionariuszu spisowym. Treść wypełnionych formularzy została przeniesiona na karty poprzez odpowiednią perforację. Dziurkowane karty były ładowane do specjalnych urządzeń podłączonych do maszyny tabulacji, gdzie były nawleczone na rzędy cienkich igieł, jedna igła na każdą z 240 dziurkowanych pozycji na karcie. Kiedy igła weszła w otwór, nawiązała kontakt w odpowiednim obwodzie elektrycznym maszyny. Pełna analiza statystyczna wyników trwała dwa i pół roku (trzy razy szybciej niż w poprzednim spisie). Hollerith zorganizował następnie Computer Tabulating Recording (CTR). Młody sprzedawca firmy, Tom Watson, był pierwszym, który zauważył potencjalną opłacalność sprzedaży maszyn do liczenia kart perforowanych amerykańskim biznesmenom. Później przejął firmę i zmienił jej nazwę na International Business Machines Corporation (IBM) w 1924 roku.

Vannevar Bush

W 1930 zbudował mechaniczne urządzenie obliczeniowe - analizator różnicowy. Była to maszyna, która potrafiła rozwiązywać złożone równania różniczkowe. Miała jednak wiele poważnych mankamentów, przede wszystkim gigantyczne rozmiary. Analizator mechaniczny Busha był złożonym systemem rolek, kół zębatych i przewodów połączonych w szereg dużych bloków zajmujących całe pomieszczenie. Przy ustalaniu zadania dla maszyny operator musiał ręcznie wybierać wiele biegów. Zwykle trwało to 2-3 dni. Później W. Bush zaproponował prototyp współczesnego hipertekstu - projekt MEMEX (MEMory EXtention - rozszerzenie pamięci) jako zautomatyzowanego biura, w którym człowiek mógłby przechowywać swoje książki, akta, wszelkie otrzymywane informacje w taki sposób, aby wykorzystać je w w każdej chwili z maksymalną szybkością i wygodą. W rzeczywistości miało to być skomplikowane urządzenie wyposażone w klawiaturę i przezroczyste ekrany, na które będą wyświetlane teksty i obrazy zapisane na mikrofilmie. MEMEX ustanowiłby logiczne i asocjacyjne powiązania między dowolnymi dwoma blokami informacji. Idealnie mówimy o ogromnej bibliotece, uniwersalnej bazie informacji

John Vincent Atanasoff

Profesor fizyki, autor pierwszego projektu komputera cyfrowego opartego na systemie liczb dwójkowych, a nie dziesiętnych. Prostota systemu binarnego w połączeniu z prostotą fizycznej reprezentacji dwóch znaków (0, 1) zamiast dziesięciu (0, 1, ..., 9) w komputerowych obwodach elektrycznych przewyższała niedogodności związane z koniecznością konwertuj z binarnego na dziesiętny i odwrotnie. Ponadto zastosowanie systemu liczb binarnych przyczyniło się do zmniejszenia rozmiaru komputera i obniżyłoby jego koszt. W 1939 roku Atanasoff zbudował model urządzenia i zaczął szukać pomocy finansowej, aby kontynuować prace. Samochód Atanasoffa był prawie gotowy w grudniu 1941 roku, ale został zdemontowany. W związku z wybuchem II wojny światowej wszelkie prace nad realizacją tego projektu ustały. Dopiero w 1973 r. priorytet Atanasoffa jako autora pierwszego projektu takiej architektury komputerowej został potwierdzony decyzją amerykańskiego sądu federalnego.
Howarda Aikena W 1937 G. Aiken zaproponował projekt dużej maszyny liczącej i szukał chętnych do sfinansowania tego pomysłu. Sponsorem był Thomas Watson, prezes IBM Corporation: jego wkład w projekt wyniósł około 500 tysięcy dolarów. Projekt nowy samochód Oparta na przekaźnikach elektromechanicznych „Mark-1” rozpoczęła się w 1939 roku w laboratoriach nowojorskiego oddziału IBM i trwała do 1944 roku. Gotowy komputer zawierał około 750 tysięcy części i ważył 35 ton. Maszyna działała na liczbach binarnych do 23 cyfry i pomnożone dwie liczby maksymalnej pojemności w około 4 s. Ponieważ tworzenie Mark-1 trwało wystarczająco długo, dłoń trafiła nie do niego, ale do przekaźnikowego komputera binarnego Z3 Konrada Zuse, zbudowanego w 1941 roku. Warto zauważyć, że maszyna Z3 była znacznie mniejsza od maszyny Aikena, a także tańsza w eksploatacji. produkcja

Konrad Zuse

W 1934 jako student Uniwersytet Techniczny(w Berlinie), nie mając pojęcia o pracy C. Babbage'a, K. Zuse zaczął opracowywać uniwersalny komputer, pod wieloma względami podobny do silnika analitycznego Babbage'a. W 1938 roku ukończył budowę maszyny, która zajmowała powierzchnię 4 metrów kwadratowych. m., zwany Z1 (po niemiecku jego nazwisko pisane jest jako Zuse). Była to w pełni elektromechaniczna, programowalna maszyna cyfrowa. Miała klawiaturę do wpisywania warunków zadań. Wyniki obliczeń były wyświetlane na panelu z wieloma małymi lampkami. Jej odrestaurowana wersja znajduje się w Muzeum Verker und Technik w Berlinie. To właśnie Z1 w Niemczech nazywany jest pierwszym komputerem na świecie. Zuse później zaczął kodować instrukcje maszyny, wybijając dziury w zużytym filmie 35 mm. Maszyna, która pracowała z taśmą perforowaną, nosiła nazwę Z2. W 1941 roku Zuse zbudował maszynę sterowaną programowo opartą na systemie liczb binarnych - Z3. Maszyna ta pod wieloma względami przewyższała inne maszyny budowane niezależnie i równolegle w innych krajach. W 1942 r. Zuse wraz z austriackim inżynierem elektrykiem Helmutem Schreyerem zaproponowali stworzenie komputera zupełnie nowego typu - na próżniowych lampach elektronowych. Maszyna ta musiała pracować tysiąc razy szybciej niż jakakolwiek z maszyn dostępnych w tym czasie w Niemczech. Mówiąc o potencjalnych zastosowaniach szybkiego komputera, Zuse i Schreyer zauważyli możliwość wykorzystania go do odszyfrowania zaszyfrowanych wiadomości (takie zmiany były już w toku w różnych krajach).

Alan Turing

Angielski matematyk, podał matematyczną definicję algorytmu poprzez konstrukcję, zwaną maszyną Turinga. Podczas II wojny światowej Niemcy używali maszyny Enigma do szyfrowania wiadomości. Bez klucza i schematu przełączania (Niemcy zmieniali je trzy razy dziennie) nie można było rozszyfrować wiadomości. Aby odkryć tajemnicę, brytyjski wywiad zebrał grupę błyskotliwych i nieco ekscentrycznych naukowców. Wśród nich był matematyk Alan Turing. Pod koniec 1943 roku grupie udało się zbudować potężną maszynę (zamiast przekaźników elektromechanicznych zastosowano w niej około 2000 elektronicznych lamp próżniowych). Samochód został nazwany „Colossus”. Przechwycone wiadomości były kodowane, nakładane na dziurkowaną taśmę i wprowadzane do pamięci maszyny. Taśmę wprowadzano za pomocą czytnika fotoelektrycznego z prędkością 5000 znaków na sekundę. Maszyna miała pięć takich czytników. W procesie wyszukiwania dopasowania (odszyfrowywania) maszyna porównywała zaszyfrowaną wiadomość ze znanymi już kodami Enigmy (zgodnie z algorytmem maszyny Turinga). Prace grupy są nadal utajnione. Rolę Turinga w pracy grupy można ocenić po następującym stwierdzeniu członka tej grupy, matematyka I.J. Gooda: „Nie chcę powiedzieć, że wygraliśmy wojnę dzięki Turingowi, ale pozwalam sobie powiedzenia, że ​​bez niego moglibyśmy to stracić”. Maszyna Colossus była maszyną rurową (duży krok naprzód w rozwoju technologii komputerowej) i wyspecjalizowaną (dekodując tajne kody)

John Mauchly

Presper Eckert

(ur. 1919)

Pierwszym komputerem jest maszyna ENIAC (ENIAC, Electronic Numerical Integrator oraz Computer - elektroniczny integrator cyfrowy i kalkulator). Jego autorzy, amerykańscy naukowcy J. Mouchli i Presper Eckert, pracowali nad nim w latach 1943-1945. Miał on na celu obliczenie trajektorii pocisków i był najtrudniejszy w połowie XX wieku. obiekt inżynieryjny o długości ponad 30 m, kubaturze 85 metrów sześciennych. m, ważący 30 t. 18 tysięcy lamp próżniowych, w ENIAK użyto 1500 przekaźników, maszyna zużywała około 150 kW. Wtedy zrodził się pomysł stworzenia maszyny z oprogramowaniem przechowywanym w pamięci maszyny, które zmieniłoby zasady organizacji obliczeń i utorowało drogę do powstania nowoczesnych języków programowania (EDVAC – Electronic Discret Variable Automatic Computer, EDVAC – Electronic Discret Zmienny automatyczny komputer). Maszyna ta powstała w 1950 roku. Większa pamięć wewnętrzna zawierała zarówno dane, jak i program. Programy nagrywano elektronicznie w specjalnych urządzeniach - liniach opóźniających. Najważniejsze było to, że w EDVAK dane były zakodowane nie w systemie dziesiętnym, ale binarnie (zmniejszono liczbę użytych lamp próżniowych). J. Mouchli i P. Eckert po założeniu własnej firmy postanowili stworzyć uniwersalny komputer dla szerokiego aplikacja komercyjna- UNIVAC (UNIVAC, Universal Automatic Computer - uniwersalny komputer automatyczny). Około rok przed pierwszym
ENIAC UNIVAC rozpoczął działalność w US Census Bureau, partnerzy znaleźli się w trudnej sytuacji pozycja finansowa i zostali zmuszeni do sprzedaży firmy Remington Rand. UNIVAC nie stał się jednak pierwszym komercyjnym komputerem. Stały się one maszyną LEO (LEO, Lyons „Bectronic Office), która była używana w Anglii do wypłacania pensji pracownikom herbaciarni (Lyons"). W 1973 amerykański sąd federalny unieważnił ich prawa autorskie do wynalezienia elektronicznego komputera cyfrowego , oraz - zapożyczone od J. Atanasoffa
Jan von Neumann (1903-1957)

Pracując w grupie J. Mauchly'ego i P. Eckerta, von Neumann przygotował raport - „Raport wstępny o maszynie EDVAK”, w którym podsumował plany pracy na maszynie. Była to pierwsza praca nad cyfrowymi komputerami elektronicznymi, która stała się znana niektórym kręgom środowiska naukowego (ze względu na tajemnicę prace z tego zakresu nie zostały opublikowane). Od tego czasu komputer został uznany za obiekt zainteresowania naukowego. W swoim raporcie von Neumann wyróżnił i szczegółowo opisał pięć kluczowych elementów tego, co obecnie nazywa się „architekturą von Neumanna” współczesnego komputera.

W naszym kraju, niezależnie od von Neumanna, sformułowano bardziej szczegółowe i kompletne zasady budowy elektronicznych komputerów cyfrowych (Siergiej Aleksiejewicz Lebiediew)

Siergiej Aleksiejewicz Lebiediew

W 1946 r. SA Lebiediew został dyrektorem Instytutu Elektrotechniki i zorganizował w nim własne laboratorium modelowania i regulacji. W 1948 r. SA Lebiediew skupił swoje laboratorium na stworzeniu MESM (Mała Elektroniczna Maszyna Komputerowa). MESM został pierwotnie pomyślany jako model (pierwsza litera w skrócie MESM) Dużej Elektronicznej Maszyny Obliczeniowej (BESM). Jednak w trakcie jego tworzenia oczywista stała się celowość przekształcenia go w mały komputer. Ze względu na tajność prac prowadzonych w dziedzinie techniki komputerowej w prasie jawnej nie pojawiły się stosowne publikacje.

Podstawy budowy komputera opracowane przez S.A. Lebiediewa, niezależnie od J. von Neumanna, są następujące:

1) skład komputera powinien obejmować arytmetykę, pamięć, informacje wejścia-wyjścia, urządzenia sterujące;

2) program obliczeniowy jest zakodowany i przechowywany w pamięci jak liczby;

3) do kodowania liczb i poleceń należy stosować binarny system liczbowy;

4) obliczenia powinny być wykonywane automatycznie na podstawie zapisanego w pamięci programu i operacji na poleceniach;

5) oprócz operacji arytmetycznych wprowadza się również operacje logiczne - porównania, przejścia warunkowe i bezwarunkowe, koniunkcja, alternatywa, negacja;

6) pamięć zbudowana jest na zasadzie hierarchicznej;

7) do obliczeń wykorzystywane są metody numeryczne rozwiązywania problemów.

25 grudnia 1951 MESM został oddany do użytku. Była to pierwsza szybka elektroniczna maszyna cyfrowa w ZSRR.

W 1948 r. utworzono Instytut Mechaniki Precyzyjnej i Techniki Komputerowej (ITM i CT) Akademii Nauk ZSRR, któremu rząd powierzył rozwój nowej technologii komputerowej, a S. A. Lebiediew został zaproszony do kierowania Laboratorium nr 1 (1951). Kiedy BESM był gotowy (1953), w niczym nie ustępował najnowszym amerykańskim projektom.

Od 1953 do końca życia SA Lebiediew był dyrektorem Instytutu Matematyki i Informatyki Akademii Nauk ZSRR, został wybrany na członka zwyczajnego Akademii Nauk ZSRR i kierował pracami nad stworzenie kilku generacji komputerów.

Na początku lat 60. powstaje pierwszy komputer z serii dużych elektronicznych maszyn liczących (BESM) - BHM-1. Przy tworzeniu BESM-1 zastosowano oryginalne rozwiązania naukowe i projektowe. Dzięki temu była wówczas najbardziej wydajną maszyną w Europie (8-10 tys. operacji na sekundę) i jedną z najlepszych na świecie. Pod kierownictwem S.A. Lebiediewa stworzono i wprowadzono do produkcji dwa kolejne komputery lampowe, BESM-2 i M-20. W latach 60. Stworzono półprzewodnikowe wersje M-20: M-220 i M-222, a także BESM-ZM i BESM-4.

Przy projektowaniu BESM-6 po raz pierwszy zastosowano metodę wstępnego modelowania symulacyjnego (uruchomienie przeprowadzono w 1967 r.).

S. A. Lebiediew był jednym z pierwszych, który zrozumiał ogromne znaczenie wspólnej pracy matematyków i inżynierów w tworzeniu systemów komputerowych. Z inicjatywy S.A. Lebiediewa wszystkie schematy BESM-6 zostały napisane we wzorach algebry Boole'a. Stworzyło to szerokie możliwości automatyzacji projektowania i przygotowania dokumentacji instalacyjnej i produkcyjnej.

IBM Nie można przegapić kamień milowy w rozwoju narzędzi i metod obliczeniowych związanych z działalnością IBM. Historycznie pierwsze komputery o klasycznej budowie i składzie - System Instalacji Komputerowych / 360 ( Nazwa handlowa- „Computing System 360”, zwany dalej po prostu IBM/360) został wydany w 1964 roku, a wraz z kolejnymi modyfikacjami (IBM/370, IBM/375) był dostarczany do połowy lat 80-tych, kiedy to pod wpływem mikrokomputerów (PC) nie zaczął stopniowo znikać ze sceny. Komputery tej serii stanowiły podstawę rozwoju w ZSRR i krajach członkowskich RWPG tzw. Zunifikowanego Systemu Komputerowego (ES COMPUTER), który przez kilkadziesiąt lat był podstawą informatyzacji krajowej.
UE 1045

Maszyny zawierały następujące elementy:

Jednostka centralna (32-bitowa) z zestawem instrukcji dwuadresowych;

Pamięć główna (RAM) (od 128 KB do 2 MB);

Napędy magnetyczne (NMD, MD) z wymiennymi pakietami dysków (np. IBM-2314 - 7,25 MB, ShM-2311 -29 MB, IBM 3330 - 100 MB), podobne (czasem kompatybilne) urządzenia znane są z innych w/w serii ;

Magnetyczne napędy taśmowe (NML, ML) typu szpuli, szerokość taśmy 0,5 cala, długość od 2400 stóp (720 m) lub mniej (zazwyczaj 360 i 180 m), gęstość zapisu od 256 bajtów na cal (typowo) i więcej 2-8 razy (zwiększony). W związku z tym pojemność robocza napędu została określona przez rozmiar cewki i gęstość zapisu i osiągnęła 160 MB na rolkę ML;

Urządzenia drukujące - drukarki bębnowe linia po linii ze stałym (zazwyczaj 64 lub 128 znaków) zestawem znaków, w tym wielkimi literami łacińskimi i cyrylicą (lub wielkimi i małymi literami łacińskimi) oraz standardowym zestawem znaków serwisowych; wyprowadzanie informacji odbywało się na taśmie papierowej o szerokości 42 lub 21 cm z prędkością do 20 linii/s;

Urządzenia terminalowe (wideoterminale i początkowo elektryczne maszyny do pisania) przeznaczone do interaktywnej interakcji z użytkownikiem (IBM 3270, DEC VT-100 itp.), podłączone do systemu w celu wykonywania funkcji zarządzania procesem obliczeniowym (konsola operatora - 1- 2 szt. na komputerze) oraz interaktywne debugowanie programów i przetwarzanie danych (terminal użytkownika - od 4 do 64 szt. na komputerze).

Wymienione standardowe zestawy urządzeń komputerowych z lat 60-80. a ich cechy są tutaj podane jako historyczne odniesienie dla czytelnika, który może je ocenić niezależnie, porównując je ze współczesnymi i znanymi danymi.

IBM zaoferował pierwszy funkcjonalnie kompletny system operacyjny - OS/360 - jako powłokę dla komputera IBM/360. Rozwój i wdrożenie systemu operacyjnego pozwoliło rozgraniczyć funkcje operatorów, administratorów, programistów, użytkowników, a także znacząco (i dziesiątki i setki razy) zwiększyć wydajność komputerów i stopień obciążenia środków technicznych. Wersje OS/360/370/375 - MFT (wieloprogramowanie ze stałą liczbą zadań), MW (ze zmienną liczbą zadań), SVS (system pamięci wirtualnej), SVM (system maszyny wirtualnej) - sukcesywnie zastępowane i w dużej mierze zdeterminowane współczesne rozumienie roli OS

Bill Gates i

Paula Allena

W 1974 roku Intel opracował pierwszy uniwersalny 8-bitowy mikroprocesor 8080 z 4500 tranzystorami. Edward Roberts, młody oficer Sił Powietrznych Stanów Zjednoczonych, inżynier elektronik, zbudował mikrokomputer Altair oparty na procesorze 8080, który odniósł ogromny komercyjny sukces, sprzedawany pocztą i szeroko stosowany do użytku domowego. W 1975 roku młody programista Paul Allen i student Uniwersytetu Harvarda Bill Gates zaimplementowali język BASIC dla Altaira. Następnie założyli firmę Microsoft (Microsoft).
Stephen Paul Jobs i Stephen Wozniak

W 1976 roku studenci Steve Wozniak i Steve Jobs założyli warsztat w swoim garażu i zrealizowali komputer Apple-1, wyznaczając początek Apple Corporation. 1983 – Firma Apple Computers Corporation zbudowała komputer osobisty Lisa, pierwszy komputer biurowy sterowany przez manipulator „myszy”.

W 2001 roku Steven Wozniak założył Wheels Of Zeus, aby stworzyć bezprzewodową technologię GPS.

2001 - Steve Jobs wprowadził pierwszego iPoda.

2006 – Apple wprowadził pierwszy laptop oparty na procesorach Intela.

2008 – Apple wprowadził na rynek najcieńszy laptop na świecie, nazwany MacBook Air.

3. Klasy komputerów

Zastosowania i metody użycia (a także wielkość i moc obliczeniowa).

Fizyczna reprezentacja przetwarzanych informacji

Tutaj przydziel analog (działanie ciągłe); cyfrowe (działanie dyskretne); hybrydowy (na poszczególnych etapach przetwarzania wykorzystywane są różne metody fizycznej reprezentacji danych).

AVM - komputery analogowe, czyli komputery ciągłe, pracują z informacjami przedstawionymi w formie ciągłej (analogowej), czyli w postaci ciągłego szeregu wartości o dowolnej wielkości fizycznej (najczęściej napięcia elektrycznego):

Komputery cyfrowe - komputery cyfrowe, czyli komputery o działaniu dyskretnym, pracują z informacjami przedstawionymi w postaci dyskretnej, a raczej cyfrowej. Ze względu na powszechność cyfrowej formy reprezentacji informacji, bardziej uniwersalnym środkiem przetwarzania danych jest komputer.

GVM - komputery hybrydowe, czyli komputery połączonego działania, pracują z informacjami prezentowanymi zarówno w formie cyfrowej, jak i analogowej. Łączą zalety AVM i CVM. Celowe jest użycie GVM do rozwiązywania problemów związanych ze sterowaniem złożonymi szybkimi kompleksy techniczne.

Pokolenia komputerów

Idea dzielenia maszyn na pokolenia zrodziła się dzięki temu, że w ciągu krótkiej historii swojego rozwoju technika komputerowa przeszła wielką ewolucję zarówno pod względem podstawy elementów (lampy, tranzystory, mikroukłady itp.), a w zakresie zmiany jego struktury pojawienie się nowych możliwości, rozszerzenie zakresu i charakteru użytkowania (tab. 2.).


Tabela 2

Etapy rozwoju komputerowych technologii informatycznych

Parametr Okres, lata
50s 60s lata 70. lata 80.

Teraźniejszość

Cel korzystania z komputera Obliczenia naukowe i techniczne

Techniczne i ekonomiczne

Zarządzanie, dostarczanie informacji

komunikacja, informacja

serwis techniczny

Tryb komputerowy Pojedynczy program przetwarzanie wsadowe Podział czasu Praca personalna Przetwarzanie sieciowe
Integracja danych Niski Średni wysoki Bardzo wysoko
Lokalizacja użytkownika Maszynownia Osobny pokój hala terminalowa Pulpit

darmowa komórka

Typ użytkownika Inżynierowie oprogramowania

programy stacjonarne

Programiści Użytkownicy z ogólnym szkoleniem komputerowym

Niewielu przeszkolonych użytkowników

Typ okna dialogowego Praca przy zdalnym sterowaniu komputerowym Wymiana perforowanych nośników i machinogramów Interaktywny (za pomocą klawiatury i ekranu) Interaktywny z twardym menu

aktywny ekran typu "pytanie - odpowiedź"

Pierwsza generacja to najczęściej maszyny powstałe na przełomie lat 50-tych. i oparte na lampach elektronowych. Te komputery były ogromnymi, nieporęcznymi i drogimi maszynami, które mogły kupić tylko duże korporacje i rządy. Lampy zużywały znaczną ilość energii elektrycznej i generowały dużo ciepła (rys. 1.).

Zestaw instrukcji był ograniczony, obwody jednostki arytmetyczno-logicznej i jednostki sterującej były dość proste i praktycznie nie było oprogramowania. Ocena pamięci RAM i wydajności była niska. Do I/O użyto taśm dziurkowanych, kart dziurkowanych, taśm magnetycznych i urządzeń drukujących. Prędkość wynosi około 10-20 tysięcy operacji na sekundę.

Programy dla tych maszyn zostały napisane w języku konkretnej maszyny. Matematyk, który skompilował program, usiadł przy panelu sterowania maszyny, wprowadził i debugował programy oraz założył na nich konto. Proces debugowania trwał bardzo długo.

Mimo ograniczonych możliwości maszyny te umożliwiły wykonanie najbardziej skomplikowanych obliczeń niezbędnych do prognozowania pogody, rozwiązywania problemów energetyki jądrowej itp.

Doświadczenie z maszynami pierwszej generacji pokazało, że istnieje ogromna przepaść między czasem spędzonym na opracowywaniu programów a czasem spędzonym na obliczeniach. Problemy te zaczęto przezwyciężać poprzez intensywny rozwój środków do automatyzacji programowania, tworzenie systemów programów serwisowych, które upraszczają pracę na maszynie i zwiększają efektywność jej użytkowania. To z kolei wymagało znaczących zmian w strukturze komputerów, mających na celu zbliżenie jej do wymagań wynikających z doświadczeń związanych z obsługą komputerów.

W październiku 1945 roku w USA powstał pierwszy komputer ENIAC (Electronic Numerical Integrator And Calculator - elektroniczny integrator i kalkulator liczbowy).

Maszyny domowe pierwszej generacji: MESM (mała elektroniczna maszyna licząca), BESM, Strela, Ural, M-20.

Drugie pokolenie technologia komputerowa- maszyny zaprojektowane w latach 1955-65. Charakteryzują się wykorzystaniem zarówno lamp próżniowych, jak i dyskretnych tranzystorowych elementów logicznych (rys. 2). Ich pamięć RAM została zbudowana na rdzeniach magnetycznych. W tym czasie gama stosowanych urządzeń wejścia-wyjścia zaczęła się rozszerzać, pojawiły się wysokowydajne urządzenia do pracy z taśmami magnetycznymi (NML), bębnami magnetycznymi (NMB) i pierwszymi dyskami magnetycznymi (Tabela 2.).

Maszyny te charakteryzują się szybkością do setek tysięcy operacji na sekundę, pojemnością pamięci - do kilkudziesięciu tysięcy słów.

Pojawiają się języki wysoki poziom, których środki pozwalają opisać całą niezbędną sekwencję działań obliczeniowych w wizualnej, łatwo dostrzegalnej formie.

Program napisany w języku algorytmicznym jest niezrozumiały dla komputera, który rozumie tylko język własnych instrukcji. Dlatego specjalne programy zwane translatorami tłumaczą program z języka wysokiego poziomu na język maszynowy.

Pojawiła się szeroka gama programów bibliotecznych do rozwiązywania różnych problemów, a także systemów monitorujących kontrolujących tryb tłumaczenia i wykonywania programów, z których później wyrosły współczesne systemy operacyjne.

Najważniejszy jest system operacyjny oprogramowanie komputer przeznaczony do automatyzacji planowania i organizacji procesu przetwarzania programów, zarządzania danymi wejściowymi i wyjściowymi, alokacji zasobów, przygotowywania i debugowania programów oraz innych pomocniczych operacji usługowych.

Maszyny drugiej generacji charakteryzowały się niekompatybilnością oprogramowania, co utrudniało organizowanie dużych systemów informatycznych. Dlatego w połowie lat 60-tych. nastąpiło przejście do tworzenia komputerów kompatybilnych z oprogramowaniem i zbudowanych na bazie technologii mikroelektronicznej.

Najwyższe osiągnięcie krajowej techniki komputerowej stworzone przez zespół S.A. Lebiediew był opracowaniem w 1966 roku komputera półprzewodnikowego BESM-6 o wydajności 1 miliona operacji na sekundę.

Maszyny trzeciej generacji to rodziny maszyn o wspólnej architekturze, tj. kompatybilnej z oprogramowaniem. Jako podstawę elementów wykorzystują układy scalone, zwane również mikroukładami.

Maszyny trzeciej generacji pojawiły się w latach 60-tych. Ponieważ proces tworzenia technologii komputerowej był ciągły, a uczestniczyło w nim wiele osób z różnych krajów, zajmujących się rozwiązywaniem różnych problemów, trudno i bezużytecznie próbować ustalić, kiedy „pokolenie” zaczęło się i skończyło. Być może najważniejszym kryterium rozróżnienia maszyn drugiej i trzeciej generacji jest kryterium oparte na koncepcji architektury.

Maszyny trzeciej generacji mają zaawansowane systemy operacyjne. Posiadają możliwości multiprogramowania, czyli równoległego wykonywania kilku programów. Wiele zadań związanych z zarządzaniem pamięcią, urządzeniami i zasobami zaczął być przejmowany przez system operacyjny lub bezpośrednio przez samą maszynę.

Przykładami maszyn trzeciej generacji są komputery IBM-360, IBM-370, PDP-11, VAX, EC (Unified Computer System), komputery SM (Small Computers Family) itp.

Prędkość maszyn w rodzinie waha się od kilkudziesięciu tysięcy do milionów operacji na sekundę. Pojemność pamięci RAM sięga kilkuset tysięcy słów.

Czwarta generacja to główny kontyngent nowoczesnej technologii komputerowej opracowanej po latach 70-tych.

Koncepcyjnie najważniejszym kryterium, według którego te komputery można odróżnić od maszyn trzeciej generacji, jest to, że maszyny czwartej generacji zostały zaprojektowane do efektywne wykorzystanie nowoczesne języki wysokiego poziomu i uproszczenie procesu programowania dla użytkownika końcowego.

Pod względem sprzętowym charakteryzują się powszechnym wykorzystaniem układów scalonych jako podstawy elementów, a także obecnością szybkich urządzeń pamięci o dostępie swobodnym o pojemności dziesiątek megabajtów (ryc. 3, b).

Z punktu widzenia konstrukcji maszyny tej generacji to wieloprocesorowe i wielomaszynowe kompleksy wykorzystujące wspólną pamięć i wspólne pole urządzeń zewnętrznych. Szybkość wynosi do kilkudziesięciu milionów operacji na sekundę, pojemność pamięci RAM to około 1-512 MB.

Charakteryzują się:

Zastosowanie komputerów osobistych (PC);

Przetwarzanie danych telekomunikacyjnych;

Sieć komputerowa;

Powszechne wykorzystanie systemów zarządzania bazami danych;

Elementy inteligentnego zachowania systemów i urządzeń przetwarzających dane.

Komputery czwartej generacji to komputery PC "Electronics MS 0511" edukacyjnego sprzętu komputerowego KUVT UKNTS, a także nowoczesne komputery kompatybilne z IBM, na których pracujemy.

Zgodnie z bazą pierwiastków i poziomem rozwoju narzędzia programowe wyróżnić cztery prawdziwe generacje komputerów, krótki opis które są pokazane w tabeli 3.

Tabela 3

Pokolenia komputerów

Opcje porównania Pokolenia komputerów
pierwszy druga trzeci czwarty
Okres czasu 1946 - 1959 1960 - 1969 1970 - 1979 od 1980
Podstawa elementu (dla CU, ALU) Lampy elektroniczne (lub elektryczne) Półprzewodniki (tranzystory) układy scalone Duże układy scalone (LSI)
Główny typ komputera Wielki Mały (mini) Mikro
Podstawowe urządzenia wejściowe Pilot zdalnego sterowania, karta dziurkowana, wejście taśmy dziurkowanej Dodano wyświetlacz alfanumeryczny, klawiaturę Wyświetlacz alfanumeryczny, klawiatura Kolorowy wyświetlacz graficzny, skaner, klawiatura
Główne urządzenia wyjściowe Drukarka alfanumeryczna (ATsPU), wyjście taśmy perforowanej Ploter graficzny, drukarka
Pamięć zewnętrzna Taśmy magnetyczne, bębny, taśmy dziurkowane, karty dziurkowane Dodano dysk magnetyczny Taśma perforowana, dysk magnetyczny Dyski magnetyczne i optyczne
Kluczowe decyzje w oprogramowaniu Uniwersalne języki programowania, tłumacze Wsadowe systemy operacyjne optymalizujące translatory Interaktywne systemy operacyjne, strukturalne języki programowania Przyjazność dla oprogramowania, sieciowe systemy operacyjne
Tryb pracy komputera Pojedynczy program Partia Podziały czasu Praca osobista i przetwarzanie sieciowe
Cel korzystania z komputera Obliczenia naukowe i techniczne Obliczenia techniczne i ekonomiczne Kalkulacje zarządcze i ekonomiczne Usługi telekomunikacyjne, informacyjne

Tabela 4

Główne cechy komputerów domowych drugiej generacji

Parametr Po pierwsze
Hrazdan-2 BESM-4 M-220 Ural-11 Mińsk-22 Ural-16
Kierowanie 2 3 3 1 2 1
Formularz prezentacji danych zmiennoprzecinkowy zmiennoprzecinkowy zmiennoprzecinkowy

oddzielony przecinek, znak

oddzielony przecinek, znak

pływający i stały

oddzielony przecinek, znak

Długość słowa maszynowego (podwójny bit) 36 45 45 24 37 48
Prędkość (op./s) 5 tys. 20 tysięcy 20 tysięcy 14-15 tys. 5 tys. 100 tysięcy
RAM, typ, pojemność (słowa)

nowy rdzeń 2048

nowy rdzeń 8192

nowy rdzeń 4096-16 384

nowy rdzeń 4096-16 384

nowy rdzeń

niestandardowy rdzeń 8192-65 536

VZU, typ, pojemność (słowa) NML 120 tys. 16 mln NML 8 milionów NML NML do 5 milionów NML 12 mln NMB 130 tys.

W komputerach piątej generacji ma nastąpić jakościowe przejście od przetwarzania danych do przetwarzania wiedzy.

Architektura komputerowa piątej generacji będzie składać się z dwóch głównych bloków. Jednym z nich jest tradycyjny komputer, ale pozbawiony komunikacji z użytkownikiem. To połączenie jest realizowane przez inteligentny interfejs. Problem decentralizacji informatyki zostanie również rozwiązany za pomocą sieć komputerowa.

W skrócie, podstawową koncepcję komputerów piątej generacji można sformułować w następujący sposób:

1. Komputery oparte na ultraskomplikowanych mikroprocesorach o strukturze równoległej wektorowej, wykonujące jednocześnie dziesiątki sekwencyjnych instrukcji programowych.

2. Komputery z wieloma setkami procesorów pracujących równolegle, co umożliwia budowanie systemów przetwarzania danych i wiedzy, efektywną sieć systemy komputerowe.


Do XVII wieku działalność społeczeństwa jako całości i każdej osoby z osobna miała na celu opanowanie substancji, tj. istnieje wiedza o właściwościach materii i wytwarzaniu najpierw prymitywnych, a następnie coraz bardziej złożonych narzędzi pracy, aż po mechanizmy oraz maszyny, które umożliwiają wytwarzanie wartości konsumenckich.

Następnie, w procesie formowania się społeczeństwa przemysłowego, na pierwszy plan wysunął się problem opanowania energii - najpierw termicznej, potem elektrycznej, a na końcu jądrowej.

Pod koniec XX wieku. ludzkość weszła w nowy etap rozwoju - etap budowy społeczeństwa informacyjnego.

Pod koniec lat 60. D. Bell stwierdził przekształcenie społeczeństwa przemysłowego w społeczeństwo informacyjne.

Najważniejszym zadaniem społeczeństwa jest przywrócenie kanałów komunikacji w nowych warunkach ekonomicznych i technologicznych, aby zapewnić wyraźną interakcję pomiędzy wszystkimi obszarami rozwoju gospodarczego, naukowego i społecznego, zarówno w poszczególnych krajach, jak iw skali globalnej.

Nowoczesny komputer to uniwersalne, wielofunkcyjne, elektroniczne urządzenie automatyczne do pracy z informacją.

W 1642 roku, kiedy Pascal miał 19 lat, powstał pierwszy działający model maszyny sumującej.

W 1673 r. Leibniz wynalazł mechaniczne urządzenie do obliczeń (kalkulator mechaniczny).

1804 inżynier Joseph-Marie Jacquard zbudował w pełni zautomatyzowaną maszynę (maszynę żakardową) zdolną do odtwarzania najbardziej złożonych wzorów. Działanie maszyny zaprogramowano za pomocą talii kart dziurkowanych, z których każda sterowała jednym ruchem wahadłowym.

W 1822 C. Babbage zbudował silnik różnicowy (model próbny) zdolny do obliczania i drukowania dużych tablic matematycznych. Następnie wpadł na pomysł stworzenia mocniejszego silnika analitycznego. Musiała nie tylko rozwiązywać zadania matematyczne określonego typu, ale wykonywać różne operacje obliczeniowe zgodnie z instrukcjami podanymi przez operatora.

Hrabina Augusta Ada Lovelace wraz z C. Babbage pracowali nad tworzeniem programów dla swoich maszyn liczących. Jej praca w tej dziedzinie została opublikowana w 1843 roku.

J. Boole jest słusznie uważany za ojca logiki matematycznej. Jego imieniem nazwano część logiki matematycznej, algebra Boole'a. J. Boole wynalazł rodzaj algebry - system notacji i reguł stosowanych do wszelkiego rodzaju obiektów, od liczb i liter do zdań (1854).

Modele maszyn sumujących, z których pierwsza została zaprojektowana nie później niż w 1876 roku. Maszyna sumująca Czebyszewa w tym czasie była jednym z najbardziej oryginalnych komputerów. W swoich projektach Czebyszew proponował zasadę ciągłego przekazywania dziesiątek i automatycznego przechodzenia karetki z cyfry na cyfrę podczas mnożenia.

Aleksiej Nikołajewicz Kryłow 1904 zaproponował zaprojektowanie maszyny do całkowania równań różniczkowych zwyczajnych. W 1912 zbudowano taką maszynę.

I inni.

Elektroniczny Kalkulator(Komputer), komputer - zespół środków technicznych przeznaczonych do automatycznego przetwarzania informacji w procesie rozwiązywania problemów obliczeniowych i informacyjnych.

Komputery można klasyfikować według szeregu kryteriów, w szczególności:

Fizyczna reprezentacja przetwarzanych informacji;

Pokolenia (etapy tworzenia i bazy pierwiastków).

Zaczęło się to nazywać arytmetyczno-logicznym. Stał się głównym urządzeniem nowoczesnych komputerów. W ten sposób dwaj geniusze XVII wieku postawili pierwsze kamienie milowe w historii rozwoju informatyki cyfrowej. Zasługi W. Leibniza nie ograniczają się jednak do stworzenia „instrumentu arytmetycznego”. Od lat studenckich do końca życia zajmował się badaniem właściwości układu binarnego ...

...) oraz nowoczesna technologia, której poziom rozwoju w dużej mierze determinuje postęp w produkcji technologii komputerowej. Komputery elektroniczne w naszym kraju są zwykle podzielone na pokolenia. Technologia komputerowa charakteryzuje się przede wszystkim szybką zmianą pokoleń – w swojej krótkiej historii rozwoju zmieniły się już cztery pokolenia, a teraz pracujemy na komputerach piątego…

Stworzony przez nich komputer działał tysiąc razy szybciej niż Mark-1. Okazało się jednak, że przez większość czasu ten komputer był bezczynny, ponieważ aby ustawić metodę obliczeniową (program) w tym komputerze, prawidłowe podłączenie przewodów zajęło kilka godzin lub nawet kilka dni. A samo obliczenie po tym mogło zająć tylko kilka minut, a nawet sekund.

Aby uprościć i przyspieszyć proces programowania, Mauchly i Eckert zaczęli projektować nowy komputer, który mógłby przechowywać program w swojej pamięci. W 1945 roku w prace zaangażowany był słynny matematyk John von Neumann, który przygotował raport na temat tego komputera. Raport został wysłany do wielu naukowców i stał się powszechnie znany, ponieważ von Neumann jasno i prosto sformułował w nim ogólne zasady funkcjonowania komputerów, czyli uniwersalnych urządzeń obliczeniowych. I do tej pory zdecydowana większość komputerów jest wykonywana zgodnie z zasadami, które nakreślił John von Neumann w swoim raporcie z 1945 roku. Pierwszy komputer, w którym wcielono zasady von Neumanna, został zbudowany w 1949 roku przez angielskiego badacza Maurice'a Wilksa.

Rozwój pierwszej elektronicznej maszyny seryjnej UNIVAC (Universal Automatic Computer) rozpoczął się około 1947 roku przez firmę Eckert i Mauchly, którzy w grudniu tego samego roku założyli firmę ECKERT-MAUCHLI. Pierwszy model maszyny (UNIVAC-1) został zbudowany dla US Census Bureau i wprowadzony do eksploatacji wiosną 1951 roku. Na bazie komputerów ENIAC i EDVAC powstał synchroniczny, sekwencyjny komputer UNIVAC-1. Pracowała z częstotliwością zegara 2,25 MHz i zawierała około 5000 lamp próżniowych. Urządzenie pamięci wewnętrznej o pojemności 1000 12-bitowych liczb dziesiętnych zostało wykonane ze 100 rtęciowymi liniami opóźniającymi.

Tuż po uruchomieniu maszyny UNIVAC-1 jej twórcy wysunęli ideę automatycznego programowania. Sprowadzało się to do tego, że sama maszyna potrafiła przygotować taką sekwencję poleceń, jaka jest potrzebna do rozwiązania danego problemu.

Silnym czynnikiem ograniczającym pracę projektantów komputerów na początku lat pięćdziesiątych był brak szybkiej pamięci. Według jednego z pionierów technologii komputerowych, D. Eckerta, „architektura maszyny jest zdeterminowana przez pamięć”. Naukowcy skoncentrowali swoje wysiłki na właściwościach pamięciowych pierścieni ferrytowych naciągniętych na matryce drutowe.

W 1951 J. Forrester opublikował artykuł na temat wykorzystania rdzeni magnetycznych do przechowywania informacji cyfrowych. Maszyna Whirlwind-1 była pierwszą, w której zastosowano pamięć z rdzeniem magnetycznym. Składał się z 2 kostek 32 x 32 x 17 z rdzeniami, które zapewniały przechowywanie 2048 słów dla 16-bitowych liczb binarnych z jednym bitem parzystości.

Wkrótce rozwój komputerów elektronicznych objął IBM. W 1952 wypuściła swój pierwszy przemysłowy komputer elektroniczny IBM 701, który był synchronicznym komputerem równoległym zawierającym 4000 lamp próżniowych i 12 000 diod germanowych. Ulepszona wersja maszyny IBM 704 była inna wysoka prędkość W pracy wykorzystywał rejestry indeksowe i prezentował dane w postaci zmiennoprzecinkowej.

IBM 704
Po komputerze IBM 704 ukazała się maszyna IBM 709, która pod względem architektonicznym zbliżyła się do maszyn drugiej i trzeciej generacji. W tej maszynie po raz pierwszy zastosowano adresowanie pośrednie i po raz pierwszy pojawiły się kanały I/O.

W 1956 roku IBM opracowało pływające głowice magnetyczne na poduszce powietrznej. Ich wynalazek umożliwił stworzenie nowego typu pamięci - nośników dyskowych (pamięci), których znaczenie zostało w pełni docenione w kolejnych dekadach rozwoju technologii komputerowej. Pierwsze pamięci dyskowe pojawiły się w maszynach IBM 305 i RAMAC. Ten ostatni miał pakiet 50 magnetycznie powlekanych metalowych dysków, które obracały się z prędkością 12 000 obr./min. Na powierzchni dysku znajdowało się 100 ścieżek do zapisu danych po 10 000 znaków każda.

Po pierwszym komputerze szeregowym UNIVAC-1, Remington-Rand w 1952 roku wypuścił komputer UNIVAC-1103, który pracował 50 razy szybciej. Później przerwania programowe zostały użyte po raz pierwszy w komputerze UNIVAC-1103.

Pracownicy Rernington-Rand używali algebraicznej formy pisania algorytmów zwanej „Short Code” (pierwszy interpreter stworzony w 1949 roku przez Johna Mauchly'ego). Ponadto należy zwrócić uwagę na oficera marynarki USA i szefa zespołu programistycznego, ówczesnego kapitana (później jedyną kobietę admirała w marynarce) Grace Hopper, która opracowała pierwszy kompilator programu. Nawiasem mówiąc, termin „kompilator” został po raz pierwszy wprowadzony przez G. Hoppera w 1951 roku. Ten program kompilujący przetłumaczył cały program na język maszynowy, napisany w formie algebraicznej dogodnej do przetwarzania. G. Hopper jest również właścicielem terminu „błąd” w odniesieniu do komputerów. Jakoś przez Otwórz okno do laboratorium wleciał chrząszcz (w języku angielskim - błąd), który siedząc na stykach zamknął je, co spowodowało poważną awarię maszyny. Spalony chrząszcz został wklejony do dziennika administracyjnego, w którym odnotowywano różne awarie. Tak więc udokumentowano pierwszy błąd w komputerach.

IBM stawiał pierwsze kroki w dziedzinie automatyzacji programowania, tworząc w 1953 roku dla maszyny IBM 701 „Quick Coding System”. W ZSRR A. A. Lapunow zaproponował jeden z pierwszych języków programowania. W 1957 roku grupa kierowana przez D. Backusa zakończyła prace nad pierwszym językiem programowania wysokiego poziomu, który później stał się popularny, zwanym FORTRAN. Język, zaimplementowany po raz pierwszy na komputerze IBM 704, przyczynił się do rozszerzenia zakresu komputerów.

Aleksiej Andriejewicz Lapunow
W Wielkiej Brytanii w lipcu 1951 roku na konferencji na Uniwersytecie w Manchesterze M. Wilks przedstawił raport „Najlepsza metoda konstruowania automatyczna maszyna”, który stał się pionierską pracą nad podstawami mikroprogramowania. Zaproponowana przez niego metoda projektowania urządzeń sterujących znalazła szerokie zastosowanie.

M. Wilks wdrożył swoją ideę mikroprogramowania w 1957 roku przy tworzeniu maszyny EDSAC-2. M. Wilks wraz z D. Wheelerem i S. Gillem napisał w 1951 roku pierwszy podręcznik programowania „Programowanie elektronicznych maszyn liczących”.

W 1956 roku firma Ferranti wypuściła komputer Pegasus, który po raz pierwszy ucieleśniał koncepcję rejestrów ogólnego przeznaczenia (RON). Wraz z nadejściem RON rozróżnienie między rejestrami indeksowymi a akumulatorami zostało wyeliminowane, a programista miał do dyspozycji nie jeden, ale kilka rejestrów akumulatorów.

Pojawienie się komputerów osobistych

Na początku mikroprocesory były używane w różnych specjalistycznych urządzeniach, takich jak kalkulatory. Ale w 1974 r. Kilka firm ogłosiło stworzenie komputera osobistego opartego na mikroprocesorze Intel-8008, czyli urządzenia, które pełni te same funkcje, co duży komputer, ale jest przeznaczone dla jednego użytkownika. Na początku 1975 roku pojawił się pierwszy komercyjnie dystrybuowany komputer osobisty "Altair-8800" oparty na mikroprocesorze Intel-8080. Komputer ten sprzedano za około 500 dolarów. I choć jego możliwości były mocno ograniczone (pamięć RAM miała tylko 256 bajtów, nie było klawiatury i ekranu), jego wygląd spotkał się z dużym entuzjazmem: w pierwszych miesiącach sprzedano kilka tysięcy kompletów maszyny . Nabywcy wyposażyli ten komputer w dodatkowe urządzenia: monitor do wyświetlania informacji, klawiaturę, moduły rozszerzeń pamięci itp. Wkrótce urządzenia te zaczęły być produkowane przez inne firmy. Pod koniec 1975 roku Paul Allen i Bill Gates (przyszli założyciele Microsoftu) stworzyli interpreter języka Basic dla komputera Altair, który pozwalał użytkownikom po prostu komunikować się z komputerem i łatwo pisać dla niego programy. Przyczyniło się to również do rosnącej popularności komputerów osobistych.

Sukces Altair-8800 zmusił wiele firm do zaangażowania się również w produkcję komputerów osobistych. Komputery osobiste zaczęto sprzedawać już w kompletnym zestawie, z klawiaturą i monitorem, popyt na nie wynosił dziesiątki, a potem setki tysięcy sztuk rocznie. Powstało kilka czasopism poświęconych komputerom osobistym. Do wzrostu sprzedaży przyczyniły się liczne przydatne programy o znaczeniu praktycznym. Pojawiły się także programy dostępne na rynku, takie jak program do edycji słów WordStar i arkusz kalkulacyjny VisiCalc (odpowiednio 1978 i 1979). Te i wiele innych programów sprawiło, że zakup komputerów osobistych stał się bardzo opłacalny dla biznesu: z ich pomocą stało się możliwe wykonywanie obliczeń księgowych, przygotowywanie dokumentów itp. Wykorzystanie dużych komputerów do tych celów było zbyt kosztowne.

Pod koniec lat 70. rozpowszechnienie komputerów osobistych doprowadziło nawet do pewnego spadku popytu na duże komputery i minikomputery (minikomputery). Stało się to przedmiotem wielkiej troski IBM, wiodącej firmy produkującej duże komputery, iw 1979 roku IBM postanowił spróbować swoich sił na rynku komputerów osobistych. Zarząd firmy nie docenił jednak przyszłego znaczenia tego rynku i uznał stworzenie komputera osobistego za mały eksperyment - coś w rodzaju jednej z kilkudziesięciu prac wykonywanych w firmie nad stworzeniem nowego sprzętu. Aby nie wydawać na ten eksperyment zbyt dużo pieniędzy, kierownictwo firmy dało jednostce odpowiedzialnej za ten projekt niespotykaną dotąd w firmie swobodę. W szczególności pozwolono mu nie zaprojektować komputera osobistego od podstaw, ale wykorzystać klocki innych firm. I ta jednostka w pełni wykorzystała okazję.

Najnowszy wówczas 16-bitowy mikroprocesor Intel-8088 został wybrany jako główny mikroprocesor komputera. Jego zastosowanie pozwoliło znacznie zwiększyć potencjalne możliwości komputera, ponieważ nowy mikroprocesor umożliwił pracę z 1 megabajtem pamięci, a wszystkie dostępne wówczas komputery były ograniczone do 64 kilobajtów.

W sierpniu 1981 roku nowy komputer o nazwie IBM PC został oficjalnie zaprezentowany publicznie, a wkrótce potem zyskał dużą popularność wśród użytkowników. Kilka lat później IBM PC objął prowadzenie na rynku, wypierając modele 8-bitowe.

Komputery IBM
Sekret popularności IBM PC polega na tym, że IBM nie uczynił swojego komputera jednoczęściowym urządzeniem i nie chronił jego konstrukcji patentami. Wręcz przeciwnie, składała komputer z niezależnie wyprodukowanych części i nie trzymała w tajemnicy specyfikacji tych części i sposobu ich połączenia. Wręcz przeciwnie, zasady projektowania IBM PC były dostępne dla każdego. Takie podejście, zwane zasadą otwartej architektury, sprawiło, że IBM PC odniósł ogromny sukces, chociaż odebrało IBM jedyną korzyść z tego sukcesu. Oto jak otwarta architektura IBM PC wpłynęła na rozwój komputera osobistego.

Perspektywy i popularność IBM PC sprawiły, że produkcja różnych komponentów i dodatkowych urządzeń do IBM PC stała się bardzo atrakcyjna. Konkurencja między producentami doprowadziła do tańszych komponentów i urządzeń. Bardzo szybko wiele firm przestało zadowalać się rolą producentów komponentów do IBM PC i zaczęło samodzielnie montować komputery kompatybilne z IBM PC. Ponieważ firmy te nie musiały ponosić ogromnych kosztów IBM, aby zbadać i utrzymać strukturę ogromnej firmy, były w stanie sprzedawać swoje komputery znacznie taniej (czasem 2-3 razy) niż podobne komputery IBM.

Komputery kompatybilne z IBM PC były początkowo pogardliwie nazywane „klonami”, ale ten pseudonim nie przyjął się, ponieważ wielu producentów komputerów kompatybilnych z IBM PC zaczęło wdrażać osiągnięcia techniczne szybciej niż sam IBM. Użytkownicy mają możliwość samodzielnej modernizacji swoich komputerów i wyposażenia ich w dodatkowe urządzenia setek różnych producentów.

Komputery osobiste przyszłości

Podstawą komputerów przyszłości nie będą tranzystory krzemowe, w których informacje są przesyłane elektronami, ale układy optyczne. Fotony staną się nośnikiem informacji, ponieważ są lżejsze i szybsze od elektronów. Dzięki temu komputer stanie się tańszy i bardziej kompaktowy. Ale co najważniejsze, obliczenia optoelektroniczne są znacznie szybsze niż te, które są używane dzisiaj, więc komputer będzie znacznie bardziej produktywny.

Komputer będzie mały i będzie miał moc dzisiejszych superkomputerów. Komputer stanie się repozytorium informacji obejmujących wszystkie aspekty naszego codziennego życia, nie będzie związany z sieciami elektrycznymi. Ten komputer będzie chroniony przed złodziejami dzięki skanerowi biometrycznemu, który rozpozna jego właściciela po odcisku palca.

Głównym sposobem komunikacji z komputerem będzie głos. Komputer stacjonarny zamieni się w „monoblok”, a raczej w gigantyczny ekran komputerowy - interaktywny wyświetlacz fotoniczny. Klawiatura nie będzie potrzebna, ponieważ wszystkie czynności można wykonać jednym dotknięciem palca. Ale dla tych, którzy wolą klawiaturę, wirtualną klawiaturę można utworzyć na ekranie w dowolnym momencie i usunąć, gdy nie jest potrzebna.

Komputer stanie się systemem operacyjnym domu, a dom zacznie odpowiadać na potrzeby właściciela, pozna jego preferencje (parzyć kawę o godzinie 7, odtwarzać ulubioną muzykę, nagrywać odpowiedni program telewizyjny, dostosowywać temperatura i wilgotność itp.)

Rozmiar ekranu nie będzie odgrywał żadnej roli w komputerach przyszłości. Może być tak duży jak komputer stacjonarny lub mały. Większe wersje ekranów komputerowych będą oparte na wzbudzanych fotonami ciekłych kryształach, które będą miały znacznie mniejsze zużycie energii niż dzisiejsze monitory LCD. Kolory będą żywe, a obrazy dokładne (możliwe są wyświetlacze plazmowe). W rzeczywistości dzisiejsze pojęcie „rozdzielczości” ulegnie znacznej atrofii.

Szybki rozwój cyfrowej technologii obliczeniowej (CT) i kształtowanie się nauki o zasadach jej budowy i projektowania rozpoczął się w latach 40. XX wieku, kiedy elektronika i mikroelektronika stały się bazą techniczną CT, a osiągnięcia w dziedzinie sztuczna inteligencja.

Do tego czasu przez prawie 500 lat BT zostało zredukowane do najprostszych urządzeń do wykonywania operacji arytmetycznych na liczbach. Podstawą prawie wszystkich urządzeń wynalezionych w ciągu 5 wieków było koło zębate, zaprojektowane do ustalenia 10 cyfr dziesiętnego systemu liczbowego. Pierwszy na świecie rysunek szkicowy trzynastocyfrowego sumatora dziesiętnego opartego na takich kołach należy do Leonarda da Vinci.

Pierwszym faktycznie zaimplementowanym mechanicznym cyfrowym urządzeniem obliczeniowym była "Pascaline" wielkiego francuskiego naukowca Blaise'a Pascala, która była 6- (lub 8) cyfrowym urządzeniem na kołach zębatych, zaprojektowanym do sumowania i odejmowania liczb dziesiętnych (1642).

30 lat po Pascalinie, w 1673 roku, pojawiło się „przyrząd arytmetyczny” Gottfrieda Wilhelma Leibniza – dwunastocyfrowy przyrząd dziesiętny do wykonywania operacji arytmetycznych, w tym mnożenia i dzielenia.

Pod koniec XVIII wieku we Francji miały miejsce dwa wydarzenia, które miały fundamentalne znaczenie dla dalszego rozwoju cyfrowej technologii obliczeniowej. Wydarzenia te obejmują:

 wynalazek Josepha Jacquarda zaprogramowanego sterowania krosnem za pomocą kart perforowanych;

 opracowanie przez Gasparda de Prony technologii obliczeniowej dzielącej obliczenia numeryczne na trzy etapy: opracowanie metody numerycznej, opracowanie programu do ciągu działań arytmetycznych, wykonanie rzeczywistych obliczeń za pomocą działań arytmetycznych na liczbach zgodnie z opracowanym program.

Te innowacje zostały później wykorzystane przez Anglika Charlesa Babbage'a, który wykonał jakościowo nowy krok w rozwoju narzędzi VT - przejście od ręcznego do automatycznego wykonywania obliczeń zgodnie ze skompilowanym programem. Opracował projekt Silnika Analitycznego – mechanicznego uniwersalnego komputera cyfrowego z zarządzanie programem(1830-1846). Maszyna składała się z pięciu urządzeń: arytmetycznych (AU); pamięć (pamięć); zarządzanie (CU); wejście (UVV); wyjście (HC).

To właśnie z takich urządzeń składały się pierwsze komputery, które pojawiły się 100 lat później. AC zbudowano w oparciu o koła zębate, proponowano też zaimplementować na nich pamięć (dla tysięcy liczb 50-bitowych). Karty dziurkowane służyły do ​​wprowadzania danych i programów. Szacunkowa szybkość obliczeń - dodawanie i odejmowanie w 1 sekundę, mnożenie i dzielenie - w 1 minutę. Oprócz operacji arytmetycznych istniała instrukcja oddziału warunkowego.

Należy zauważyć, że choć powstały poszczególne elementy maszyny, to nie można było stworzyć całej maszyny ze względu na jej masywność. Potrzebałoby do tego ponad 50 000 samych kół zębatych.Wynalazca planował użyć silnika parowego do napędzania swojego silnika analitycznego.

W 1870 roku (rok przed śmiercią Babbage'a) angielski matematyk Jevons zaprojektował pierwszą na świecie „maszynę logiczną”, która umożliwiła zmechanizowanie najprostszych logicznych wniosków.

Twórcami maszyn logicznych w przedrewolucyjnej Rosji byli Pavel Dmitrievich Chruszczow (1849-1909) i Aleksander Nikołajewicz Szczukariew (1884-1936), którzy pracowali w instytucjach edukacyjnych na Ukrainie.

Genialny pomysł Babbage'a został zrealizowany przez amerykańskiego naukowca Howarda Aikena, który w 1944 roku stworzył pierwszy w USA komputer przekaźnikowo-mechaniczny. Jej główne bloki - arytmetyczny i pamięciowy - zostały wykonane na biegach. Jeśli Babbage znacznie wyprzedzał swoje czasy, to Aiken, używając tych samych narzędzi, technicznie używał przestarzałych rozwiązań podczas realizacji pomysłu Babbage'a.

Należy zauważyć, że dziesięć lat wcześniej, w 1934 roku, niemiecki student Konrad Zuse, który pracował nad swoją pracą dyplomową, postanowił wykonać komputer cyfrowy ze sterowaniem programowym. Ta maszyna była pierwszą na świecie, która korzystała z systemu binarnego. W 1937 roku maszyna Z1 wykonała pierwsze obliczenia. Był to binarny 22-bitowy zmiennoprzecinkowy z 64 numerami pamięci i działał na zasadzie czysto mechanicznej (dźwigni).

W tym samym 1937 roku, kiedy zaczęła działać pierwsza na świecie mechaniczna maszyna binarna Z1, John Atanasoff (z urodzenia Bułgar, mieszkający w USA) rozpoczął rozwój specjalistycznego komputera, po raz pierwszy wykorzystującego lampy próżniowe (300 lamp). świat.

W latach 1942-43 komputer Colossus powstał w Anglii (przy udziale Alana Turinga). Maszyna ta, składająca się z 2000 lamp próżniowych, była przeznaczona do dekodowania wiadomości radiowych z niemieckiego Wehrmachtu. Ponieważ prace Zuse i Turinga były tajne, mało kto o nich wiedział w tamtym czasie i nie wywołały żadnego rezonansu na świecie.

Dopiero w 1946 roku pojawiły się informacje o komputerze ENIAC (elektroniczny integrator cyfrowy i komputer), stworzonym w USA przez D. Mauchly'ego i P. Eckerta, wykorzystującym technologię elektroniczną. Maszyna wykorzystywała 18 000 lamp próżniowych i wykonywała około 3000 operacji na sekundę. Jednak maszyna pozostała dziesiętna, a jej pamięć miała tylko 20 słów. Programy były przechowywane poza pamięcią RAM.

Niemal równocześnie, w latach 1949-52. naukowcy z Anglii, Związku Radzieckiego i USA (Maurice Wilkes, komputer EDSAK, 1949; Sergey Lebedev, komputer MESM, 1951; Isaac Brook, komputer M1, 1952; John Mauchly i Presper Eckert, John von Neumann KOMPUTER „EDVAK”, 1952 ), stworzył komputer z programem zapisanym w pamięci.

Ogólnie przydziel pięć pokoleń KOMPUTER.

Pierwsza generacja (1945-1954 ) charakteryzuje się pojawieniem się technologii na lampach elektronowych. To era powstawania technologii komputerowej. Większość maszyn pierwszej generacji była urządzeniami eksperymentalnymi i została zbudowana w celu przetestowania pewnych stanowisk teoretycznych. Waga i rozmiary tych komputerów były takie, że często wymagały dla siebie oddzielnych budynków.

Za założycieli informatyki uważa się Claude'a Shannona – twórcę teorii informacji, Alan Turing – matematyka, który rozwinął teorię programów i algorytmów oraz Johna von Neumanna – autora projektu urządzeń obliczeniowych, który wciąż leży u podstaw większości komputery. W tych samych latach powstała inna nowa nauka związana z informatyką - cybernetyka - nauka o zarządzaniu jako jeden z głównych procesów informacyjnych. Założycielem cybernetyki jest amerykański matematyk Norbert Wiener.

Druga generacja (1955-1964) zamiast lamp próżniowych zastosowano tranzystory, a jako urządzenia pamięci zaczęto używać rdzeni magnetycznych i bębnów magnetycznych, odległych przodków współczesnych dysków twardych. Wszystko to pozwoliło drastycznie zredukować rozmiar i koszt komputerów, które wtedy najpierw budowano na sprzedaż.

Ale główne osiągnięcia tej epoki należą do obszaru programów. W drugiej generacji po raz pierwszy pojawił się tak zwany system operacyjny. W tym samym czasie powstały pierwsze języki wysokiego poziomu - Fortran, Algol, Kobol. Te dwa ważne ulepszenia znacznie uprościły i przyspieszyły pisanie programów na komputery.

To rozszerzyło zakres komputerów. Teraz nie tylko naukowcy mogli liczyć na dostęp do komputerów, ponieważ komputery były wykorzystywane do planowania i zarządzania, a niektóre duże firmy zaczęły nawet komputeryzować swoją księgowość, wyprzedzając ten proces o dwadzieścia lat.

W trzecie pokolenie (1965-1974) po raz pierwszy zaczęto stosować układy scalone - całe urządzenia i węzły dziesiątek i setek tranzystorów, wykonane na jednym krysztale półprzewodnikowym (mikroukładach). W tym samym czasie pojawiła się pamięć półprzewodnikowa, która do dziś jest używana w komputerach osobistych jako działająca.

W tych latach produkcja komputerów nabiera skali przemysłowej. IBM był pierwszą firmą, która wdrożyła serię w pełni kompatybilnych komputerów od najmniejszych rozmiarów małej obudowy (nie robili wtedy mniejszych) do najmocniejszych i najdroższych modeli. Najpopularniejsza w tamtych latach była rodzina System/360 firmy IBM, na bazie której w ZSRR opracowano serię komputerów ES. Na początku lat 60. pojawiły się pierwsze minikomputery – małe, energooszczędne komputery w przystępnej cenie małe firmy lub laboratoria. Minikomputery stanowiły pierwszy krok w kierunku komputerów osobistych, których prototypy zostały wydane dopiero w połowie lat 70-tych.

Tymczasem liczba elementów i połączeń między nimi, mieszczących się w jednym mikroukładzie, stale rosła, a w latach 70. układy scalone zawierały już tysiące tranzystorów.

W 1971 roku Intel wypuścił pierwszy mikroprocesor, który był przeznaczony do kalkulatorów biurkowych, które właśnie się pojawiły. Ten wynalazek miał wywołać prawdziwą rewolucję w następnej dekadzie. Mikroprocesor jest głównym elementem współczesnego komputera osobistego.

Na przełomie lat 60. i 70. XX wieku (1969) narodziła się pierwsza globalna sieć komputerowa ARPA, prototyp współczesnego Internetu. Również w 1969 roku system operacyjny Unix i język programowania C ("C") pojawiły się jednocześnie, co miało ogromny wpływ na świat oprogramowania i nadal utrzymuje swoją wiodącą pozycję.

Czwarta generacja (1975 - 1985) charakteryzuje się mniejszą liczbą fundamentalnych innowacji w informatyce. Postęp następuje głównie na drodze rozwoju tego, co już zostało wymyślone i wynalezione, przede wszystkim poprzez zwiększenie mocy i miniaturyzację bazy elementów oraz samych komputerów.

Najważniejszą innowacją czwartej generacji jest pojawienie się komputerów osobistych na początku lat 80-tych. Dzięki komputerom osobistym technologia obliczeniowa staje się naprawdę masowa i ogólnie dostępna. Pomimo tego, że komputery osobiste i minikomputery wciąż pozostają w tyle za dużymi maszynami pod względem mocy obliczeniowej, lwia część innowacji, takich jak graficzny interfejs użytkownika, nowe peryferia, globalne sieci, wiąże się z pojawieniem się i rozwojem tej konkretnej technologii.

Oczywiście duże komputery i superkomputery wciąż ewoluują. Ale teraz nie dominują już na arenie komputerowej, jak kiedyś.

Niektóre cechy technologii komputerowej czterech generacji podano w tabeli. 1.1.

Tabela 1.1

Generacje obliczeń

Pokolenie

główny element

E-mail lampa

Tranzystor

Układ scalony

Duży układ scalony (mikroprocesor)

Liczba komputerów

na świecie (szt.)

Dziesiątki tysięcy

Miliony

Wymiary komputera

Znacznie mniej

mikrokomputer

Operacje wydajnościowe (warunkowe) / sek

Wiele jednostek

Kilkadziesiąt

Kilka tysięcy

Kilkadziesiąt tysięcy

Nośnik informacji

Karta,

Taśma perforowana

Magnetyczny

Piąte pokolenie (od 1986 do chwili obecnej) w dużej mierze zdeterminowane wynikami prac Japońskiego Komitetu Badań Naukowych w dziedzinie komputerów, opublikowanych w 1981 roku. Zgodnie z tym projektem komputery i systemy obliczeniowe piątej generacji, oprócz wysokiej wydajności i niezawodności przy niższych kosztach przy pomocy najnowszych technologii, muszą spełniać następujące jakościowo nowe wymagania funkcjonalne:

 zapewnienie łatwości korzystania z komputerów poprzez wdrażanie systemów wprowadzania/wyprowadzania informacji za pomocą głosu, a także interaktywne przetwarzanie informacji przy użyciu języków naturalnych;

 dają możliwość uczenia się, konstrukcji asocjacyjnych i logicznych wniosków;

 Uprościć proces tworzenia oprogramowania poprzez automatyzację syntezy programów zgodnie ze specyfikacją wymagań wstępnych w językach naturalnych;

 poprawa podstawowych cech i właściwości użytkowych technologii komputerowej w celu sprostania różnym problemom społecznym, poprawa stosunku kosztów do wyników, szybkości, lekkości, zwartości komputerów;

 zapewniają różnorodne technologie obliczeniowe, wysoką zdolność adaptacji do aplikacji i niezawodność w działaniu.

Obecnie trwają intensywne prace nad stworzeniem komputerów optoelektronicznych o masywnej równoległości i strukturze neuronowej, będących rozproszoną siecią dużej liczby (dziesiątek tysięcy) prostych mikroprocesorów symulujących architekturę neuronowych systemów biologicznych.

Pierwszym urządzeniem zaprojektowanym w celu ułatwienia liczenia było liczydło. Za pomocą kości kont można było wykonywać operacje dodawania i odejmowania oraz proste mnożenia.

1642 – francuski matematyk Blaise Pascal zaprojektował pierwszą mechaniczną maszynę do dodawania „Pascaline”, która mogła wykonywać mechaniczne dodawanie liczb.

1673 - Gottfried Wilhelm Leibniz zaprojektował maszynę sumującą, która umożliwia mechaniczne wykonywanie czterech operacji arytmetycznych.

Pierwsza połowa XIX wieku - Angielski matematyk Charles Babbage próbował zbudować uniwersalne urządzenie obliczeniowe, czyli komputer. Babbage nazwał to silnikiem analitycznym. Ustalił, że komputer powinien zawierać pamięć i być kontrolowany przez program. Według Babbage'a komputer to urządzenie mechaniczne, dla którego programy ustawia się za pomocą kart dziurkowanych - kart z grubego papieru z naniesionymi za pomocą dziurek informacjami (były one już wówczas powszechnie stosowane w krosnach).

1941 - niemiecki inżynier Konrad Zuse konstruuje mały komputer oparty na kilku przekaźnikach elektromechanicznych.

1943 - w USA, w jednym z przedsiębiorstw IBM, Howard Aiken stworzył komputer o nazwie "Mark-1". Umożliwiał wykonywanie obliczeń setki razy szybciej niż ręcznie (przy użyciu maszyny sumującej) i był używany do obliczeń wojskowych. Wykorzystano kombinację sygnałów elektrycznych i mechanicznych siłowników. „Mark-1” miał wymiary: 15*2-5 mi zawierał 750 000 części. Maszyna była w stanie pomnożyć dwie 32-bitowe liczby w 4 sekundy.

1943 - w USA grupa specjalistów pod kierownictwem Johna Mauchly'ego i Prospera Eckerta zaczęła projektować komputer ENIAC oparty na lampach próżniowych.

1945 - w prace nad ENIAC zaangażowany był matematyk John von Neumann, który przygotował raport na temat tego komputera. W swoim raporcie von Neumann sformułował ogólne zasady funkcjonowania komputerów, czyli uniwersalnych urządzeń obliczeniowych. Do tej pory zdecydowana większość komputerów była wykonywana zgodnie z zasadami, które nakreślił John von Neumann.

1947 - Eckert i Mauchly rozpoczęli opracowywanie pierwszej elektronicznej maszyny seryjnej UNIVAC (Universal Automatic Computer). Pierwszy model maszyny (UNIVAC-1) został zbudowany dla US Census Bureau i wprowadzony do eksploatacji wiosną 1951 roku. Synchroniczny, sekwencyjny komputer UNIVAC-1 powstał na bazie komputerów ENIAC i EDVAC. Pracowała z częstotliwością zegara 2,25 MHz i zawierała około 5000 lamp próżniowych. Urządzenie pamięci wewnętrznej o pojemności 1000 12-bitowych liczb dziesiętnych zostało wykonane na 100 rtęciowych liniach opóźniających.

1949 – angielski badacz Mournes Wilks zbudował pierwszy komputer, który ucieleśnia zasady von Neumanna.

1951 - J. Forrester opublikował artykuł na temat wykorzystania rdzeni magnetycznych do przechowywania informacji cyfrowych Maszyna Whirlwind-1 jako pierwsza zastosowała pamięć rdzenia magnetycznego. Składał się z 2 kostek z 32-32-17 rdzeniami, które zapewniały przechowywanie 2048 słów dla 16-bitowych liczb binarnych z jednym bitem parzystości.

1952 - IBM wypuścił swój pierwszy przemysłowy komputer elektroniczny IBM 701, który był synchronicznym komputerem równoległym zawierającym 4000 lamp próżniowych i 12 000 diod. Ulepszona wersja maszyny IBM 704 była szybka, wykorzystywała rejestry indeksowe, a dane były reprezentowane w postaci zmiennoprzecinkowej.

Po komputerze IBM 704 ukazała się maszyna IBM 709, która pod względem architektonicznym zbliżyła się do maszyn drugiej i trzeciej generacji. W tej maszynie po raz pierwszy zastosowano adresowanie pośrednie i po raz pierwszy pojawiły się kanały wejścia-wyjścia.

1952 - Remington Rand wypuścił komputer UNIVAC-t 103, który jako pierwszy używał przerwań programowych. Pracownicy Remington Rand używali algebraicznej formy pisania algorytmów zwanej „Short Code” (pierwszy interpreter, stworzony w 1949 roku przez Johna Mauchly'ego).

1956 - IBM opracowało pływające głowice magnetyczne na poduszce powietrznej. Ich wynalazek umożliwił stworzenie nowego typu pamięci - nośników dyskowych (pamięci), których znaczenie zostało w pełni docenione w kolejnych dekadach rozwoju technologii komputerowej. Pierwsze pamięci dyskowe pojawiły się w maszynach IBM 305 i RAMAC. Ten ostatni miał pakiet składający się z 50 magnetycznie powlekanych metalowych dysków, które obracały się z prędkością 12 000 obr./min. /min Na powierzchni dysku znajdowało się 100 ścieżek do zapisu danych po 10 000 znaków każda.

1956 - Ferranti wypuścił komputer Pegasus, który po raz pierwszy ucieleśniał koncepcję rejestrów ogólnego przeznaczenia (RON). Wraz z nadejściem RON rozróżnienie między rejestrami indeksowymi a akumulatorami zostało wyeliminowane, a programista miał do dyspozycji nie jeden, ale kilka rejestrów akumulatorów.

1957 - grupa kierowana przez D. Backusa zakończyła prace nad pierwszym językiem programowania wysokiego poziomu, zwanym FORTRAN. Język, zaimplementowany po raz pierwszy na komputerze IBM 704, przyczynił się do rozszerzenia zakresu komputerów.

1960 - Komputery II generacji, elementy logiczne komputerów realizowane są w oparciu o urządzenia półprzewodnikowe-tranzystory, opracowywane są algorytmiczne języki programowania, takie jak Algol, Pascal i inne.

lata 70. - komputery III generacji, układy scalone zawierające w jednym płytka półprzewodnikowa tysiące tranzystorów. OS, zaczęto tworzyć strukturalne języki programowania.

1974 - kilka firm ogłosiło stworzenie komputera osobistego opartego na mikroprocesorze Intel-8008 - urządzenia, które spełnia te same funkcje co duży komputer, ale jest przeznaczone dla jednego użytkownika.

1975 - pojawił się pierwszy komercyjnie dystrybuowany komputer osobisty Altair-8800 oparty na mikroprocesorze Intel-8080. Ten komputer miał tylko 256 bajtów pamięci RAM i nie miał klawiatury ani ekranu.

Późny 1975 - Paul Allen i Bill Gates (przyszli założyciele Microsoftu) stworzyli interpreter języka Basic dla komputera Altair, który pozwalał użytkownikom po prostu komunikować się z komputerem i łatwo pisać dla niego programy.

sierpień 1981 - Firma IBM wprowadził IBM PC. Jako główny mikroprocesor komputera zastosowano 16-bitowy mikroprocesor Intel-8088, który umożliwiał pracę z 1 megabajtem pamięci.

lata 80. - Komputery IV generacji, zbudowane na dużych układach scalonych. Mikroprocesory są realizowane w postaci pojedynczego mikroukładu, masowej produkcji komputerów osobistych.

1990 — Komputery piątej generacji, ultraduże układy scalone. Procesory zawierają miliony tranzystorów. Powstanie globalnych sieci komputerowych masowego użytku.

2000s — 6. generacja komputerów. Integracja komputerów i sprzętu AGD, komputery wbudowane, rozwój informatyki sieciowej.

DZWON

Są tacy, którzy czytają tę wiadomość przed tobą.
Subskrybuj, aby otrzymywać najnowsze artykuły.
E-mail
Nazwa
Nazwisko
Jak chciałbyś przeczytać The Bell?
Bez spamu