DZWON

Są tacy, którzy czytają tę wiadomość przed tobą.
Zapisz się, aby otrzymywać najnowsze artykuły.
E-mail
Nazwa
Nazwisko
Jak chciałbyś przeczytać The Bell?
Bez spamu

Figurki gliniane, również przeznaczone do wizualnego przedstawienia ilości liczonych sztuk, jednak dla wygody umieszczane są w specjalnych pojemnikach. Wydaje się, że takie urządzenia były używane przez ówczesnych kupców i księgowych.

Stopniowo powstawały coraz bardziej złożone urządzenia z najprostszych urządzeń do liczenia: liczydło (liczba), suwak logarytmiczny, mechaniczna maszyna sumująca, komputer elektroniczny. Pomimo prostoty wczesnych urządzeń obliczeniowych, doświadczony księgowy może uzyskać wyniki dzięki prostym obliczeniom nawet szybciej niż powolny posiadacz nowoczesnego kalkulatora. Oczywiście, wydajność i szybkość liczenia nowoczesnych urządzeń komputerowych już dawno przewyższają możliwości najwybitniejszego ludzkiego kalkulatora.

Pomoce i urządzenia do wczesnego liczenia

Ludzkość nauczyła się korzystać z najprostszych urządzeń liczących tysiące lat temu. Największą popularnością cieszyła się potrzeba określenia liczby przedmiotów używanych w handlu wymiennym. Jednym z najprostszych rozwiązań było zastosowanie równoważnika wagowego wymienianego przedmiotu, co nie wymagało dokładnego przeliczenia ilości jego składników. Do tych celów wykorzystano najprostsze wagi wyważające, które tym samym stały się jednym z pierwszych urządzeń do ilościowego oznaczania masy.

Zasada równoważności była szeroko stosowana w innych, znanych wielu, najprostszych urządzeniach liczących Abacus lub Abacus. Liczba zliczonych przedmiotów odpowiadała liczbie przesuniętych kostek tego instrumentu.

Względnie skomplikowanym urządzeniem do liczenia może być różaniec używany w praktyce wielu religii. Wierzący, jak na rachunkach, liczył liczbę modlitw wypowiadanych na paciorkach różańca, a po przejściu pełnego koła różańca przesuwał specjalne liczniki ziaren na osobnym ogonie, wskazując liczbę zliczonych kół.

Wraz z wynalezieniem kół zębatych pojawiły się znacznie bardziej złożone urządzenia obliczeniowe. Mechanizm z Antykithiry, odkryty na początku XX wieku, który został znaleziony we wraku starożytnego statku, który zatonął około 65 roku p.n.e. mi. (według innych źródeł, a nawet 87 pne), wiedział nawet, jak modelować ruch planet. Przypuszczalnie służył do obliczeń kalendarzowych do celów religijnych, przewidywania zaćmień Słońca i Księżyca, określania czasu siewu i zbioru itp. Obliczenia wykonano łącząc ponad 30 brązowych kół i kilka tarcz; do obliczenia faz księżyca wykorzystano transmisję różnicową, której wynalazek naukowcy przez długi czas nadana nie wcześniej niż w XVI wieku. Jednak wraz z odejściem starożytności zapomniano o umiejętnościach tworzenia takich urządzeń; około półtora tysiąca lat zajęło ludziom nauczenie się, jak ponownie tworzyć mechanizmy o podobnej złożoności.

Zegar liczący autorstwa Wilhelma Schickarda

Następnie pojawiły się maszyny Blaise'a Pascala („Pascaline”, 1642) i Gottfrieda Wilhelma Leibniza.

ANITA Marka VIII, 1961

W Związku Radzieckim w tym czasie najbardziej znanym i rozpowszechnionym kalkulatorem była mechaniczna maszyna do dodawania Felix, produkowana w latach 1929-1978 w fabrykach w Kursku (zakład Schetmash), Penza i Moskwie.

Pojawienie się komputerów analogowych w latach przedwojennych

Główny artykuł: Historia analogu komputery

Analizator różnicowy, Cambridge, 1938

Pierwsze elektromechaniczne komputery cyfrowe

Seria Z Konrada Zuse

Reprodukcja komputera Zuse Z1 w Muzeum Techniki w Berlinie

Zuse i jego firma zbudowali inne komputery, z których każdy zaczynał się od dużej litery Z. Najbardziej znanymi maszynami były Z11, sprzedawany przemysłowi optycznemu i uniwersytetom, oraz Z22, pierwszy komputer z pamięcią magnetyczną.

Brytyjski Kolos

W październiku 1947 roku dyrektorzy Lyons & Company, brytyjskiej firmy posiadającej sieć sklepów i restauracji, postanowili wziąć czynny udział w rozwoju komercyjnego rozwoju komputerów. Komputer LEO I zaczął działać w 1951 roku i był pierwszym na świecie używanym regularnie do rutynowej pracy biurowej.

Maszyna z Uniwersytetu w Manchesterze stała się prototypem Ferranti Mark I. Pierwsza taka maszyna została dostarczona na uniwersytet w lutym 1951 roku, a co najmniej dziewięć innych sprzedano w latach 1951-1957.

Komputer IBM 1401 drugiej generacji, wyprodukowany na początku lat 60., zajmował około jednej trzeciej światowego rynku komputerowego, sprzedano ponad 10 000 tych maszyn.

Zastosowanie półprzewodników umożliwiło udoskonalenie nie tylko jednostki centralnej, ale również urządzeń peryferyjnych. Druga generacja urządzeń do przechowywania danych umożliwiła już przechowywanie dziesiątek milionów znaków i cyfr. Nastąpił podział na sztywno ustalone ( naprawił) urządzenia pamięci masowej podłączone do procesora kanałem szybkiego przesyłania danych i wymienne ( usuwany) urządzenia. Wymiana kasety z płytami w zmieniarce zajęła tylko kilka sekund. Wprawdzie pojemność nośników wymiennych była zwykle mniejsza, ale ich wymienność umożliwiała przechowywanie niemal nieograniczonej ilości danych. Taśmy były powszechnie używane do archiwizacji danych, ponieważ zapewniały większą pamięć masową przy niższych kosztach.

W wielu maszynach drugiej generacji funkcje komunikacji z peryferiami zostały przekazane wyspecjalizowanym koprocesorom. Na przykład, gdy procesor peryferyjny odczytuje lub dziurkuje karty perforowane, procesor główny wykonuje obliczenia lub rozgałęzia programu. Jedna magistrala danych przenosi dane między pamięcią a procesorem podczas cyklu pobierania i wykonywania, a zwykle inne magistrale danych obsługują urządzenia peryferyjne. Na PDP-1 cykl dostępu do pamięci trwał 5 mikrosekund; większość instrukcji wymagała 10 mikrosekund: 5 na pobranie instrukcji i kolejne 5 na pobranie operandu.

Historia rozwoju Informatyka

Rozwój technologii obliczeniowej można podzielić na: następujące okresy:

Ø podręcznik(VI wpne - XVII wne)

Ø Mechaniczny(XVII wiek - połowa XX wieku)

Ø Elektroniczny(połowa XX wiek - obecnie)

Chociaż Prometeusz w tragedii Ajschylosa stwierdza: „Pomyśl, co zrobiłem śmiertelnikom: wymyśliłem z nią liczbę i nauczyłem się łączyć litery”, pojęcie liczby powstało na długo przed pojawieniem się pisma. Ludzie od wieków uczą się liczyć, przekazując i wzbogacając swoje doświadczenia z pokolenia na pokolenie.

Konto, czy szerzej – obliczenia, można przeprowadzić w różne formy: istnieje liczenie ustne, pisemne i instrumentalne . Fundusze na rachunku instrumentalnym w różnym czasie miały różne możliwości i były inaczej nazywane.

etap ręczny (VI wpne - XVII wne)

Pojawienie się konta w starożytności - "To był początek początków ..."

Szacowany wiek ostatniego pokolenia ludzkości to 3-4 miliony lat. Tyle lat temu pewien mężczyzna wstał i podniósł narzędzie, które sam wykonał. Jednak umiejętność liczenia (czyli umiejętność rozkładania pojęć „więcej” i „mniej” na określoną liczbę jednostek) powstała u ludzi znacznie później, a mianowicie 40-50 tysięcy lat temu (późny paleolit) . Ten etap odpowiada pojawieniu się współczesnego człowieka (Cro-Magnon). Tak więc jedną z głównych (jeśli nie główną) cechą odróżniającą człowieka z Cro-Magnon od starszego stadium człowieka jest obecność w nim zdolności liczenia.

Łatwo się domyślić, że pierwszy urządzeniem liczącym człowieka były jego palce.

Palce okazały się świetnemaszyna obliczeniowa. Z ich pomocą można było policzyć do 5, a jeśli weźmiesz dwie ręce, to do 10. A w krajach, w których ludzie chodzili boso, na palcach łatwo było policzyć do 20. Wtedy to praktycznie wystarczyło dla większości potrzeby ludzi.

Palce okazały się być tak ściśle związane z twierdzą, że w starożytnej grece pojęcie „liczyć” wyrażano słowem„do pięciokrotności”. Tak, a po rosyjsku słowo „pięć” przypomina „śródręcze” - część ręce (słowo „pastern” jest obecnie rzadko wymieniane, ale jego pochodną jest „nadgarstek” – obecnie często używany). Ręka, śródręcze, jest u wielu narodów synonimem, a właściwie podstawą liczebnika „PIĘĆ”. Na przykład malajskie „LIMA” oznacza zarówno „rękę”, jak i „pięć”.

Jednak znane są narody, których jednostki rozliczeniowe nie były palcami, ale ich stawami.

Nauka liczenia na palcachdziesięć, ludzie zrobili kolejny krok naprzód i zaczęli liczyć do dziesiątek. A jeśli niektóre plemiona papuaskie mogły liczyć tylko do sześciu, to inne liczyły kilkadziesiąt. Tylko do tego było to konieczne zapraszam wiele liczników na raz.

W wielu językach słowa „dwa” i „dziesięć” są spółgłoskami. Być może wynika to z faktu, że kiedyś słowo „dziesięć” oznaczało „dwie ręce”. A teraz są plemiona, które mówią:„dwie ręce” zamiast „dziesięciu” i „ręce i stopy” zamiast „dwudziestu”. A w Anglii pierwsze dziesięć numerów nazywa się potoczną nazwą - „palce”. Oznacza to, że Brytyjczycy kiedyś policzyli na palcach.

Liczenie palców zachowało się w niektórych miejscach do dziś, na przykład historyk matematyki L. Karpinsky w książce „Historia arytmetyki” donosi, że na największej na świecie giełdzie zbożowej w Chicago, oferty i zapytania, a także ceny, są ogłaszane przez brokerów na palcach bez jednego słowa.

Potem przyszło liczenie z przesuwaniem kamieni, liczenie za pomocą różańca... To był znaczący przełom w ludzkich zdolnościach liczenia - początek abstrakcji liczb.

Wykład nr 10. HISTORIA ROZWOJU SPRZĘTU KOMPUTEROWEGO

1.1. WSTĘPNY ETAP ROZWOJU SPRZĘTU KOMPUTEROWEGO

Konieczność automatyzacji przetwarzania danych, w tym obliczeń, pojawiła się bardzo dawno temu. Uważa się, że historycznie pierwszym i odpowiednio najprostszym urządzeniem liczącym było liczydło, które należy do ręcznych urządzeń liczących.

Deska została podzielona na rowki. Jeden rowek odpowiadał jedynkom, drugi dziesiątkom i tak dalej. Jeśli podczas liczenia w rowku zgromadziło się więcej niż 10 kamyków, usuwano je i dodawano jeden kamyk do następnej kategorii. W krajach Dalekiego Wschodu chiński odpowiednik liczydła był szeroko rozpowszechniony - suan pan(konto było oparte nie na dziesięciu, ale na pięciu), w Rosji - liczydło.

Liczydło

Suana patelnia. założony 1930

Konta. Zestaw 401.28

Pierwszą próbą rozwiązania problemu stworzenia maszyny, która potrafi dodawać wielocyfrowe liczby całkowite, był szkic 13-bitowego sumatora opracowanego przez Leonarda da Vinci około 1500 roku.

W 1642 r. Blaise Pascal wynalazł urządzenie, które mechanicznie wykonuje dodawanie liczb. Po zapoznaniu się z dziełami Pascala i przestudiowaniu jego maszyny arytmetycznej, Gottfried Wilhelm Leibniz dokonał w niej znaczących ulepszeń, a w 1673 zaprojektował maszynę sumującą, która umożliwia mechanicznie wykonać cztery operacje arytmetyczne. Od XIX wieku dodawanie maszyn stało się bardzo rozpowszechnione i stosowane. Wykonano na nich nawet bardzo skomplikowane obliczenia, na przykład obliczenia tablic balistycznych do ostrzału artyleryjskiego. Był specjalny zawód - licznik.

Pomimo wyraźnego postępu w porównaniu z liczydłem i podobnymi urządzeniami do ręcznego liczenia, te mechaniczne urządzenia liczące wymagana stała interwencja człowieka w trakcie obliczeń. Osoba dokonująca obliczeń na takim urządzeniu sama kontroluje jego pracę, określa kolejność wykonywanych operacji.

Marzeniem wynalazców technologii komputerowej było stworzenie automatu liczącego, który bez ingerencji człowieka wykonywałby obliczenia według wcześniej skompilowanego programu.

W pierwszej połowie XIX wieku angielski matematyk Charles Babbage próbował stworzyć uniwersalną urządzenie komputerowesilnik analityczny, który miał wykonywać operacje arytmetyczne bez ingerencji człowieka. Silnik analityczny opierał się na zasadach, które stały się podstawą technologii komputerowej i zawierał wszystkie główne komponenty dostępne w nowoczesnym komputerze. Silnik analityczny Babbage'a miał składać się z następujących części:

1. „Fabryka” – urządzenie, w którym wykonywane są wszystkie operacje przetwarzania wszystkich typów danych (ALU).

2. „Biuro” – urządzenie zapewniające organizację wykonania programu przetwarzania danych oraz skoordynowaną pracę wszystkich węzłów maszyny podczas tego procesu (CU).

3. „Magazyn” to urządzenie przeznaczone do przechowywania danych początkowych, wartości pośrednich oraz wyników przetwarzania danych (pamięć lub po prostu pamięć).

4. Urządzenia zdolne do konwersji danych do postaci dostępnej dla komputera (kodowanie). Urządzenia wejściowe.

5. Urządzenia zdolne do konwersji wyników przetwarzania danych do postaci zrozumiałej dla osoby. urządzenia zewnętrzne.

W finalnej wersji maszyna posiadała trzy urządzenia do wprowadzania kart perforowanych, z których odczytywany był program i dane do przetworzenia.

Babbage nie był w stanie dokończyć dzieła - okazało się to zbyt trudne w oparciu o ówczesne techniki mechaniczne. Opracował jednak podstawowe idee, a w 1943 roku Amerykanin Howard Aiken, oparty na technologii już dwudziestowiecznej - przekaźniki elektromechaniczne- potrafił zbudować w jednym z przedsiębiorstw firmy IBM taka maszyna o nazwie „Mark-1”. Zastosowano w nim elementy mechaniczne (koła obliczeniowe) do reprezentowania liczb, a elementy elektromechaniczne do sterowania.

1.2. POCZĄTEK WSPÓŁCZESNEJ HISTORII ELEKTRONICZNEGO SPRZĘTU KOMPUTEROWEGO

Prawdziwa rewolucja w informatyce nastąpiła w związku z wykorzystaniem urządzenia elektryczne. Prace nad nimi rozpoczęły się pod koniec lat 30-tych jednocześnie w USA, Niemczech, Wielkiej Brytanii i ZSRR. Do tego czasu lampy próżniowe, które stały się podstawa techniczna urządzenia do przetwarzania i przechowywania informacji cyfrowych są już szeroko stosowane w urządzeniach radiotechnicznych.

Ogromny wkład w teorię i praktykę tworzenia elektronicznej technologii obliczeniowej na etap początkowy jego rozwój został wprowadzony przez jednego z największych matematyków amerykańskich, Johna von Neumanna. „Zasady von Neumanna” weszły na zawsze do historii nauki. Połączenie tych zasad dało początek klasycznej (von Neumann) architekturze komputerowej. Jedna z najważniejszych zasad - zasada programu przechowywanego - wymaga, aby program był przechowywany w pamięci maszyny w taki sam sposób, jak jest w niej przechowywany. informacje ogólne. Pierwszy komputer z zapisanym programem ( EDSAC ) został zbudowany w Wielkiej Brytanii w 1949 roku.

W naszym kraju do lat 70. tworzenie komputerów odbywało się niemal całkowicie niezależnie i niezależnie od świata zewnętrznego (a sam ten „świat” był prawie całkowicie zależny od Stanów Zjednoczonych). Faktem jest, że elektroniczna technologia obliczeniowa od samego początku była uważana za ściśle tajną produkt strategiczny, a ZSRR musiał go samodzielnie opracować i wyprodukować. Stopniowo tryb tajności łagodniał, ale nawet pod koniec lat 80. nasz kraj mógł kupować tylko przestarzałe modele komputerów za granicą (a wiodący producenci - USA i Japonia - wciąż rozwijają i produkują najnowocześniejsze i najmocniejsze komputery w trybie tajnym ).

Pierwszy domowy komputer - MESM ("mała elektroniczna maszyna obliczeniowa") - powstał w 1951 roku pod kierownictwem Siergieja Aleksandrowicza Lebiediewa, największego radzieckiego projektanta technologii komputerowej. Rekordem wśród nich i jednym z najlepszych na świecie w swoim czasie była BESM-6 („duża elektroniczna maszyna licząca, model 6”), stworzona w połowie lat 60. i przez długi czas była podstawową maszyną w obronności, kosmosie badania naukowe, badania naukowe i techniczne w ZSRR. Oprócz maszyn serii BESM produkowano również komputery innych serii - Mińsk, Ural, M-20, Mir i inne.

Wraz z rozpoczęciem seryjnej produkcji komputerów zaczęli warunkowo dzielić je na pokolenia; odpowiednia klasyfikacja jest podana poniżej.

1.3. POKOLENIA KOMPUTEROWE

W historii technologii komputerowej istnieje rodzaj periodyzacji komputerów na pokolenia. Pierwotnie opierał się na zasadzie fizycznej i technologicznej: maszyna jest przypisywana do jednej lub drugiej generacji w zależności od użytych w niej elementów fizycznych lub technologii ich wytwarzania. Granice pokoleń w czasie zacierają się, ponieważ w tym samym czasie produkowano samochody na zupełnie innych poziomach. Kiedy podaje się daty odnoszące się do pokoleń, najprawdopodobniej oznaczają one okres produkcji przemysłowej; projekt został wykonany znacznie wcześniej i nadal można spotkać bardzo egzotyczne urządzenia działające do dziś.

Obecnie nie tylko zasada fizyko-technologiczna określa, czy dany komputer należy do pokolenia. Należy również wziąć pod uwagę poziom oprogramowania, szybkość i inne czynniki, z których główne podsumowano w załączonej tabeli. 4.1.

Należy zrozumieć, że podział komputerów na pokolenia jest bardzo względny. Pierwsze komputery, wyprodukowane przed początkiem lat 50., były produktami „kawałkowymi”, na których opracowano podstawowe zasady; nie ma szczególnego powodu, aby przypisywać je jakiemukolwiek pokoleniu. Nie ma jednomyślności w określaniu znaków piątego pokolenia. W połowie lat 80. uważano, że główną cechą tego (przyszłego) pokolenia jest… pełne wdrożenie zasad sztucznej inteligencji. Zadanie to okazało się dużo trudniejsze niż to się wówczas wydawało, a wielu specjalistów obniża poprzeczkę za ten etap (a nawet twierdzi, że już się odbyło). W historii nauki są analogi tego zjawiska: na przykład po udanym uruchomieniu pierwszego elektrownie jądrowe w połowie lat pięćdziesiątych naukowcy ogłosili, że niedługo nastąpi uruchomienie wielokrotnie potężniejszych, tańszych energetycznie, przyjaznych dla środowiska stacji termojądrowych; jednak nie docenili gigantycznych trudności po drodze, ponieważ do dziś nie ma elektrowni termojądrowych.

Jednocześnie wśród maszyn czwartej generacji różnica jest niezwykle duża, a więc w tabeli. 4.1 odpowiednia kolumna jest podzielona na dwie: A i B. Daty wskazane w górnym wierszu odpowiadają pierwszym latom produkcji komputera. Wiele z pojęć odzwierciedlonych w tabeli zostanie omówionych w kolejnych rozdziałach podręcznika; tutaj ograniczamy się do krótkiego komentarza.

Im młodsze pokolenie, tym jaśniejsze są cechy klasyfikacji. Komputery pierwszej, drugiej i trzeciej generacji są dziś co najwyżej eksponatami muzealnymi.

Jakie komputery należą do pierwszej generacji?

Do pierwsza generacja zazwyczaj obejmują maszyny powstałe na przełomie lat 50-tych. Stosowane przez nich schematy lampy elektroniczne. Te komputery były ogromne, niewygodne i zbyt drogie auta, które mogły być nabyte tylko przez duże korporacje i rządy. Lampy zużywały ogromne ilości energii elektrycznej i generowały dużo ciepła.

Zestaw instrukcji był mały, schemat jednostki arytmetyczno-logicznej i jednostki sterującej jest dość prosty, oprogramowanie był praktycznie nieobecny. Ocena pamięci RAM i wydajności była niska. Do I/O użyto taśm dziurkowanych, kart dziurkowanych, taśm magnetycznych i urządzeń drukujących.

Prędkość wynosi około 10-20 tysięcy operacji na sekundę.

Ale to tylko strona techniczna. Inna sprawa też jest bardzo ważna – sposoby korzystania z komputerów, styl programowania, cechy oprogramowania.

Napisano programy dla tych maszyn w języku konkretnej maszyny. Matematyk, który skompilował program, usiadł przy panelu sterowania maszyny, wprowadził i debugował programy oraz założył na nich konto. Najdłużej trwał proces debugowania.

Mimo ograniczonych możliwości maszyny te umożliwiły wykonanie najbardziej skomplikowanych obliczeń niezbędnych do prognozowania pogody, rozwiązywania problemów energetyki jądrowej itp.

Doświadczenie z pierwszą generacją maszyn pokazało, że istnieje ogromna przepaść między czasem poświęconym na tworzenie programów a czasem obliczeń.

Maszyny domowe pierwszej generacji: MESM (mała elektroniczna maszyna licząca), BESM, Strela, Ural, M-20.

Jakie komputery należą do drugiej generacji?

Drugie pokolenie technika komputerowa - maszyny zaprojektowane w latach 1955-65. Charakteryzują się zastosowaniem jako lampy elektroniczne, oraz dyskretne tranzystorowe elementy logiczne,. Ich pamięć RAM została zbudowana na rdzeniach magnetycznych. W tym czasie gama używanego sprzętu wejścia-wyjścia zaczęła się rozszerzać, o wysokiej wydajności urządzenia do pracy z taśmami magnetycznymi, bębny magnetyczne i pierwsze dyski magnetyczne.

Wydajność- do setek tysięcy operacji na sekundę, pojemność pamięci- do kilkudziesięciu tysięcy słów.

Tak zwany Języki wysoki poziom , których środki pozwalają na opis całej niezbędnej sekwencji działań obliczeniowych w wizualny, łatwy do zrozumienia sposób.

Program napisany w języku algorytmicznym jest niezrozumiały dla komputera, który rozumie tylko język własnych poleceń. Dlatego specjalne programy zwane tłumacze, przetłumacz program z języka wysokiego poziomu na język maszynowy.

Pojawiła się szeroka gama programów bibliotecznych do rozwiązywania różnych problemów matematycznych. Pojawił się systemy monitorowania, które kontrolują tryb nadawania i realizacji programu. Z systemów monitorowych później wyrosły nowoczesne systemy operacyjne.

W ten sposób, system operacyjny jest rozszerzeniem oprogramowania komputerowego urządzenia sterującego.

Dla niektórych maszyn drugiej generacji powstały już systemy operacyjne o ograniczonych możliwościach.

Scharakteryzowano maszyny drugiej generacji niekompatybilność oprogramowania, co utrudniało organizowanie dużych systemów informatycznych. Dlatego w połowie lat 60. nastąpiło przejście do tworzenia komputerów kompatybilnych z oprogramowaniem i zbudowanych na bazie mikroelektronicznej technologii.

Jakie są cechy komputerów trzeciej generacji?

Maszyny trzeciej generacji powstały mniej więcej po latach 60-tych. Ponieważ proces tworzenia technologii komputerowej był ciągły i angażował wiele osób z różnych krajów, zajmujących się rozwiązywaniem różnych problemów, trudno i bezużytecznie próbować ustalić, kiedy „pokolenie” zaczęło się i skończyło. Być może najważniejszym kryterium rozróżnienia maszyn drugiej i trzeciej generacji jest kryterium oparte na koncepcji architektury.

Maszyny trzeciej generacji to rodziny maszyn o wspólnej architekturze, tj. kompatybilny z oprogramowaniem. Jako podstawę elementów wykorzystują układy scalone, zwane również mikroukładami.

Maszyny trzeciej generacji mają zaawansowane systemy operacyjne. Posiadają możliwości multiprogramowania, tj. jednoczesne wykonywanie kilku programów. Wiele zadań związanych z zarządzaniem pamięcią, urządzeniami i zasobami zaczął być przejmowany przez system operacyjny lub bezpośrednio przez samą maszynę.

Przykładami maszyn trzeciej generacji są rodziny IBM-360, IBM-370, komputery ES (zunifikowany system komputerowy), komputery SM (rodzina małych komputerów) itp.

Prędkość maszyn w rodzinie waha się od kilkudziesięciu tysięcy do milionów operacji na sekundę. Pojemność pamięci RAM sięga kilkuset tysięcy słów.

Co jest typowe dla samochodów czwartej generacji?

czwarta generacja to aktualna generacja technologii komputerowej opracowana po 1970 roku.

Koncepcyjnie najważniejszym kryterium, według którego te komputery można odróżnić od maszyn trzeciej generacji, jest to, że maszyny czwartej generacji zostały zaprojektowane do efektywne wykorzystanie nowoczesne języki wysokiego poziomu i uproszczenie procesu programowania dla użytkownika końcowego.

Pod względem sprzętowym charakteryzują się powszechnym zastosowaniem układy scalone jako podstawa elementów, a także dostępność szybkich urządzeń pamięci masowej o dostępie swobodnym o pojemności dziesiątek megabajtów.

Z punktu widzenia konstrukcji maszyny tej generacji są kompleksy wieloprocesorowe i wielomaszynowe, praca na pamięci współdzielonej i wspólnym polu urządzeń zewnętrznych. Szybkość dochodzi do kilkudziesięciu milionów operacji na sekundę, pojemność pamięci RAM to około 1 - 64 MB.

Charakteryzują się:

  • aplikacja komputery osobiste;
  • przetwarzanie danych telekomunikacyjnych;
  • sieć komputerowa;
  • powszechne stosowanie systemów zarządzania bazami danych;
  • elementy inteligentnego zachowania systemów i urządzeń przetwarzających dane.

Jakie powinny być komputery piątej generacji?

Rozwój kolejnych generacji komputerów opiera się na: duże układy scalone o podwyższonym stopniu integracji, wykorzystując zasady optoelektroniczne ( lasery,holografia).

Rozwój też jest w drodze „intelektualizacja” komputery, usuwając barierę między człowiekiem a komputerem. Komputery będą mogły odbierać informacje z odręcznego lub drukowanego tekstu, z formularzy, z ludzkiego głosu, rozpoznawać głos użytkownika i tłumaczyć z jednego języka na inny.

W komputerach piątej generacji nastąpi jakościowe przejście od przetwarzania dane do przetwarzania wiedza.

Architektura komputerów przyszłej generacji będzie składać się z dwóch głównych bloków. Jeden z nich jest tradycyjny komputer. Ale teraz nie ma kontaktu z użytkownikiem. To połączenie jest realizowane przez blok zwany terminem „inteligentny interfejs”. Jego zadaniem jest zrozumienie tekstu napisanego w języku naturalnym i zawierającego stan problemu oraz przetłumaczenie go na działający program na komputer.

Problem decentralizacji informatyki zostanie również rozwiązany za pomocą sieć komputerowa, zarówno dużych, położonych w znacznej odległości od siebie, jak i miniaturowych komputerów umieszczonych na jednym chipie półprzewodnikowym.

Pokolenia komputerów

Indeks

Pokolenia komputerów

Pierwszy

1951-1954

Drugi

1958-I960

Trzeci

1965-1966

Czwarty

Piąty

1976-1979

1985-?

Podstawa elementu procesora

Elektroniczny

Lampy

tranzystory

Układy scalone

(JEST)

Duże układy scalone (LSI)

SverbigIS

(VLSI)

Optoelektronika

Krioelektronika

Podstawa elementu RAM

Lampy katodowe

Rdzenie ferrytowe

ferryt

rdzenie

BIS

VLSI

VLSI

Maksymalna pojemność pamięci RAM, bajty

10 2

10 1

10 4

10 5

10 7

10 8 (?)

Maksymalna szybkość procesora (operacje/s)

10 4

10 6

10 7

10 8

10 9

Wieloprzetwarzanie

10 12 ,

Wieloprzetwarzanie

Języki programowania

kod maszynowy

monter

Języki proceduralne wysokiego poziomu (HLL)

Nowy

proceduralne HLL

Nieproceduralne HLL

Nowe nieproceduralne NED

Środki komunikacji między użytkownikiem a komputerem

Panel sterowania i karty dziurkowane

Karty dziurkowane i taśmy dziurkowane

Terminal alfanumeryczny

Monochromatyczny wyświetlacz graficzny, klawiatura

Kolor + wyświetlacz graficzny, klawiatura, mysz itp.

PODSTAWY PC

Ludzie zawsze odczuwali potrzebę posiadania konta. Aby to zrobić, używali palców, kamyków, które układali w stosy lub układali w rzędzie. Liczbę przedmiotów ustalano za pomocą kresek rysowanych po ziemi, za pomocą nacięć na kijach i węzłów zawiązanych na linie.

Wraz ze wzrostem liczby sztuk do przeliczenia, rozwojem nauk i rzemiosł konieczne stało się wykonywanie najprostszych obliczeń. Najstarszym instrumentem znanym w różnych krajach jest liczydło (in Starożytny Rzym nazywano je kamieniami). Pozwalają na wykonywanie prostych obliczeń na duże liczby. Liczydło okazało się tak skutecznym narzędziem, że przetrwało od czasów starożytnych niemal do dnia dzisiejszego.

Nikt nie może nazwać dokładny czas i miejsce pojawienia się rachunków. Historycy są zgodni, że ich wiek to kilka tysięcy lat, a ich ojczyzną mogą być starożytne Chiny, starożytny Egipt i starożytna Grecja.

1.1. KRÓTKA HISTORIA

ROZWÓJ SPRZĘTU KOMPUTEROWEGO

Wraz z rozwojem nauk ścisłych pojawiła się pilna potrzeba przeprowadzenia dużej liczby dokładnych obliczeń. W 1642 r. francuski matematyk Blaise Pascal skonstruował pierwszą mechaniczną maszynę liczącą, znaną jako maszyna sumująca Pascala (rys. 1.1). Ta maszyna była kombinacją połączonych kół i napędów. Koła oznaczono numerami od 0 do 9. Gdy pierwsze koło (jedynki) wykonało pełny obrót, drugie koło (dziesiątki) uruchamiało się automatycznie; kiedy osiągnął również liczbę 9, trzecie koło zaczęło się obracać i tak dalej. Maszyna Pascala mogła tylko dodawać i odejmować.

W 1694 r. niemiecki matematyk Gottfried Wilhelm von Leibniz zaprojektował bardziej zaawansowaną maszynę liczącą (ryc. 1.2). Był przekonany, że jego wynalazek znajdzie szerokie zastosowanie nie tylko w nauce, ale także w życiu codziennym. W przeciwieństwie do maszyny Pascala Leibniz używał raczej cylindrów niż kół i napędów. Numery zostały nałożone na cylindry. Każdy cylinder miał dziewięć rzędów występów lub zębów. W tym przypadku pierwszy rząd zawierał 1 półkę, drugi - 2 i tak dalej aż do dziewiątego rzędu, który zawierał 9 półek. Cylindry były ruchome i ustawiane przez operatora w określonej pozycji. Konstrukcja maszyny Leibniza była bardziej zaawansowana: była w stanie wykonywać nie tylko dodawanie i odejmowanie, ale także mnożenie, dzielenie, a nawet wyciąganie pierwiastka kwadratowego.

Co ciekawe, potomkowie tego projektu przetrwali do lat 70. XX wieku. w postaci kalkulatorów mechanicznych (maszyna sumująca typu Felix) i były szeroko stosowane do różnych obliczeń (rys. 1.3). Jednak już pod koniec XIX wieku. Wraz z wynalezieniem przekaźnika elektromagnetycznego pojawiły się pierwsze elektromechaniczne urządzenia liczące. W 1887 r. Herman Gollerith (USA) wynalazł elektromechaniczny tabulator z wprowadzaniem liczb za pomocą kart dziurkowanych. Pomysł wykorzystania kart dziurkowanych skłonił go do dziurkowania biletów kolejowych za pomocą kompostownika. Opracowana przez niego 80-kolumnowa karta perforowana nie uległa znaczącym zmianom i była wykorzystywana jako nośnik informacji w pierwszych trzech generacjach komputerów. Tabulatory Gollerite zostały użyte podczas I spisu powszechnego w Rosji w 1897 roku. Sam wynalazca przybył wtedy specjalnie do Petersburga. Od tego czasu tabulatory elektromechaniczne i inne podobne urządzenia stały się szeroko stosowane w rachunkowości.

Na początku XIX wieku. Charles Babbage sformułował główne postanowienia, które powinny leżeć u podstaw projektu całkowicie nowego typu komputera.

W takiej maszynie, jego zdaniem, powinien znajdować się „magazyn” do przechowywania informacji cyfrowych, specjalne urządzenie wykonujące operacje na numerach pobranych z „magazynu”. Babbage nazwał takie urządzenie „młynem”. Kolejne urządzenie służy do sterowania kolejnością operacji, przenoszenia numerów z „magazynu” do „młyna” i odwrotnie, wreszcie maszyna musi posiadać urządzenie do wprowadzania danych początkowych i wyprowadzania wyników obliczeń. Maszyna ta nigdy nie została zbudowana - istniały tylko jej modele (rys. 1.4), ale zasady leżące u jej podstaw zostały później zaimplementowane w komputerach cyfrowych.

Naukowe idee Babbage'a urzekły córkę słynnego angielskiego poety Lorda Byrona, hrabinę Adę Augustę Lovelace. Położyła pierwsze fundamentalne idee dotyczące interakcji różnych bloków komputera i kolejności rozwiązywania na nim problemów. Dlatego Ada Lovelace jest słusznie uważana za pierwszego programistę na świecie. Wiele z pojęć wprowadzonych przez Adę Lovelace w opisach pierwszych programów na świecie jest szeroko stosowanych przez współczesnych programistów.

Ryż. 1.1. Maszyna sumująca Pascal

Ryż. 1.2. Maszyna licząca Leibniza

Ryż. 1.3. Arytmometr „Felix”

Ryż. 1.4. Samochód Babbage'a

Początek nowej ery w rozwoju technologii komputerowej opartej na przekaźnikach elektromechanicznych to rok 1934. Amerykańska firma IBM (International Buisness Machins) rozpoczęła produkcję alfanumerycznych tabulatorów zdolnych do wykonywania operacji mnożenia. W połowie lat 30. XX wieku. na podstawie tabulatorów powstaje prototyp pierwszej sieci lokalnej. W Pittsburghu (USA) w domu towarowym zainstalowano system składający się z 250 połączonych terminali linie telefoniczne z 20 tabulatorami i 15 maszynami do pisania do rozliczeń z klientami. W latach 1934 - 1936 Niemiecki inżynier Konrad Zuse wpadł na pomysł stworzenia uniwersalnego komputera z zarządzanie programem i przechowywanie informacji w urządzeniu pamięci. Zaprojektował maszynę Z-3 - był to pierwszy komputer sterowany programowo - prototyp nowoczesnych komputerów (rys. 1.5).

Ryż. 1.5. Zuse komputer

Była to maszyna przekaźnikowa wykorzystująca system liczb binarnych, z pamięcią 64 liczb zmiennoprzecinkowych. Blok arytmetyczny wykorzystywał arytmetykę równoległą. Zespół obejmował część operacyjną i adresową. Wprowadzanie danych odbywało się za pomocą klawiatury dziesiętnej, zapewniono wyjście cyfrowe, a także automatyczną konwersję liczb dziesiętnych na binarne i odwrotnie. Szybkość operacji dodawania to trzy operacje na sekundę.

Na początku lat 40. XX wieku. w laboratoriach IBM wspólnie z naukowcami z Uniwersytetu Harvarda rozpoczęto prace nad jednym z najpotężniejszych komputerów elektromechanicznych. Został nazwany MARK-1, zawierał 760 tys. komponentów i ważył 5 ton (rys. 1.6).

Ryż. 1.6. Kalkulator ZNAK -1

Za ostatni największy projekt w dziedzinie obliczeń przekaźnikowych (CT) należy uznać RVM-1 zbudowany w 1957 roku w ZSRR, który był dość konkurencyjny z ówczesnymi komputerami w wielu zadaniach. Jednak wraz z pojawieniem się lampy próżniowej dni urządzeń elektromechanicznych były policzone. Podzespoły elektroniczne miały ogromną przewagę pod względem szybkości i niezawodności, co decydowało o przyszłym losie komputerów elektromechanicznych. Nadeszła era komputerów elektronicznych.

Przejście do kolejnego etapu rozwoju techniki komputerowej i technologii programowania byłoby niemożliwe bez fundamentalnych badania naukowe w zakresie przesyłania i przetwarzania informacji. Rozwój teorii informacji związany jest przede wszystkim z nazwiskiem Claude Shannon. Norbert Wiener jest słusznie uważany za ojca cybernetyki, a Heinrich von Neumann jest twórcą teorii automatów.

Pojęcie cybernetyki zrodziło się z syntezy wielu dziedzin naukowych: po pierwsze, jako ogólne podejście do opisu i analizy działania organizmów żywych i komputerów lub innych automatów; po drugie, z analogii między zachowaniem się zbiorowisk organizmów żywych a społecznością ludzką i możliwością ich opisu przy pomocy ogólnej teorii sterowania; i wreszcie z syntezy teorii transferu informacji i fizyki statystycznej, która doprowadziła do najważniejszego odkrycia dotyczącego ilości informacji i ujemnej entropii w systemie. Sam termin „cybernetyka” pochodzi od greckiego słowa oznaczającego „pilot”, po raz pierwszy został użyty przez N. Wienera we współczesnym znaczeniu w 1947 roku. Książka N. Wienera, w której sformułował podstawowe zasady cybernetyki, nosi tytuł „Cybernetyka lub kontrola i komunikacja w zwierzęciu i samochodzie.

Claude Shannon to amerykański inżynier i matematyk, uważany za ojca współczesnej teorii informacji. Udowodnił, że działanie przełączników i przekaźników w obwodach elektrycznych można przedstawić za pomocą algebry wynalezionej w połowie XIX wieku. Angielski matematyk George Boole. Od tego czasu algebra Boole'a stała się podstawą analizy logicznej struktury systemów o dowolnym poziomie złożoności.

Shannon dowiódł, że każdy zaszumiony kanał komunikacyjny charakteryzuje się ograniczającą szybkością przesyłania informacji, zwaną limitem Shannona. Przy szybkości transmisji powyżej tego limitu błędy w przesyłane informacje. Jednak stosując odpowiednie metody kodowania informacji, można uzyskać dowolnie małe prawdopodobieństwo błędu dla dowolnego poziomu szumu kanału. Jego badania były podstawą do opracowania systemów do przesyłania informacji za pośrednictwem linii komunikacyjnych.

W 1946 roku genialny matematyk amerykański pochodzenia węgierskiego Heinrich von Neumann sformułował podstawową koncepcję przechowywania instrukcji komputerowych we własnej pamięci wewnętrznej, co było ogromnym impulsem do rozwoju technologii obliczeń elektronicznych.

Podczas II wojny światowej był konsultantem w Los Alamos Atomic Center, gdzie zajmował się obliczeniami wybuchowej detonacji bomby atomowej i brał udział w rozwoju bomby wodorowej.

Neumann jest właścicielem prac związanych z logiczną organizacją komputerów, problemami funkcjonowania pamięci komputera, systemami samoodtwarzającymi itp. Brał udział w tworzeniu pierwszego elektronicznego komputera ENIAC, zaproponowana przez niego architektura komputerowa była podstawą wszystkich kolejnych modeli i do dziś nazywana jest tzw. „von Neumann”.

I generacja komputerów. W 1946 roku w USA zakończono prace nad stworzeniem ENIAC, pierwszego komputera opartego na podzespołach elektronicznych (rys. 1.7).

Ryż. 1.7. Pierwszy komputer ENIAC

Nowa maszyna miała imponujące parametry: zużywała 18 tys. lamp elektronowych, zajmowała pomieszczenie o powierzchni 300 m 2 , miała masę 30 ton, a pobór mocy - 150 kW. Maszyna działała z szybkością zegara 100 kHz i wykonywała dodawanie w 0,2 ms i mnożenie w 2,8 ms, co było o trzy rzędy wielkości szybsze niż w przypadku urządzeń przekaźnikowych. Niedociągnięcia zostały szybko wykryte nowy samochód. Pod względem budowy komputer ENIAC przypominał komputery mechaniczne: zastosowano system dziesiętny; program był pisany ręcznie na 40 polach składu; ponowne ustawienie pól przełączania zajęło kilka tygodni. Podczas próbnej eksploatacji okazało się, że niezawodność tej maszyny jest bardzo niska: rozwiązywanie problemów trwało nawet kilka dni. Do wprowadzania i wyprowadzania danych używano taśm dziurkowanych i kart dziurkowanych, taśm magnetycznych i urządzeń drukujących. W komputerach pierwszej generacji zaimplementowano koncepcję programu przechowywanego. Komputery pierwszej generacji służyły do ​​prognozowania pogody, rozwiązywania problemów energetycznych, zadań wojskowych i innych ważnych dziedzin.

II generacja komputerów. Jednym z najważniejszych osiągnięć, które doprowadziły do ​​rewolucji w projektowaniu komputerów i ostatecznie do stworzenia komputerów osobistych, było wynalezienie tranzystora w 1948 roku. Tranzystor, który jest półprzewodnikowym elektronicznym elementem przełączającym (zaworem), zajmuje dużo mniej miejsca i zużywa dużo mniej energii wykonując tę ​​samą pracę co lampa. Systemy obliczeniowe zbudowane na tranzystorach były znacznie mniejsze, bardziej ekonomiczne i znacznie wydajniejsze od lampowych. Przejście na tranzystory oznaczało początek miniaturyzacji, która umożliwiła pojawienie się nowoczesnych komputerów osobistych (a także innych urządzeń radiowych - radia, magnetofonów, telewizorów itp.). W przypadku maszyn drugiej generacji powstało zadanie automatyzacji programowania, ponieważ zwiększyła się różnica między czasem opracowywania programów a rzeczywistym czasem obliczania. Drugi etap rozwoju technologii komputerowej na przełomie lat 50. i 60. XX wieku. charakteryzuje się tworzeniem zaawansowanych języków programowania (Algol, Fortran, Cobol) oraz rozwojem procesu automatyzacji przepływu zadań przy pomocy samego komputera tj. rozwój systemów operacyjnych.

W 1959 roku IBM wypuścił komercyjną maszynę opartą na tranzystorach IBM 1401. Dostarczono ją w ponad 10 tysiącach egzemplarzy. W tym samym roku IBM stworzył swój pierwszy duży komputer (mainframe) model IBM 7090, całkowicie wykonany na bazie tranzystorów, z prędkością 229 tys. operacji na sekundę, a w 1961 opracował model IBM 7030 dla amerykańskiego laboratorium jądrowego przy ul. Los Alamos.

Wybitnym przedstawicielem komputerów domowych drugiej generacji była duża sumator elektroniczny BESM-6, opracowany przez S.A. Lebiediew i jego koledzy (ryc. 1.8). Ta generacja komputerów charakteryzuje się wykorzystaniem języków programowania wysokiego poziomu, które zostały opracowane w komputerach nowej generacji. Maszyny tranzystorowe drugiej generacji zajęły tylko pięć lat w biografii komputerów.

Ryż. 1.8. BSM-6

III generacja komputerów. W 1959 roku inżynierowie z Texas Instruments opracowali sposób na umieszczenie wielu tranzystorów i innych elementów na jednym wsporniku (lub podłożu) i połączenie tych tranzystorów bez użycia przewodników. Tak narodził się układ scalony (IC lub chip). Pierwszy układ scalony zawierał tylko sześć tranzystorów. Obecnie komputery projektowano w oparciu o układy scalone o niskim stopniu integracji. Pojawiły się systemy operacyjne, które przejęły zadanie zarządzania pamięcią, urządzeniami we/wy i innymi zasobami.

W kwietniu 1964 roku IBM ogłosił System 360, pierwszą rodzinę uniwersalnych, kompatybilnych z oprogramowaniem komputerów i urządzeń peryferyjnych. Mikroukłady hybrydowe zostały wybrane jako podstawa elementów rodziny System 360, dzięki czemu nowe modele zaczęto uważać za maszyny trzeciej generacji (ryc. 1.9).

Ryż. 1.9. KOMPUTER III generacji IBM

Kiedy tworzysz rodzinę IBM System 360 w ostatni raz pozwolił sobie na luksus wypuszczania komputerów, które były niekompatybilne z poprzednimi. Ekonomia, wszechstronność i niewielkie rozmiary komputerów tej generacji szybko rozszerzyły ich zakres - sterowanie, transmisja danych, automatyzacja eksperymentów naukowych itp. W ramach tej generacji, w 1971 roku, jako nieoczekiwany rezultat prac Intela nad tworzenie mikrokalkulatorów. (Nawiasem mówiąc, zauważamy, że mikrokalkulatory w naszych czasach dobrze dogadują się ze swoimi „braćmi krwi” - komputerami osobistymi.)

IV generacja komputerów. Ten etap rozwoju techniki komputerowej wiąże się z rozwojem dużych i bardzo dużych układów scalonych. Komputery IV generacji zaczęły wykorzystywać szybkie układy pamięci na układach scalonych o pojemności kilku megabajtów.

Czterobitowy mikroprocesor Intel 8004 został opracowany w 1971 roku. W następnym roku wypuszczono procesor ośmiobitowy, aw 1973 Intel wypuścił procesor 8080, który był 10 razy szybszy niż 8008 i mógł adresować 64 KB pamięci. Był to jeden z najpoważniejszych kroków w kierunku stworzenia nowoczesnych komputerów osobistych. IBM wypuścił swój pierwszy komputer osobisty w 1975 roku. 5100 miał 16 KB pamięci, wbudowany interpreter języka BASIC i wbudowany napęd taśmowy, który służył jako urządzenie pamięci masowej. Debiut IBM PC miał miejsce w 1981 roku. Tego dnia nowy standard zajął swoje miejsce w branży komputerowej. Dla tej rodziny napisano wiele różnych programów. Nową modyfikację nazwano „rozszerzoną” (IBM PC-XT) (rys. 1.10).

Ryż. 1.10. komputer osobisty IBM PC - XT

Producenci zrezygnowali z używania magnetofonu jako urządzenia do przechowywania informacji, dodali drugą stację dyskietek, a jako główne urządzenie do przechowywania danych i programów użyto dysku twardego o pojemności 20 MB. Model został oparty na wykorzystaniu mikroprocesora - Intel 8088. W związku z naturalnym postępem w rozwoju i produkcji technologii mikroprocesorowej, Intel, stały partner IBM, opanował wypuszczenie nowej serii procesorów - Intel 80286. pojawił się nowy model IBM PC. Został nazwany IBM PC-AT. Kolejnym etapem jest rozwój mikroprocesorów Intel 80386 i Intel 80486, które można spotkać do dziś. Następnie opracowano procesory Pentium, które są obecnie najpopularniejszymi procesorami.

V generacja komputerów. W latach 90. XX wieku. wielką uwagę zwrócono nie tyle na poprawę parametrów technicznych komputerów, ile na ich „inteligencję”, otwartą architekturę i możliwości sieciowe. Uwaga skupiona na rozwoju baz wiedzy, przyjaznym interfejsie użytkownika, narzędzia graficzne prezentacja informacji i rozwój narzędzi makroprogramowania. Nie ma jasnych definicji tego etapu w rozwoju narzędzi VT, ponieważ podstawowa podstawa, na której opiera się ta klasyfikacja, pozostała taka sama - jasne jest, że wszystkie obecnie produkowane komputery można przypisać piątej generacji.

1.2. KLASYFIKACJA KOMPUTERÓW

Komputery można klasyfikować według szeregu cech, w szczególności według zasady działania, przeznaczenia, sposobów organizacji procesu obliczeniowego, wielkości i mocy obliczeniowej, funkcjonalności itp.

Zgodnie z zasadą działania komputery można podzielić na dwie szerokie kategorie: analogowe i cyfrowe.

Komputery analogowe(komputery analogowe - AVM) - komputery ciągłe (rys. 1.11).

Ryż. 1.11. komputer analogowy

Pracują z informacjami przedstawionymi w formie analogowej, tj. jako ciągła seria wartości pewnej wielkości fizycznej. Istnieją urządzenia, w których operacje obliczeniowe wykonywane są za pomocą elementów hydraulicznych i pneumatycznych. Jednak najszerzej stosowane są elektroniczne AVM, w których napięcia i prądy elektryczne służą jako zmienne maszyny.

Praca AVM opiera się na ogólności praw opisujących procesy o różnym charakterze. Na przykład drgania wahadła podlegają tym samym prawom, co zmiany natężenia pola elektrycznego w obwodzie oscylacyjnym. I zamiast badać prawdziwe wahadło, można badać jego zachowanie na modelu zaimplementowanym na komputerze analogowym. Ponadto model ten można wykorzystać do badania niektórych procesów biologicznych i chemicznych, które podlegają tym samym prawom.

Głównymi elementami takich maszyn są wzmacniacze, rezystory, kondensatory i cewki indukcyjne, między którymi można nawiązać połączenia, odzwierciedlające warunki konkretnego zadania. Programowanie zadań odbywa się za pomocą zestawu elementów na polu składniowym. AVM najskuteczniej rozwiązuje problemy matematyczne zawierające równania różniczkowe, które nie wymagają skomplikowanej logiki. Wyniki rozwiązania są wyświetlane w postaci zależności napięć elektrycznych w funkcji czasu na ekranie oscyloskopu lub rejestrowane przez przyrządy pomiarowe.

W latach 40. - 50. XX wieku. elektroniczne komputery analogowe stworzyły poważną konkurencję dla nowo pojawiających się komputerów. Ich główne zalety to duża szybkość (współmierna do szybkości przejścia sygnału elektrycznego przez obwód), przejrzystość prezentacji wyników symulacji.

Wśród niedociągnięć można zauważyć niską dokładność obliczeń, ograniczony zakres zadań do rozwiązania oraz ręczne ustawianie parametrów zadania. Obecnie AVM są używane tylko w bardzo ograniczonych obszarach - do celów edukacyjnych i demonstracyjnych, badań naukowych. Nie są wykorzystywane w praktyce życia codziennego.

Komputery cyfrowe(komputery elektroniczne - komputery) oparte są na logice dyskretnej „tak-nie”, „zero-jedynka”. Wszystkie operacje wykonywane są przez komputer zgodnie z wcześniej skompilowanym programem. Szybkość obliczeń zależy od szybkości zegara systemu.

Zgodnie z etapami tworzenia i bazą elementów, komputery cyfrowe dzieli się umownie na pięć generacji:

I generacja (lata 50. XX w.) - komputery oparte na próżni elektronicznej
Lampy;

II generacja (lata 60. XX w.) - komputery oparte na elementach półprzewodnikowych (tranzystory);

III generacja (lata 70. XX w.) - komputery oparte na półprzewodnikowych układach scalonych o niskim i średnim stopniu integracji (dziesiątki i setki tranzystorów w jednej obudowie);

VI generacja (lata 80. XX wieku) - komputery na duże i ultra-duże
układy scalone - mikroprocesory (miliony tranzystorów w jednym chipie);

Generacja V (lata 90. - obecnie) - superkomputery z tysiącami równoległych mikroprocesorów,
pozwalająca na budowanie wydajne systemy przetwarzanie ogromne
tablice informacji; komputery osobiste na ultra złożonych mikroprocesorach i przyjaznych dla użytkownika interfejsach, które
determinuje ich realizację w niemal wszystkich obszarach działalności
osoba. Technologie sieciowe umożliwiają zjednoczenie użytkowników komputerów w jedno społeczeństwo informacyjne.

Pod względem mocy obliczeniowej w latach 70. - 80. XX wieku. rozwinęła się następująca systematyzacja komputerów.

Superkomputery- Są to komputery o maksymalnych możliwościach pod względem szybkości i objętości obliczeń. Służą do rozwiązywania problemów o skali krajowej i uniwersalnej – bezpieczeństwa narodowego, badań z zakresu biologii i medycyny, modelowania zachowania dużych systemów, prognozowania pogody itp. (Rys. 1.12).

Ryż. 1.12. Superkomputer CRAY 2

Komputery mainframe(mainframe) - komputery wykorzystywane w dużych ośrodkach badawczych i uczelniach do badań, w systemach korporacyjnych - bankach, ubezpieczeniach, instytucjach handlowych, transporcie, agencjach informacyjnych i wydawnictwach. Mainframe'y są łączone w duże sieci komputerowe i obsługują setki i tysiące terminali - maszyn, na których bezpośrednio pracują użytkownicy i klienci.

Minikomputery- są to specjalistyczne komputery, które służą do wykonywania pewnego rodzaju prac wymagających stosunkowo dużej mocy obliczeniowej: grafika, obliczenia inżynierskie, praca z wideo, layout publikacji drukowanych itp.

Mikrokomputery- to najliczniejsza i najbardziej zróżnicowana klasa komputerów, która bazuje na komputerach osobistych, które są obecnie wykorzystywane w niemal wszystkich gałęziach ludzkiej działalności. Miliony ludzi używają ich w swoich działalność zawodowa do interakcji przez Internet, rozrywki i rekreacji.

W ostatnich latach powstała taksonomia, która odzwierciedla różnorodność i cechy dużej klasy komputerów, na których pracują bezpośredni użytkownicy. Komputery te różnią się mocą obliczeniową, oprogramowaniem systemowym i aplikacyjnym, zestawem urządzeń peryferyjnych, interfejsem użytkownika, a co za tym idzie rozmiarem i ceną. Jednak wszystkie zbudowane są na wspólnych zasadach i opartej na jednym elemencie, mają wysoki stopień kompatybilności, wspólne interfejsy i protokoły wymiany danych między sobą a sieciami. Podstawą tej klasy maszyn są komputery osobiste, które w powyższej systematyce odpowiadają klasie mikrokomputerów.

Taka taksonomia, jak każda inna, jest raczej arbitralna; Ponieważ niemożliwe jest wytyczenie wyraźnej granicy między różnymi klasami komputerów, pojawiają się modele, które trudno przypisać do konkretnej klasy. A jednak ona jest W ogólnych warunkach odzwierciedla obecną różnorodność urządzeń komputerowych.

Serwery(z język angielski służyć - „serwować”, „zarządzać”) - potężne komputery dla wielu użytkowników, które zapewniają funkcjonowanie sieci komputerowych (ryc. 1.13).

Ryż. 1.13. serwer S 390

Służą do przetwarzania żądań ze wszystkich stacji roboczych podłączonych do sieci. Serwer zapewnia dostęp do współdzielonych zasobów sieciowych - mocy obliczeniowej, baz danych, bibliotek oprogramowania, drukarek, faksów - i dystrybuuje te zasoby wśród użytkowników. W każdej instytucji komputery osobiste są łączone w sieć lokalną – pozwala to na wymianę danych między komputerami użytkowników końcowych oraz racjonalne wykorzystanie zasobów systemowych i sprzętowych.

Faktem jest, że przygotowanie dokumentu na komputerze (czy to faktury za produkt, czy raportu naukowego) zajmuje znacznie więcej czasu niż jego wydrukowanie. O wiele bardziej opłaca się mieć jedną wydajną drukarkę sieciową dla kilku komputerów, a dystrybucją kolejki wydruku zajmie się serwer. Jeżeli komputery są podłączone do sieci lokalnej, wygodnie jest mieć na serwerze jedną bazę danych – cennik wszystkich produktów sklepu, plan pracy dla instytucji naukowej itp. Ponadto serwer zapewnia wspólne połączenie internetowe dla wszystkich stacji roboczych, różnicuje dostęp do informacji dla różnych kategorii użytkowników, ustala priorytety dostępu do współdzielonych zasobów sieciowych, utrzymuje statystyki korzystania z Internetu, monitoruje pracę użytkowników końcowych itp.

Komputer osobisty(PC - Komputer osobisty) - jest to najczęstsza klasa komputerów zdolnych do rozwiązywania problemów na różnych poziomach - od sporządzania sprawozdań finansowych po obliczenia inżynierskie. Przeznaczony jest głównie do użytku indywidualnego (stąd nazwa klasy, do której należy). Komputer osobisty (PC) ma specjalne narzędzia, które pozwalają na włączenie go do sieci lokalnych i globalnych. Główna treść tej książki będzie poświęcona opisowi sprzętu i narzędzia programowe tej klasy komputerów.

Zeszyt(z język angielski notebook - „notebook”) - ten ugruntowany termin całkowicie błędnie odzwierciedla cechy tej klasy komputerów osobistych (ryc. 1.14).

Ryż. 1.14. Zeszyt

Jego wymiary i waga bardziej odpowiadają formatowi dużej książki i funkcjonalność a specyfikacje są w pełni zgodne z konwencjonalnym komputerem stacjonarnym (desktorowym). Inną rzeczą jest to, że urządzenia te są bardziej kompaktowe, lżejsze i co najważniejsze zużywają znacznie mniej prądu, co pozwala na pracę na bateriach. Oprogramowanie tej klasy komputerów PC, od systemu operacyjnego po programy użytkowe, nie różni się niczym od komputerów stacjonarnych. W niedalekiej przeszłości ta klasa komputerów PC była określana jako Laptop - "nakolannik". Ta nazwa znacznie dokładniej odzwierciedlała ich cechy, ale z jakiegoś powodu nigdy się nie przyjęła.

Tak więc główną cechą komputerów osobistych klasy laptop jest mobilność. mały wymiary i waga, monoblokowa konstrukcja ułatwia umieszczenie go w dowolnym miejscu w przestrzeni roboczej, przenoszenie z miejsca na miejsce w specjalnym etui lub teczce typu „dyplomata”, a zasilanie bateryjne – pozwala na korzystanie z niego nawet w podróży ( samochód lub samolot).

Wszystkie modele laptopów można podzielić na trzy klasy: uniwersalne, biznesowe i kompaktowe (subnotebooki). Laptopy uniwersalne są pełnymi zamiennikami komputera stacjonarnego, więc są stosunkowo duże i ciężkie, ale jednocześnie mają duży rozmiar ekranu i wygodną klawiaturę podobną do komputera stacjonarnego. Mają wbudowane zwykłe napędy: CD-ROM (R, RW, DVD), dysk twardy i stację dyskietek. Taka konstrukcja praktycznie eliminuje możliwość używania go jako komputera „drogowego”. Akumulator wystarczy na 2-3 godziny pracy.

Laptopy biznesowe przeznaczony do użytku w biurze, w domu, w podróży. Mają znacznie mniejsze gabaryty i wagę, minimalny zestaw wbudowanych urządzeń, ale zaawansowane możliwości podłączenia dodatkowych urządzeń. Komputery w tej klasie służą raczej jako dodatek do biurowego lub domowego pulpitu, niż je zastępują.

Kompaktowe laptopy(subnotebooki) są ucieleśnieniem najbardziej zaawansowanych osiągnięć techniki komputerowej. Mają najwyższy stopień integracji różne urządzenia(komponenty takie jak obsługa dźwięku, wideo, sieci lokalnej są wbudowane w płytę główną). Laptopy tej klasy są zwykle wyposażone w bezprzewodowe interfejsy urządzeń wejściowych (dodatkowa klawiatura, mysz), mają wbudowany modem radiowy do łączenia się z Internetem, kompaktowe karty inteligentne służą jako urządzenia do przechowywania informacji itp. Jednocześnie masa takich urządzeń nie przekracza 1 kg, a grubość wynosi około 1 cala (2,4 cm). Naładowanie baterii wystarcza na kilka godzin pracy, jednak takie komputery są od dwóch do trzech razy droższe od zwykłych pecetów.

Kieszonkowy komputer osobisty(PDA) (RS - Rosket) - składa się z tych samych części co komputer stacjonarny: procesora, pamięci, systemu dźwiękowego i wideo, ekranu, gniazd rozszerzeń, które można wykorzystać do zwiększenia pamięci lub dodania innych urządzeń. Zasilanie bateryjne zapewnia dwa miesiące pracy. Wszystkie te elementy są bardzo kompaktowe i ściśle zintegrowane, dzięki czemu urządzenie waży 100...200 gi mieści się w dłoni, w kieszeni na piersi koszuli lub torebki (rys. 1.15).

Ryż. 1.15. Kieszonkowy komputer osobisty

Nic dziwnego, że te urządzenia są również nazywane „podręcznymi” (Palmtop).

Jednak funkcjonalność palmtopa bardzo różni się od komputera stacjonarnego lub laptopa. Przede wszystkim ma stosunkowo mały ekran, z reguły nie ma klawiatury i myszy, więc interakcja z użytkownikiem jest zorganizowana inaczej: służy do tego ekran PDA - jest wrażliwy na nacisk, do czego służy specjalna różdżka nazywany jest „rysikiem”. Do wpisywania tekstu na PDA wykorzystuje się tzw. wirtualną klawiaturę – jej klawisze są wyświetlane bezpośrednio na ekranie, a tekst wpisywany jest rysikiem. Kolejną ważną różnicą jest brak dysku twardego, więc ilość przechowywanych informacji jest stosunkowo niewielka. Głównym miejscem przechowywania programów i danych jest pamięć wbudowana do 64 MB, a rolę dysków pełnią karty pamięci flash. Karty te przechowują programy i dane, których nie trzeba umieszczać w pamięci szybkiego dostępu (albumy ze zdjęciami, muzyka w formacie MP3, e-booki itp.). Ze względu na te cechy, PDA są często sparowane z komputerem stacjonarnym, do którego istnieją specjalne kable interfejsu.

Notebook i PDA są zaprojektowane tak, aby były całkowicie różne zadania, zbudowane na różnych zasadach i tylko się uzupełniają, ale nie zastępują.

Pracują z laptopem w taki sam sposób, jak komputer stacjonarny, a PDA jest włączany i wyłączany kilka razy dziennie. Ładowanie programów i zamykanie jest niemal natychmiastowe.

Za pomocą Specyfikacja techniczna Współczesne urządzenia PDA są porównywalne z komputerami stacjonarnymi, które pojawiły się zaledwie kilka lat temu. To wystarcza do wysokiej jakości reprodukcji informacji tekstowych, na przykład podczas pracy z pocztą e-mail lub edytorem tekstu. Nowoczesne PDA są również wyposażone we wbudowany mikrofon, głośniki i gniazda słuchawkowe. Komunikacja z komputerem stacjonarnym i innymi urządzeniami peryferyjnymi odbywa się przez USB, podczerwień (IgDA) lub Bluetooth (nowoczesny interfejs bezprzewodowy).

Oprócz specjalnego systemu operacyjnego, palmtopy są zwykle wyposażone we wbudowane aplikacje, które obejmują edytor tekstu, edytor arkuszy kalkulacyjnych, harmonogram, przeglądarkę internetową, zestaw programów diagnostycznych itp. Od niedawna komputery klasy Pocket PC zostały wyposażone we wbudowane możliwości łączenia się z Internetem (jako modem zewnętrzny może też służyć zwykły telefon komórkowy).

Ze względu na swoje możliwości, kieszonkowe komputery osobiste można uznać nie tylko za uproszczony komputer PC o ograniczonych możliwościach, ale za całkowicie równorzędnego członka społeczności komputerowej, która ma swoje niezaprzeczalne zalety nawet w porównaniu z najbardziej zaawansowanymi komputerami stacjonarnymi.

Elektroniczne sekretarki(PDA - Personal Digital Assistant) - mają format komputera kieszonkowego (o wadze nie większej niż 0,5 kg), ale są wykorzystywane do innych celów (ryc. 1.16).

Ryż. 1.16. Elektroniczna sekretarka

Są zorientowani na katalogi elektroniczne, przechowywanie nazwisk, adresów i numerów telefonów, informacji o codziennej rutynie i spotkaniach, listach rzeczy do zrobienia, ewidencji wydatków itp. Sekretarz elektroniczny może mieć wbudowane edytory tekstu i grafiki, arkusze kalkulacyjne i inne aplikacje biurowe.

Większość urządzeń PDA posiada modemy i może komunikować się z innymi komputerami, a po podłączeniu do sieci komputerowej może odbierać i wysyłać wiadomości e-mail i faksy. Niektóre urządzenia PDA są wyposażone w modemy radiowe i porty podczerwieni do zdalnej komunikacji bezprzewodowej z innymi komputerami. Elektroniczne sekretarki mają mały wyświetlacz ciekłokrystaliczny, zwykle umieszczony w klapce komputera. Ręczne wprowadzanie informacji jest możliwe z miniaturowej klawiatury lub za pomocą ekranu dotykowego, takiego jak PDA. PDA można nazwać tylko z dużymi zastrzeżeniami: czasem te urządzenia są klasyfikowane jako ultraprzenośne komputery, czasem jako „inteligentne” kalkulatory, inni uważają, że jest to bardziej organizer z zaawansowanymi funkcjami.

Notebooki elektroniczne(z język angielski organizer – „organizator”) – należą do „najlżejszej kategorii” komputerów przenośnych (ich masa nie przekracza 200 g). Organizatorzy posiadają pojemną pamięć, w której można zapisać niezbędne informacje i edytować je za pomocą wbudowanego edytora tekstu; może być przechowywany w pamięci listy biznesowe, teksty umów, kontraktów, codzienne spotkania rutynowe i biznesowe. Organizator posiada wewnętrzny timer, który przypomina o ważnych wydarzeniach. Dostęp do informacji może być chroniony hasłem. Organizatorzy są często wyposażeni we wbudowany tłumacz, który posiada kilka słowników.

Wyprowadzanie informacji odbywa się na małym monochromatycznym wyświetlaczu ciekłokrystalicznym. Dzięki niskiemu zużyciu energii bateria zapewnia do pięciu lat przechowywania bez ładowania.

Smartfon (język angielski smartfon) to kompaktowe urządzenie, które łączy w sobie funkcje telefonu komórkowego, elektronicznego zeszyt i aparat cyfrowy z dostęp mobilny do Internetu (rys. 1.17).

Ryż. 1.17. Smartfon

Smartfon ma mikroprocesor, pamięć RAM, pamięć tylko do odczytu; dostęp do Internetu odbywa się za pośrednictwem kanałów komunikacja komórkowa. Jakość zdjęć nie jest wysoka, ale wystarczająca do wykorzystania w Internecie i przesyłania za pośrednictwem e-mail. Czas nagrywania wideo to około 15s. Posiada wbudowaną pamięć na karty inteligentne. Naładowanie akumulatora wystarcza na 100 godzin pracy. Waga 150 g. Bardzo poręczne i użyteczne urządzenie, ale jego koszt jest adekwatny do ceny dobrego komputera stacjonarnego.

Gdy tylko ktoś odkrył pojęcie „ilości”, od razu zaczął wybierać narzędzia, które optymalizują i ułatwiają liczenie. Dziś superpotężne komputery, oparte na zasadach obliczeń matematycznych, przetwarzają, przechowują i przesyłają informacje - niezbędny zasób i motorem postępu ludzkości. Nietrudno zorientować się, jak przebiegał rozwój technologii komputerowej, po krótkim rozważeniu głównych etapów tego procesu.

Główne etapy rozwoju technologii komputerowej

Najpopularniejsza klasyfikacja proponuje wyodrębnienie głównych etapów rozwoju technologii komputerowej w porządku chronologicznym:

  • Etap ręczny. Zaczęło się u zarania epoki ludzkiej i trwało do połowy XVII wieku. W tym okresie powstały fundamenty konta. Później, wraz z tworzeniem pozycyjnych systemów liczbowych, pojawiły się urządzenia (liczba, liczydło, a później - suwak logarytmiczny), które umożliwiły obliczanie za pomocą cyfr.
  • etap mechaniczny. Rozpoczęła się ona w połowie XVII wieku i trwała prawie do końca XIX wieku. Poziom rozwoju nauki w tym okresie umożliwił stworzenie urządzeń mechanicznych, które wykonują podstawowe operacje arytmetyczne i automatycznie zapamiętują najwyższe cyfry.
  • Etap elektromechaniczny jest najkrótszym ze wszystkich, jakie łączy historia rozwoju technologii komputerowej. Trwało to tylko około 60 lat. Taka jest luka między wynalezieniem pierwszego tabulatora w 1887 r. a 1946 r., kiedy pojawił się pierwszy komputer (ENIAC). Nowe maszyny, oparte na napędzie elektrycznym i przekaźniku elektrycznym, umożliwiły wykonywanie obliczeń ze znacznie większą szybkością i dokładnością, ale cały proces liczenia musiał być kontrolowany przez człowieka.
  • Etap elektroniczny rozpoczął się w drugiej połowie ubiegłego wieku i trwa do dziś. To historia sześciu generacji komputerów elektronicznych - od pierwszych gigantycznych jednostek opartych na lampach próżniowych, po superpotężne nowoczesne superkomputery z ogromną liczbą równoległych procesorów zdolnych do jednoczesnego wykonywania wielu poleceń.

Etapy rozwoju technologii komputerowej są podzielone zgodnie z zasadą chronologiczną raczej warunkowo. W czasach, gdy używano niektórych typów komputerów, aktywnie tworzono warunki wstępne do pojawienia się następujących.

Pierwsze urządzenia liczące

Najwcześniejsze narzędzie do liczenia, jakie zna historia rozwoju technologii komputerowej, to dziesięć palców na dłoni człowieka. Wyniki liczenia początkowo rejestrowano za pomocą palców, nacięć na drewnie i kamieniu, specjalnych patyczków i sęków.

Wraz z pojawieniem się pisma pojawiły się i rozwinęły różne sposoby zapisywania liczb, wynaleziono pozycyjne systemy liczbowe (dziesiętne – w Indiach, sześćdziesiętne – w Babilonie).

Około IV wieku pne starożytni Grecy zaczęli liczyć za pomocą liczydła. Początkowo była to płaska gliniana tabliczka z napisami. ostry obiekt paski. Liczenie prowadzono umieszczając na tych paskach w określonej kolejności małe kamienie lub inne drobne przedmioty.

W Chinach w IV wieku n.e. pojawiło się siedmiopunktowe liczydło - suanpan (suanpan). Druty lub liny były naciągnięte na prostokątną drewnianą ramę - od dziewięciu lub więcej. Kolejny drut (lina), rozciągnięty prostopadle do pozostałych, dzielił suanpan na dwie nierówne części. W większym przedziale, zwanym "ziemią", na drutach nawleczono pięć kości, w mniejszym - "niebie" - były dwie. Każdy z przewodów odpowiadał miejscu dziesiętnemu.

Tradycyjne liczydło soroban stało się popularne w Japonii od XVI wieku, ponieważ przybyło tam z Chin. W tym samym czasie w Rosji pojawił się liczydło.

W XVII wieku na podstawie logarytmów odkrytych przez szkockiego matematyka Johna Napiera, Anglik Edmond Gunther wynalazł suwak logarytmiczny. To urządzenie było stale ulepszane i przetrwało do dziś. Pozwala mnożyć i dzielić liczby, podnosić do potęgi, wyznaczać logarytmy i funkcje trygonometryczne.

Suwak stał się urządzeniem, które uzupełnia rozwój technologii komputerowej na etapie ręcznym (przedmechanicznym).

Pierwsze kalkulatory mechaniczne

W 1623 r. niemiecki naukowiec Wilhelm Schickard stworzył pierwszy mechaniczny „kalkulator”, który nazwał zegarem liczącym. Mechanizm tego urządzenia przypominał zwykły zegarek, składający się z kół zębatych i gwiazd. Jednak wynalazek ten stał się znany dopiero w połowie ubiegłego wieku.

Skokiem jakościowym w dziedzinie techniki komputerowej było wynalezienie w 1642 r. maszyny sumującej Pascaline. Jego twórca, francuski matematyk Blaise Pascal, rozpoczął pracę nad tym urządzeniem, gdy nie miał nawet 20 lat. „Pascalina” była urządzeniem mechanicznym w postaci pudełka z dużą liczbą połączonych ze sobą kół zębatych. Liczby, które należało dodać, były wprowadzane do maszyny za pomocą specjalnych kółek.

W 1673 r. saksoński matematyk i filozof Gottfried von Leibniz wynalazł maszynę, która wykonywała cztery podstawowe operacje matematyczne i była w stanie wydobyć pierwiastek kwadratowy. Zasada jego działania opierała się na systemie liczb binarnych, specjalnie wymyślonym przez naukowca.

W 1818 roku Francuz Charles (Carl) Xavier Thomas de Colmar, opierając się na pomysłach Leibniza, wynalazł maszynę sumującą, która potrafi mnożyć i dzielić. A dwa lata później Anglik Charles Babbage zabrał się za zaprojektowanie maszyny, która byłaby w stanie wykonywać obliczenia z dokładnością do 20 miejsc po przecinku. Projekt ten pozostał niedokończony, ale w 1830 roku jego autor opracował kolejny - silnik analityczny do wykonywania dokładnych obliczeń naukowo-technicznych. Miał on sterować maszyną programowo, a do wprowadzania i wyprowadzania informacji miały służyć karty dziurkowane z różnymi układami otworów. Projekt Babbage'a przewidywał rozwój technologii obliczeń elektronicznych i zadania, które można z jego pomocą rozwiązać.

Warto zauważyć, że sława pierwszego na świecie programisty należy do kobiety – Lady Ady Lovelace (z domu Byron). To ona stworzyła pierwsze programy na komputer Babbage'a. Jeden z języków komputerowych został później nazwany jej imieniem.

Opracowanie pierwszych analogów komputera

W 1887 roku ukazała się historia rozwoju techniki komputerowej Nowa scena. Amerykańskiemu inżynierowi Hermanowi Gollerithowi (Hollerith) udało się zaprojektować pierwszy komputer elektromechaniczny - tabulator. W jego mechanizmie znajdował się przekaźnik, a także liczniki i specjalna skrzynka sortownicza. Urządzenie odczytywało i sortowało zapisy statystyczne wykonane na kartach dziurkowanych. W dalsza firma, założona przez Golleritha, stała się kręgosłupem światowej sławy giganta komputerowego IBM.

W 1930 roku amerykański Vannovar Bush stworzył analizator różnicowy. Zasilany był energią elektryczną, a do przechowywania danych używano lamp elektronicznych. Ta maszyna była w stanie szybko znaleźć rozwiązania złożonych problemów matematycznych.

Sześć lat później angielski naukowiec Alan Turing opracował koncepcję maszyny, która stała się podstawy teoretyczne dla obecnych komputerów. Miała wszystkie niezbędne rzeczy. nowoczesne środki technologia komputerowa: potrafi krok po kroku wykonywać operacje zaprogramowane w pamięci wewnętrznej.

Rok później George Stibitz, amerykański naukowiec, wynalazł pierwsze w kraju urządzenie elektromechaniczne zdolne do wykonywania dodawania binarnego. Jego działania opierały się na algebrze Boole'a - logice matematycznej stworzonej w połowie XIX wieku przez George'a Boole'a: przy użyciu operatorów logicznych AND, OR i NOT. Później sumator binarny stałby się integralną częścią komputera cyfrowego.

W 1938 r. pracownik Uniwersytetu Massachusetts, Claude Shannon, nakreślił zasady logicznej struktury komputera, który wykorzystuje obwody elektryczne do rozwiązywania problemów algebry Boole'a.

Początek ery komputerowej

Rządy krajów uczestniczących w II wojnie światowej były świadome strategicznej roli komputerów w prowadzeniu działań wojennych. Był to impuls do rozwoju i równoległego pojawienia się pierwszej generacji komputerów w tych krajach.

Konrad Zuse, niemiecki inżynier, stał się pionierem w dziedzinie inżynierii komputerowej. W 1941 roku stworzył pierwszy automatyczny komputer sterowany programem. Maszyna, nazwana Z3, została zbudowana wokół przekaźników telefonicznych, a programy do niej zakodowane były na perforowanej taśmie. Urządzenie to było w stanie pracować w systemie binarnym, a także operować na liczbach zmiennoprzecinkowych.

Zuse Z4 został oficjalnie uznany za pierwszy naprawdę działający programowalny komputer. Do historii przeszedł także jako twórca pierwszego języka programowania wysokiego poziomu, zwanego Plankalkul.

W 1942 roku amerykańscy badacze John Atanasoff (Atanasoff) i Clifford Berry stworzyli urządzenie komputerowe, które pracowało na lampach próżniowych. Maszyna wykorzystywała również kod binarny, mogła wykonywać szereg operacji logicznych.

W 1943 roku, w atmosferze tajemnicy, w brytyjskim laboratorium rządowym zbudowano pierwszy komputer o nazwie „Colossus”. Zamiast przekaźników elektromechanicznych wykorzystano 2000 lamp elektronowych do przechowywania i przetwarzania informacji. Miał on na celu złamanie i odszyfrowanie kodu tajnych wiadomości przesyłanych przez niemiecką maszynę szyfrującą Enigma, powszechnie używaną przez Wehrmacht. Istnienie tego aparatu przez długi czas było utrzymywane w ścisłej tajemnicy. Po zakończeniu wojny rozkaz zniszczenia został osobiście podpisany przez Winstona Churchilla.

Rozwój architektury

W 1945 roku John (Janos Lajos) von Neumann, amerykański matematyk pochodzenia węgiersko-niemieckiego, stworzył prototyp architektury współczesnych komputerów. Zaproponował zapisanie programu w postaci kodu bezpośrednio do pamięci maszyny, co oznacza wspólne przechowywanie programów i danych w pamięci komputera.

Architektura von Neumanna stała się podstawą pierwszego uniwersalnego komputera elektronicznego ENIAC, powstającego w tym czasie w Stanach Zjednoczonych. Ten gigant ważył około 30 ton i zajmował powierzchnię 170 metrów kwadratowych. W eksploatację maszyny zaangażowanych było 18 tys. lamp. Ten komputer mógł wykonać 300 mnożeń lub 5000 dodawania w ciągu jednej sekundy.

Pierwszy uniwersalny komputer programowalny w Europie powstał w 1950 roku w Związku Radzieckim (Ukraina). Grupa kijowskich naukowców, kierowana przez Siergieja Aleksiejewicza Lebiediewa, zaprojektowała małą elektroniczną maszynę liczącą (MESM). Jego prędkość wynosiła 50 operacji na sekundę, zawierała około 6 tysięcy lamp próżniowych.

W 1952 r. Krajową technologię komputerową uzupełniono o BESM - dużą elektroniczną maszynę liczącą, również opracowaną pod kierownictwem Lebiediewa. Ten komputer, który wykonywał do 10 tys. operacji na sekundę, był wówczas najszybszy w Europie. Informacje zostały wprowadzone do pamięci urządzenia za pomocą dziurkowanej taśmy, dane zostały wydrukowane poprzez wydruk zdjęć.

W tym samym okresie seria dużych komputerów została wyprodukowana w ZSRR pod Nazwa zwyczajowa„Strzałka” (autor opracowania - Jurij Jakowlewicz Bazilewski). Od 1954 roku w Penzie rozpoczęto seryjną produkcję uniwersalnego komputera „Ural” pod kierownictwem Bashira Rameeva. Najnowsze modele były kompatybilne sprzętowo i programowo, był szeroki wybór peryferiów, pozwalających na montaż maszyn o różnych konfiguracjach.

Tranzystory. Premiera pierwszych komputerów masowo produkowanych

Jednak lampy bardzo szybko uległy awarii, co bardzo utrudniało pracę z maszyną. Tranzystor, wynaleziony w 1947 roku, rozwiązał ten problem. Wykorzystując właściwości elektryczne półprzewodników, wykonywała te same zadania co lampy próżniowe, ale zajmowała znacznie mniejszą objętość i nie zużywała tyle energii. Wraz z pojawieniem się rdzeni ferrytowych do organizowania pamięci komputera, zastosowanie tranzystorów umożliwiło znaczne zmniejszenie rozmiarów maszyn, czyniąc je jeszcze bardziej niezawodnymi i szybszymi.

W 1954 roku amerykańska firma Texas Instruments rozpoczęła masową produkcję tranzystorów, a dwa lata później w Massachusetts pojawił się pierwszy komputer drugiej generacji zbudowany na tranzystorach, TX-O.

W połowie ubiegłego wieku znaczna część organizacji rządowych i dużych firm wykorzystywała komputery do obliczeń naukowych, finansowych, inżynierskich i pracy z dużymi macierzami danych. Stopniowo komputery uzyskiwały znane nam dzisiaj funkcje. W tym okresie pojawiły się plotery wykresowe, drukarki, nośniki informacji na dyskach magnetycznych i taśmie.

Aktywne wykorzystanie technologii komputerowej doprowadziło do rozszerzenia jej obszarów zastosowań i wymagało stworzenia nowych technologii oprogramowania. Pojawiły się języki programowania wysokiego poziomu, które umożliwiają przenoszenie programów z jednej maszyny na drugą i upraszczają proces pisania kodu (Fortran, Cobol i inne). Pojawiły się specjalne programy-tłumaczy, które konwertują kod z tych języków na polecenia, które są bezpośrednio odbierane przez maszynę.

Pojawienie się układów scalonych

W latach 1958-1960, dzięki inżynierom ze Stanów Zjednoczonych, Robertowi Noyce i Jackowi Kilby, świat dowiedział się o istnieniu układów scalonych. W oparciu o kryształ krzemowy lub germanowy montowano miniaturowe tranzystory i inne elementy, czasami nawet setki, a nawet tysiące. Mikroukłady o wielkości nieco ponad centymetra były znacznie szybsze niż tranzystory i zużywały znacznie mniej energii. Wraz z ich pojawieniem się historia rozwoju technologii komputerowej łączy pojawienie się trzeciej generacji komputerów.

W 1964 roku IBM wypuścił pierwszy komputer z rodziny SYSTEM 360, który był oparty na układach scalonych. Od tego czasu można policzyć masową produkcję komputerów. W sumie wyprodukowano ponad 20 tysięcy egzemplarzy tego komputera.

W 1972 r. w ZSRR opracowano komputer ES (single series). Były to standaryzowane kompleksy do pracy centra komputerowe, który miał wspólny system dowodzenia. Na podstawie amerykańskiego System IBM 360.

W następnym roku DEC wypuścił minikomputer PDP-8, pierwszy projekt komercyjny w tym regionie. Stosunkowo niski koszt minikomputerów umożliwił korzystanie z nich również małym organizacjom.

W tym samym okresie oprogramowanie było stale ulepszane. Opracowano systemy operacyjne do obsługi maksymalnej liczby urządzeń zewnętrznych, pojawiły się nowe programy. W 1964 powstał BASIC - język zaprojektowany specjalnie do szkolenia początkujących programistów. Pięć lat później pojawił się Pascal, który okazał się bardzo wygodny w rozwiązywaniu wielu problemów aplikacyjnych.

Komputery osobiste

Po 1970 roku rozpoczęto wypuszczanie czwartej generacji komputerów. Rozwój technologii komputerowej w tym czasie charakteryzuje się wprowadzeniem do produkcji komputerów dużych układów scalonych. Takie maszyny mogą teraz wykonywać tysiące milionów operacji obliczeniowych w ciągu jednej sekundy, a pojemność ich pamięci RAM wzrosła do 500 milionów bitów. Znaczące obniżenie kosztów mikrokomputerów doprowadziło do tego, że możliwość ich zakupu stopniowo pojawiała się u przeciętnego człowieka.

Apple był jednym z pierwszych producentów komputerów osobistych. Steve Jobs i Steve Wozniak, którzy go stworzyli, zaprojektowali pierwszy komputer w 1976 roku, nazywając go Apple I. Kosztował tylko 500 dolarów. Rok później wprowadzono kolejny model tej firmy, Apple II.

Komputer tamtych czasów po raz pierwszy upodobnił się do urządzenia gospodarstwa domowego: oprócz kompaktowych rozmiarów miał elegancki wygląd i przyjazny interfejs użytkownika. Rozpowszechnienie komputerów osobistych pod koniec lat 70. doprowadziło do znacznego spadku popytu na komputery typu mainframe. Ten fakt poważnie zaniepokoił ich producenta - IBM, aw 1979 roku wprowadziła na rynek swój pierwszy komputer PC.

Dwa lata później pojawił się pierwszy mikrokomputer firmy o otwartej architekturze, oparty na 16-bitowym mikroprocesorze 8088 firmy Intel. Komputer został wyposażony w monochromatyczny wyświetlacz, dwa napędy na pięciocalowe dyskietki i 64 kilobajty pamięci RAM. W imieniu twórcy firmy Microsoft specjalnie opracował system operacyjny dla tego komputera. Na rynku pojawiły się liczne klony IBM PC, co pobudziło wzrost przemysłowej produkcji komputerów osobistych.

W 1984 roku firma Apple opracowała i wypuściła nowy komputer - Macintosh. Jego system operacyjny był wyjątkowo przyjazny dla użytkownika: przedstawiał polecenia w postaci obrazów graficznych i umożliwiał wprowadzanie ich za pomocą myszy. Dzięki temu komputer stał się jeszcze bardziej dostępny, ponieważ od użytkownika nie były wymagane żadne specjalne umiejętności.

Komputery piątej generacji techniki komputerowej, niektóre źródła pochodzą z lat 1992-2013. W skrócie ich główna koncepcja jest sformułowana w następujący sposób: są to komputery stworzone w oparciu o super złożone mikroprocesory, posiadające strukturę wektorów równoległych, co umożliwia jednoczesne wykonywanie dziesiątek poleceń sekwencyjnych osadzonych w programie. Maszyny z kilkuset procesorami pracującymi równolegle pozwalają na jeszcze dokładniejsze i szybsze przetwarzanie danych, a także tworzenie wydajnych sieci.

Rozwój nowoczesnej technologii komputerowej pozwala już mówić o komputerach szóstej generacji. Są to komputery elektroniczne i optoelektroniczne pracujące na dziesiątkach tysięcy mikroprocesorów, charakteryzujące się masywną równoległością i symulującą architekturę neuronowych systemów biologicznych, co pozwala z powodzeniem rozpoznawać złożone obrazy.

Po konsekwentnym rozważeniu wszystkich etapów rozwoju technologii komputerowej należy zauważyć interesujący fakt: wynalazki, które sprawdziły się na każdym z nich, przetrwały do ​​dziś i nadal są z powodzeniem wykorzystywane.

Zajęcia komputerowe

Istnieją różne opcje klasyfikacji komputerów.

Tak więc, zgodnie z przeznaczeniem, komputery są podzielone:

  • uniwersalne - te, które są w stanie rozwiązać różne problemy matematyczne, ekonomiczne, inżynierskie, naukowe i inne;
  • zorientowane problemowo - rozwiązywanie problemów o węższym kierunku, zwykle związanych z zarządzaniem pewnymi procesami (rejestracja danych, gromadzenie i przetwarzanie niewielkich ilości informacji, obliczenia zgodnie z prostymi algorytmami). Mają bardziej ograniczone zasoby oprogramowania i sprzętu niż pierwsza grupa komputerów;
  • wyspecjalizowane komputery rozwiązują z reguły ściśle określone zadania. Posiadają wysoce wyspecjalizowaną konstrukcję, a przy stosunkowo niewielkiej złożoności urządzenia i sterowania są dość niezawodne i wydajne w swojej dziedzinie. Są to np. sterowniki czy adaptery sterujące szeregiem urządzeń, a także programowalne mikroprocesory.

Według wielkości i mocy produkcyjnych nowoczesny elektroniczny sprzęt komputerowy dzieli się na:

  • na super dużych (superkomputerach);
  • duże komputery;
  • małe komputery;
  • bardzo małe (mikrokomputery).

Widzieliśmy więc, że urządzenia, wynalezione najpierw przez człowieka do rozliczania zasobów i wartości, a następnie do szybkiego i dokładnego wykonywania skomplikowanych obliczeń i operacji obliczeniowych, są stale rozwijane i ulepszane.

DZWON

Są tacy, którzy czytają tę wiadomość przed tobą.
Zapisz się, aby otrzymywać najnowsze artykuły.
E-mail
Nazwa
Nazwisko
Jak chciałbyś przeczytać The Bell?
Bez spamu