DZWON

Są tacy, którzy czytają tę wiadomość przed tobą.
Zapisz się, aby otrzymywać najnowsze artykuły.
E-mail
Nazwa
Nazwisko
Jak chciałbyś przeczytać The Bell?
Bez spamu

Historia rozwoju instrumentalnych narzędzi liczących pozwala lepiej zrozumieć działanie współczesnych komputerów. Jak powiedział Leibniz: „Kto chce ograniczyć się do teraźniejszości, nie znając przeszłości, nigdy nie zrozumie teraźniejszości”. Dlatego ważne jest badanie historii rozwoju VT część integralna Informatyka.

Od czasów starożytnych ludzie używali różnych urządzeń do liczenia. Pierwszym takim „urządzeniem” były własne palce. Pełny opis liczenia palców został opracowany w średniowiecznej Europie przez irlandzkiego mnicha Bede Czcigodnego (VII wne). Do XVIII wieku stosowano różne techniki liczenia palców.

Do instrumentalnego liczenia stosowano liny z węzłami.

Najbardziej rozpowszechnionym w starożytności było liczydło, o którym informacje znane są z V wieku p.n.e. Liczby w nim były reprezentowane przez kamyki ułożone w kolumnach. W starożytny Rzym kamyki oznaczono słowem Rachunek, stąd słowa oznaczające rachunek (angielski oblicz - liczyć).

Liczydło, szeroko stosowane w Rosji, jest w zasadzie podobne do liczydła.

Konieczność użycia różne urządzenia bo relację tłumaczono tym, że pisemna relacja była trudna. Po pierwsze wynikało to ze złożonego systemu pisania liczb, po drugie niewiele osób umiało pisać, a po trzecie środki do zapisu (pergamin) były bardzo drogie. Wraz z upowszechnieniem się cyfr arabskich i wynalezieniem papieru (XII-XIII w.) pismo zaczęło się szeroko rozwijać i liczydło nie było już potrzebne.

Pierwszym urządzeniem, które zmechanizowało liczenie w zwykłym dla nas znaczeniu, była maszyna licząca zbudowana w 1642 roku przez francuskiego naukowca Blaise'a Pascala. Zawierał zestaw pionowo ułożonych kół z nadrukowanymi cyframi 0-9. Gdyby takie koło wykonało pełny obrót, sprzęgłoby się z sąsiednim kołem i obróciło je o jedną dywizję, zapewniając przejście z jednej kategorii do drugiej. Taka maszyna potrafiła dodawać i odejmować liczby i była używana w biurze ojca Pascala do obliczania wysokości pobieranych podatków.

Różne projekty, a nawet obrazy operacyjne mechanicznych maszyn liczących powstały jeszcze przed maszyną Pascala, ale to maszyna Pascala stała się powszechnie znana. Pascal wykupił patent na swoją maszynę, sprzedał kilkadziesiąt próbek; szlachta, a nawet królowie byli zainteresowani jego samochodem; na przykład jeden z samochodów został podarowany królowej Szwecji Krystynie.

W 1673 r Niemiecki filozof i matematyk Gottfried Leibniz stworzył mechaniczne urządzenie liczące, które nie tylko dodaje i odejmuje, ale także mnoży i dzieli. Maszyna ta stała się podstawą przyrządów do obliczania masy - maszyn sumujących. Produkcja mechanicznych maszyn liczących została uruchomiona w USA w 1887 r., W Rosji w 1894 r. Ale te maszyny były ręczne, to znaczy wymagały stałego udziału człowieka. Nie zautomatyzowali, a jedynie zmechanizowali konto.

Ogromne znaczenie w historii informatyki mają próby "zmuszenia" urządzeń technicznych do automatycznego wykonywania jakiejkolwiek czynności bez ingerencji człowieka.

Takie automaty mechaniczne, zbudowane na bazie mechanizmu zegarowego, otrzymały wielki rozwój w XVII-XVIII wieku. Szczególnie znane były automaty francuskiego mechanizmu Jacquesa de Vaucansona, wśród których był flecista zabawka, który na zewnątrz wyglądał jak zwykły człowiek. Ale to były tylko zabawki.

Wprowadzenie automatyzacji do produkcji przemysłowej wiąże się z nazwiskiem francuskiego inżyniera Jacquarda, który wynalazł urządzenie sterujące krosnem oparte na kartach dziurkowanych - kartonie z otworami. Dziurkowanie dziurek w kartach dziurkowanych na różne sposoby pozwoliło na uzyskanie na maszynach tkanin o różnych splotach nici.

ojciec Informatyka Charles Babbage, angielski naukowiec z XIX wieku, uważany jest za pierwszego, który podjął próbę zbudowania maszyny liczącej, która działa zgodnie z programem. Maszyna miała pomóc Brytyjskiemu Urzędowi Morskiemu w kompilacji stołów żeglarskich. Babbage uważał, że maszyna powinna mieć urządzenie, w którym będą przechowywane liczby przeznaczone do obliczeń („pamięć”). Jednocześnie powinny znajdować się instrukcje, co zrobić z tymi numerami („zasada programu przechowywanego”). Aby wykonywać operacje na liczbach, maszyna musi mieć specjalne urządzenie, które Babbage nazwał „młynem”, a we współczesnych komputerach odpowiada ALU. Liczby musiały być wprowadzane do maszyny ręcznie i wyprowadzane do urządzenia drukującego („urządzenia wejściowe/wyjściowe”). I wreszcie musiało istnieć urządzenie, które steruje pracą całej maszyny („UU”). Maszyna Babbage'a była mechaniczna i pracowała z liczbami przedstawionymi w systemie dziesiętnym.

Naukowe idee Babbage'a przejęła córka słynnego angielskiego poety George'a Byrona, Lady Ada Lovelace. Pisała programy, dzięki którym maszyna mogła wykonywać złożone obliczenia matematyczne. Wiele pojęć wprowadzonych przez Adę Lovelace w opisie tych pierwszych programów na świecie, w szczególności pojęcie „pętli”, jest szeroko stosowane przez współczesnych programistów.

Kolejny ważny krok w kierunku automatyzacji obliczeń poczynił około 20 lat po śmierci Babbage'a Amerykanin Herman Hollerith, który wynalazł elektromechaniczną maszynę do obliczeń za pomocą kart dziurkowanych. Maszyna służyła do przetwarzania danych spisowych. W kartach dziurkowanych ręcznie wybijano dziury w zależności od odpowiedzi na pytania spisowe; maszyna sortująca umożliwiała rozdzielanie kart na grupy w zależności od lokalizacji wybitych otworów, a tabulator liczył liczbę kart w każdej grupie. Dzięki tej maszynie wyniki Spisu Powszechnego Stanów Zjednoczonych z 1890 r. zostały przetworzone trzy razy szybciej niż poprzedni.

W 1944 roku w Stanach Zjednoczonych pod kierownictwem Howarda Aikina zbudowano komputer elektromechaniczny, znany jako „Mark-1”, a następnie „Mark-2”. Ta maszyna była oparta na przekaźniku. Ponieważ przekaźniki mają dwa stabilne stany, a pomysł porzucenia systemu dziesiętnego nie wpadł jeszcze do głowy projektantom, liczby były reprezentowane w systemie binarno-dziesiętnym: każda cyfra dziesiętna była reprezentowana przez cztery cyfry binarne i była przechowywana w grupie czterech przekaźników. Szybkość pracy wynosiła około 4 operacji na sekundę. W tym samym czasie powstało kilka kolejnych maszyn przekaźnikowych, w tym sowiecki komputer przekaźnikowy RVM-1, zaprojektowany w 1956 roku przez Bessonowa i działający z powodzeniem do 1966 roku.

15 lutego 1946, kiedy naukowcy z University of Pennsylvania zamówili pierwszy na świecie komputer z lampą próżniową, ENIAC, zwykle przyjmuje się za punkt wyjścia ery komputerów. Pierwszym zastosowaniem ENIAC było rozwiązanie problemów związanych z projektem ściśle tajnej bomby atomowej, a następnie wykorzystano go głównie do celów wojskowych. ENIAC nie miał programu przechowywanego w pamięci; „programowanie” zostało zrealizowane poprzez zainstalowanie zworek pomiędzy poszczególnymi elementami.

Od 1944 r. John von Neumann brał udział w tworzeniu komputerów. W 1946 roku ukazał się jego artykuł, w którym sformułowano dwie najważniejsze zasady leżące u podstaw wszystkich współczesnych komputerów: użycie binarnego systemu liczbowego i zasadę programu przechowywanego.

Komputery pojawiły się także w ZSRR. W 1952 roku pod przewodnictwem naukowca Lebiediewa powstał najszybszy komputer w Europie BESM, a w 1953 roku rozpoczęto produkcję komputera seryjnego Strela. Seryjne samochody radzieckie były na poziomie najlepszych modeli światowych.

Rozpoczął się szybki rozwój VT.

Pierwszy komputer lampowy (ENIAC) składał się z około 20 tysięcy lamp próżniowych, znajdował się w ogromnej hali, zużywał kilkadziesiąt kW energii elektrycznej i był bardzo zawodny w działaniu - w rzeczywistości działał tylko przez krótkie okresy między remontami.

Od tego czasu rozwój BT przeszedł długą drogę. Istnieje kilka generacji komputerów. Pokolenie rozumiane jest jako pewien etap w rozwoju sprzętu, charakteryzujący się jego parametrami, technologią wytwarzania komponentów itp.

1. generacja - wczesne lata 50. (BESM, Strela, Ural). Oparty na lampach elektronicznych. Wysokie zużycie energii, niska niezawodność, niska wydajność (2000 operacji/s), mała ilość pamięci (kilka kilobajtów); nie było możliwości zorganizowania procesów obliczeniowych, operator pracował bezpośrednio przy konsoli.

2 pokolenie - koniec lat 50. (Mińsk - 2, Hrazdan, Nairi). Elementy półprzewodnikowe, okablowanie drukowane, prędkość (50-60 tys. op/s); pojawiły się zewnętrzne urządzenia pamięci magnetycznej, prymitywne systemy operacyjne i translatory z języków algorytmicznych.

III generacja - połowa lat 60. Zbudowane w oparciu o układy scalone, zastosowano standardowe bloki elektroniczne; prędkość do 1,5 miliona operacji/s; opracowane narzędzia programowe.

IV generacja - zbudowana w oparciu o mikroprocesory. Komputery są wyspecjalizowane, pojawiają się ich różne typy: superkomputery - do rozwiązywania bardzo złożonych problemów obliczeniowych; komputery typu mainframe - do rozwiązywania problemów gospodarczych i rozliczeniowych w przedsiębiorstwie, komputery PC - do użytku indywidualnego. Obecnie komputery PC zajmują dominującą część rynku komputerowego, a ich możliwości są miliony razy większe niż możliwości pierwszych komputerów.

Pierwszy Altair 8800 PC pojawił się w 1975 roku w MITS, ale jego możliwości były bardzo ograniczone i nie nastąpiła żadna fundamentalna zmiana w korzystaniu z komputerów. Rewolucji w branży PC dokonały dwie inne firmy - IBM i Apple Computer, których rywalizacja przyczyniła się do szybkiego rozwoju wysokich technologii, poprawiających walory techniczne i użytkowe komputera PC. W wyniku tego konkursu komputer stał się integralną częścią codziennego życia.

Historia firmy Apple rozpoczęła się w 1976 roku, kiedy Stephen Jobs i Stephen Wozniak (oboje po dwudziestce) zmontowali swój pierwszy komputer w garażu Los Almos w Kalifornii. Jednak prawdziwy sukces przyszedł do firmy wraz z wydaniem komputera Apple-II, który powstał w oparciu o mikroprocesor Motorolla, wygląd zewnętrzny przypominał zwykły sprzęt gospodarstwa domowego, a za cenę, na którą mógł sobie pozwolić zwykły Amerykanin.

IBM urodził się w 1914 roku i specjalizował się w produkcji papeterii do maszyn do pisania. W latach pięćdziesiątych założyciel firmy Thomas Watson przeorientował ją na produkcję dużych komputerów. W dziedzinie komputerów osobistych firma początkowo przyjęła postawę wyczekiwania. Wściekły sukces Apple zaalarmował giganta i w możliwie najkrótszym czasie powstał pierwszy IBM PC, wprowadzony w 1981 roku. Korzystając ze swoich ogromnych zasobów, korporacja dosłownie zalała rynek swoimi pecetami, skupiając się na najbardziej pojemnym zakresie ich zastosowania – świecie biznesu. IBM PC został oparty na najnowszym mikroprocesorze firmy Intel, co znacznie rozszerzyło możliwości nowego komputera.

Aby zdobyć rynek, IBM najpierw zastosował zasadę „otwartej architektury”. IBM PC nie został wyprodukowany jako pojedyncza jednostka, ale został złożony z oddzielnych modułów. Każda firma może opracować urządzenie kompatybilne z IBM PC. Przyniosło to IBM ogromny sukces komercyjny. Ale w tym samym czasie na rynku zaczęło pojawiać się wiele komputerów - dokładne kopie IBM PC - tak zwane klony. Firma zareagowała na pojawienie się „podwójnych” gwałtownym spadkiem cen i pojawieniem się nowych modeli.

W odpowiedzi Apple stworzył Apple Macintosh, wyposażony w myszkę i wysokiej jakości wyświetlacz graficzny, a także po raz pierwszy wyposażony w mikrofon i generator dźwięku. A co najważniejsze – istniało wygodne i łatwe w obsłudze oprogramowanie. Mac trafił do sprzedaży i odniósł pewien sukces, ale Apple nie udało się odzyskać pozycji lidera na rynku komputerów PC.

Starając się zbliżyć do łatwości obsługi komputerów Apple, IBM stymuluje rozwój nowoczesnego oprogramowania. Ogromną rolę odegrało tutaj stworzenie OC Windows przez Microsoft.

Odkąd oprogramowanie stają się coraz wygodniejsze i bardziej pomysłowe. Komputery PC są wyposażane w nowe urządzenia, a z urządzenia do zajęć profesjonalnych stają się „centrami cyfrowej rozrywki”, łączącymi funkcje różnych sprzętów AGD.

Ministerstwo Edukacji i Nauki Federacja Rosyjska

Agencja federalna edukacji

SEI VPO „Uralski Państwowy Uniwersytet Ekonomiczny”

Katedra Ekonomii i Prawa

Oddział USUE w N. Tagil

Test

według dyscypliny:

"Informatyka"

Opcja 8___

Temat: „Historia rozwoju technologii komputerowej”

Wykonawca:

student gr. 1EKIP

Gorbunowa AA

Nauczyciel:

Skorokhodov B.A.

Wstęp………………………………………………………………………………..3

1 Etapy rozwoju techniki komputerowej………………………………………..4

2 Charakterystyka generacji komputerów………………………………………………………...9

3 Rola technologii komputerowej w życiu człowieka……………………… 13

Wniosek……………………………………………………………………………… 14

Wstęp

Znajomość historii rozwoju technologii komputerowych jest integralną składową kompetencji zawodowych przyszłego specjalisty w dziedzinie informatyki. Pierwsze kroki w automatyzacji pracy umysłowej odnoszą się konkretnie do czynności obliczeniowej osoby, która już w najwcześniejszych stadiach swojej cywilizacji zaczęła posługiwać się środkami kalkulacji instrumentalnej.

Jednocześnie należy pamiętać, że sprawdzone sposoby rozwoju technologii komputerowej są obecnie wykorzystywane przez człowieka do automatyzacji różnego rodzaju obliczeń.

Systemy zautomatyzowane są integralną częścią każdej firmy i produkcji. Prawie wszyscy menedżerowie i procesy technologiczne do pewnego stopnia korzystać z komputerów. Tylko jeden komputer może znacząco zwiększyć efektywność zarządzania przedsiębiorstwem bez stwarzania dodatkowych problemów. Dziś komputery osobiste są instalowane w każdym miejscu pracy i z reguły nikt nie wątpi w ich konieczność. Znaczące wolumeny technologii komputerowych i ich szczególna rola w funkcjonowaniu każdego przedsiębiorstwa stawiają przed zarządem szereg nowych zadań.

W artykule omówiona zostanie historia rozwoju technologii komputerowej, która pomoże zrozumieć i zagłębić się w istotę i znaczenie komputerów.

1 Etapy rozwoju zaplecza komputerowego

Istnieje kilka etapów rozwoju technologii komputerowej, z której ludzie korzystają obecnie.

Ręczny etap rozwoju zaplecza komputerowego.

Ręczny okres automatyzacji obliczeń rozpoczął się u zarania ludzkiej cywilizacji i opierał się na wykorzystaniu różnych części ciała, przede wszystkim palców rąk i nóg.

Liczenie palców ma korzenie w starożytności i występuje w takiej czy innej formie wśród wszystkich współczesnych narodów. Znani średniowieczni matematycy polecani jako pomoc precyzyjne liczenie palców, co pozwala na dość efektywne systemy liczenia. Wyniki liczenia były rejestrowane na różne sposoby: nacinanie, liczenie patyków, sęków itp. Na przykład ludy Ameryki prekolumbijskiej miały wysoko rozwiniętą liczbę sęków. Co więcej, system guzków służył również jako rodzaj kronik i annałów o dość złożonej strukturze. Jednak korzystanie z niego wymagało dobrego treningu pamięci.

Liczenie za pomocą grupowania i przesuwania przedmiotów było prekursorem liczenia na liczydle, najbardziej zaawansowanym starożytnym narzędziu liczenia, który przetrwał do dziś w postaci różnego rodzaju rachunków.

Liczydło było pierwszym opracowanym instrumentem liczącym w historii ludzkości, którego główną różnicą w stosunku do poprzednich metod obliczeniowych było wykonywanie obliczeń cyframi. Tak więc użycie liczydła implikuje już obecność pewnego systemu liczb pozycyjnego, na przykład dziesiętnego, trójnego, quinarowego itp. Wielowiekowy sposób ulepszania liczydła doprowadził do stworzenia urządzenia liczącego o gotowej formie klasycznej , używany do czasów świetności komputerów stacjonarnych z klawiaturą. Nawet dzisiaj w niektórych miejscach można go spotkać pomagającego w transakcjach rozliczeniowych. I dopiero pojawienie się kieszonkowych kalkulatorów elektronicznych w latach 70. naszego wieku stworzyło realne zagrożenie dla dalszego korzystania z kont rosyjskich, chińskich i japońskich - trzech głównych klasycznych form liczydła, które przetrwały do ​​​​dziś. W tym samym czasie ostatnia znana próba ulepszenia rosyjskich kont poprzez połączenie ich z tabliczką mnożenia datuje się na rok 1921.

Dobrze przystosowane do wykonywania operacji dodawania i odejmowania liczydło okazało się niewystarczająco efektywnym urządzeniem do wykonywania operacji mnożenia i dzielenia. Dlatego odkrycie logarytmów i tablic logarytmicznych przez Johna Napiera na początku XVII wieku było kolejnym ważnym krokiem w rozwoju manualnych systemów obliczeniowych. Następnie pojawia się szereg modyfikacji tablic logarytmicznych. Jednak w praktyczna praca Stosowanie tablic logarytmicznych wiąże się z szeregiem niedogodności, dlatego John Napier zaproponował jako alternatywną metodę specjalne patyczki liczące (później nazwane patyczkami Napiera), które umożliwiły wykonywanie operacji mnożenia i dzielenia bezpośrednio na liczbach pierwotnych. Napier oparł tę metodę na metodzie mnożenia przez kratę.

Wraz z pałeczkami Napier zaproponował tablicę do liczenia do wykonywania mnożenia, dzielenia, podniesienia do kwadratu i pierwiastka kwadratowego w systemie binarnym, przewidując w ten sposób zalety takiego systemu liczbowego do automatyzacji obliczeń.

Logarytmy stały się podstawą do stworzenia wspaniałego narzędzia obliczeniowego – suwaka logarytmicznego, który od ponad 360 lat służy inżynierom i inżynierom na całym świecie.

Faza mechaniczna w rozwoju technologii komputerowej.

Rozwój mechaniki w XVII wieku stał się warunkiem wstępnym do stworzenia urządzeń i instrumentów obliczeniowych wykorzystujących mechaniczną zasadę obliczeń. Takie urządzenia były budowane na elementach mechanicznych i zapewniały automatyczny transfer najwyższego rzędu.

Pierwsza maszyna mechaniczna została opisana w 1623 roku przez Wilhelma Schickarda, zrealizowana w jednym egzemplarzu i miała wykonywać cztery operacje arytmetyczne na liczbach 6-bitowych.

Maszyna Shikkarda składała się z trzech niezależnych urządzeń: dodawania, mnożenia i zapisywania liczb. Dodawanie odbywało się przez sekwencyjne wprowadzanie terminów za pomocą krążków składu, a odejmowanie przez sekwencyjne wprowadzanie odjemnej i odjemnej. Wprowadzone liczby oraz wynik dodawania i odejmowania były wyświetlane w oknach odczytu. Do wykonania operacji mnożenia wykorzystano ideę mnożenia przez kratę. Trzecia część maszyny służyła do zapisywania liczby nie dłuższej niż 6 cyfr.

Maszyna Blaise'a Pascala wykorzystywała bardziej złożony schemat transferu wysokiego rzędu, rzadko używany później; ale pierwszy działający model maszyny zbudowany w 1642 roku, a następnie seria 50 maszyn, przyczyniły się do dość szerokiej popularności wynalazku i ukształtowania się opinii publicznej o możliwości automatyzacji pracy umysłowej.

Pierwsza maszyna sumująca, która umożliwia wykonanie wszystkich czterech operacji arytmetycznych, została stworzona przez Gottfrieda Leibniza w wyniku wieloletniej pracy. Zwieńczeniem tej pracy była maszyna sumująca Leibniza, która pozwala na uzyskanie 16-bitowego iloczynu przy użyciu 8-bitowej mnożnika i 9-bitowego mnożnika.

Szczególne miejsce wśród osiągnięć etapu mechanicznego w rozwoju technologii komputerowej zajmują prace Charlesa Babbage, słusznie uważanego za założyciela i ideologa nowoczesnej technologii komputerowej. Wśród prac Babbage'a wyraźnie widoczne są dwa główne kierunki: komputery różnicowe i komputery analityczne.

Projekt Difference Engine został opracowany w latach 20. XIX wieku i miał na celu tabulację funkcji wielomianowych metodą różnic skończonych. Głównym bodźcem w tej pracy była pilna potrzeba zestawiania funkcji i sprawdzania istniejących, pełnych błędów tablic matematycznych.

Drugi projekt Babbage'a to silnik analityczny, który wykorzystuje zasadę kontroli programu i był prekursorem nowoczesnych komputerów. Projekt ten został zaproponowany w latach 30. XIX wieku, aw 1843 Ala Lovelace napisał pierwszy na świecie dość złożony program do obliczania liczb Bernoulliego dla maszyny Babbage'a.

Charles Babbage w swojej maszynie używał mechanizmu podobnego do tego z krosna żakardowego, używając specjalnych kart perforowanych. Zgodnie z ideą Babbage'a sterowanie powinno odbywać się za pomocą pary mechanizmów żakardowych z zestawem kart perforowanych w każdym.

Babbage miał zaskakująco nowoczesne pomysły na komputery, ale środki techniczne, którymi dysponował, były daleko w tyle za jego pomysłami.

Elektromechaniczny etap rozwoju techniki komputerowej.

Etap elektromechaniczny w rozwoju techniki komputerowej był najkrótszy i trwał zaledwie około 60 lat. Warunkiem powstania projektów tego etapu była zarówno potrzeba obliczeń masowych (ekonomia, statystyka, zarządzanie i planowanie itp.), jak i rozwój elektrotechniki stosowanej (napęd elektryczny i przekaźniki elektromechaniczne), które umożliwiły tworzenie elektromechanicznych urządzenia komputerowe.

Klasycznym typem środków etapu elektromechanicznego był kompleks licząco-analityczny przeznaczony do przetwarzania informacji na kartach perforowanych.

Pierwszy kompleks obliczeniowo-analityczny został stworzony w USA przez Hermana Holleritha w 1887 roku i składał się z: ręcznego dziurkacza, maszyny sortującej i tabulatora. Głównym celem kompleksu była statystyczna obróbka kart perforowanych, a także mechanizacja zadań księgowych i gospodarczych. W 1897 roku Hollerith zorganizował firmę, która później stała się znana jako IBM.

Rozwijając prace G. Holleritha, w wielu krajach opracowuje się i wytwarza szereg modeli kompleksów obliczeniowo-analitycznych, z których najbardziej popularne i masywne były kompleksy IBM, Remington i Buhl.

Ostatni okres (lata 40. XX wieku) etapu elektromechanicznego w rozwoju technologii komputerowej charakteryzuje się stworzeniem szeregu złożonych systemów przekaźnikowych i przekaźnikowo-mechanicznych z zarządzanie programem, charakteryzujący się wszechstronnością algorytmiczną i zdolny do wykonywania złożonych obliczeń naukowych i technicznych w tryb automatyczny z prędkościami o rząd wielkości wyższymi niż prędkość arytmometrów elektrycznych.

Konrad Zuse był pionierem w stworzeniu uniwersalnego komputera z kontrolą programu i przechowywaniem informacji w urządzeniu pamięci. Jednak jego pierwszy model Z-1 (który zapoczątkował serię samochodów Z) był ideologicznie gorszy od projektu Babbage'a - nie przewidywał warunkowego przekazania kontroli. W przyszłości opracowano również modele Z-2 i Z-3.

Za ostatni duży projekt technologii przekaźnikowej należy uznać komputer przekaźnikowy RVM-1 zbudowany w 1957 r. w ZSRR i eksploatowany do końca 1964 r. głównie do rozwiązywania problemów ekonomicznych.

Elektroniczna faza rozwoju techniki komputerowej.

Ze względu na fizyczny i techniczny charakter, technologia obliczeń przekaźnikowych nie pozwoliła na znaczne zwiększenie szybkości obliczeń; wymagało to przejścia na szybkie elektroniczne elementy bezwładnościowe.

Za pierwszy komputer można uznać angielską maszynę Colossus, stworzoną w 1943 roku przy udziale Alana Turinga. Maszyna zawierała około 2000 lamp próżniowych i miała dość dużą prędkość, ale była wysoce wyspecjalizowana.

Za pierwszy komputer uważa się maszynę ENIAC (Electronic Numerical Integrator And Computer), stworzoną w USA pod koniec 1945 roku. Początkowo przeznaczona do rozwiązywania problemów balistycznych, maszyna okazała się uniwersalna, tj. zdolny do rozwiązywania różnych problemów.

Jeszcze przed rozpoczęciem eksploatacji ENIAC, John Mauchly i Presper Eckert, na zlecenie armii amerykańskiej, rozpoczęli projekt nowego komputera EDVAC (Electronic Discrete Automatic Variable Computer), który był doskonalszy od pierwszego. Maszyna ta miała dużą pamięć (1024 44-bitowe słowa; do czasu jej ukończenia dodano pamięć pomocniczą danych 4000 słów) zarówno dla danych, jak i programu.

Komputer EDSAC zapoczątkował nowy etap w rozwoju technologii komputerowej - pierwszą generację komputerów typu mainframe.

2 Charakterystyka generacji komputerów

Począwszy od 1950 r., co 7-10 lat, radykalnie uaktualniano zasady konstrukcyjno-technologiczne i algorytmiczne oprogramowania budowy i użytkowania komputerów. W związku z tym uzasadnione jest mówienie o pokoleniach komputerów. Tradycyjnie każdemu pokoleniu można podać 10 lat.

Pierwsza generacja komputerów 1950-1960

Układy logiczne powstały na dyskretnych komponentach radiowych i elektronicznych lampach próżniowych z żarnikiem. W urządzeniach pamięci o dostępie swobodnym zastosowano bębny magnetyczne, akustyczną, ultradźwiękową rtęciową i elektromagnetyczną linie opóźniające, lampy katodowe. Jako zewnętrzne urządzenia pamięci masowej zastosowano napędy taśm magnetycznych, karty perforowane, taśmy perforowane i przełączniki wtykowe.

Programowanie komputerów tej generacji odbywało się w systemie binarnym w języku maszynowym, czyli programy były sztywno zorientowane na konkretny model maszyny i „umierały” wraz z tymi modelami.

W połowie lat pięćdziesiątych pojawiły się języki zorientowane maszynowo, takie jak języki kodowania symbolicznego (CLL), które umożliwiły stosowanie ich skróconej notacji werbalnej (litery) i liczb dziesiętnych zamiast binarnej notacji poleceń i adresów.

Komputery, począwszy od UNIVAC, a skończywszy na BESM-2 i pierwszych modelach komputerów „Mińsk” i „Ural”, należą do pierwszej generacji komputerów.

Druga generacja komputerów: 1960-1970

Układy logiczne zbudowano na dyskretnych elementach półprzewodnikowych i magnetycznych. Jako podstawę konstrukcyjną i technologiczną zastosowano obwody z okablowaniem drukowanym. Powszechnie stosowana jest blokowa zasada projektowania maszyn, która pozwala na podłączenie dużej liczby różnych urządzeń zewnętrznych do głównych urządzeń, co zapewnia większą elastyczność w korzystaniu z komputerów. Częstotliwości zegara obwodów elektronicznych wzrosły do ​​setek kiloherców.

Zaczęto stosować zewnętrzne dyski twarde i dyskietki - pośredni poziom pamięci między napędami taśm magnetycznych a pamięcią o dostępie swobodnym.

W 1964 roku pojawił się pierwszy monitor do komputerów - IBM 2250. Był to monochromatyczny wyświetlacz z ekranem 12 x 12 cali i rozdzielczością 1024 x 1024 pikseli. Miał częstotliwość klatek 40 Hz.

Systemy sterowania stworzone na bazie komputerów wymagały od komputerów większej wydajności, a co najważniejsze niezawodności. Kody wykrywania i korekcji błędów oraz wbudowane obwody sterujące stały się szeroko stosowane w komputerach.

W maszynach drugiej generacji po raz pierwszy wdrożono przetwarzanie wsadowe i teleprzetwarzanie informacji.

Pierwszym komputerem, który częściowo wykorzystywał urządzenia półprzewodnikowe zamiast lamp próżniowych, była maszyna stworzona w 1951 roku.

Na początku lat 60. maszyny półprzewodnikowe zaczęto produkować również w ZSRR.

Trzecia generacja komputerów: 1970-1980

Układy logiczne komputerów trzeciej generacji były już w całości zbudowane na małych układach scalonych. Częstotliwości zegara obwodów elektronicznych wzrosły do ​​jednostek megaherców. Zmniejszyło się napięcie zasilania (kilka woltów) oraz moc pobierana przez maszynę. Niezawodność i szybkość komputerów znacznie wzrosła.

Urządzenia pamięci o dostępie swobodnym wykorzystywały miniaturowe rdzenie ferrytowe, płytki ferrytowe i folie magnetyczne z prostokątną pętlą histerezy. Napędy dyskowe stały się szeroko stosowane jako zewnętrzne urządzenia pamięci masowej.

Pojawiły się jeszcze dwa poziomy urządzeń pamięci masowej: ultraszybkie urządzenia pamięci masowej oparte na rejestrach wyzwalających, które mają ogromną prędkość, ale małą pojemność (dziesiątki liczb) i szybką pamięć podręczną.

Od czasu powszechnego stosowania układów scalonych w komputerach postęp technologiczny w komputerach można zaobserwować za pomocą znanego prawa Moore'a. W 1965 roku jeden z założycieli Intela, Gordon Moore, odkrył prawo, zgodnie z którym liczba tranzystorów w jednym chipie podwaja się co 1,5 roku.

Wobec znacznej komplikacji zarówno sprzętowej, jak i logicznej struktury komputerów III generacji zaczęto je często nazywać systemami.

W komputerach trzeciej generacji dużą wagę przywiązuje się do zmniejszenia złożoności programowania, wydajności wykonywania programów w maszynach oraz poprawy komunikacji między operatorem a maszyną. Zapewniają to wydajne systemy operacyjne, zaawansowany system automatyzacji programowania, skuteczne systemy przerwania programu, tryby pracy z podziałem czasu, tryby pracy w czasie rzeczywistym, tryby pracy z wieloma programami oraz nowe interaktywne tryby komunikacji. Pojawił się również skuteczny terminal wideo do komunikacji między operatorem a maszyną - monitor wideo lub wyświetlacz.

Dużo uwagi poświęca się poprawie niezawodności i niezawodności działania komputerów oraz ułatwieniu ich Konserwacja. Niezawodność i niezawodność zapewnia powszechne stosowanie kodów z automatycznym wykrywaniem i korekcją błędów (korekta kodów Hamminga i kodów cyklicznych).

Czwarta generacja komputerów: 1980-1990

Rewolucyjnym wydarzeniem w rozwoju technologii komputerowych czwartej generacji maszyn było stworzenie dużych i bardzo dużych układów scalonych, mikroprocesora i komputera osobistego.

Logiczne układy scalone w komputerach zaczęto tworzyć w oparciu o jednobiegunowe tranzystory polowe CMOS z bezpośrednimi połączeniami, pracujące z mniejszymi amplitudami napięć elektrycznych.

Piąta generacja komputerów: 1990-obecnie

W skrócie, podstawową koncepcję komputerów piątej generacji można sformułować w następujący sposób:

Komputery oparte na wysoce złożonych mikroprocesorach o strukturze równoległej wektorowej, wykonujące jednocześnie dziesiątki sekwencyjnych instrukcji programowych.

Komputery z wieloma setkami procesorów pracujących równolegle, pozwalających na budowanie systemów przetwarzania danych i wiedzy, efektywnych sieciowych systemów komputerowych.

Szósta i kolejne generacje komputerów

Komputery elektroniczne i optoelektroniczne o masywnej równoległości, strukturze neuronowej, z rozproszoną siecią dużej liczby (dziesiątek tysięcy) mikroprocesorów symulujących architekturę neuronowych systemów biologicznych.

3 Rola technologii komputerowych w życiu człowieka.

Rola informatyki w ogólności nowoczesne warunki stale rośnie. Działania zarówno pojedynczych osób, jak i całych organizacji w coraz większym stopniu zależą od ich świadomości i umiejętności efektywnego wykorzystania dostępnych informacji. Przed podjęciem jakichkolwiek działań musisz: dobra robota o gromadzeniu i przetwarzaniu informacji, ich rozumieniu i analizie. Znalezienie racjonalnych rozwiązań w dowolnej dziedzinie wymaga przetwarzania dużej ilości informacji, co czasami jest niemożliwe bez zaangażowania specjalnych środków technicznych. Wprowadzenie komputerów nowoczesne środki przetwarzanie i przekazywanie informacji do różnych branż było początkiem procesu zwanego informatyzacją społeczeństwa. Współczesny produkcja materiałów i inne obszary działalności coraz bardziej potrzebują usług informacyjnych, przetwarzania ogromnej ilości informacji. Informatyzacja oparta na wprowadzaniu technologii komputerowych i telekomunikacyjnych jest odpowiedzią społeczeństwa na potrzebę znacznego wzrostu wydajności pracy w sektorze informacyjnym produkcja społeczna gdzie koncentruje się ponad połowa ludności w wieku produkcyjnym.

Technologia informacyjna wkroczyła we wszystkie sfery naszego życia. Komputer jest środkiem zwiększającym efektywność procesu uczenia się, bierze udział we wszystkich rodzajach działalności człowieka, jest niezbędny do sfera społeczna. Technologie informacyjne to narzędzia sprzętowe i programowe oparte na wykorzystaniu technologii komputerowej, które zapewniają przechowywanie i przetwarzanie informacji edukacyjnych, ich dostarczanie uczniowi, interaktywną interakcję między uczniem a nauczycielem lub pedagogiczną narzędzie programowe i testowanie wiedzy ucznia.

Można założyć, że ewolucja technologii w ogóle kontynuuje naturalną ewolucję. Jeśli rozwój narzędzi kamiennych pomógł ukształtować ludzką inteligencję, metalowe zwiększyły wydajność pracy fizycznej (tak bardzo, że osobna warstwa społeczeństwa została uwolniona dla aktywności intelektualnej), maszyny zmechanizowane Praca fizyczna, to technologia informacyjna ma na celu uwolnienie człowieka od rutynowej pracy umysłowej, aby zwiększyć jego zdolności twórcze.

Wniosek

Można żyć w XXI wieku jako osoba wykształcona tylko wtedy, gdy dobrze znasz technologię informacyjną. Wszak aktywność ludzi coraz bardziej zależy od ich świadomości, umiejętności efektywnego wykorzystywania informacji. Aby swobodnie orientować się w przepływie informacji, nowoczesny specjalista o dowolnym profilu musi umieć odbierać, przetwarzać i wykorzystywać informacje za pomocą komputerów, telekomunikacji i innych środków komunikacji. Ludzie zaczynają mówić o informacji jako strategicznym zasobie społeczeństwa, jako zasobie determinującym poziom rozwoju państwa.

Studiując historię rozwoju technologii komputerowej, można poznać całą strukturę i znaczenie komputerów w życiu człowieka. Pomoże ci to lepiej je zrozumieć i łatwo dostrzec nowe postępowe technologie, ponieważ nie powinieneś zapominać, że technologie komputerowe rozwijają się prawie każdego dnia, a jeśli nie zrozumiesz struktury maszyn, które były wiele lat temu, będzie to trudne do pokonania obecne pokolenie.

W prezentowanej pracy można było pokazać, jak rozpoczął się i kończył rozwój technologii komputerowej i co? ważna rola grają dla ludzi w chwili obecnej.

Historia rozwoju technologii obliczeniowej

Rozwój technologii obliczeniowej można podzielić na: następujące okresy:

Ø podręcznik(VI wpne - XVII wne)

Ø Mechaniczny(XVII wiek - połowa XX wieku)

Ø Elektroniczny(połowa XX wiek - obecnie)

Chociaż Prometeusz w tragedii Ajschylosa stwierdza: „Pomyśl, co zrobiłem śmiertelnikom: wymyśliłem z nimi liczbę i nauczyłem ich łączyć litery”, pojęcie liczby powstało na długo przed pojawieniem się pisma. Ludzie od wieków uczą się liczyć, przekazując i wzbogacając swoje doświadczenia z pokolenia na pokolenie.

Konto, czy szerzej – obliczenia, można przeprowadzić w różne formy: istnieje liczenie ustne, pisemne i instrumentalne . Fundusze na rachunku instrumentalnym w różnym czasie miały różne możliwości i były inaczej nazywane.

etap ręczny (VI wpne - XVII wne)

Pojawienie się konta w starożytności - "To był początek początków ..."

Szacowany wiek ostatniego pokolenia ludzkości to 3-4 miliony lat. Tyle lat temu pewien mężczyzna wstał i podniósł narzędzie, które sam wykonał. Jednak umiejętność liczenia (czyli umiejętność rozbicia pojęć „więcej” i „mniej” na określoną liczbę jednostek) ukształtowała się u ludzi znacznie później, a mianowicie 40-50 tysięcy lat temu (późny paleolit) . Ten etap odpowiada wyglądowi nowoczesny mężczyzna(Cro-Magnon). Tak więc jedną z głównych (jeśli nie główną) cechą odróżniającą człowieka z Cro-Magnon od starszego stadium człowieka jest obecność w nim zdolności liczenia.

Łatwo się domyślić, że pierwszy urządzeniem liczącym człowieka były jego palce.

Palce okazały się świetnemaszyna obliczeniowa. Z ich pomocą można było policzyć do 5, a jeśli weźmiesz dwie ręce, to do 10. A w krajach, w których ludzie chodzili boso, na palcach łatwo było policzyć do 20. Wtedy to praktycznie wystarczyło dla większości potrzeby ludzi.

Palce okazały się być tak ściśle związane z twierdzą, że w starożytnej grece pojęcie „liczyć” wyrażano słowem„do pięciokrotności”. Tak, a po rosyjsku słowo „pięć” przypomina „śródręcze” - część ręce (słowo „pastern” jest obecnie rzadko wymieniane, ale jego pochodną jest „nadgarstek” – obecnie często używany). Ręka, śródręcze, jest u wielu narodów synonimem, a właściwie podstawą liczebnika „PIĘĆ”. Na przykład malajskie „LIMA” oznacza zarówno „rękę”, jak i „pięć”.

Jednak znane są narody, których jednostki rozliczeniowe nie były palce, ale ich stawy.

Nauka liczenia na palcachdziesięć, ludzie zrobili kolejny krok naprzód i zaczęli liczyć do dziesiątek. A jeśli niektóre plemiona papuaskie mogły liczyć tylko do sześciu, to inne liczyły kilkadziesiąt. Tylko do tego było to konieczne zapraszam wiele liczników na raz.

W wielu językach słowa „dwa” i „dziesięć” są spółgłoskami. Być może wynika to z faktu, że kiedyś słowo „dziesięć” oznaczało „dwie ręce”. A teraz są plemiona, które mówią:„dwie ręce” zamiast „dziesięciu” i „ręce i stopy” zamiast „dwudziestu”. A w Anglii pierwsze dziesięć numerów nazywa się potoczną nazwą - „palce”. Oznacza to, że Brytyjczycy kiedyś policzyli na palcach.

Liczenie palców zachowało się w niektórych miejscach do dziś, na przykład historyk matematyki L. Karpinsky w książce „Historia arytmetyki” donosi, że na największej na świecie giełdzie zbożowej w Chicago, oferty i zapytania, a także ceny , ogłaszane są przez brokerów na palcach bez jednego słowa.

Potem przyszło liczenie z przesuwaniem kamieni, liczenie za pomocą różańca... To był znaczący przełom w ludzkich zdolnościach liczenia - początek abstrakcji liczb.

MINISTERSTWO EDUKACJI I NAUKI FEDERACJI ROSYJSKIEJ

Państwowa instytucja edukacyjna wyższej edukacji zawodowej

Rosyjski Państwowy Uniwersytet Handlowo-Ekonomiczny

Instytut Ufa (oddział)

Wydział prawo i nauka na odległość

Dobrze 1 (5,5g)

Specjalność 080507.65 „Zarządzanie organizacją”

dział „Zarządzanie wewnętrznymi

i handel międzynarodowy»

Żurawlew Siergiej Władimirowicz

Historia rozwoju techniki komputerowej. Krótkie tło historyczne. generacje komputerów. Perspektywy rozwoju techniki komputerowej.

Test

dyscyplina: „Informatyka”

Pozwalam na obronę:

Kierownik: Zakiryanov F.K.______

(podpis)

_________________

Stopień ochrony

_______________________________________

Data podpis__________

Wprowadzenie ............................................... . .............................. strona 3

Początkowy etap rozwoju techniki komputerowej .................... s. 4

Początek współczesnej historii elektroniki

technologia komputerowa………………………………...……. strona 7

Generacje komputerów ............................................. ................................... strona 9

Komputery osobiste................................................ ..... strona 13

Co przed nami? ................................................. . ................... strona 16

Podsumowanie……………………………………………………… str. 18

Bibliografia ................................................ . ............. strona 20

Wstęp

Słowo „komputer” oznacza „komputer”, tj. urządzenie do

przetwarzanie danych. Konieczność automatyzacji przetwarzania danych, w tym obliczeń, pojawiła się bardzo dawno temu. Ponad 1500 lat temu do liczenia używano kijów liczących, kamyków itp.

W dzisiejszych czasach trudno sobie wyobrazić, że bez komputerów można

dawać sobie radę finansowo. Ale jeszcze nie tak dawno, aż do początku lat 70., komputery były dostępne dla bardzo ograniczonego kręgu specjalistów, a ich użycie z reguły pozostawało owiane zasłoną tajemnicy i mało znane ogółowi społeczeństwa. Jednak w 1971 roku wydarzyło się wydarzenie, które radykalnie zmieniło sytuację iz fantastyczną szybkością przekształciło komputer w codzienne narzędzie pracy dla dziesiątek milionów ludzi. W tym bez wątpienia znaczącym roku wciąż prawie nieznana firma Intel z małego amerykańskiego miasteczka o pięknej nazwie Santa Clara w Kalifornii wypuściła pierwszy mikroprocesor. To jemu zawdzięczamy pojawienie się nowej klasy systemów komputerowych - komputerów osobistych, z których obecnie korzystają w zasadzie wszyscy, od studentów Szkoła Podstawowa i księgowych dla naukowców i inżynierów.

Pod koniec XX wieku nie sposób wyobrazić sobie życia bez komputera osobistego. Komputer mocno wkroczył w nasze życie, stając się głównym pomocnikiem człowieka. Dziś na świecie jest wiele komputerów różnych firm, różnych grup złożoności, przeznaczenia i generacji.

W tym eseju rozważymy historię rozwoju technologii komputerowej, a także krótka recenzja o możliwościach wykorzystania nowoczesnych systemów komputerowych i dalszych trendach w rozwoju komputerów osobistych.

Początkowy etap rozwoju technologii komputerowej.

Wszystko zaczęło się od pomysłu nauczenia maszyny liczenia lub przynajmniej dodawania wielocyfrowych liczb całkowitych. Już około 1500 roku wielka postać Oświecenia, Leonardo da Vinci, opracował szkic 13-bitowego urządzenia sumującego, co było pierwszą próbą rozwiązania tego problemu, jaka dotarła do nas. Pierwszą działającą maszynę sumującą zbudował w 1642 roku Blaise Pascal, słynny francuski fizyk, matematyk i inżynier. Jego 8-bitowa maszyna przetrwała do dziś.

Rys.1. Blaise Pascal (1623-1662) i jego maszyna licząca

Prawie 250 lat minęło od niezwykłej ciekawości, jak współcześni postrzegali maszynę Pascala, do stworzenia praktycznie użytecznej i szeroko stosowanej jednostki - maszyny sumującej (mechanicznego urządzenia liczącego zdolnego do wykonywania 4 operacji arytmetycznych) - minęło prawie 250 lat. Już na początku XIX wieku poziom rozwoju wielu nauk i dziedzin działalności praktycznej (matematyka, mechanika, astronomia, inżynieria, nawigacja itp.) był tak wysoki, że pilnie wymagały wykonania ogromnej ilości obliczeń, które wykraczały poza możliwości nieuzbrojonej osoby, odpowiednia technologia. Nad jego stworzeniem i udoskonaleniem pracowali zarówno wybitni naukowcy o światowej renomie, jak i setki ludzi, których nazwiska wielu do nas nie dotarły, którzy poświęcili swoje życie projektowaniu mechanicznych urządzeń obliczeniowych.

W latach 70. naszego wieku na półkach sklepowych stały mechaniczne maszyny sumujące i ich „najbliżsi krewni” wyposażone w napęd elektryczny, elektromechaniczne klawiatury komputerowe. Jak to często bywa, przez dość długi czas w cudowny sposób współistniały z technologią zupełnie innego poziomu – automatycznymi komputerami cyfrowymi (ATsVM), które w potocznym języku nazywa się częściej komputerami (choć ściśle rzecz biorąc, pojęcia te nie do końca się pokrywają ). Historia ATsVM sięga pierwszej połowy ubiegłego wieku i jest związana z nazwiskiem wybitnego angielskiego matematyka i inżyniera Charlesa Babbage. W 1822 r. zaprojektował i przez prawie 30 lat budował i ulepszał maszynę, najpierw zwaną „różnicą”, a następnie, po licznych udoskonaleniach projektu, „analityczną”. Maszyna „analityczna” została oparta na zasadach, które stały się fundamentalne dla technologii komputerowej.

1. Automatyczne wykonywanie operacji.

Aby wykonać obliczenia na dużą skalę, istotne jest nie tylko to, jak szybko wykonywana jest pojedyncza operacja arytmetyczna, ale także to, czy nie ma „przerw” między operacjami, które wymagają bezpośredniej interwencji człowieka. Na przykład większość nowoczesnych kalkulatorów nie spełnia tego wymogu, chociaż każda dostępna dla nich akcja jest wykonywana bardzo szybko. Konieczne jest, aby operacje następowały po sobie bez zatrzymywania się.

2. Praca nad programem wprowadzonym "w biegu".

W celu automatycznego wykonania operacji program musi być wprowadzony do urządzenia wykonawczego z prędkością proporcjonalną do prędkości operacji. Babbage zasugerował użycie kart dziurkowanych do wstępnego nagrywania programów i wprowadzania ich do maszyny, która do tego czasu była używana do sterowania krosnami.

3. Potrzeba specjalnego urządzenia - pamięci - do przechowywania danych (Babbage nazwał to "magazynem").

Ryż. 2. Charles Babbage (1792 - 1871) i jego „maszyna analityczna”

Te rewolucyjne pomysły napotkały na niemożność ich realizacji w oparciu o technologię mechaniczną, ponieważ prawie pół wieku pozostało do pojawienia się pierwszego silnika elektrycznego, a prawie sto lat przed pierwszą elektroniczną lampą radiową! Wyprzedzali swoje czasy tak daleko, że zostali w dużej mierze zapomniani i ponownie odkryci w następnym stuleciu.

Po raz pierwszy automatycznie działające urządzenia komputerowe pojawiły się w połowie XX wieku. Stało się to możliwe dzięki zastosowaniu przekaźników elektromechanicznych wraz ze strukturami mechanicznymi. Prace nad maszynami przekaźnikowymi rozpoczęły się w latach 30. i trwały ze zmiennym powodzeniem, aż w 1944 r. pod kierownictwem Howarda Aikena, amerykańskiego matematyka i fizyka, maszyna Mark-1 została uruchomiona w IBM (International Business Machines). ”, która jako pierwsza wdrożył idee Babbage (chociaż twórcy najwyraźniej nie byli z nimi zaznajomieni). Zastosowano w nim elementy mechaniczne (koła obliczeniowe) do reprezentowania liczb, a elementy elektromechaniczne do sterowania. Jedna z najpotężniejszych maszyn przekaźnikowych RVM-1 została zbudowana w ZSRR na początku lat 50. pod kierownictwem NI Bessonowa; wykonał do 20 mnożeń na sekundę przy wystarczająco długich liczbach binarnych.

Jednak pojawienie się maszyn przekaźnikowych było beznadziejnie spóźnione i bardzo szybko zostały one wyparte przez maszyny elektroniczne, które były znacznie bardziej wydajne i niezawodne.

Początek współczesnej historii informatyki elektronicznej

Prawdziwa rewolucja w informatyce nastąpiła w związku z wykorzystaniem urządzenia elektryczne. Prace nad nimi rozpoczęły się pod koniec lat 30-tych jednocześnie w USA, Niemczech, Wielkiej Brytanii i ZSRR. Do tego czasu lampy próżniowe, które stały się podstawa techniczna urządzenia do przetwarzania i przechowywania informacji cyfrowych są już szeroko stosowane w urządzeniach radiotechnicznych.

Pierwszym pracującym komputerem był ENIAC (USA, 1945-1946). Jego nazwa, oparta na pierwszych literach odpowiednich angielskich słów, oznacza „elektroniczny integrator liczbowy i kalkulator”. Jej tworzeniem kierowali John Mouchli i Presper Eckert, którzy kontynuowali dzieło George'a Atanasoffa, rozpoczęte pod koniec lat 30. XX wieku. Maszyna zawierała około 18 tysięcy lamp próżniowych, wiele elementów elektromechanicznych. Jego pobór mocy wynosił 150 kW, co wystarcza do zapewnienia małej instalacji.

Niemal równocześnie trwały prace nad stworzeniem komputerów w Wielkiej Brytanii. Przede wszystkim wiąże się z nimi nazwisko Allana Turinga, matematyka, który również wniósł wielki wkład w teorię algorytmów i teorię kodowania. W 1944 roku maszyna Colossus została uruchomiona w Wielkiej Brytanii.

Te i szereg innych pierwszych komputerów nie miały najważniejszej cechy z punktu widzenia konstruktorów kolejnych komputerów - program nie był przechowywany w pamięci maszyny, ale był pisany w dość skomplikowany sposób przy użyciu zewnętrznych urządzeń przełączających.

Ogromny wkład w teorię i praktykę tworzenia elektronicznej technologii obliczeniowej na etap początkowy jego rozwój został wprowadzony przez jednego z największych matematyków amerykańskich, Johna von Neumanna. „Zasady von Neumanna” weszły na zawsze do historii nauki. Połączenie tych zasad dało początek klasycznej (von Neumann) architekturze komputerowej. Jedna z najważniejszych zasad - zasada programu przechowywanego - wymaga, aby program był przechowywany w pamięci maszyny w taki sam sposób, jak przechowywane są w niej oryginalne informacje. Pierwszy komputer z zapisanym programem (EDSAC) został zbudowany w Wielkiej Brytanii w 1949 roku.

Ryż. 3. John von Neumann (1903-1957) Fot. 4. Siergiej Aleksandrowicz Lebiediew (1902-1974)

W naszym kraju do lat 70. tworzenie komputerów odbywało się prawie całkowicie niezależnie i niezależnie od świata zewnętrznego (a sam ten „świat” był prawie całkowicie zależny od Stanów Zjednoczonych). Faktem jest, że elektroniczna technologia obliczeniowa od samego początku była uważana za ściśle tajny produkt strategiczny, a ZSRR musiał ją rozwijać i produkować samodzielnie. Stopniowo reżim tajności złagodniał, ale nawet pod koniec lat 80. nasz kraj mógł kupować tylko przestarzałe modele komputerów za granicą (a wiodący producenci najnowocześniejszych i najpotężniejszych komputerów - USA i Japonia - wciąż się rozwijają i produkują w tajemnicy tryb).

Pierwszy domowy komputer - MESM ("mała elektroniczna maszyna obliczeniowa") - powstał w 1951 roku pod kierownictwem Siergieja Aleksandrowicza Lebiediewa, największego radzieckiego projektanta technologii komputerowej, później akademika, laureata nagród państwowych, który doprowadził do powstania wielu komputery domowe. Rekordem wśród nich i jednym z najlepszych na świecie w swoim czasie była BESM-6 („duża elektroniczna maszyna licząca, model 6”), stworzona w połowie lat 60. i przez długi czas była podstawową maszyną w obronności, kosmosie badania naukowe i techniczne w ZSRR. Oprócz maszyn z serii BESM wyprodukowano również komputery innych serii - „Mińsk”, „Ural”, M-20, „Mir” i inne stworzone pod kierownictwem I.S. Bruka i M.A. Kartseva, B.I.M.Glushkova , Yu.A.Bazilevsky i inni krajowi projektanci i teoretycy informatyki.historical rozwój. ... terminator 10 + T R terror 6 + T A technika 7 + T M technokracja 12 + T I technofobia... Filippov F.R. Z pokolenia do Pokolenie: socjologia i...

  • Nowoczesne technologie informacyjne (2)

    Wykład >> Informatyka, programowanie

    ... Rozwój przetwarzanie danych technologia W rozwój przetwarzanie danych technologia można zidentyfikować prehistorię i cztery pokolenia elektroniczny przetwarzanie danych ... horyzont i możliwości na dalsze rozwój ... komputer przetwarzanie danych centra były pierwsze historycznie ... Fabuła rozwój ...

  • Ekonomia i zarządzanie we współczesnej elektroenergetyce Rosji

    Rezerwuj >> Teoria ekonomiczna

    ... fabuła rozwój turbina parowa technologia dla elektrowni jądrowych fabuła... klimatyzowane historyczny,polityczny ... dajmy krótki certyfikat o... rozwój energetyka 5.7.1. Rozwój horyzont rozwój ... przetwarzanie danych technologia. ... Nowy pokolenia przeprowadzone... komputer, ...

  • Kantarowiczu

    Prawo >> Postacie historyczne

    ... certyfikat... główni asystenci pierwszego pokolenia-- V.A. Zalgallera... częściowo historyczny nieporozumienie... nowoczesne historia, ... dla komputer, ... KRÓTKI BIOLOGIA... rozwój przetwarzanie danych technologia. Prowadził projekt nowego przetwarzanie danych ... horyzont gospodarka...

  • Wykład nr 10. HISTORIA ROZWOJU SPRZĘTU KOMPUTEROWEGO

    1.1. WSTĘPNY ETAP ROZWOJU SPRZĘTU KOMPUTEROWEGO

    Konieczność automatyzacji przetwarzania danych, w tym obliczeń, pojawiła się bardzo dawno temu. Uważa się, że historycznie pierwszym i odpowiednio najprostszym urządzeniem liczącym było liczydło, które należy do ręcznych urządzeń liczących.

    Deska została podzielona na rowki. Jeden rowek odpowiadał jedynkom, drugi dziesiątkom i tak dalej. Jeśli podczas liczenia w rowku zgromadziło się więcej niż 10 kamyków, usuwano je i dodawano jeden kamyk do następnej kategorii. W krajach Dalekiego Wschodu chiński odpowiednik liczydła był szeroko rozpowszechniony - suan pan(konto było oparte nie na dziesięciu, ale na pięciu), w Rosji - liczydło.

    Liczydło

    Suana patelnia. założony 1930

    Konta. Zestaw 401.28

    Pierwszą próbą rozwiązania problemu stworzenia maszyny zdolnej do dodawania wielocyfrowych liczb całkowitych, jaka przyszła nam do głowy, był szkic 13-bitowego sumatora opracowanego przez Leonarda da Vinci około 1500 roku.

    W 1642 r. Blaise Pascal wynalazł urządzenie, które mechanicznie wykonuje dodawanie liczb. Po zapoznaniu się z dziełami Pascala i przestudiowaniu jego maszyny arytmetycznej, Gottfried Wilhelm Leibniz dokonał w niej znaczących ulepszeń, a w 1673 zaprojektował maszynę sumującą, która umożliwia mechanicznie wykonać cztery operacje arytmetyczne. Od XIX wieku dodawanie maszyn stało się bardzo rozpowszechnione i stosowane. Wykonano na nich nawet bardzo skomplikowane obliczenia, na przykład obliczenia tablic balistycznych do ostrzału artyleryjskiego. Był specjalny zawód - licznik.

    Pomimo wyraźnego postępu w porównaniu z liczydłem i podobnymi urządzeniami do ręcznego liczenia, te mechaniczne urządzenia liczące wymagana stała interwencja człowieka w trakcie obliczeń. Osoba dokonująca obliczeń na takim urządzeniu sama kontroluje jego pracę, określa kolejność wykonywanych operacji.

    Marzeniem wynalazców technologii komputerowej było stworzenie automatu liczącego, który bez ingerencji człowieka wykonywałby obliczenia według wcześniej skompilowanego programu.

    W pierwszej połowie XIX wieku angielski matematyk Charles Babbage próbował stworzyć uniwersalną urządzenie komputerowesilnik analityczny, który miał wykonywać operacje arytmetyczne bez ingerencji człowieka. Silnik analityczny opierał się na zasadach, które stały się fundamentalne dla komputerów i zapewniał wszystkie główne komponenty dostępne w nowoczesnym komputerze. Silnik analityczny Babbage'a miał składać się z następujących części:

    1. „Fabryka” – urządzenie, w którym wykonywane są wszystkie operacje przetwarzania wszystkich typów danych (ALU).

    2. „Biuro” – urządzenie zapewniające organizację wykonania programu przetwarzania danych oraz skoordynowaną pracę wszystkich węzłów maszyny podczas tego procesu (CU).

    3. „Magazyn” to urządzenie przeznaczone do przechowywania danych początkowych, wartości pośrednich oraz wyników przetwarzania danych (pamięć lub po prostu pamięć).

    4. Urządzenia zdolne do konwersji danych do postaci dostępnej dla komputera (kodowanie). Urządzenia wejściowe.

    5. Urządzenia zdolne do konwersji wyników przetwarzania danych do postaci zrozumiałej dla osoby. urządzenia zewnętrzne.

    W finalnej wersji maszyna posiadała trzy urządzenia do wprowadzania kart perforowanych, z których odczytywany był program i dane do przetworzenia.

    Babbage nie był w stanie dokończyć dzieła - okazało się to zbyt trudne w oparciu o ówczesne techniki mechaniczne. Opracował jednak podstawowe idee, a w 1943 roku Amerykanin Howard Aiken, oparty na technologii już dwudziestowiecznej - przekaźniki elektromechaniczne- potrafił zbudować w jednym z przedsiębiorstw firmy IBM taka maszyna o nazwie „Mark-1”. Zastosowano w nim elementy mechaniczne (koła obliczeniowe) do reprezentowania liczb, a elementy elektromechaniczne do sterowania.

    1.2. POCZĄTEK WSPÓŁCZESNEJ HISTORII ELEKTRONICZNEGO SPRZĘTU KOMPUTEROWEGO

    Prawdziwa rewolucja w informatyce nastąpiła w związku z wykorzystaniem urządzeń elektronicznych. Prace nad nimi rozpoczęły się pod koniec lat 30-tych jednocześnie w USA, Niemczech, Wielkiej Brytanii i ZSRR. W tym czasie lampy próżniowe, które stały się podstawą techniczną urządzeń do przetwarzania i przechowywania informacji cyfrowych, były już szeroko stosowane w urządzeniach radiotechnicznych.

    Ogromny wkład w teorię i praktykę tworzenia technologii obliczeń elektronicznych w początkowej fazie jej rozwoju wniósł jeden z najwybitniejszych matematyków amerykańskich, John von Neumann. „Zasady von Neumanna” weszły na zawsze do historii nauki. Połączenie tych zasad dało początek klasycznej (von Neumann) architekturze komputerowej. Jedna z najważniejszych zasad - zasada programu przechowywanego - wymaga, aby program był przechowywany w pamięci maszyny w taki sam sposób, jak jest w niej przechowywany. informacje ogólne. Pierwszy komputer z zapisanym programem ( EDSAC ) został zbudowany w Wielkiej Brytanii w 1949 roku.

    W naszym kraju do lat 70. tworzenie komputerów odbywało się prawie całkowicie niezależnie i niezależnie od świata zewnętrznego (a sam ten „świat” był prawie całkowicie zależny od Stanów Zjednoczonych). Faktem jest, że elektroniczna technologia obliczeniowa od samego początku była uważana za ściśle tajny produkt strategiczny, a ZSRR musiał ją rozwijać i produkować samodzielnie. Stopniowo reżim tajności złagodniał, ale nawet pod koniec lat 80. nasz kraj mógł kupować tylko przestarzałe modele komputerów za granicą (a wiodący producenci najnowocześniejszych i najpotężniejszych komputerów - USA i Japonia - wciąż się rozwijają i produkują w tajemnicy tryb).

    Pierwszy domowy komputer - MESM ("mała elektroniczna maszyna obliczeniowa") - powstał w 1951 roku pod kierownictwem Siergieja Aleksandrowicza Lebiediewa, największego radzieckiego projektanta technologii komputerowej. Rekordem wśród nich i jednym z najlepszych na świecie w swoim czasie była BESM-6 („duża elektroniczna maszyna licząca, model 6”), stworzona w połowie lat 60. i przez długi czas była podstawową maszyną w obronności, kosmosie badania naukowe i techniczne w ZSRR. Oprócz maszyn serii BESM produkowano również komputery innych serii - Mińsk, Ural, M-20, Mir i inne.

    Wraz z rozpoczęciem seryjnej produkcji komputerów zaczęli warunkowo dzielić je na pokolenia; odpowiednia klasyfikacja jest podana poniżej.

    1.3. POKOLENIA KOMPUTEROWE

    W historii technologii komputerowej istnieje rodzaj periodyzacji komputerów na pokolenia. Pierwotnie opierał się na zasadzie fizycznej i technologicznej: maszyna jest przypisywana do jednej lub drugiej generacji w zależności od użytych w niej elementów fizycznych lub technologii ich wytwarzania. Granice pokoleń w czasie zacierają się, ponieważ w tym samym czasie produkowano samochody na zupełnie innych poziomach. Kiedy podają daty związane z pokoleniami, najprawdopodobniej mają na myśli okres produkcja przemysłowa; projekt został wykonany znacznie wcześniej i nadal można spotkać bardzo egzotyczne urządzenia działające do dziś.

    Obecnie nie tylko zasada fizyko-technologiczna określa, czy dany komputer należy do pokolenia. Należy również wziąć pod uwagę poziom oprogramowania, szybkość i inne czynniki, z których główne podsumowano w załączonej tabeli. 4.1.

    Należy zrozumieć, że podział komputerów na pokolenia jest bardzo względny. Pierwsze komputery, wyprodukowane przed początkiem lat 50., były produktami „kawałkowymi”, na których opracowano podstawowe zasady; nie ma żadnego szczególnego powodu, aby przypisywać je jakiemukolwiek pokoleniu. Nie ma jednomyślności w określaniu znaków piątego pokolenia. W połowie lat 80. uważano, że główną cechą tego (przyszłego) pokolenia jest… pełna realizacja zasad sztuczna inteligencja . Zadanie to okazało się znacznie trudniejsze niż było to wówczas widziane, a wielu specjalistów obniża poprzeczkę za ten etap (a nawet twierdzi, że już się odbyło). W historii nauki istnieją analogi tego zjawiska: na przykład po udanym uruchomieniu pierwszego elektrownie jądrowe w połowie lat pięćdziesiątych naukowcy ogłosili, że niedługo nastąpi uruchomienie wielokrotnie potężniejszych, tańszych energetycznie, przyjaznych dla środowiska stacji termojądrowych; jednak nie docenili gigantycznych trudności po drodze, ponieważ do dziś nie ma elektrowni termojądrowych.

    Jednocześnie wśród maszyn czwartej generacji różnica jest niezwykle duża, a więc w tabeli. 4.1 odpowiednia kolumna jest podzielona na dwie: A i B. Daty wskazane w górnym wierszu odpowiadają pierwszym latom produkcji komputera. Wiele koncepcji odzwierciedlonych w tabeli zostanie omówionych w kolejnych rozdziałach podręcznika; tutaj ograniczamy się do krótkiego komentarza.

    Im młodsze pokolenie, tym jaśniejsze są cechy klasyfikacji. Komputery pierwszej, drugiej i trzeciej generacji są dziś co najwyżej eksponatami muzealnymi.

    Jakie komputery należą do pierwszej generacji?

    Do pierwsza generacja zazwyczaj obejmują maszyny powstałe na przełomie lat 50-tych. Stosowane przez nich schematy lampy elektroniczne. Te komputery były ogromne, niewygodne i zbyt drogie auta, które mogły być nabyte tylko przez duże korporacje i rządy. Lampy zużywały ogromne ilości energii elektrycznej i generowały dużo ciepła.

    Zestaw poleceń był niewielki, schemat jednostki arytmetyczno-logicznej i jednostki sterującej dość prosty, oprogramowania praktycznie nie było. Ocena pamięci RAM i wydajności była niska. Do I/O użyto taśm dziurkowanych, kart dziurkowanych, taśm magnetycznych i urządzeń drukujących.

    Prędkość wynosi około 10-20 tysięcy operacji na sekundę.

    Ale to tylko strona techniczna. Inna sprawa też jest bardzo ważna – sposoby korzystania z komputerów, styl programowania, cechy oprogramowania.

    Napisano programy dla tych maszyn w języku konkretnej maszyny. Matematyk, który skompilował program, usiadł przy panelu sterowania maszyny, wprowadził i debugował programy oraz założył na nich konto. Najdłużej trwał proces debugowania.

    Mimo ograniczonych możliwości maszyny te umożliwiły wykonanie najbardziej skomplikowanych obliczeń niezbędnych do prognozowania pogody, rozwiązywania problemów energetyki jądrowej itp.

    Doświadczenie z pierwszą generacją maszyn pokazało, że istnieje ogromna przepaść między czasem poświęconym na tworzenie programów, a czasem obliczeń.

    Maszyny domowe pierwszej generacji: MESM (mała elektroniczna maszyna licząca), BESM, Strela, Ural, M-20.

    Jakie komputery należą do drugiej generacji?

    Drugie pokolenie technologia komputerowa- maszyny zaprojektowane w latach 1955-65. Charakteryzują się zastosowaniem jako lampy elektroniczne, oraz dyskretne tranzystorowe elementy logiczne,. Ich pamięć RAM została zbudowana na rdzeniach magnetycznych. W tym czasie gama używanego sprzętu wejścia-wyjścia zaczęła się rozszerzać, o wysokiej wydajności urządzenia do pracy z taśmami magnetycznymi, bębny magnetyczne i pierwsze dyski magnetyczne.

    Wydajność- do setek tysięcy operacji na sekundę, pojemność pamięci- do kilkudziesięciu tysięcy słów.

    Tak zwany Języki wysoki poziom , których środki pozwalają na opis całej niezbędnej sekwencji działań obliczeniowych w wizualny, łatwy do zrozumienia sposób.

    Program napisany w języku algorytmicznym jest niezrozumiały dla komputera, który rozumie tylko język własnych instrukcji. Dlatego specjalne programy zwane tłumacze, przetłumacz program z języka wysokiego poziomu na język maszynowy.

    Pojawiła się szeroka gama programów bibliotecznych do rozwiązywania różnych problemów matematycznych. Pojawił się systemy monitorowania, które kontrolują tryb nadawania i realizacji programu. Z systemów monitorowych później wyrosły nowoczesne systemy operacyjne.

    W ten sposób, system operacyjny jest rozszerzeniem oprogramowania komputerowego urządzenia sterującego.

    Dla niektórych maszyn drugiej generacji powstały już systemy operacyjne o ograniczonych możliwościach.

    Scharakteryzowano maszyny drugiej generacji niekompatybilność oprogramowania, co utrudniało organizowanie dużych systemy informacyjne. Dlatego w połowie lat 60. nastąpiło przejście do tworzenia komputerów kompatybilnych z oprogramowaniem i zbudowanych na bazie mikroelektronicznej technologii.

    Jakie są cechy komputerów trzeciej generacji?

    Maszyny trzeciej generacji powstały mniej więcej po latach 60-tych. Ponieważ proces tworzenia technologii komputerowej był ciągły i angażował wiele osób z różnych krajów zajmujących się rozwiązywaniem różnych problemów, trudno i bezużytecznie próbować ustalić, kiedy „pokolenie” zaczęło się i skończyło. Być może najważniejszym kryterium rozróżnienia maszyn drugiej i trzeciej generacji jest kryterium oparte na koncepcji architektury.

    Maszyny trzeciej generacji to rodziny maszyn o wspólnej architekturze, tj. kompatybilny z oprogramowaniem. Jako podstawę elementów wykorzystują układy scalone, zwane również mikroukładami.

    Maszyny trzeciej generacji mają zaawansowane systemy operacyjne. Posiadają możliwości multiprogramowania, tj. jednoczesne wykonywanie kilku programów. Wiele zadań związanych z zarządzaniem pamięcią, urządzeniami i zasobami zaczął być przejmowany przez system operacyjny lub bezpośrednio przez samą maszynę.

    Przykładami maszyn trzeciej generacji są rodziny IBM-360, IBM-370, komputery ES (zunifikowany system komputerowy), komputery SM (rodzina małych komputerów) itp.

    Prędkość maszyn w rodzinie waha się od kilkudziesięciu tysięcy do milionów operacji na sekundę. Pojemność pamięci RAM sięga kilkuset tysięcy słów.

    Co jest typowe dla samochodów czwartej generacji?

    czwarta generacja to aktualna generacja technologii komputerowej opracowana po 1970 roku.

    Koncepcyjnie najważniejszym kryterium, według którego te komputery można odróżnić od maszyn trzeciej generacji, jest to, że maszyny czwartej generacji zostały zaprojektowane do efektywne wykorzystanie nowoczesne języki wysokiego poziomu i uproszczenie procesu programowania dla użytkownika końcowego.

    Pod względem sprzętowym charakteryzują się powszechnym zastosowaniem układy scalone jako podstawa elementów, a także dostępność szybkich urządzeń pamięci masowej o dostępie swobodnym o pojemności dziesiątek megabajtów.

    Z punktu widzenia konstrukcji maszyny tej generacji są kompleksy wieloprocesorowe i wielomaszynowe, praca na pamięci współdzielonej i wspólnym polu urządzeń zewnętrznych. Szybkość dochodzi do kilkudziesięciu milionów operacji na sekundę, pojemność pamięci RAM to około 1 - 64 MB.

    Charakteryzują się:

    • korzystanie z komputerów osobistych;
    • przetwarzanie danych telekomunikacyjnych;
    • sieć komputerowa;
    • powszechne stosowanie systemów zarządzania bazami danych;
    • elementy inteligentnego zachowania systemów i urządzeń przetwarzających dane.

    Jakie powinny być komputery piątej generacji?

    Rozwój kolejnych generacji komputerów opiera się na: duże układy scalone o podwyższonym stopniu integracji, wykorzystując zasady optoelektroniczne ( lasery,holografia).

    Rozwój też jest w drodze „intelektualizacja” komputery, usuwając barierę między człowiekiem a komputerem. Komputery będą mogły odbierać informacje z odręcznego lub drukowanego tekstu, z formularzy, z ludzkiego głosu, rozpoznawać głos użytkownika i tłumaczyć z jednego języka na inny.

    W komputerach piątej generacji nastąpi jakościowe przejście od przetwarzania dane do przetwarzania wiedza.

    Architektura komputerów przyszłej generacji będzie składać się z dwóch głównych bloków. Jeden z nich jest tradycyjny komputer. Ale teraz nie ma kontaktu z użytkownikiem. To połączenie jest realizowane przez blok zwany terminem „inteligentny interfejs”. Jego zadaniem jest zrozumienie tekstu napisanego w języku naturalnym i zawierającego stan problemu oraz przetłumaczenie go na działający program na komputer.

    Problem decentralizacji informatyki zostanie również rozwiązany za pomocą sieci komputerowych, zarówno dużych, oddalonych od siebie, jak i miniaturowych komputerów umieszczonych na jednym chipie półprzewodnikowym.

    Pokolenia komputerów

    Indeks

    Pokolenia komputerów

    Pierwszy

    1951-1954

    Drugi

    1958-I960

    Trzeci

    1965-1966

    Czwarty

    Piąty

    1976-1979

    1985-?

    Podstawa elementu procesora

    Elektroniczny

    Lampy

    tranzystory

    Układy scalone

    (IP)

    Duże układy scalone (LSI)

    SverbigIS

    (VLSI)

    Optoelektronika

    Krioelektronika

    Podstawa elementu RAM

    Lampy katodowe

    Rdzenie ferrytowe

    ferryt

    rdzenie

    BIS

    VLSI

    VLSI

    Maksymalna pojemność pamięci RAM, bajty

    10 2

    10 1

    10 4

    10 5

    10 7

    10 8 (?)

    Maksymalna wydajność procesor (operacje/operacje)

    10 4

    10 6

    10 7

    10 8

    10 9

    Wieloprzetwarzanie

    10 12 ,

    Wieloprzetwarzanie

    Języki programowania

    kod maszynowy

    monter

    Języki proceduralne wysokiego poziomu (HLL)

    Nowy

    proceduralne HLL

    Nieproceduralne HLL

    Nowe NED nieproceduralne

    Środki komunikacji między użytkownikiem a komputerem

    Panel sterowania i karty dziurkowane

    Karty dziurkowane i taśmy dziurkowane

    Terminal alfanumeryczny

    Monochromatyczny wyświetlacz graficzny, klawiatura

    Kolor + wyświetlacz graficzny, klawiatura, mysz itp.

    DZWON

    Są tacy, którzy czytają tę wiadomość przed tobą.
    Zapisz się, aby otrzymywać najnowsze artykuły.
    E-mail
    Nazwa
    Nazwisko
    Jak chciałbyś przeczytać The Bell?
    Bez spamu