DZWON

Są tacy, którzy czytają tę wiadomość przed tobą.
Zapisz się, aby otrzymywać najnowsze artykuły.
E-mail
Nazwa
Nazwisko
Jak chciałbyś przeczytać The Bell?
Bez spamu

Czy wiedziałeś, co to jest eksperyment myślowy, eksperyment gedanken?
To nieistniejąca praktyka, nieziemskie doświadczenie, wyobrażenie tego, czego tak naprawdę nie ma. Eksperymenty myślowe są jak marzenia. Rodzą potwory. W przeciwieństwie do eksperymentu fizycznego, który jest eksperymentalnym testem hipotez, „eksperyment myślowy” w magiczny sposób zastępuje eksperymentalna weryfikacja pożądanymi, niesprawdzonymi wnioskami, manipulując konstrukcjami logicznymi, które faktycznie naruszają samą logikę, wykorzystując niesprawdzone przesłanki jako sprawdzone, czyli przez substytucję. Tak więc głównym zadaniem wnioskodawców "eksperymentów myślowych" jest oszukanie słuchacza lub czytelnika poprzez zastąpienie prawdziwego fizycznego eksperymentu jego "lalką" - fikcyjnym rozumowaniem warunkowym bez fizycznej weryfikacji.
Wypełnianie fizyki wyimaginowanymi „eksperymentami myślowymi” doprowadziło do powstania absurdalnego, surrealistycznego, mylącego obrazu świata. Prawdziwy badacz musi odróżnić takie „opakowania” od prawdziwych wartości.

Relatywiści i pozytywiści twierdzą, że „eksperyment myślowy” jest bardzo użytecznym narzędziem do testowania teorii (również powstających w naszych umysłach) pod kątem spójności. W tym oszukują ludzi, ponieważ weryfikacja może być przeprowadzona tylko przez źródło niezależne od przedmiotu weryfikacji. Sam wnioskodawca hipotezy nie może być testem własnego oświadczenia, ponieważ sam powód tego stwierdzenia jest brakiem sprzeczności widocznych dla wnioskodawcy w oświadczeniu.

Widzimy to na przykładzie SRT i GR, które stały się rodzajem religii rządzącej nauką i opinią publiczną. Żadna ilość sprzecznych z nimi faktów nie może pokonać formuły Einsteina: „Jeśli fakt nie odpowiada teorii, zmień fakt” (W innej wersji „Czy fakt nie odpowiada teorii? – Tym gorzej dla faktu ").

Maksymalną wartością „eksperymentu myślowego” jest jedynie wewnętrzna spójność hipotezy w ramach własnej, często bynajmniej nie prawdziwej, logiki wnioskodawcy. Zgodność z praktyką tego nie sprawdza. Prawdziwy test może mieć miejsce tylko w prawdziwym eksperymencie fizycznym.

Eksperyment jest eksperymentem, ponieważ nie jest udoskonalaniem myśli, ale testem myśli. Myśl, która jest spójna sama w sobie, nie może się sprawdzić. Udowodnił to Kurt Gödel.


Zapotrzebowanie na urządzenia przyspieszające proces liczenia pojawiło się u ludzi tysiące lat temu. W tym czasie używano do tego najprostszych środków, takich jak liczenie patyków. Później przyszło liczydło, lepiej znane nam jako liczydło. Pozwalał na wykonywanie tylko najprostszych operacji arytmetycznych. Od tego czasu wiele się zmieniło. Prawie w każdym domu jest komputer, a smartfon jest w kieszeni. Wszystko to można połączyć w ramach Nazwa zwyczajowa„Technologia komputerowa” lub „Technologia komputerowa”. W tym artykule dowiesz się nieco więcej o historii jego rozwoju.

1623. Wilhelm Schickard myśli: „Dlaczego nie miałbym wymyślić pierwszej maszyny sumującej?” I on to wymyśla. Otrzymuje urządzenie mechaniczne zdolne do wykonywania podstawowych operacji arytmetycznych (dodawanie, mnożenie, dzielenie i odejmowanie) oraz pracę za pomocą kół zębatych i cylindrów.

1703. Gottfried Wilhelm Leibniz opisuje binarny system liczbowy w swoim traktacie „Explication de l'Arithmtique Binaire”, który tłumaczy się na rosyjski jako „Wyjaśnienie arytmetyki binarnej”. Implementacja korzystających z niej komputerów jest znacznie prostsza, o czym wiedział sam Leibniz. W 1679 roku stworzył plan komputera binarnego. Ale w praktyce pierwsze takie urządzenie pojawiło się dopiero w połowie XX wieku.

1804 Karty perforowane (karty dziurkowane) pojawiają się po raz pierwszy. Ich stosowanie nie zakończyło się w latach 70. XX wieku. Są to arkusze cienkiej tektury, w niektórych miejscach są dziury. Informacje zostały zapisane w różnych sekwencjach tych dziur.

1820 Charles Xavier Thomas (tak, prawie jak profesor X) wypuszcza maszynę sumującą Thomasa, która przeszła do historii jako pierwszy masowo produkowany arytmometr.

1835 Charles Babbage chce wynaleźć własny silnik analityczny i opisuje go. Początkowo zadaniem urządzenia miało być obliczanie tablic logarytmicznych z dużą dokładnością, jednak później Babbage zmienił zdanie. Teraz jego marzenie stało się maszyną ogólnego przeznaczenia. W tamtym czasie stworzenie takiego urządzenia było dość realistyczne, ale praca z Babbage okazała się trudna ze względu na jego charakter. W wyniku nieporozumień projekt został zamknięty.

1845 Israel Staffel tworzy pierwsze w historii urządzenie zdolne do wyciągania pierwiastków kwadratowych z liczb.

1905 Percy Ludgert publikuje projekt programowalnego komputera mechanicznego.

1936 Konrad Zuse postanawia stworzyć własny komputer. Nazywa go Z1.

1941 Konrad Zuse wypuszcza Z3, pierwszy na świecie komputer sterowany programowo. Następnie wydano kilkadziesiąt kolejnych urządzeń serii Z.

1961 Wprowadzenie ANITA Mark VII, pierwszego na świecie w pełni elektronicznego kalkulatora.

Kilka słów o generacjach komputerów.

1 pokolenie. Są to tak zwane komputery lampowe. Pracują z lampami elektronicznymi. Pierwsze takie urządzenie powstało w połowie XX wieku.

2 pokolenie. Wszyscy używali komputerów pierwszej generacji, aż nagle, w 1947 roku, Walter Brattain i John Bardeen wynaleźli bardzo ważną rzecz - tranzystor. Tak pojawiła się druga generacja komputerów. Zużywały znacznie mniej energii, a ich wydajność była większa. Urządzenia te były powszechne w latach 50. i 60. XX wieku, aż do wynalezienia układu scalonego w 1958 roku.

Trzecia generacja. Działanie tych komputerów oparte było na układach scalonych. Każdy taki obwód zawiera setki milionów tranzystorów. Jednak stworzenie trzeciej generacji nie powstrzymało wypuszczania komputerów drugiej generacji.

4. generacja. W 1969 Tad Hoff wpadł na pomysł zastąpienia wielu układów scalonych jednym małym urządzeniem. Został później nazwany mikroczipem. Dzięki temu możliwe stało się tworzenie bardzo małych mikrokomputerów. Pierwsze takie urządzenie zostało wydane przez firmę Intel. A w latach 80. najpopularniejsze były mikroprocesory i mikrokomputery. Nadal ich używamy.

Była to krótka historia rozwoju techniki komputerowej i technologii komputerowej. Mam nadzieję, że udało mi się Cię zainteresować. Do widzenia!

Pomoce i urządzenia do wczesnego liczenia

Ludzkość nauczyła się korzystać z najprostszych urządzeń liczących tysiące lat temu. Największą popularnością cieszyła się potrzeba określenia liczby przedmiotów używanych w handlu wymiennym. Jednym z najprostszych rozwiązań było zastosowanie równoważnika wagowego wymienianego przedmiotu, co nie wymagało dokładnego przeliczenia ilości jego składników. Do tych celów wykorzystano najprostsze wagi wyważające, które tym samym stały się jednym z pierwszych urządzeń do ilościowego oznaczania masy.

Zasada równoważności była szeroko stosowana w innych, znanych wielu, najprostszych urządzeniach liczących Abacus lub Abacus. Liczba zliczonych przedmiotów odpowiadała liczbie przesuniętych kostek tego instrumentu.

Względnie skomplikowanym urządzeniem do liczenia może być różaniec używany w praktyce wielu religii. Wierzący, jak na rachunkach, liczył liczbę modlitw wypowiadanych na paciorkach różańca, a po przejściu pełnego koła różańca przesuwał specjalne liczniki ziaren na osobnym ogonie, wskazując liczbę zliczonych kół.

Wraz z wynalezieniem kół zębatych pojawiły się znacznie bardziej złożone urządzenia obliczeniowe. Mechanizm z Antykithiry, odkryty na początku XX wieku, który został znaleziony we wraku starożytnego statku, który zatonął około 65 roku p.n.e. mi. (według innych źródeł, a nawet 87 pne), wiedział nawet, jak modelować ruch planet. Przypuszczalnie służył do obliczeń kalendarzowych do celów religijnych, przewidywania zaćmień Słońca i Księżyca, określania czasu siewu i zbioru itp. Obliczenia wykonano łącząc ponad 30 brązowych kół i kilka tarcz; do obliczenia faz księżyca wykorzystano transmisję różnicową, której wynalazek naukowcy przez długi czas nadana nie wcześniej niż w XVI wieku. Jednak wraz z odejściem starożytności zapomniano o umiejętnościach tworzenia takich urządzeń; około półtora tysiąca lat zajęło ludziom nauczenie się, jak ponownie tworzyć mechanizmy o podobnej złożoności.

Zegar liczący autorstwa Wilhelma Schickarda

Następnie pojawiły się maszyny Blaise'a Pascala („Pascaline”, 1642) i Gottfrieda Wilhelma Leibniza.

ANITA Marka VIII, 1961

W Związku Radzieckim w tym czasie najbardziej znanym i rozpowszechnionym kalkulatorem była mechaniczna maszyna do dodawania Felix, produkowana w latach 1929-1978 w fabrykach w Kursku (zakład Schetmash), Penza i Moskwie.

Pojawienie się komputerów analogowych w latach przedwojennych

Główny artykuł: Historia komputerów analogowych

Analizator różnicowy, Cambridge, 1938

Pierwsze elektromechaniczne komputery cyfrowe

Seria Z Konrada Zuse

Reprodukcja komputera Zuse Z1 w Muzeum Techniki w Berlinie

Zuse i jego firma zbudowali inne komputery, z których każdy zaczynał się od dużej litery Z. Najbardziej znanymi maszynami były Z11, sprzedawany przemysłowi optycznemu i uniwersytetom, oraz Z22, pierwszy komputer z pamięcią magnetyczną.

Brytyjski Kolos

W październiku 1947 roku dyrektorzy Lyons & Company, brytyjskiej firmy posiadającej sieć sklepów i restauracji, postanowili wziąć czynny udział w rozwoju komercyjnego rozwoju komputerów. Komputer LEO I zaczął działać w 1951 roku i był pierwszym na świecie używanym regularnie do rutynowej pracy biurowej.

Maszyna z Uniwersytetu w Manchesterze stała się prototypem Ferranti Mark I. Pierwsza taka maszyna została dostarczona na uniwersytet w lutym 1951 roku, a co najmniej dziewięć innych sprzedano w latach 1951-1957.

Komputer IBM 1401 drugiej generacji, wyprodukowany na początku lat 60., zajmował około jednej trzeciej światowego rynku komputerowego, sprzedano ponad 10 000 tych maszyn.

Zastosowanie półprzewodników umożliwiło udoskonalenie nie tylko jednostki centralnej, ale również urządzeń peryferyjnych. Druga generacja urządzeń do przechowywania danych umożliwiła już przechowywanie dziesiątek milionów znaków i cyfr. Nastąpił podział na sztywno ustalone ( naprawił) urządzenia pamięci masowej podłączone do procesora kanałem szybkiego przesyłania danych i wymienne ( usuwany) urządzenia. Wymiana kasety z płytami w zmieniarce zajęła tylko kilka sekund. Wprawdzie pojemność nośników wymiennych była zwykle mniejsza, ale ich wymienność umożliwiała przechowywanie niemal nieograniczonej ilości danych. Taśmy były powszechnie używane do archiwizacji danych, ponieważ zapewniały większą pamięć masową przy niższych kosztach.

W wielu maszynach drugiej generacji funkcje komunikacji z peryferiami zostały przekazane wyspecjalizowanym koprocesorom. Na przykład, gdy procesor peryferyjny odczytuje lub dziurkuje karty perforowane, procesor główny wykonuje obliczenia lub rozgałęzia programu. Jedna magistrala danych przenosi dane między pamięcią a procesorem podczas cyklu pobierania i wykonywania, a zwykle inne magistrale danych obsługują urządzenia peryferyjne. Na PDP-1 cykl dostępu do pamięci trwał 5 mikrosekund; większość instrukcji wymagała 10 mikrosekund: 5 na pobranie instrukcji i kolejne 5 na pobranie operandu.

Za najlepszy domowy komputer drugiej generacji uważa się BESM-6, stworzony w 1966 roku.

1960 i później: trzecie i kolejne pokolenia

Szybki wzrost wykorzystania komputerów rozpoczął się od tzw. Komputery „trzeciej generacji”. Zaczęło się od wynalezienia układów scalonych, które niezależnie wykonali noblista Jack Kilby i Robert Noyce. To później doprowadziło do wynalezienia mikroprocesora przez Tada Hoffa (Intel).

Pojawienie się mikroprocesorów doprowadziło do rozwoju mikrokomputerów - małych, niedrogich komputerów, które można było posiadać małe firmy lub pojedyncze osoby. Mikrokomputery, których czwarta generacja pojawiła się po raz pierwszy w latach 70., stały się wszechobecne w latach 80. i później. Steve Wozniak, jeden z założycieli Apple Computer, dał się poznać jako twórca pierwszego masowo produkowanego komputera domowego, a później pierwszego komputera osobistego. Komputery oparte na architekturze mikrokomputerowej, z funkcjami dodanymi z ich większych odpowiedników, dominują obecnie w większości segmentów rynku.

W ZSRR i Rosji

1940

W 1948 r. pod kierunkiem doktora nauk fizycznych i matematycznych SA Lebiediewa rozpoczęto w Kijowie prace nad stworzeniem MESM (małej elektronicznej maszyny liczącej). W październiku 1951 r. wstąpiła do służby.

Pod koniec 1948 pracownicy Instytutu Energetyki. Krizhizhanovsky I. S. Bruk i B. I. Rameev otrzymują certyfikat praw autorskich na komputerze ze wspólną magistralą, aw latach 1950-1951. Stwórz To. Ta maszyna jako pierwsza na świecie wykorzystuje diody półprzewodnikowe (cuprox) zamiast lamp próżniowych. Od 1948 roku Brook pracuje nad komputerami elektronicznymi i sterowaniem za pomocą technologii komputerowej.

Pod koniec lat 50. opracowano zasady równoległości obliczeń (A. I. Kitov i inni), na podstawie których zbudowano jeden z najszybszych komputerów tamtych czasów, M-100 (do celów wojskowych).

W lipcu 1961 r. ZSRR wypuścił pierwszy półprzewodnik uniwersalny maszyna sterująca „Dniepr” (wcześniej istniały tylko specjalistyczne maszyny półprzewodnikowe). Jeszcze przed rozpoczęciem produkcji seryjnej przeprowadzono z nim eksperymenty w celu sterowania kompleksem procesy technologiczne na

Szybki rozwój cyfrowej technologii obliczeniowej (CT) i kształtowanie się nauki o zasadach jej budowy i projektowania rozpoczął się w latach 40. XX wieku, kiedy elektronika i mikroelektronika stały się bazą techniczną CT, a osiągnięcia w dziedzinie sztuczna inteligencja.

Do tego czasu przez prawie 500 lat BT zostało zredukowane do najprostszych urządzeń do wykonywania operacji arytmetycznych na liczbach. Podstawą prawie wszystkich urządzeń wynalezionych w ciągu 5 wieków było koło zębate, zaprojektowane do ustalenia 10 cyfr dziesiętnego systemu liczbowego. Pierwszy na świecie rysunek szkicowy trzynastocyfrowego sumatora dziesiętnego opartego na takich kołach należy do Leonarda da Vinci.

Pierwszym faktycznie zaimplementowanym mechanicznym cyfrowym urządzeniem obliczeniowym była "Pascaline" wielkiego francuskiego naukowca Blaise'a Pascala, która była 6- (lub 8) cyfrowym urządzeniem na kołach zębatych, zaprojektowanym do sumowania i odejmowania liczb dziesiętnych (1642).

30 lat po Pascalinie, w 1673 roku, pojawiło się „przyrząd arytmetyczny” Gottfrieda Wilhelma Leibniza – dwunastocyfrowy przyrząd dziesiętny do wykonywania operacji arytmetycznych, w tym mnożenia i dzielenia.

Pod koniec XVIII wieku we Francji miały miejsce dwa wydarzenia, które miały fundamentalne znaczenie dla dalszego rozwoju cyfrowej technologii obliczeniowej. Wydarzenia te obejmują:

 wynalazek Josepha Jacquarda zaprogramowanego sterowania krosnem za pomocą kart perforowanych;

 opracowanie przez Gasparda de Prony technologii obliczeniowej dzielącej obliczenia numeryczne na trzy etapy: opracowanie metody numerycznej, opracowanie programu do ciągu działań arytmetycznych, wykonanie rzeczywistych obliczeń za pomocą działań arytmetycznych na liczbach zgodnie z opracowanym program.

Te innowacje zostały później wykorzystane przez Anglika Charlesa Babbage'a, który wykonał jakościowo nowy krok w rozwoju narzędzi VT - przejście od ręcznego do automatycznego wykonywania obliczeń zgodnie ze skompilowanym programem. Opracował projekt Silnika Analitycznego – mechanicznego uniwersalnego komputera cyfrowego z zarządzanie programem(1830-1846). Maszyna składała się z pięciu urządzeń: arytmetycznych (AU); pamięć (pamięć); zarządzanie (CU); wejście (UVV); wyjście (HC).

To właśnie z takich urządzeń składały się pierwsze komputery, które pojawiły się 100 lat później. AC zbudowano w oparciu o koła zębate, proponowano też zaimplementować na nich pamięć (dla tysięcy liczb 50-bitowych). Karty dziurkowane służyły do ​​wprowadzania danych i programów. Szacunkowa szybkość obliczeń - dodawanie i odejmowanie w 1 sekundę, mnożenie i dzielenie - w 1 minutę. Oprócz operacji arytmetycznych istniała instrukcja oddziału warunkowego.

Należy zauważyć, że choć powstały poszczególne elementy maszyny, to nie można było stworzyć całej maszyny ze względu na jej masywność. Potrzebałoby do tego ponad 50 000 samych kół zębatych.Wynalazca planował użyć silnika parowego do napędzania swojego silnika analitycznego.

W 1870 roku (rok przed śmiercią Babbage'a) angielski matematyk Jevons zaprojektował pierwszą na świecie „maszynę logiczną”, która umożliwiła zmechanizowanie najprostszych logicznych wniosków.

Twórcami maszyn logicznych w przedrewolucyjnej Rosji byli Pavel Dmitrievich Chruszczow (1849-1909) i Aleksander Nikołajewicz Szczukariew (1884-1936), którzy pracowali w instytucjach edukacyjnych na Ukrainie.

Genialny pomysł Babbage'a został zrealizowany przez amerykańskiego naukowca Howarda Aikena, który w 1944 roku stworzył pierwszy w USA komputer przekaźnikowo-mechaniczny. Jej główne bloki - arytmetyczny i pamięciowy - zostały wykonane na biegach. Jeśli Babbage znacznie wyprzedzał swoje czasy, to Aiken, używając tych samych narzędzi, technicznie używał przestarzałych rozwiązań podczas realizacji pomysłu Babbage'a.

Należy zauważyć, że dziesięć lat wcześniej, w 1934 roku, niemiecki student Konrad Zuse, który pracował nad swoją pracą dyplomową, postanowił wykonać komputer cyfrowy ze sterowaniem programowym. Ta maszyna była pierwszą na świecie, która korzystała z systemu binarnego. W 1937 roku maszyna Z1 wykonała pierwsze obliczenia. Był to binarny 22-bitowy zmiennoprzecinkowy z 64 numerami pamięci i działał na zasadzie czysto mechanicznej (dźwigni).

W tym samym 1937 roku, kiedy zaczęła działać pierwsza na świecie mechaniczna maszyna binarna Z1, John Atanasoff (z urodzenia Bułgar, mieszkający w USA) rozpoczął rozwój specjalistycznego komputera, po raz pierwszy wykorzystującego lampy próżniowe (300 lamp). świat.

W latach 1942-43 komputer Colossus powstał w Anglii (przy udziale Alana Turinga). Maszyna ta, składająca się z 2000 lamp próżniowych, była przeznaczona do dekodowania wiadomości radiowych z niemieckiego Wehrmachtu. Ponieważ prace Zuse i Turinga były tajne, mało kto o nich wiedział w tamtym czasie i nie wywołały żadnego rezonansu na świecie.

Dopiero w 1946 roku pojawiły się informacje o komputerze ENIAC (elektroniczny integrator cyfrowy i komputer), stworzonym w USA przez D. Mauchly'ego i P. Eckerta, wykorzystującym technologię elektroniczną. Maszyna wykorzystywała 18 000 lamp próżniowych i wykonywała około 3000 operacji na sekundę. Jednak maszyna pozostała dziesiętna, a jej pamięć miała tylko 20 słów. Programy były przechowywane poza pamięcią RAM.

Niemal równocześnie, w latach 1949-52. naukowcy z Anglii, Związku Radzieckiego i USA (Maurice Wilkes, komputer EDSAK, 1949; Sergey Lebedev, komputer MESM, 1951; Isaac Brook, komputer M1, 1952; John Mauchly i Presper Eckert, John von Neumann KOMPUTER „EDVAK”, 1952 ), stworzył komputer z programem zapisanym w pamięci.

Ogólnie przydziel pięć pokoleń KOMPUTER.

Pierwsza generacja (1945-1954 ) charakteryzuje się pojawieniem się technologii na lampach elektronowych. To era powstawania technologii komputerowej. Większość maszyn pierwszej generacji była urządzeniami eksperymentalnymi i została zbudowana w celu przetestowania pewnych stanowisk teoretycznych. Waga i rozmiary tych komputerów były takie, że często wymagały dla siebie oddzielnych budynków.

Za założycieli informatyki uważani są Claude Shannon – twórca teorii informacji, Alan Turing – matematyk, który rozwinął teorię programów i algorytmów oraz John von Neumann – twórca projektu urządzeń obliczeniowych, który wciąż leży u podstaw większości komputery. W tych samych latach powstała inna nowa nauka związana z informatyką - cybernetyka - nauka o zarządzaniu jako jeden z głównych procesów informacyjnych. Założycielem cybernetyki jest amerykański matematyk Norbert Wiener.

Druga generacja (1955-1964) zamiast lamp próżniowych zastosowano tranzystory, a jako urządzenia pamięci zaczęto używać rdzeni magnetycznych i bębnów magnetycznych, odległych przodków współczesnych dysków twardych. Wszystko to pozwoliło drastycznie zredukować rozmiar i koszt komputerów, które wtedy najpierw budowano na sprzedaż.

Ale główne osiągnięcia tej epoki należą do obszaru programów. W drugim pokoleniu po raz pierwszy pojawiło się to, co nazywa się dzisiaj system operacyjny. W tym samym czasie powstały pierwsze języki wysokiego poziomu - Fortran, Algol, Kobol. Te dwa ważne ulepszenia znacznie uprościły i przyspieszyły pisanie programów na komputery.

To rozszerzyło zakres komputerów. Teraz nie tylko naukowcy mogli liczyć na dostęp do komputerów, ponieważ komputery znalazły zastosowanie w planowaniu i zarządzaniu, a niektórzy duże firmy zaczęli nawet komputeryzować swoją księgowość, wyprzedzając ten proces o dwadzieścia lat.

W trzecie pokolenie (1965-1974) po raz pierwszy zaczęto stosować układy scalone - całe urządzenia i węzły dziesiątek i setek tranzystorów, wykonane na jednym krysztale półprzewodnikowym (mikroukładach). W tym samym czasie pojawiła się pamięć półprzewodnikowa, która nadal jest wykorzystywana w komputerach osobistych jako pamięć operacyjna.

W tych latach produkcja komputerów nabiera skali przemysłowej. IBM był pierwszą firmą, która wdrożyła serię w pełni kompatybilnych komputerów od najmniejszych rozmiarów małej obudowy (nie robili wtedy mniejszych) do najmocniejszych i najdroższych modeli. Najpopularniejsza w tamtych latach była rodzina System/360 firmy IBM, na bazie której w ZSRR opracowano serię komputerów ES. Na początku lat 60. pojawiły się pierwsze minikomputery – małe, energooszczędne komputery w przystępnej cenie małe firmy lub laboratoria. Minikomputery stanowiły pierwszy krok w kierunku komputerów osobistych, których prototypy zostały wydane dopiero w połowie lat 70-tych.

Tymczasem liczba elementów i połączeń między nimi, mieszczących się w jednym mikroukładzie, stale rosła, a w latach 70. układy scalone zawierały już tysiące tranzystorów.

W 1971 roku Intel wypuścił pierwszy mikroprocesor, który był przeznaczony do kalkulatorów biurkowych, które właśnie się pojawiły. Ten wynalazek miał wywołać prawdziwą rewolucję w następnej dekadzie. Mikroprocesor jest głównym elementem współczesnego komputera osobistego.

Na przełomie lat 60. i 70. XX wieku (1969) narodziła się pierwsza globalna sieć komputerowa ARPA, prototyp współczesnego Internetu. Również w 1969 roku pojawił się jednocześnie system operacyjny Unix i język programowania C ("C"), które miały ogromny wpływ na świat oprogramowania i nadal utrzymują swoją wiodącą pozycję.

Czwarte pokolenie (1975 - 1985) charakteryzuje się mniejszą liczbą fundamentalnych innowacji w informatyce. Postęp następuje głównie na drodze rozwoju tego, co już zostało wymyślone i wynalezione, przede wszystkim poprzez zwiększenie mocy i miniaturyzację bazy elementów oraz samych komputerów.

Najważniejszą innowacją czwartej generacji jest pojawienie się komputerów osobistych na początku lat 80-tych. Dzięki komputerom osobistym technologia obliczeniowa staje się naprawdę masowa i ogólnie dostępna. Pomimo tego, że komputery osobiste i minikomputery wciąż pozostają w tyle za dużymi maszynami pod względem mocy obliczeniowej, lwia część innowacji, takich jak graficzny interfejs użytkownika, nowe peryferia, globalne sieci, wiąże się z pojawieniem się i rozwojem tej konkretnej technologii.

Oczywiście duże komputery i superkomputery wciąż ewoluują. Ale teraz nie dominują już na arenie komputerowej, jak kiedyś.

Niektóre cechy technologii komputerowej czterech generacji podano w tabeli. 1.1.

Tabela 1.1

Generacje obliczeń

Pokolenie

główny element

E-mail lampa

Tranzystor

Układ scalony

Duży układ scalony (mikroprocesor)

Liczba komputerów

na świecie (szt.)

Dziesiątki tysięcy

Miliony

Wymiary komputera

Znacznie mniej

mikrokomputer

Operacje wydajnościowe (warunkowe) / sek

Wiele jednostek

Kilkadziesiąt

Kilka tysięcy

Kilkadziesiąt tysięcy

Nośnik informacji

Karta,

Taśma perforowana

Magnetyczny

Piąte pokolenie (od 1986 do chwili obecnej) w dużej mierze zdeterminowane wynikami prac Japońskiego Komitetu Badań Naukowych w dziedzinie komputerów, opublikowanych w 1981 roku. Zgodnie z tym projektem komputery i systemy obliczeniowe piątej generacji, oprócz wysokiej wydajności i niezawodności przy niższych kosztach przy pomocy najnowszych technologii, muszą spełniać następujące jakościowo nowe wymagania funkcjonalne:

 zapewnienie łatwości korzystania z komputerów poprzez wdrażanie systemów wprowadzania/wyprowadzania informacji za pomocą głosu, a także interaktywne przetwarzanie informacji przy użyciu języków naturalnych;

 dają możliwość uczenia się, konstrukcji asocjacyjnych i logicznych wniosków;

 uprościć proces tworzenia narzędzi programowych poprzez automatyzację syntezy programów zgodnie ze specyfikacją wymagań początkowych w językach naturalnych;

 poprawa podstawowych cech i właściwości użytkowych technologii komputerowej w celu sprostania różnym problemom społecznym, poprawa stosunku kosztów do wyników, szybkości, lekkości, zwartości komputerów;

 zapewniają różnorodne technologie obliczeniowe, wysoką zdolność adaptacji do aplikacji i niezawodność w działaniu.

Obecnie trwają intensywne prace nad stworzeniem komputerów optoelektronicznych o masywnej równoległości i strukturze neuronowej, które są rozproszoną siecią dużej liczby (dziesiątek tysięcy) prostych mikroprocesorów symulujących architekturę neuronowych systemów biologicznych.






























































































































































Wstecz do przodu

Uwaga! Podgląd slajdu służy wyłącznie do celów informacyjnych i może nie przedstawiać pełnego zakresu prezentacji. Jeśli jesteś zainteresowany tą pracą, pobierz pełną wersję.

Cel lekcji:

  1. zapoznanie się z historią rozwoju techniki komputerowej, z urządzeniami będącymi prekursorami komputerów i ich wynalazcami
  2. dać wyobrażenie o związku między rozwojem komputerów a rozwojem społeczeństwa ludzkiego,
  3. Zapoznanie się z głównymi cechami komputerów różnych generacji.
  4. Rozwój zainteresowań poznawczych, umiejętność korzystania z dodatkowej literatury

Rodzaj lekcji: nauka nowego materiału

Pogląd: lekcja-wykład

Wsparcie programowe i dydaktyczne: PC, slajdy prezentacyjne przedstawiające główne urządzenia, portrety wynalazców i naukowców.

Plan lekcji:

  1. Organizowanie czasu
  2. Aktualizacja nowej wiedzy
  3. Prehistoria komputerów
  4. Generacje komputerów (komputerów)
  5. Przyszłość komputerów
  6. Konsolidacja nowej wiedzy
  7. Podsumowanie lekcji
  8. Praca domowa

1. Moment organizacyjny

Zadanie na scenie: Przygotuj uczniów do pracy na lekcji. (Sprawdź gotowość klasy do lekcji, dostępność przyborów szkolnych, frekwencję)

2. Aktualizacja nowej wiedzy

Zadanie na scenie: Przygotowanie studentów do aktywnego przyswajania nowej wiedzy, aby zapewnić motywację i akceptację przez studentów celu działalności edukacyjnej i poznawczej. Ustalanie celów lekcji.

Witam! Jak myślisz, jakie wynalazki techniczne szczególnie zmieniły sposób pracy ludzi?

(Uczniowie wyrażają swoje opinie na temat ten przypadek, nauczyciel koryguje je w razie potrzeby)

- Masz rację, rzeczywiście głównym urządzeniem technicznym, które wpłynęło na ludzką pracę, jest wynalezienie komputerów - komputerów elektronicznych. Dziś na lekcji dowiemy się, jakie urządzenia komputerowe poprzedzały pojawienie się komputerów, jak zmieniały się same komputery, kolejność powstawania komputera, kiedy maszyna przeznaczona do liczenia stała się złożonym urządzeniem technicznym. Temat naszej lekcji: „Historia technologii komputerowej. generacje komputerów. Cel naszej lekcji : zapoznać się z historią rozwoju techniki komputerowej, z urządzeniami będącymi poprzednikami komputerów i ich wynalazcami, zapoznać się z głównymi cechami komputerów różnych generacji.

Na lekcji będziemy pracować przy pomocy prezentacji multimedialnej, składającej się z 4 działów „Pradzieje komputerów”, „Pokolenia komputerów”, „Galeria naukowców”, „Słownik komputerowy”. W każdej sekcji znajduje się podsekcja "Sprawdź się" - jest to test, w którym natychmiast dowiesz się o wyniku.

3. Historia komputerów

Aby zwrócić uwagę uczniów na to, że komputer jest komputerem elektronicznym, inna nazwa „komputer” lub „komputer” pochodzi od angielskiego czasownika „obliczać” – w celu obliczenia, dlatego słowo „komputer” można przetłumaczyć jako „komputer”. . Oznacza to, że w słowie komputer iw słowie komputer głównym znaczeniem są obliczenia. Choć doskonale zdajemy sobie sprawę, że współczesne komputery pozwalają nie tylko obliczać, ale także tworzyć i przetwarzać teksty, obrazy, wideo, dźwięk. Przyjrzyjmy się historii...

(jednocześnie sporządzamy tabelę „Pradzieje komputerów” w zeszycie)

„Pradzieje komputerów”

Starożytny człowiek opanował relację wcześniej niż pisał. Mężczyzna wybrał palce na pierwszego pomocnika w liczeniu. To obecność dziesięciu palców stanowiła podstawę systemu liczb dziesiętnych. W różnych krajach mówią i piszą inne języki, ale są traktowane tak samo. W V wieku p.n.e. Grecy i Egipcjanie używali do liczenia - ABAK - urządzenie podobne do rosyjskiego liczydła.

Abacus to greckie słowo, które tłumaczy się jako tablica do liczenia. Ideą jego urządzenia jest obecność specjalnego pola obliczeniowego, w którym zgodnie z pewnymi zasadami przesuwane są elementy liczące. Rzeczywiście, pierwotnie liczydło było deską pokrytą kurzem lub piaskiem. Można było na nim rysować linie i przesuwać kamyki. W starożytnej Grecji liczydło służyło przede wszystkim do transakcji pieniężnych. Po lewej stronie policzono duże jednostki monetarne, a po prawej drobiazg. Konto prowadzone było w systemie liczb binarnych pięciokrotnych. Na takiej tablicy łatwo było dodawać i odejmować, dodawać lub usuwać kamyki i przenosić je z kategorii do kategorii.

Wchodzę Starożytny Rzym liczydło, zmienione na zewnątrz. Rzymianie zaczęli robić go z brązu, kości słoniowej lub kolorowego szkła. Na planszy znajdowały się dwa rzędy szczelin, po których można było przesuwać kości. Liczydło zamieniło się w prawdziwe urządzenie liczące, pozwalające na reprezentowanie nawet ułamków i było znacznie wygodniejsze niż greckie. Rzymianie nazywali to urządzenie calculare - „kamykami”. Stąd pochodzi łaciński czasownik calculare - "oblicz", a od niego - rosyjskie słowo "kalkulator".

Po upadku Cesarstwa Rzymskiego nastąpił upadek nauki i kultury, a liczydło zostało na jakiś czas zamknięte. Odrodził się i rozprzestrzenił w całej Europie dopiero w X wieku. Liczydło było używane przez kupców, wymieniających pieniądze, rzemieślników. Liczydło pozostało nawet po sześciu wiekach niezbędne narzędzie do wykonywania obliczeń.

Naturalnie przez tak długi czas liczydło zmieniło swoje wygląd zewnętrzny a w XLL-XLLLcc przybrała postać tak zwanego konta na liniach i między nimi. Ta forma rozliczeń w niektórych krajach europejskich przetrwała do końca wieku XVLLL. i dopiero wtedy ostatecznie ustąpił miejsca kalkulacjom na papierze.

W Chinach liczydło znane jest od V wieku p.n.e. Liczące kije rozłożono na specjalnej tablicy. Stopniowo zostały zastąpione wielokolorowymi chipsami, aw V wieku pojawiło się chińskie liczydło - suan-pan. Były to ramy z dwoma rzędami kości nawleczonych na gałązki. Na każdej gałązce było ich siedem. Z Chin suan-pan przybył do Japonii. Stało się to w XVL wieku, a urządzenie nazwano „soroban”.

W Rosji liczydło pojawiło się w tym samym czasie, co w Japonii. Ale rosyjskie liczydło zostało wynalezione niezależnie, o czym świadczą następujące czynniki. Po pierwsze, rosyjskie liczydło bardzo różni się od chińskiego. Po drugie, ten wynalazek ma swoją historię.

W Rosji „liczenie z kośćmi” było szeroko rozpowszechnione. Na liniach było to zbliżone do rachunku europejskiego, ale skrybowie zamiast żetonów używali kamieni owocowych. W XVL powstało konto deskowe, pierwsza wersja rosyjskich kont. Takie rachunki są obecnie przechowywane w Muzeum Historycznym w Moskwie.

Abacus jest używany w Rosji od prawie 300 lat i został zastąpiony jedynie tanimi kalkulatorami kieszonkowymi.

Pierwsze na świecie automatyczne urządzenie, które mogło wykonywać dodawanie, powstało na bazie zegara mechanicznego i zostało opracowane w 1623 roku przez Wilhelma Schickarda, profesora na Wydziale Języków Orientalnych na niemieckim uniwersytecie. Ale Blaise Pascal, Godfried Leibniz i Charles Babbage z pewnością wnieśli nieoceniony wkład w rozwój urządzeń ułatwiających wykonywanie obliczeń.

W 1642 roku jeden z największych naukowców w historii ludzkości - francuski matematyk, fizyk, filozof i teolog Blaise Pascal wynalazł i wyprodukował mechaniczne urządzenie do dodawania i odejmowania liczb - ARYTMOMIER. ? Jak myślisz, z jakiego materiału została wykonana pierwsza w historii maszyna do dodawania? (drewno).

Powstał główny pomysł na projekt przyszłej maszyny - automatyczny transfer rozładowania. „Każde koło… pewnej kategorii, wykonując ruch o dziesięć cyfr arytmetycznych, powoduje, że następna przesunie się tylko o jedną cyfrę” – ta formuła wynalazku potwierdzała pierwszeństwo Blaise'a Pascala w wynalazku i zabezpieczała jego prawo do produkcji i sprzedaży samochodów .

Maszyna Pascala wykonywała dodawanie liczb na specjalnych tarczach - kołach. Cyfry dziesiętne liczby pięciocyfrowej ustalano obracając dyski, na których zastosowano podziały cyfrowe. Wynik został odczytany w oknach. Dyski miały jeden wydłużony ząb, aby można było uwzględnić przejście do następnego wypisu.

Początkowe liczby ustalano obracając ustawione koła, obrót rączki wprawiał w ruch różne koła zębate i rolki, w wyniku czego specjalne koła z numerami pokazywały wynik dodawania lub odejmowania.

Pascal był jednym z największych geniuszy ludzkości. Był matematykiem, fizykiem, mechanikiem, wynalazcą, pisarzem. Jego imię noszą twierdzenia matematyczne i prawa fizyki. W fizyce jednostką ciśnienia jest Pascal. W informatyce jeden z najpopularniejszych języków programowania nosi jego imię.

W 1673 r. niemiecki matematyk i filozof Gottfried Wilhelm Leibniz wynalazł i wyprodukował maszynę sumującą, która mogła nie tylko dodawać i odejmować liczby, ale także mnożyć i dzielić. Ubóstwo i prymitywizm pierwszych urządzeń komputerowych nie przeszkodziły Pascalowi i Leibnizowi w wyrażeniu serii ciekawe pomysły o roli technologii obliczeniowej w przyszłości. Leibniz pisał o maszynach, które pracowałyby nie tylko z liczbami, ale także ze słowami, pojęciami, formułami i potrafiły wykonywać operacje logiczne. Pomysł ten wydawał się absurdalny dla większości współczesnych Leibnizowi. W XVIII wieku z poglądów Leibniza wyśmiewał się wielki angielski satyryk J. Swift, autor słynnej powieści Podróże Guliwera.

Dopiero w XX wieku znaczenie idei Pascala i Leibniza stało się jasne.

Wraz z urządzeniami obliczeniowymi rozwinęły się również mechanizmy AUTOMATYCZNEJ PRACY WEDŁUG USTAWIONEGO PROGRAMU (szafy grające, zegary uderzające, krosna żakardowe).

Na początku XIX wieku angielski matematyk Charles Babbage, który zajmował się kompilacją tablic do nawigacji, opracował PROJEKT maszyny obliczeniowej „analitycznej”, opartej na ZASADZIE KONTROLI PROGRAMU (PPU). Nowatorska myśl Babbage'a została podjęta i rozwinięta przez jego studentkę Adę Lovelace, córkę poety George'a Byrona - który został pierwszym programistą na świecie. Praktyczna realizacja projektu Babbage'a była jednak niemożliwa ze względu na niewystarczający rozwój przemysłu i technologii.

Główne elementy maszyny Babbage, nieodłącznie związane z nowoczesnym komputerem:

  1. Magazyn to urządzenie, w którym przechowywane są numery początkowe i wyniki pośrednie. W nowoczesnym komputerze jest to pamięć.
  2. Fabryka – urządzenie arytmetyczne, w którym wykonywane są operacje na liczbach pobranych z Magazynu. W nowoczesnym komputerze jest to procesor.
  3. Początkowe bloki wprowadzania danych - urządzenie wejściowe.
  4. Wyniki drukowania - urządzenie wyjściowe.

Architektura maszyny praktycznie odpowiada architekturze współczesnych komputerów, a instrukcje, które wykonywał Silnik Analityczny, zawierają w zasadzie wszystkie instrukcje procesora.

Ciekawostką historyczną jest to, że pierwszy program do silnika analitycznego napisała Ada Augusta Lovelace, córka wielkiego angielskiego poety George'a Byrona. To Babbage zaraził ją pomysłem stworzenia komputera.

Pomysł programowania urządzeń mechanicznych za pomocą karty perforowanej został po raz pierwszy zrealizowany w 1804 roku w krośnie. Po raz pierwszy wykorzystali je projektanci krosien. Udało się to londyńskiemu tkaczowi Josephowi Marie Jacquardowi. W 1801 stworzył automatyczne krosno sterowane kartami perforowanymi.

Nić była podnoszona lub opuszczana przy każdym ruchu wahadłowca, w zależności od tego, czy była dziura, czy nie. Poprzeczny nić może omijać każdą podłużną jedną i drugą stronę, w zależności od programu na karcie dziurkowanej, tworząc w ten sposób skomplikowany wzór przeplecionych wątków. To tkanie nazywa się „żakardowym” i jest uważane za jeden z najbardziej złożonych i skomplikowanych splotów. To zaprogramowane krosno było pierwszym masowo produkowanym urządzeniem przemysłowym i jest uważane za jedną z najbardziej zaawansowanych maszyn kiedykolwiek wyprodukowanych przez człowieka.

Na pomysł napisania programu na karcie perforowanej wpadła pierwsza programistka, Ada Augusta Lovelace. To ona zaproponowała zastosowanie perforowanych kart w silniku analitycznym Babbage'a. W szczególności w jednym ze swoich listów napisała: „Maszyna analityczna tka wzory algebraiczne w taki sam sposób, w jaki krosno odtwarza kolory i liście”.

Herman Hollerith również używał w swoim urządzeniu kart dziurkowanych do rejestrowania i przetwarzania informacji. Karty dziurkowane były również używane w komputerach pierwszej generacji.

Do lat 40. XX wieku technika obliczeniowa była reprezentowana przez maszyny sumujące, które z mechanicznych stały się elektryczne, gdzie przekaźniki elektromagnetyczne spędzały kilka sekund na mnożeniu liczb, które działały dokładnie na tych samych zasadach, co maszyny sumujące Pascala i Leibniza. W dodatku były bardzo zawodne, często się psując. Ciekawe, że kiedyś przyczyną awarii sumatora elektrycznego była ćma utknęła w przekaźniku, po angielsku „ćma, chrząszcz” - błąd, stąd pojęcie „pluskwy” pojawiło się jako usterka w komputerze.

Herman Hollerith Urodzony 29 lutego 1860 w amerykańskim mieście Buffalo w rodzinie niemieckich imigrantów. Herman był dobry z matematyki i nauk ścisłych, aw wieku 15 lat wstąpił do School of Mines na Columbia University. Utalentowany młody człowiek został zauważony przez profesora tej samej uczelni i po ukończeniu studiów zaprosił go do kierowanego przez niego Narodowego Biura Spisowego. Spis ludności przeprowadzano co dziesięć lat. Populacja stale rosła, a jej liczba w Stanach Zjednoczonych w tym czasie wynosiła około 50 milionów ludzi. Praktycznie niemożliwe było ręczne wypełnienie karty dla każdej osoby, a następnie obliczenie i przetworzenie wyników. Proces ten ciągnął się przez kilka lat, prawie do następnego spisu. Trzeba było znaleźć wyjście z tej sytuacji. Herman Hollerith został zainspirowany przez dr Johna Billingsa, szefa Działu Danych Złożonych, aby zmechanizować ten proces. Zasugerował użycie kart dziurkowanych do zapisywania informacji. Hollerith nazwał swój samochód tabulator i w 1887 rok był testowany w Baltimore. Wyniki były pozytywne, a eksperyment powtórzono w St. Louis. Zysk na czasie był prawie dziesięciokrotny. Rząd USA natychmiast zawarł z Hollerithem kontrakt na dostawę tabulatorów, a już w 1890 r. przeprowadzono spis ludności za pomocą maszyn. Przetwarzanie wyników zajęło mniej niż dwa lata i pozwoliło zaoszczędzić 5 milionów dolarów. System Hollerith nie tylko zapewnił wysoka prędkość, ale także pozwoliło nam porównać dane statystyczne dotyczące różnych parametrów. Hollerith opracował wygodną klawiaturę dziurkacza, która umożliwia dziurkowanie około 100 otworów na minutę jednocześnie na kilku kartach, zautomatyzowała procedury podawania i sortowania kart dziurkowanych. Sortowanie odbywało się za pomocą urządzenia w postaci zestawu pudełek z wieczkami. Karty dziurkowane przesuwały się wzdłuż pewnego rodzaju przenośnika. Po jednej stronie karty były odczytane szpilki na sprężynkach, po drugiej - zbiornik rtęci. Gdy szpilka wpadła do dziurki w karcie dziurkowanej, dzięki rtęci po drugiej stronie zamykała obwód elektryczny. Wieko odpowiedniego pudełka otworzyło się i wpadła do niego dziurkowana karta. Tabulator był używany do spisów ludności w kilku krajach.

W 1896 roku Herma Hollerith założył firmę Tabulating Machine Company (TMC), a jego maszyny były używane wszędzie - i na dużych przedsiębiorstwa przemysłowe oraz w konwencjonalnych firmach. A w 1900 roku do spisu wykorzystano tabulator. zmienia nazwę firmy na IBM (International Business Machines).

4. Generacje komputerów (komputerów)

(równolegle sporządzamy wpisy w zeszycie i tabeli „Generacje komputerów (komputerów)”)

POKOLENIA KOMPUTEROWE
Kropka Baza elementów Szybkie działanie (operacje/s) Nośniki informacji programy aplikacja Przykłady komputerowe
I
II
III
IV
V

Igenerowanie komputerów: W latach 30. XX wieku nastąpił przełom, radykalna rewolucja w rozwoju fizyki. Komputery nie używały już kół, rolek i przekaźników, ale próżniowe lampy elektronowe. Przejście z elementów elektromechanicznych na elektroniczne natychmiast zwiększyło prędkość maszyn setki razy. Pierwszy działający komputer został zbudowany w USA w 1945 roku na Uniwersytecie Pensylwanii przez naukowców Eckerta i Mauchly'ego i nosił nazwę ENIAC. Maszyna ta została zbudowana na zamówienie Departamentu Obrony USA dla systemów obrony powietrznej, do automatyzacji sterowania. Aby poprawnie obliczyć trajektorię i prędkość pocisku do trafienia w cel powietrzny, konieczne było rozwiązanie układu 6 równań różniczkowych. Ten problem miał rozwiązać pierwszy komputer. Pierwszy komputer zajmował dwa piętra jednego budynku, ważył 30 ton i składał się z kilkudziesięciu tysięcy lampek elektronicznych, które były połączone przewodami, których łączna długość wynosiła 10 tys. km. Kiedy komputer ENIAC działał, energia elektryczna w mieście zgasła, tak dużo prądu zużywała ta maszyna, że ​​lampy próżniowe szybko się przegrzewały i ulegały awarii. Cała grupa uczniów zajęła się tylko tym, że ciągle szukali i wymieniali przepalone lampy.

W ZSRR założycielem technologii komputerowej był Siergiej Aleksiejewicz Lebiediew, który stworzył MESM (małą maszynę liczącą) w 1951 r. (Kijów) i BESM (szybki ESM) - 1952 r. W Moskwie.

IIPokolenie: W 1948 roku amerykański naukowiec Walter Brightten wynalazł TRANSISTOR, urządzenie półprzewodnikowe, które zastąpiło lampy radiowe. Tranzystor był znacznie mniejszy niż lampa próżniowa, był bardziej niezawodny i zużywał znacznie mniej energii elektrycznej, sam zastąpił 40 lamp próżniowych! Maszyny komputerowe stały się mniejsze i znacznie tańsze, ich prędkość sięgała kilkuset operacji na sekundę. Teraz komputery były wielkości lodówki, mogły być kupowane i używane przez instytuty naukowo-techniczne. W tym czasie ZSRR podążał za duchem czasu i produkował światowej klasy komputery BESM-6.

IIIPokolenie: Druga połowa XX wieku charakteryzuje się szybkim rozwojem nauki i techniki, zwłaszcza fizyki półprzewodników, a od 1964 r. tranzystory umieszcza się na mikroukładach wykonanych na powierzchniach kryształów. Umożliwiło to pokonanie milionowej bariery prędkości.

IVPokolenie: Od 1980 roku naukowcy nauczyli się umieszczać kilka układów scalonych na jednym chipie, rozwój mikroelektroniki doprowadził do powstania mikroprocesorów. Kryształ IC jest mniejszy i cieńszy niż soczewka kontaktowa. Szybkość nowoczesnych komputerów to setki milionów operacji na sekundę.

W 1977 roku pojawił się pierwszy komputer PC ( Komputer osobisty) z Apple Macintosh. Od 1981 roku liderem w produkcji komputerów PC stała się firma IBM (International Business Machine), która działa na rynku amerykańskim od XIX wieku i produkuje różne urządzenia dla biur - liczydło, arytmometry, długopisy itp. i dała się poznać jako solidna firma, której zaufała większość ludzie biznesu w USA. Ale to nie jedyny powód, dla którego komputery IBM PC były o wiele bardziej popularne niż komputery Apple Macintosh. Komputery PC Apple Macintosh były dla użytkownika „czarną skrzynką” – nie mógł rozmontowywać, aktualizować komputera PC, podłączać nowych urządzeń do komputera, a komputery IBM PC były otwarte dla użytkownika, co pozwalało na składanie komputera jako projektanta dziecięcego , więc większość użytkowników wybrała IBM PC. Chociaż używając słowa „komputer” reprezentujemy komputer PC, są jednak zadania, których nawet współczesne komputery nie są w stanie rozwiązać, a które są w stanie obsłużyć tylko superkomputery, których szybkość szacuje się na miliardy operacji na sekundę.

Szkoła naukowa Lebiediewa z powodzeniem konkurowała w swoich wynikach z czołową amerykańską firmą IBM. Wśród naukowców świata, współczesnych Lebiediewa, nie ma osoby, która tak jak on miałaby tak potężny kreatywność aby objąć swoją działalnością naukową okres od powstania pierwszych komputerów lampowych do superszybkiego superkomputera. Kiedy amerykański naukowiec Norbert Wiener, nazywany „pierwszym cyberprorokiem”, przybył do ZSRR w 1960 r., zauważył: „Są oni trochę za nami w sprzęcie, ale daleko przed nami w TEORII automatyzacji”. Niestety, w latach 60. nauka cybernetyki była prześladowana jako „burżuazyjna pseudonauka”, naukowcy cybernetyki zostali uwięzieni, z powodu czego sowiecka elektronika zaczęła wyraźnie pozostawać w tyle za obcą. Chociaż tworzenie nowych komputerów stało się niemożliwe, nikt nie mógł zabronić naukowcom myślenia. Dlatego do tej pory nasi rosyjscy naukowcy wyprzedzają światową myśl naukową w dziedzinie teorii automatyzacji.

Do opracowywania tworzonych programów komputerowych różne języki programowanie (języki algorytmiczne). FORTRAN FORTRAN - FORMULA TRANSLACJA - pierwszy język, stworzony w 1956 roku przez J. Backusa. W 1961 roku pojawił się BASIC (Beginners All-purpose Simbolic Instarting Code - wielozadaniowy symboliczny język instruktażowy dla początkujących) T. Kurtz, J. Kemeny W 1971 roku profesor Nicholas Wirth z Uniwersytetu w Zurychu stworzył język Pascal, który nazwał na cześć naukowca Blaise'a Pascala. Powstały również inne języki: Ada, Algol, Cobol, C, Prolog, Fred, Logo, Lisp itp. Ale Pascal jest nadal najpopularniejszym językiem programowania, wiele późniejszych języków przejęło podstawowe polecenia i zasady budowania program z Pascala, na przykład C, C+ i system programowania Delphi, nawet BASIC, po zmianie, zapożyczył z Pascala swoją strukturę i uniwersalność. W 11 klasie nauczymy się języka Pascal i nauczymy się tworzyć programy do rozwiązywania problemów z formułami, do przetwarzania tekstu, nauczymy się rysować i tworzyć ruchome obrazy.

Superkomputery

5. Przyszłość komputerów

  • Zalety sztuczna inteligencja(SI):
  • Komputery molekularne
  • Biokomputery
  • Komputery optyczne
  • komputery kwantowe

6. Konsolidacja nowej wiedzy

Utrwalenie nowego materiału jest możliwe za pomocą testu w prezentacji multimedialnej do lekcji: sekcja „Sprawdź się” w każdej części prezentacji: „Pradzieje komputerów”, „Pokolenia komputerów”, „Galeria naukowców” .

Sprawdzenie wiedzy na ten temat możliwe jest za pomocą testów „Historia Technologii Komputerowych” ( Załącznik 1) w 4 wersjach oraz test o naukowcach „Informatyka w twarzach” ( Załącznik 2)

7. Podsumowanie lekcji

Sprawdzanie wypełnionych tabel ( Dodatek 3)

8. Praca domowa

  • wykład w zeszycie prezentacyjnym, tabele „Pradzieje komputerów”, „Pokolenia komputerów”
  • przygotować wiadomość o 5 generacji komputerów (przyszłość komputerów)

DZWON

Są tacy, którzy czytają tę wiadomość przed tobą.
Zapisz się, aby otrzymywać najnowsze artykuły.
E-mail
Nazwa
Nazwisko
Jak chciałbyś przeczytać The Bell?
Bez spamu