DIE KLINGEL

Es gibt diejenigen, die diese Nachricht vor Ihnen gelesen haben.
Abonnieren Sie, um die neuesten Artikel zu erhalten.
Email
Name
Familien-oder Nachname
Wie möchten Sie The Bell lesen?
Kein Spam

Die Geschichte der Entwicklung instrumenteller Zählwerkzeuge ermöglicht es, die Funktionsweise moderner Computer besser zu verstehen. Wie Leibniz sagte: "Wer sich auf die Gegenwart beschränken will, ohne die Vergangenheit zu kennen, wird die Gegenwart nie verstehen." Daher ist die Untersuchung der Geschichte der Entwicklung von VT wichtig Bestandteil Informatik.

Seit der Antike haben die Menschen verschiedene Geräte zum Zählen verwendet. Das erste derartige "Gerät" waren ihre eigenen Finger. Eine vollständige Beschreibung der Fingerzählung wurde im mittelalterlichen Europa von dem irischen Mönch Bede the Venerable (7. Jahrhundert n. Chr.) zusammengestellt. Bis ins 18. Jahrhundert wurden verschiedene Fingerzähltechniken verwendet.

Seile mit Knoten wurden als Mittel zum instrumentellen Zählen verwendet.

Am weitesten verbreitet in der Antike war der Abakus, über den Informationen aus dem 5. Jahrhundert vor Christus bekannt sind. Die darin enthaltenen Zahlen wurden durch Kieselsteine ​​dargestellt, die in Spalten angeordnet waren. BEI antikes Rom Kieselsteine ​​wurden mit dem Wort Calculus bezeichnet, daher die Wörter, die das Konto bezeichnen (engl. compute - count).

Der in Russland weit verbreitete Abakus ähnelt im Prinzip dem Abakus.

Die Notwendigkeit zu verwenden verschiedene Geräte für die Abrechnung erklärten sich dadurch, dass die schriftliche Abrechnung schwierig war. Dies lag erstens an dem komplizierten Zahlensystem, zweitens konnten nur wenige schreiben und drittens war das Aufzeichnungsmittel (Pergament) sehr teuer. Mit der Verbreitung arabischer Ziffern und der Erfindung des Papiers (12.-13. Jahrhundert) begann sich die Schrift weit zu entwickeln und der Abakus wurde nicht mehr benötigt.

Das erste Gerät, das für uns das Zählen im üblichen Sinne mechanisierte, war eine Rechenmaschine, die 1642 von dem französischen Wissenschaftler Blaise Pascal gebaut wurde. Es enthielt einen Satz vertikal angeordneter Räder, auf denen die Zahlen 0-9 aufgedruckt waren. Wenn ein solches Rad eine vollständige Umdrehung macht, greift es in das benachbarte Rad ein und dreht es um eine Teilung, wodurch ein Übergang von einer Kategorie in eine andere ermöglicht wird. Eine solche Maschine konnte Zahlen addieren und subtrahieren und wurde im Büro von Pascals Vater verwendet, um die Höhe der erhobenen Steuern zu berechnen.

Schon vor Pascals Maschine wurden verschiedene Projekte und sogar Betriebsbilder von mechanischen Rechenmaschinen erstellt, aber es war Pascals Maschine, die weithin bekannt wurde. Pascal meldete ein Patent für seine Maschine an, verkaufte mehrere Dutzend Muster; Adlige und sogar Könige interessierten sich für sein Auto; So wurde zum Beispiel eines der Autos Königin Christina von Schweden geschenkt.

1673 Der deutsche Philosoph und Mathematiker Gottfried Leibniz schuf ein mechanisches Rechengerät, das nicht nur addiert und subtrahiert, sondern auch multipliziert und dividiert. Diese Maschine wurde zur Grundlage von Massenberechnungsinstrumenten - Addiermaschinen. Die Produktion mechanischer Rechenmaschinen begann 1887 in den USA, 1894 in Russland. Diese Maschinen waren jedoch manuell, dh sie erforderten eine ständige menschliche Beteiligung. Sie haben das Konto nicht automatisiert, sondern nur mechanisiert.

Von großer Bedeutung in der Geschichte der Computertechnik sind Versuche, technische Geräte dazu zu „zwingen“, jede Aktion ohne menschliches Eingreifen automatisch auszuführen.

Solche mechanischen Automaten, die auf der Basis von Uhrwerken gebaut wurden, erlebten im 17. und 18. Jahrhundert eine große Entwicklung. Besonders berühmt waren die Automaten des französischen Mechanismus von Jacques de Vaucanson, darunter ein Spielzeugflötist, der äußerlich wie ein gewöhnlicher Mensch aussah. Aber sie waren nur Spielzeug.

Der Einzug der Automatisierung in die industrielle Produktion ist mit dem Namen des französischen Ingenieurs Jacquard verbunden, der ein Webstuhlsteuergerät auf der Basis von Lochkarten – Pappe mit Löchern – erfand. Durch das Stanzen von Löchern in Lochkarten auf unterschiedliche Weise konnten auf den Maschinen Stoffe mit unterschiedlichen Fadenbindungen erhalten werden.

Vater Informatik Charles Babbage, ein englischer Wissenschaftler des 19. Jahrhunderts, gilt als erster Versuch, eine nach dem Programm arbeitende Rechenmaschine zu bauen. Die Maschine sollte dem British Maritime Office bei der Erstellung nautischer Tabellen helfen. Babbage glaubte, dass die Maschine ein Gerät haben sollte, in dem für Berechnungen bestimmte Zahlen ("Speicher") gespeichert würden. Gleichzeitig sollte es Anweisungen geben, was mit diesen Nummern zu tun ist ("das gespeicherte Programmprinzip"). Um Operationen mit Zahlen durchzuführen, muss die Maschine über ein spezielles Gerät verfügen, das Babbage "Mühle" nannte, und in modernen Computern entspricht es der ALU. Zahlen mussten manuell in die Maschine eingegeben und an ein Druckgerät ("Ein- / Ausgabegeräte") ausgegeben werden. Und schließlich musste ein Gerät vorhanden sein, das den Betrieb der gesamten Maschine („UU“) steuert. Babbages Maschine war mechanisch und arbeitete mit Zahlen, die im Dezimalsystem dargestellt wurden.

Babbages wissenschaftliche Ideen wurden von der Tochter des berühmten englischen Dichters George Byron, Lady Ada Lovelace, fortgetragen. Sie schrieb Programme, mit denen die Maschine komplexe mathematische Berechnungen durchführen konnte. Viele der Konzepte, die Ada Lovelace bei der Beschreibung dieser ersten Programme der Welt eingeführt hat, insbesondere das Konzept der "Schleife", werden von modernen Programmierern häufig verwendet.

Den nächsten wichtigen Schritt zur Automatisierung von Berechnungen machte etwa 20 Jahre nach dem Tod von Babbage der Amerikaner Herman Hollerith, der eine elektromechanische Maschine zum Rechnen mit Lochkarten erfand. Die Maschine wurde zur Verarbeitung von Volkszählungsdaten verwendet. Löcher wurden in Abhängigkeit von den Antworten auf Volkszählungsfragen manuell auf Lochkarten gestanzt; die sortiermaschine ermöglichte es, die karten je nach lage der gestanzten löcher in gruppen zu verteilen, und der tabulator zählte die anzahl der karten in jeder gruppe. Dank dieser Maschine wurden die Ergebnisse der US-Volkszählung von 1890 dreimal schneller verarbeitet als die vorherige.

1944 wurde in den Vereinigten Staaten unter der Leitung von Howard Aikin ein elektromechanischer Computer gebaut, der als "Mark-1" und dann als "Mark-2" bekannt war. Diese Maschine basierte auf einem Relais. Da die Relais zwei stabile Zustände haben und die Konstrukteure noch nicht auf die Idee gekommen waren, das Dezimalsystem aufzugeben, wurden die Zahlen im Binär-Dezimal-System dargestellt: Jede Dezimalziffer wurde durch vier Binärziffern dargestellt und in einer Gruppe gespeichert von vier Relais. Die Arbeitsgeschwindigkeit betrug etwa 4 Operationen pro Sekunde. Gleichzeitig wurden mehrere weitere Relaismaschinen hergestellt, darunter der sowjetische Relaiscomputer RVM-1, der 1956 von Bessonov entworfen und bis 1966 erfolgreich betrieben wurde.

Der 15. Februar 1946, als Wissenschaftler der University of Pennsylvania den ersten Vakuumröhrencomputer der Welt, ENIAC, in Betrieb nahmen, wird gewöhnlich als Startschuss für das Computerzeitalter genommen. Der erste Einsatz von ENIAC bestand darin, Probleme für das streng geheime Atombombenprojekt zu lösen, und wurde dann hauptsächlich für militärische Zwecke verwendet. ENIAC hatte kein Programm im Speicher gespeichert; Die "Programmierung" erfolgte durch die Installation von Drahtbrücken zwischen einzelnen Elementen.

Seit 1944 war John von Neumann an der Entwicklung von Computern beteiligt. 1946 erschien sein Artikel, in dem zwei wichtigste Prinzipien formuliert wurden, die allen modernen Computern zugrunde liegen: die Verwendung eines binären Zahlensystems und das Prinzip eines gespeicherten Programms.

Computer tauchten auch in der UdSSR auf. 1952 wurde unter der Leitung des Akademikers Lebedev der schnellste Computer Europas, BESM, geschaffen, und 1953 begann die Produktion des seriellen Computers Strela. Sowjetische Serienautos waren auf dem Niveau der besten Weltmodelle.

Die rasante Entwicklung von VT begann.

Der erste Vakuumröhrencomputer (ENIAC) hatte etwa 20.000 Vakuumröhren, stand in einer riesigen Halle, verbrauchte zig kW Strom und war im Betrieb sehr unzuverlässig – tatsächlich funktionierte er nur kurzzeitig zwischen Reparaturen.

Seitdem hat die Entwicklung von BT einen langen Weg zurückgelegt. Es gibt mehrere Generationen von Computern. Unter einer Generation wird eine bestimmte Stufe in der Entwicklung von Geräten verstanden, die durch ihre Parameter, Technologie zur Herstellung von Komponenten usw. gekennzeichnet ist.

1. Generation - Anfang der 50er Jahre (BESM, Strela, Ural). Basierend auf elektronischen Röhren. Hoher Stromverbrauch, geringe Zuverlässigkeit, geringe Leistung (2000 ops / s), wenig Speicher (mehrere Kilobyte); Es gab keine Möglichkeit, Rechenprozesse zu organisieren, der Bediener arbeitete direkt an der Konsole.

2. Generation - Ende der 50er Jahre (Minsk - 2, Hrazdan, Nairi). Halbleiterelemente, gedruckte Verdrahtung, Geschwindigkeit (50-60.000 op/s); Das Erscheinen externer magnetischer Speichergeräte, primitiver Betriebssysteme und Übersetzer aus algorithmischen Sprachen erschien.

3. Generation - Mitte der 60er Jahre. Auf der Basis integrierter Schaltkreise aufgebaut, wurden Standard-Elektronikblöcke verwendet; Geschwindigkeit bis zu 1,5 Millionen Operationen/s; entwickelte Softwaretools.

4. Generation - auf Basis von Mikroprozessoren aufgebaut. Computer sind spezialisiert, ihre verschiedenen Typen treten auf: Supercomputer - zur Lösung sehr komplexer Rechenprobleme; Mainframes - zur Lösung von Wirtschafts- und Abwicklungsproblemen im Unternehmen, PCs - zur individuellen Nutzung. Jetzt nehmen PCs den vorherrschenden Teil des Computermarktes ein, und ihre Fähigkeiten sind millionenfach größer als die Fähigkeiten der ersten Computer.

Der erste Altair 8800-PC erschien 1975 bei MITS, aber seine Fähigkeiten waren sehr begrenzt, und es gab keine grundlegende Änderung in der Verwendung von Computern. Die Revolution in der PC-Industrie wurde von zwei anderen Firmen gemacht - IBM und Apple Computer, deren Rivalität zur schnellen Entwicklung von Hochtechnologien beitrug und die technischen und Benutzerqualitäten des PCs verbesserte. Durch diesen Wettbewerb ist der Computer aus dem Alltag nicht mehr wegzudenken.

Die Geschichte von Apple begann 1976, als Stephen Jobs und Stephen Wozniak (beide Anfang 20) ihren ersten PC in einer Garage in Los Almos in Kalifornien zusammenbauten. Der eigentliche Erfolg kam dem Unternehmen jedoch mit der Veröffentlichung des Apple-II-Computers, der auf der Basis des Motorolla-Mikroprozessors erstellt wurde. Aussehenähnelte einem gewöhnlichen Haushaltsgerät, und zu einem Preis, der für einen gewöhnlichen Amerikaner erschwinglich war.

IBM wurde 1914 geboren und spezialisierte sich auf die Herstellung von Schreibwaren. In den fünfziger Jahren richtete der Gründer des Unternehmens, Thomas Watson, das Unternehmen neu auf die Produktion von Großcomputern aus. Im Bereich PC nahm das Unternehmen zunächst eine abwartende Haltung ein. Der furiose Erfolg von Apple alarmierte den Giganten und in kürzester Zeit entstand der erste IBM-PC, der 1981 vorgestellt wurde. Das Unternehmen nutzte seine riesigen Ressourcen und überschwemmte den Markt buchstäblich mit seinen PCs, wobei es sich auf den umfangreichsten Bereich ihrer Anwendung konzentrierte - die Geschäftswelt. Der IBM-PC basierte auf dem neuesten Mikroprozessor von Intel, der die Fähigkeiten des neuen Computers erheblich erweiterte.

Um den Markt zu erobern, nutzte IBM zunächst das Prinzip der „offenen Architektur“. Der IBM-PC wurde nicht als einzelne Einheit hergestellt, sondern aus separaten Modulen zusammengesetzt. Jedes Unternehmen könnte ein mit dem IBM-PC kompatibles Gerät entwickeln. Dies brachte IBM einen großen kommerziellen Erfolg. Gleichzeitig tauchten jedoch viele Computer auf dem Markt auf - exakte Kopien des IBM-PCs - die sogenannten Klone. Das Unternehmen reagierte auf das Erscheinen von "Doubles" mit einem starken Preisverfall und dem Aufkommen neuer Modelle.

Als Reaktion darauf schuf Apple den Apple Macintosh, der mit einer Maus und einem hochwertigen Grafikdisplay ausgestattet war und zum ersten Mal mit einem Mikrofon und einem Tongenerator ausgestattet war. Und das Wichtigste - es gab eine praktische und einfach zu bedienende Software. Der Mac kam in den Verkauf und hatte einigen Erfolg, aber Apple gelang es nicht, die Führung auf dem PC-Markt wiederzuerlangen.

Um der Benutzerfreundlichkeit von Apple-Computern näher zu kommen, hat IBM die Entwicklung moderner Software angeregt. Die Entwicklung von OC Windows durch Microsoft spielte hier eine große Rolle.

Seitdem Software werden immer bequemer und zum Konzept. PCs werden mit neuen Geräten ausgestattet und vom Gerät für berufliche Tätigkeiten zu „digitalen Unterhaltungszentren“, die die Funktionen verschiedener Haushaltsgeräte vereinen.

Ministerium für Bildung und Wissenschaft Russische Föderation

Bundesbehörde der Bildung

SEI VPO "Ural State Economic University"

Institut für Wirtschaft und Recht

USUE-Zweigstelle in N. Tagil

Prüfung

nach Disziplin:

"Informatik"

Möglichkeit 8___

Thema: "Entwicklungsgeschichte der Computertechnik"

Testamentsvollstrecker:

Schüler gr. 1EKIP

Gorbunova A.A.

Lehrer:

Skorokhodov B.A.

Einführung ………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………….

1 Entwicklungsstufen der Computertechnik……………………………………..4

2 Charakteristika von Computergenerationen………………………………………………………...9

3 Die Rolle der Computertechnologie im menschlichen Leben ……………………… 13

Fazit ……………………………………………………………………………… 14

Einführung

Die Kenntnis der Entwicklungsgeschichte der Computertechnik ist ein integraler Bestandteil der Fachkompetenz einer zukünftigen Fachkraft im Bereich der Informationstechnik. Die ersten Schritte in der Automatisierung geistiger Arbeit beziehen sich speziell auf die Rechentätigkeit eines Menschen, der bereits in den frühesten Stadien seiner Zivilisation begann, sich der Mittel des instrumentellen Rechnens zu bedienen.

Gleichzeitig sollte berücksichtigt werden, dass die gut etablierten Mittel zur Entwicklung der Computertechnologie derzeit vom Menschen verwendet werden, um verschiedene Arten von Berechnungen zu automatisieren.

Automatisierte Systeme sind ein wesentlicher Bestandteil jedes Unternehmens und jeder Produktion. Fast alle Führungs- und technologische Prozesse teilweise Computer benutzen. Nur ein Computer kann die Effizienz des Unternehmensmanagements erheblich steigern, ohne zusätzliche Probleme zu schaffen. Personal Computer sind heute an jedem Arbeitsplatz installiert und in der Regel zweifelt niemand an ihrer Notwendigkeit. Bedeutende Mengen an Computertechnologie und ihre besondere Rolle für das Funktionieren eines jeden Unternehmens stellen eine Reihe neuer Aufgaben für das Management dar.

Dieses Papier wird die Geschichte der Entwicklung der Computertechnologie betrachten, die dabei helfen wird, das Wesen und die Bedeutung von Computern zu verstehen und zu vertiefen.

1 Entwicklungsstufen der Computeranlagen

Es gibt mehrere Stufen in der Entwicklung der Computertechnologie, die die Menschen derzeit verwenden.

Manuelle Stufe der Entwicklung von Computeranlagen.

Die manuelle Periode der Automatisierung von Berechnungen begann zu Beginn der menschlichen Zivilisation und basierte auf der Verwendung verschiedener Körperteile, hauptsächlich Finger und Zehen.

Das Fingerzählen hat seine Wurzeln in der Antike und kommt heute in der einen oder anderen Form bei allen Völkern vor. Berühmte mittelalterliche Mathematiker empfohlen als Hilfe genau das Fingerzählen, was ziemlich effektive Zählsysteme ermöglicht. Die Zählergebnisse wurden auf verschiedene Weise erfasst: Kerben, Zählstäbchen, Knoten etc. So hatten beispielsweise die Völker des präkolumbianischen Amerikas eine hochentwickelte Knotenzählung. Darüber hinaus diente das Knotensystem auch als eine Art Chroniken und Annalen, die eine ziemlich komplexe Struktur aufwiesen. Die Nutzung erforderte jedoch ein gutes Gedächtnistraining.

Das Zählen mit Hilfe des Gruppierens und Verschiebens von Objekten war der Vorläufer des Zählens auf dem Abakus, dem fortschrittlichsten Zählinstrument der Antike, das sich bis heute in Form verschiedener Rechenarten erhalten hat.

Der Abakus war das erste entwickelte Zählinstrument in der Geschichte der Menschheit, dessen Hauptunterschied zu früheren Rechenmethoden die Durchführung von Rechenoperationen nach Ziffern war. Die Verwendung eines Abakus impliziert also bereits das Vorhandensein eines Positionszahlensystems, z. B. dezimal, ternär, quinär usw. Die jahrhundertealte Art, den Abakus zu verbessern, führte zur Schaffung eines Zählgeräts in vollendeter klassischer Form , verwendet bis zur Blütezeit der Tastatur-Desktop-Computer. Noch heute hilft er mancherorts bei Abwicklungsgeschäften. Und erst das Erscheinen elektronischer Taschenrechner in den 70er Jahren unseres Jahrhunderts stellte eine echte Bedrohung für die weitere Verwendung russischer, chinesischer und japanischer Konten dar - die drei wichtigsten klassischen Formen des Abakus, die bis heute erhalten geblieben sind. Gleichzeitig stammt der letzte bekannte Versuch, russische Konten durch Kombination mit dem Einmaleins zu verbessern, aus dem Jahr 1921.

Der Abakus, der gut geeignet war, Additions- und Subtraktionsoperationen durchzuführen, erwies sich als ein unzureichend effektives Gerät zur Durchführung von Multiplikations- und Divisionsoperationen. Daher war die Entdeckung von Logarithmen und logarithmischen Tabellen durch John Napier zu Beginn des 17. Jahrhunderts der nächste große Schritt in der Entwicklung manueller Rechensysteme. Anschließend erscheinen eine Reihe von Modifikationen logarithmischer Tabellen. Allerdings hinein praktische Arbeit Die Verwendung von logarithmischen Tabellen hat eine Reihe von Unannehmlichkeiten, daher schlug John Napier als alternative Methode spezielle Zählstäbe (später Napier-Stöcke genannt) vor, die es ermöglichten, Multiplikations- und Divisionsoperationen direkt mit den ursprünglichen Zahlen durchzuführen. Napier basierte diese Methode auf der Methode der Multiplikation mit einem Gitter.

Zusammen mit Essstäbchen schlug Napier ein Zählbrett vor, um Multiplikationen, Divisionen, Quadrierungen und Quadratwurzeln im Binärsystem durchzuführen, und antizipierte damit die Vorteile eines solchen Zahlensystems für die Automatisierung von Berechnungen.

Logarithmen bildeten die Grundlage für die Schaffung eines wunderbaren Rechenwerkzeugs - eines Rechenschiebers, der Ingenieuren und Technikern auf der ganzen Welt seit mehr als 360 Jahren dient.

Mechanische Stufe in der Entwicklung der Computertechnologie.

Die Entwicklung der Mechanik im 17. Jahrhundert wurde zur Voraussetzung für die Schaffung von Rechengeräten und -instrumenten, die das mechanische Rechenprinzip nutzen. Solche Geräte wurden auf mechanischen Elementen aufgebaut und boten eine automatische Übertragung auf höchstem Niveau.

Die erste mechanische Maschine wurde 1623 von Wilhelm Schickard beschrieben, in einem einzigen Exemplar realisiert und sollte vier arithmetische Operationen auf 6-Bit-Zahlen ausführen.

Shikkards Maschine bestand aus drei unabhängigen Geräten: Addieren, Multiplizieren und Schreiben von Zahlen. Die Addition erfolgte durch sequentielle Eingabe von Termen mittels Setzscheiben, die Subtraktion durch sequentielle Eingabe des Minuends und des Subtrahenten. Die eingegebenen Zahlen und das Ergebnis der Addition und Subtraktion wurden in den Lesefenstern angezeigt. Um die Multiplikationsoperation durchzuführen, wurde die Idee der Multiplikation mit einem Gitter verwendet. Der dritte Teil der Maschine wurde verwendet, um eine Zahl zu schreiben, die nicht länger als 6 Ziffern war.

Die Maschine von Blaise Pascal verwendete ein komplexeres Übertragungsschema hoher Ordnung, das später selten verwendet wurde. aber das erste Betriebsmodell der 1642 gebauten Maschine und dann eine Serie von 50 Maschinen trugen zu einer ziemlich großen Popularität der Erfindung und zur Bildung der öffentlichen Meinung über die Möglichkeit der Automatisierung geistiger Arbeit bei.

Die erste Rechenmaschine, mit der Sie alle vier Rechenoperationen ausführen können, wurde von Gottfried Leibniz in langjähriger Arbeit geschaffen. Der Höhepunkt dieser Arbeit war die Leibniz-Addiermaschine, die es ermöglicht, einen 8-Bit-Multiplikanden und einen 9-Bit-Multiplikator zu verwenden, um ein 16-Bit-Produkt zu erhalten.

Einen besonderen Platz unter den Entwicklungen der mechanischen Stufe in der Entwicklung der Computertechnologie nehmen die Arbeiten von Charles Babbage ein, der zu Recht als Begründer und Ideologe der modernen Computertechnologie gilt. Unter den Arbeiten von Babbage sind zwei Hauptrichtungen deutlich erkennbar: Differenz- und analytische Computer.

Das Difference Engine-Projekt wurde in den 20er Jahren des 19. Jahrhunderts entwickelt und war für die Tabellierung von Polynomfunktionen nach der Finite-Differenzen-Methode gedacht. Der Hauptanreiz bei dieser Arbeit war die dringende Notwendigkeit, Funktionen zu tabellieren und vorhandene mathematische Tabellen voller Fehler zu überprüfen.

Babbages zweites Projekt ist eine Analytical Engine, die das Prinzip der Programmsteuerung nutzt und der Vorläufer moderner Computer war. Dieses Projekt wurde in den 30er Jahren des 19. Jahrhunderts vorgeschlagen, und 1843 schrieb Ala Lovelace das weltweit erste ziemlich komplexe Programm zur Berechnung von Bernoulli-Zahlen für Babbages Maschine.

Charles Babbage verwendete in seiner Maschine einen Mechanismus, der dem des Jacquard-Webstuhls ähnlich war, und verwendete spezielle Steuerlochkarten. Nach Babbages Idee sollte die Steuerung durch ein Paar Jacquard-Mechanismen mit jeweils einem Lochkartensatz erfolgen.

Babbage hatte überraschend moderne Vorstellungen von Computern, aber die ihm zur Verfügung stehenden technischen Mittel blieben weit hinter seinen Vorstellungen zurück.

Elektromechanische Stufe in der Entwicklung der Computertechnologie.

Die elektromechanische Phase in der Entwicklung der Computertechnik war die kürzeste und umfasste nur etwa 60 Jahre. Die Voraussetzungen für die Erstellung von Projekten dieser Phase waren sowohl die Notwendigkeit von Massenberechnungen (Wirtschaft, Statistik, Management und Planung usw.) als auch die Entwicklung der angewandten Elektrotechnik (elektrischer Antrieb und elektromechanische Relais), die es ermöglichte, elektromechanische zu erstellen Rechengeräte.

Der klassische Mitteltyp der elektromechanischen Stufe war ein Zähl- und Analysekomplex, der dazu bestimmt war, Informationen auf Lochkartenmedien zu verarbeiten.

Der erste Rechen- und Analysekomplex wurde 1887 in den USA von Herman Hollerith geschaffen und bestand aus: einem manuellen Locher, einer Sortiermaschine und einem Tabulator. Der Hauptzweck des Komplexes war die statistische Verarbeitung von Lochkarten sowie die Mechanisierung von Buchhaltungs- und Wirtschaftsaufgaben. 1897 gründete Hollerith ein Unternehmen, das später als IBM bekannt wurde.

In Anlehnung an die Arbeit von G. Hollerith werden in einer Reihe von Ländern eine Reihe von Modellen von Rechen- und Analysesystemen entwickelt und hergestellt, von denen die beliebtesten und umfangreichsten die Komplexe von IBM, Remington und Buhl waren.

Die letzte Periode (40er Jahre des 20. Jahrhunderts) der elektromechanischen Phase in der Entwicklung der Computertechnologie ist durch die Schaffung einer Reihe komplexer Relais- und Relais-mechanischer Systeme mit gekennzeichnet Programm-Management, die sich durch algorithmische Vielseitigkeit auszeichnet und in der Lage ist, komplexe wissenschaftliche und technische Berechnungen durchzuführen automatischer Modus mit Geschwindigkeiten, die um eine Größenordnung höher sind als die Geschwindigkeit elektrischer Arithmometer.

Konrad Zuse leistete Pionierarbeit bei der Schaffung eines universellen Computers mit Programmsteuerung und Speicherung von Informationen in einem Speichergerät. Allerdings war sein erstes Modell Z-1 (das den Beginn der Z-Wagen-Reihe markierte) Babbages Entwurf ideologisch unterlegen – es sah keine bedingte Übergabe der Kontrolle vor. Auch in Zukunft wurden die Modelle Z-2 und Z-3 entwickelt.

Als letztes Großprojekt der Relay-Computing-Technologie dürfte der 1957 in der UdSSR gebaute und bis Ende 1964 hauptsächlich zur Lösung wirtschaftlicher Probleme betriebene Relay-Rechner RVM-1 gelten.

Elektronische Stufe in der Entwicklung der Computertechnologie.

Aufgrund der physikalischen und technischen Natur erlaubte die Relay-Computing-Technologie keine signifikante Erhöhung der Berechnungsgeschwindigkeit; Dies erforderte einen Übergang zu elektronischen trägheitsfreien Hochgeschwindigkeitselementen.

Der erste Computer kann als die englische Maschine Colossus angesehen werden, die 1943 unter Beteiligung von Alan Turing erstellt wurde. Die Maschine enthielt etwa 2000 Vakuumröhren und hatte eine ziemlich hohe Geschwindigkeit, war aber hochspezialisiert.

Als erster Computer gilt die ENIAC-Maschine (Electronic Numerical Integrator And Computer), die Ende 1945 in den USA entwickelt wurde. Ursprünglich zur Lösung ballistischer Probleme gedacht, erwies sich die Maschine als universell, d.h. in der Lage, verschiedene Probleme zu lösen.

Noch vor der Inbetriebnahme von ENIAC begannen John Mauchly und Presper Eckert im Auftrag des US-Militärs ein Projekt an einem neuen Computer EDVAC (Electronic Discrete Automatic Variable Computer), der perfekter war als der erste. Diese Maschine hatte einen großen Speicher (1024 44-Bit-Worte; 4000 Worte Hilfsspeicher für Daten waren zum Zeitpunkt der Fertigstellung hinzugefügt worden) sowohl für Daten als auch für Programme.

Der EDSAC-Computer markierte den Beginn einer neuen Stufe in der Entwicklung der Computertechnologie - der ersten Generation von Großrechnern.

2 Merkmale von Computergenerationen

Seit 1950 wurden alle 7-10 Jahre die konstruktiv-technologischen und software-algorithmischen Prinzipien des Baus und der Nutzung von Computern radikal aktualisiert. Insofern ist es legitim, von Computergenerationen zu sprechen. Herkömmlicherweise kann jeder Generation 10 Jahre gegeben werden.

Die erste Generation von Computern 1950-1960

Logikschaltungen wurden auf diskreten Funkkomponenten und elektronischen Vakuumröhren mit einem Filament erstellt. Magnettrommeln, akustisches Ultraschall-Quecksilber und elektromagnetische Verzögerungsleitungen, Kathodenstrahlröhren wurden in Speichergeräten mit wahlfreiem Zugriff verwendet. Als externe Speichermedien wurden Magnetbandlaufwerke, Lochkarten, Lochstreifen und Steckschalter verwendet.

Die Programmierung dieser Computergeneration erfolgte im Binärsystem in Maschinensprache, das heißt, die Programme orientierten sich starr an einem bestimmten Maschinenmodell und „starben“ mit diesen Modellen.

Mitte der 1950er Jahre erschienen maschinenorientierte Sprachen wie Symbolic Coding Languages ​​(CLLs), die es ermöglichten, ihre abgekürzte verbale (Buchstaben-)Notation und Dezimalzahlen anstelle der binären Notation von Befehlen und Adressen zu verwenden.

Computer, beginnend mit UNIVAC und endend mit BESM-2 und den ersten Computermodellen "Minsk" und "Ural", gehören zur ersten Computergeneration.

Die zweite Generation von Computern: 1960-1970

Logikschaltungen wurden auf diskreten Halbleiter- und Magnetelementen aufgebaut. Als konstruktive und technologische Basis wurden Schaltungen mit gedruckter Verdrahtung verwendet. Weit verbreitet ist das Blockprinzip beim Entwerfen von Maschinen, mit dem Sie eine große Anzahl verschiedener externer Geräte an die Hauptgeräte anschließen können, was eine größere Flexibilität bei der Verwendung von Computern bietet. Die Taktfrequenzen der elektronischen Schaltungen sind auf Hunderte von Kilohertz gestiegen.

Es wurden externe Festplatten und Disketten eingesetzt - eine Zwischenspeicherebene zwischen Magnetbandlaufwerken und Arbeitsspeichern.

1964 erschien der erste Monitor für Computer - IBM 2250. Es war ein monochromes Display mit einem Bildschirm von 12 x 12 Zoll und einer Auflösung von 1024 x 1024 Pixel. Es hatte eine Bildrate von 40 Hz.

Die auf der Basis von Computern erstellten Steuerungssysteme erforderten eine höhere Leistung von Computern und vor allem Zuverlässigkeit. Fehlererkennungs- und -korrekturcodes und eingebaute Steuerschaltungen sind in Computern weit verbreitet.

In Maschinen der zweiten Generation wurden erstmals Stapelverarbeitung und Fernverarbeitung von Informationen implementiert.

Der erste Computer, der teilweise Halbleiterbauelemente anstelle von Vakuumröhren verwendete, war eine Maschine, die 1951 hergestellt wurde.

In den frühen 1960er Jahren wurden auch in der UdSSR Halbleitermaschinen hergestellt.

Die dritte Generation von Computern: 1970-1980

Die logischen Schaltungen der Computer der 3. Generation waren bereits vollständig auf kleinen integrierten Schaltkreisen aufgebaut. Die Taktfrequenzen der elektronischen Schaltungen sind auf Einheiten von Megahertz angestiegen. Die Versorgungsspannung (einige Volt) und die von der Maschine aufgenommene Leistung sind gesunken. Die Zuverlässigkeit und Geschwindigkeit von Computern haben erheblich zugenommen.

Speichergeräte mit wahlfreiem Zugriff verwendeten Miniatur-Ferritkerne, Ferritplatten und Magnetfilme mit einer rechteckigen Hystereseschleife. Plattenlaufwerke sind als externe Speichergeräte weit verbreitet.

Zwei weitere Ebenen von Speichergeräten tauchten auf: ultraschnelle Speichergeräte basierend auf Triggerregistern, die eine enorme Geschwindigkeit, aber eine kleine Kapazität (zig Zahlen) haben, und Hochgeschwindigkeits-Cache-Speicher.

Seit der weiten Verbreitung integrierter Schaltkreise in Computern lässt sich der technologische Fortschritt bei Computern anhand des bekannten Mooreschen Gesetzes beobachten. 1965 entdeckte einer der Gründer von Intel, Gordon Moore, das Gesetz, nach dem sich die Anzahl der Transistoren in einem Chip alle 1,5 Jahre verdoppelt.

Angesichts der erheblichen Komplikation sowohl der Hardware als auch der logischen Struktur von Computern der 3. Generation wurden sie häufig als Systeme bezeichnet.

Bei Computern der dritten Generation wird der Verringerung der Komplexität der Programmierung, der Effizienz der Ausführung von Programmen in Maschinen und der Verbesserung der Kommunikation zwischen dem Bediener und der Maschine große Aufmerksamkeit geschenkt. Dies wird durch leistungsstarke Betriebssysteme, ein fortschrittliches Programmierautomatisierungssystem, effektive Systeme Programmunterbrechungen, Time-Sharing-Betriebsmodi, Echtzeit-Betriebsmodi, Mehrprogramm-Betriebsmodi und neue interaktive Kommunikationsmodi. Es ist auch ein effektives Videoterminalgerät für die Kommunikation zwischen dem Bediener und der Maschine aufgetaucht – ein Videomonitor oder eine Anzeige.

Viel Aufmerksamkeit wird der Verbesserung der Zuverlässigkeit und Zuverlässigkeit des Funktionierens von Computern und deren Erleichterung geschenkt Wartung. Zuverlässigkeit und Verlässlichkeit werden durch die weit verbreitete Verwendung von Codes mit automatischer Fehlererkennung und -korrektur (korrigierende Hamming-Codes und zyklische Codes) gewährleistet.

Vierte Computergeneration: 1980-1990

Ein revolutionäres Ereignis in der Entwicklung von Computertechnologien der vierten Generation von Maschinen war die Schaffung von großen und extragroßen integrierten Schaltkreisen, dem Mikroprozessor und dem Personal Computer.

Logische integrierte Schaltungen in Computern wurden auf der Grundlage von unipolaren Feldeffekt-CMOS-Transistoren mit direkten Verbindungen erstellt, die mit niedrigeren Amplituden elektrischer Spannungen arbeiteten.

Fünfte Generation von Computern: 1990-heute

Das Grundkonzept von Computern der fünften Generation lässt sich kurz wie folgt formulieren:

Computer, die auf hochkomplexen Mikroprozessoren mit Parallel-Vektor-Struktur basieren und gleichzeitig Dutzende von sequentiellen Programmanweisungen ausführen.

Computer mit vielen hundert parallel arbeitenden Prozessoren, die den Aufbau von Daten- und Wissensverarbeitungssystemen ermöglichen, effektive vernetzte Computersysteme.

Sechste und nachfolgende Generationen von Computern

Elektronische und optoelektronische Computer mit massiver Parallelität, neuronaler Struktur, mit einem verteilten Netzwerk aus einer großen Anzahl (Zehntausende) von Mikroprozessoren, die die Architektur neuronaler biologischer Systeme simulieren.

3 Die Rolle der Computertechnologie im menschlichen Leben.

Die Rolle der Informatik im Allgemeinen in modernen Bedingungen nimmt ständig zu. Die Aktivitäten von Einzelpersonen und ganzen Organisationen hängen zunehmend von ihrem Bewusstsein und ihrer Fähigkeit ab, die verfügbaren Informationen effektiv zu nutzen. Bevor Sie etwas unternehmen, müssen Sie gut gemachtüber das Sammeln und Verarbeiten von Informationen, ihr Verstehen und Analysieren. Das Finden rationaler Lösungen in jedem Bereich erfordert die Verarbeitung großer Informationsmengen, was manchmal ohne den Einsatz spezieller technischer Mittel unmöglich ist. Die Einführung von Computern moderne Mittel Die Verarbeitung und Übermittlung von Informationen an verschiedene Branchen war der Beginn eines Prozesses, der als Informatisierung der Gesellschaft bezeichnet wird. Zeitgenössisch materielle Produktion und andere Tätigkeitsbereiche benötigen zunehmend Informationsdienste, die Verarbeitung einer riesigen Menge an Informationen. Die auf der Einführung von Computer- und Telekommunikationstechnologien basierende Informatisierung ist die Antwort einer Gesellschaft auf die Notwendigkeit einer signifikanten Steigerung der Arbeitsproduktivität im Informationssektor gesellschaftliche Produktion wo mehr als die Hälfte der Bevölkerung im erwerbsfähigen Alter konzentriert ist.

Die Informationstechnologie hat in alle Bereiche unseres Lebens Einzug gehalten. Der Computer ist ein Mittel zur Steigerung der Effizienz des Lernprozesses, ist an allen Arten menschlicher Aktivitäten beteiligt, für die er unverzichtbar ist soziale Sphäre. Informationstechnologien sind Hardware- und Softwarewerkzeuge, die auf der Verwendung von Computertechnologie basieren und die Speicherung und Verarbeitung von Bildungsinformationen, ihre Übermittlung an den Schüler, die interaktive Interaktion zwischen dem Schüler und dem Lehrer oder die Pädagogik ermöglichen Software-Tool und das Wissen des Schülers testen.

Es ist davon auszugehen, dass die Evolution der Technik im Allgemeinen die natürliche Evolution fortsetzt. Während die Entwicklung von Steinwerkzeugen zur Bildung menschlicher Intelligenz beitrug, steigerten Metallwerkzeuge die Produktivität der körperlichen Arbeit (so sehr, dass eine separate Schicht der Gesellschaft für intellektuelle Aktivitäten frei wurde), Maschinen wurden mechanisiert körperliche Arbeit, dann ist die Informationstechnologie dazu bestimmt, einen Menschen von routinemäßiger geistiger Arbeit zu befreien, um seine kreativen Fähigkeiten zu verbessern.

Fazit

Als gebildeter Mensch kann man im 21. Jahrhundert nur leben, wenn man die Informationstechnologie gut beherrscht. Schließlich hängt die Aktivität der Menschen zunehmend von ihrem Bewusstsein ab, der Fähigkeit, Informationen effektiv zu nutzen. Zur freien Orientierung in Informationsflüssen muss eine moderne Fachkraft jeglichen Profils in der Lage sein, Informationen mittels Computer, Telekommunikation und anderen Kommunikationsmitteln zu empfangen, zu verarbeiten und zu nutzen. Die Leute beginnen, über Informationen als strategische Ressource der Gesellschaft zu sprechen, als Ressource, die den Entwicklungsstand des Staates bestimmt.

Durch das Studium der Entwicklungsgeschichte der Computertechnologie können Sie die gesamte Struktur und Bedeutung von Computern im menschlichen Leben kennenlernen. Dies wird Ihnen helfen, sie besser zu verstehen und neue fortschrittliche Technologien leichter wahrzunehmen, denn Sie sollten nicht vergessen, dass sich die Computertechnologien fast jeden Tag weiterentwickeln, und wenn Sie die Struktur von Maschinen, die viele Jahre alt waren, nicht verstehen, wird es schwierig sein, sie zu überwinden die aktuelle Generation.

In der vorgestellten Arbeit konnte gezeigt werden, wie die Entwicklung der Computertechnologie begann und endet und was wichtige Rolle Sie spielen zur Zeit für die Leute.

Entwicklungsgeschichte der Computertechnik

Die Entwicklung der Computertechnologie kann unterteilt werden in folgende Perioden:

Ø Handbuch(6. Jh. v. Chr. - 17. Jh. n. Chr.)

Ø Mechanisch(XVII Jahrhundert - Mitte des XX Jahrhunderts)

Ø Elektronisch(Mitte XX Jahrhundert - Gegenwart)

Obwohl Prometheus in der Tragödie von Aischylos sagt: „Denken Sie, was ich den Sterblichen angetan habe: Ich habe die Zahl damit erfunden und die Buchstaben gelehrt, sich zu verbinden“, entstand der Begriff der Zahl lange vor dem Aufkommen der Schrift. Seit vielen Jahrhunderten lernen Menschen das Zählen und geben ihre Erfahrungen von Generation zu Generation weiter und bereichern sie.

Rechnungen oder allgemeiner - Berechnungen können durchgeführt werden verschiedene Formen: existiert mündliches, schriftliches und instrumentelles Zählen . Instrumentalkontofonds hatten zu verschiedenen Zeiten unterschiedliche Möglichkeiten und wurden unterschiedlich genannt.

manuelle Bühne (6. Jh. v. Chr. - 17. Jh. n. Chr.)

Die Entstehung des Kontos in der Antike – „Das war der Anfang der Anfänge …“

Das geschätzte Alter der letzten Menschheitsgeneration beträgt 3-4 Millionen Jahre. Es ist so viele Jahre her, dass ein Mann aufstand und ein Werkzeug aufhob, das er selbst gemacht hatte. Die Fähigkeit zu zählen (d. h. die Fähigkeit, die Konzepte „mehr“ und „weniger“ in eine bestimmte Anzahl von Einheiten zu zerlegen) wurde jedoch viel später beim Menschen entwickelt, nämlich vor 40-50.000 Jahren (spätes Paläolithikum). . Diese Stufe entspricht dem Aussehen moderner Mann(Cro-Magnon). Daher ist eines der Hauptmerkmale (wenn nicht das Hauptmerkmal), das den Cro-Magnon-Menschen von der älteren Stufe des Menschen unterscheidet, das Vorhandensein von Zählfähigkeiten in ihm.

Es ist leicht zu erraten, dass die erste Das Zählgerät des Menschen waren seine Finger.

Finger sind super gewordenRechenmaschine. Mit ihrer Hilfe war es möglich, bis 5 zu zählen, und wenn Sie zwei Hände nehmen, dann bis 10. Und in Ländern, in denen die Menschen barfuß gingen, an den Fingern es war einfach, bis 20 zu zählen. Dann war das praktisch genug für die meisten die Bedürfnisse der Menschen.

Es stellte sich heraus, dass die Finger so eng miteinander verbunden waren berücksichtigen, dass im Altgriechischen der Begriff "Zählung" durch das Wort ausgedrückt wurde„verfünffachen“. Ja, und auf Russisch ähnelt das Wort "fünf" "Metacarpus" - Teil Hände (das Wort "Fessel" wird heute selten erwähnt, aber seine Ableitung schon "Handgelenk" - jetzt oft verwendet). Die Hand, Metacarpus, ist bei vielen Völkern ein Synonym und tatsächlich die Grundlage der Zahl "FÜNF". Zum Beispiel bedeutet das malaiische „LIMA“ sowohl „Hand“ als auch „fünf“.

Es sind jedoch Völker bekannt, deren Rechnungseinheiten waren keine Finger, sondern ihre Gelenke.

Mit den Fingern zählen lernenzehn, die Leute machten den nächsten Schritt nach vorne und begannen mit Zehnern zu zählen. Und wenn einige Papua-Stämme nur bis sechs zählen konnten, dann erreichten andere beim Zählen mehrere Zehner. Nur dafür war es notwendig Laden Sie viele Zähler gleichzeitig ein.

In vielen Sprachen sind die Wörter „zwei“ und „zehn“ Konsonanten. Vielleicht liegt das daran, dass einmal das Wort "zehn" bedeutete "zwei Hände". Und jetzt gibt es Stämme, die sagen„zwei Hände“ statt „zehn“ und „Hände und Füße“ statt „zwanzig“. Und in England Die ersten zehn Nummern werden mit einem gemeinsamen Namen bezeichnet - "Finger". Das bedeutet, dass die Briten einst an den Fingern abgezählt haben.

Das Fingerzählen hat sich mancherorts bis heute erhalten, so berichtet der Mathematikhistoriker L. Karpinsky in dem Buch „History of Arithmetic“, dass an der weltgrößten Getreidebörse in Chicago Angebote und Gesuche sowie Preise, werden von Brokern ohne ein einziges Wort an ihren Fingern angekündigt.

Dann kam das Zählen mit dem Verschieben von Steinen, das Zählen mit Hilfe eines Rosenkranzes ... Dies war ein bedeutender Durchbruch in der menschlichen Zählfähigkeit - der Beginn der Abstraktion von Zahlen.

MINISTERIUM FÜR BILDUNG UND WISSENSCHAFT DER RUSSISCHEN FÖDERATION

Staatliche Bildungseinrichtung der Höheren Berufsbildung

Russische Staatliche Handels- und Wirtschaftsuniversität

Ufa-Institut (Außenstelle)

Fakultät Jura und Fernstudium

Brunnen 1 (5,5 g)

Spezialität 080507.65 „Leitung der Organisation“

Abteilung "Verwaltung von internen

und internationalen Handel»

Schuravlew Sergej Wladimirowitsch

Die Entwicklungsgeschichte der Computertechnik. Kurzer geschichtlicher Hintergrund. Generationen von Computern. Perspektiven für die Entwicklung der Computertechnologie.

Prüfung

Disziplin: "Informatik"

Ich erlaube der Verteidigung:

Leiter: Zakiryanov F.K.______

(Unterschrift)

_________________

Schutzart

_______________________________________

Datum, Unterschrift__________

Einleitung .................................................... . ............................... Seite 3

Die Anfangsphase der Entwicklung der Computertechnologie ................... S. 4

Beginn der modernen elektronischen Geschichte

Computertechnik ………………………………………. Seite 7

Generationen von Computern .......................................... ... ...................... Seite 9

Persönliche Computer................................................ ..... Seite 13

Was steht bevor? ................................................. . .......................... Seite 16

Fazit ……………………………………………………… Seite 18

Referenzliste................................................ .............. стр. 20

Einführung

Das Wort "Computer" bedeutet "Computer", d.h. Gerät für

rechnen. Die Notwendigkeit, die Datenverarbeitung, einschließlich Berechnungen, zu automatisieren, entstand vor sehr langer Zeit. Vor mehr als 1500 Jahren wurden Zählstöcke, Kiesel etc. zum Zählen verwendet.

Heutzutage ist es schwer vorstellbar, dass dies ohne Computer möglich ist

durchkommen. Aber vor nicht allzu langer Zeit, bis Anfang der 70er Jahre, waren Computer nur einem sehr begrenzten Kreis von Spezialisten zugänglich, und ihre Verwendung blieb in der Regel unter einem Schleier der Geheimhaltung und der breiten Öffentlichkeit wenig bekannt. 1971 ereignete sich jedoch ein Ereignis, das die Situation radikal veränderte und den Computer mit phantastischer Geschwindigkeit zu einem täglichen Arbeitswerkzeug für Millionen von Menschen machte. In diesem zweifelsohne bedeutsamen Jahr brachte die noch fast unbekannte Firma Intel aus einer amerikanischen Kleinstadt mit dem schönen Namen Santa Clara, Kalifornien, den ersten Mikroprozessor auf den Markt. Ihm verdanken wir die Entstehung einer neuen Klasse von Computersystemen – Personal Computer, die heute tatsächlich von allen genutzt werden, von Studenten Grundschule und Buchhalter für Wissenschaftler und Ingenieure.

Am Ende des 20. Jahrhunderts ist der Personal Computer aus dem Leben nicht mehr wegzudenken. Der Computer ist fest in unser Leben eingedrungen und wurde zum wichtigsten Assistenten des Menschen. Heutzutage gibt es auf der Welt viele Computer verschiedener Unternehmen, verschiedener Komplexitätsgruppen, Zwecke und Generationen.

In diesem Essay werden wir die Geschichte der Entwicklung der Computertechnologie betrachten, sowie Kurze Reviewüber die Einsatzmöglichkeiten moderner Computersysteme und weitere Trends in der Entwicklung von Personal Computern.

Die Anfangsphase der Entwicklung der Computertechnologie.

Angefangen hat alles mit der Idee, einer Maschine das Zählen oder zumindest Addieren mehrstelliger Ganzzahlen beizubringen. Bereits um 1500 entwickelte der große Aufklärer Leonardo da Vinci eine Skizze eines 13-Bit-Addierers, der der erste Versuch war, dieses uns überlieferte Problem zu lösen. Die erste funktionierende Summiermaschine wurde 1642 von Blaise Pascal, dem berühmten französischen Physiker, Mathematiker und Ingenieur, gebaut. Seine 8-Bit-Maschine hat bis heute überlebt.

Abb.1. Blaise Pascal (1623 - 1662) und seine Rechenmaschine

Fast 250 Jahre sind vergangen von der wunderbaren Kuriosität, wie sie von Zeitgenossen von Pascals Maschine wahrgenommen wurde, bis zur Schaffung einer praktisch nützlichen und weit verbreiteten Einheit - einer Addiermaschine (eines mechanischen Rechengeräts, das 4 arithmetische Operationen ausführen kann) - fast 250 Jahre bestanden. Bereits zu Beginn des 19. Jahrhunderts war der Entwicklungsstand einer Reihe von Wissenschaften und praktischen Tätigkeitsbereichen (Mathematik, Mechanik, Astronomie, Ingenieurwissenschaften, Navigation usw.) so hoch, dass sie dringend eine enorme Leistung erforderten von Berechnungen, die über die Fähigkeiten einer unbewaffneten Person hinausgehen relevante Technologie. Sowohl herausragende Wissenschaftler von Weltruf als auch Hunderte von Menschen, von denen uns viele Namen nicht erreicht haben und die ihr Leben der Konstruktion mechanischer Rechengeräte gewidmet haben, haben an seiner Schaffung und Verbesserung gearbeitet.

In den 70er Jahren unseres Jahrhunderts standen mechanische Rechenmaschinen und ihre „nächsten Verwandten“ mit elektrischem Antrieb, elektromechanische Tastaturcomputer, in den Verkaufsregalen. Wie so oft koexistierten sie auf wundersame Weise lange Zeit mit einer Technologie auf einem völlig anderen Niveau - automatischen digitalen Computern (ATsVM), die im allgemeinen Sprachgebrauch eher als Computer bezeichnet werden (obwohl diese Konzepte streng genommen nicht ganz übereinstimmen). Die Geschichte von ATsVM reicht bis in die erste Hälfte des letzten Jahrhunderts zurück und ist mit dem Namen des bemerkenswerten englischen Mathematikers und Ingenieurs Charles Babbage verbunden. 1822 entwarf und baute und verbesserte er fast 30 Jahre lang eine Maschine, die zuerst „Differenz“ und dann, nach zahlreichen Verbesserungen des Projekts, „Analytik“ genannt wurde. In die "analytische" Maschine wurden die Prinzipien gelegt, die für die Computertechnologie grundlegend geworden sind.

1. Automatische Ausführung von Operationen.

Für umfangreiche Berechnungen ist nicht nur entscheidend, wie schnell eine einzelne arithmetische Operation ausgeführt wird, sondern auch, dass zwischen den Operationen keine „Lücken“ entstehen, die ein direktes menschliches Eingreifen erfordern. Beispielsweise erfüllen die meisten modernen Taschenrechner diese Anforderung nicht, obwohl jede ihnen zur Verfügung stehende Aktion sehr schnell ausgeführt wird. Es ist erforderlich, dass die Vorgänge ohne Unterbrechung aufeinander folgen.

2. Bearbeiten Sie das eingegebene Programm „unterwegs“.

Zur automatischen Ausführung von Operationen muss das Programm in die Ausführungsvorrichtung mit einer Geschwindigkeit eingegeben werden, die der Geschwindigkeit der Operationen entspricht. Babbage schlug vor, Lochkarten zu verwenden, um Programme vorab aufzuzeichnen und in die Maschine einzugeben, die zu dieser Zeit zur Steuerung von Webstühlen verwendet wurden.

3. Die Notwendigkeit eines speziellen Geräts – Speicher – zum Speichern von Daten (Babbage nannte es ein „Warehouse“).

Reis. 2. Charles Babbage (1792 - 1871) und seine "analytische Maschine"

Diese revolutionären Ideen stießen auf die Unmöglichkeit ihrer Umsetzung auf der Grundlage mechanischer Technologie, denn fast ein halbes Jahrhundert blieb bis zum Erscheinen des ersten Elektromotors und fast ein Jahrhundert bis zur ersten elektronischen Radioröhre! Sie waren ihrer Zeit so weit voraus, dass sie im nächsten Jahrhundert weitgehend vergessen und wiederentdeckt wurden.

Mitte des 20. Jahrhunderts tauchten erstmals automatisch arbeitende Rechengeräte auf. Möglich wurde dies durch die Verwendung von elektromechanischen Relais zusammen mit mechanischen Strukturen. Die Arbeit an Relaismaschinen begann in den 1930er Jahren und wurde mit unterschiedlichem Erfolg fortgesetzt, bis 1944 unter der Leitung von Howard Aiken, einem amerikanischen Mathematiker und Physiker, die Mark-1-Maschine bei IBM (International Business Machines) eingeführt wurde implementierte die Ideen von Babbage (obwohl die Entwickler anscheinend nicht mit ihnen vertraut waren). Dabei wurden mechanische Elemente (Rechenräder) zur Darstellung von Zahlen und elektromechanische Elemente zur Steuerung verwendet. Eine der leistungsstärksten Staffelmaschinen RVM-1 wurde Anfang der 50er Jahre in der UdSSR unter der Leitung von N. I. Bessonov gebaut. es führte bis zu 20 Multiplikationen pro Sekunde mit ausreichend langen Binärzahlen durch.

Das Erscheinen von Relaismaschinen kam jedoch hoffnungslos spät und sie wurden sehr schnell von elektronischen Maschinen verdrängt, die viel produktiver und zuverlässiger waren.

Der Beginn der modernen Geschichte des elektronischen Rechnens

Eine wahre Revolution in der Computertechnik ereignete sich im Zusammenhang mit der Verwendung von elektronische Geräte. Die Arbeiten an ihnen begannen Ende der 30er Jahre gleichzeitig in den USA, Deutschland, Großbritannien und der UdSSR. Zu dieser Zeit Vakuumröhren, die geworden waren technische Grundlage Vorrichtungen zum Verarbeiten und Speichern digitaler Informationen sind in funktechnischen Vorrichtungen bereits weit verbreitet.

Der erste Betriebscomputer war ENIAC (USA, 1945-1946). Sein Name, basierend auf den Anfangsbuchstaben der entsprechenden englischen Wörter, bedeutet „elektronischer numerischer Integrator und Rechner“. Seine Gründung wurde von John Mouchli und Presper Eckert geleitet, die die Ende der 1930er Jahre begonnene Arbeit von George Atanasoff fortsetzten. Die Maschine enthielt etwa 18.000 Vakuumröhren, viele elektromechanische Elemente. Seine Leistungsaufnahme betrug 150 kW, was für eine kleine Anlage völlig ausreicht.

Fast gleichzeitig wurde in Großbritannien an der Schaffung von Computern gearbeitet. Zunächst einmal ist damit der Name von Allan Turing verbunden, einem Mathematiker, der auch einen großen Beitrag zur Theorie der Algorithmen und der Codierungstheorie geleistet hat. 1944 wurde die Colossus-Maschine in Großbritannien eingeführt.

Diese und eine Reihe anderer erster Computer hatten aus Sicht der Konstrukteure späterer Computer nicht die wichtigste Eigenschaft - das Programm wurde nicht im Speicher der Maschine gespeichert, sondern auf ziemlich komplizierte Weise durch externe Schaltung eingegeben Geräte.

Ein enormer Beitrag zur Theorie und Praxis der Erstellung elektronischer Rechentechnik Erstphase seine Entwicklung wurde von einem der größten amerikanischen Mathematiker, John von Neumann, eingeführt. Die „von-Neumann-Prinzipien“ gingen für immer in die Wissenschaftsgeschichte ein. Die Kombination dieser Prinzipien führte zur klassischen (von Neumann) Computerarchitektur. Eines der wichtigsten Prinzipien – das Prinzip eines gespeicherten Programms – erfordert, dass das Programm im Speicher der Maschine auf die gleiche Weise gespeichert wird, wie die ursprünglichen Informationen darin gespeichert sind. Der erste Stored Program Computer (EDSAC) wurde 1949 in Großbritannien gebaut.

Reis. 3. John von Neumann (1903-1957) Abb. 4. Sergej Alexandrowitsch Lebedew (1902-1974)

In unserem Land wurde die Erstellung von Computern bis in die 70er Jahre fast vollständig unabhängig und unabhängig von der Außenwelt durchgeführt (und diese „Welt“ selbst war fast vollständig von den Vereinigten Staaten abhängig). Tatsache ist, dass die elektronische Computertechnologie von Anfang an als streng geheimes strategisches Produkt galt und die UdSSR sie selbst entwickeln und produzieren musste. Allmählich wurde der Geheimhaltungsmodus weicher, aber selbst Ende der 80er Jahre konnte unser Land nur veraltete Computermodelle im Ausland kaufen (und die führenden Hersteller der modernsten und leistungsfähigsten Computer - die USA und Japan - entwickeln und produzieren immer noch im Geheimen Modus).

Der erste Haushaltscomputer - MESM ("kleine elektronische Rechenmaschine") - wurde 1951 unter der Leitung von Sergei Alexandrovich Lebedev entwickelt, dem größten sowjetischen Designer von Computertechnologie, später Akademiker, Preisträger staatlicher Auszeichnungen, der die Schaffung vieler leitete heimische Computer. Der Rekord unter ihnen und einer der besten der Welt für seine Zeit war BESM-6 („große elektronische Rechenmaschine, 6. Modell“), die Mitte der 60er Jahre erstellt wurde und lange Zeit ehemalige Basismaschine in Verteidigung, Weltraumforschung, wissenschaftlicher und technischer Forschung in der UdSSR. Neben Maschinen der BESM-Serie wurden auch Computer anderer Serien hergestellt - "Minsk", "Ural", M-20, "Mir" und andere, die unter der Leitung von I.S. Bruk und M.A. Kartsev, B.I. Rameev, V .M.Glushkov, Yu.A.Bazilevsky und andere einheimische Designer und Theoretiker der Informatik.historisch Entwicklung. ... Terminator 10 + T R Terror 6 + T A Technik 7 + T M Technokratie 12 + T I Technophobie ... Filippov F.R. Aus Generationen zu Generation: Soziologie und...

  • Moderne Informationstechnologien (2)

    Vorlesung >> Informatik, Programmierung

    ... Entwicklung rechnen Technologie BEI Entwicklung rechnen Technologie kann Vorgeschichte und vier identifiziert werden Generationen elektronisch rechnen ... Perspektiven und Möglichkeiten für weitere Entwicklung ... Computer rechnen Zentren war die erste historisch ... Geschichte Entwicklung ...

  • Wirtschaft und Management in der modernen Elektrizitätswirtschaft Russlands

    Buchen >> Wirtschaftstheorie

    ... Geschichte Entwicklung Dampfturbine Technologie für Atomkraftwerke Geschichte... konditioniert historisch, politisch ... geben wir knapp Zertifikat um... Entwicklung Energiewirtschaft 5.7.1. Entwicklung Perspektiven Entwicklung ... rechnen Technologie. ... Neu Generationen durchgeführt... Computer, ...

  • Kantarowitsch

    Recht >> Historische Persönlichkeiten

    ... Zertifikat... die Hauptassistenten des Ersten Generationen-- V. A. Zalgallera... teilweise historisch Missverständnis ... modern Geschichte, ... zum Computer, ... KNAPP BIOLOGIE... Entwicklung rechnen Technologie. Er leitete das Design von neuen rechnen ... Perspektiven Wirtschaft...

  • Vorlesung Nr. 10. GESCHICHTE DER ENTWICKLUNG VON RECHENGERÄTEN

    1.1. ANFANGSPHASE DER ENTWICKLUNG VON EDV-AUSRÜSTUNG

    Die Notwendigkeit, die Datenverarbeitung, einschließlich Berechnungen, zu automatisieren, entstand vor sehr langer Zeit. Es wird angenommen, dass historisch gesehen das erste und dementsprechend einfachste Zählgerät der Abakus war, der zu den Handzählgeräten gehört.

    Das Brett wurde in Rillen unterteilt. Eine Rille entsprach Einsen, die andere Zehnern und so weiter. Wenn sich beim Zählen mehr als 10 Kieselsteine ​​in einer Rille angesammelt haben, werden diese entfernt und ein Kieselstein in der nächsten Kategorie hinzugefügt. In den Ländern des Fernen Ostens war das chinesische Analogon des Abakus weit verbreitet - Suan Pfanne(das Konto basierte nicht auf einer Zehn, sondern auf einer Fünf), in Russland - Abakus.

    Abakus

    Suan Pfanne. 1930 verlegt

    Konten. Stellen Sie 401.28 ein

    Der erste Versuch, der uns überliefert ist, das Problem zu lösen, eine Maschine zu schaffen, die mehrstellige ganze Zahlen addieren kann, war eine Skizze eines 13-Bit-Addierers, der von Leonardo da Vinci um 1500 entwickelt wurde.

    1642 erfand Blaise Pascal ein Gerät, das mechanisch Zahlen addiert. Nachdem er sich mit den Werken von Pascal vertraut gemacht und seine Rechenmaschine studiert hatte, verbesserte Gottfried Wilhelm Leibniz sie erheblich und entwarf 1673 eine Addiermaschine, die es ermöglichte mechanisch vier arithmetische Operationen ausführen. Seit dem 19. Jahrhundert sind Rechenmaschinen sehr weit verbreitet und verwendet worden. An ihnen wurden sogar sehr komplexe Berechnungen durchgeführt, beispielsweise Berechnungen von ballistischen Tabellen für Artilleriefeuer. Es gab einen besonderen Beruf - einen Schalter.

    Trotz eines deutlichen Fortschritts im Vergleich zum Abakus und ähnlichen Geräten zum manuellen Zählen sind diese mechanischen Rechengeräte erforderte ständiges menschliches Eingreifen im Zuge von Berechnungen. Eine Person, die Berechnungen an einem solchen Gerät durchführt, kontrolliert seine Arbeit selbst und bestimmt die Reihenfolge der durchgeführten Operationen.

    Der Traum der Erfinder der Computertechnologie war es, einen Zählautomaten zu schaffen, der ohne menschliches Zutun Berechnungen nach einem vorkompilierten Programm durchführt.

    In der ersten Hälfte des 19. Jahrhunderts versuchte der englische Mathematiker Charles Babbage, eine Universalität zu schaffen RechengerätAnalytische Engine, das Rechenoperationen ohne menschliches Zutun ausführen sollte. Die Analytical Engine basierte auf Prinzipien, die für die Computertechnologie grundlegend geworden sind, und stellte alle Hauptkomponenten bereit, die in einem modernen Computer verfügbar sind. Babbages Analytical Engine sollte aus folgenden Teilen bestehen:

    1. "Factory" - ein Gerät, in dem alle Operationen zur Verarbeitung aller Datentypen (ALU) durchgeführt werden.

    2. "Office" - ein Gerät, das die Organisation der Ausführung des Datenverarbeitungsprogramms und den koordinierten Betrieb aller Maschinenknoten während dieses Prozesses (CU) sicherstellt.

    3. „Warehouse“ ist ein Gerät zum Speichern von Anfangsdaten, Zwischenwerten und Datenverarbeitungsergebnissen (Speicher oder einfach Speicher).

    4. Geräte, die Daten in eine für einen Computer zugängliche Form umwandeln können (Codierung). Eingabegeräte.

    5. Geräte, die in der Lage sind, die Ergebnisse der Datenverarbeitung in eine für eine Person verständliche Form umzuwandeln. Ausgabegeräte.

    In der Endversion verfügte die Maschine über drei Lochkarten-Eingabegeräte, von denen das zu verarbeitende Programm und die zu verarbeitenden Daten gelesen wurden.

    Babbage war nicht in der Lage, die Arbeit fertigzustellen – sie stellte sich aufgrund der damaligen mechanischen Techniken als zu schwierig heraus. Er entwickelte jedoch die Grundideen, und 1943 der Amerikaner Howard Aiken, basierend auf der bereits im 20. Elektromechanische Relais- bei einem der Unternehmen des Unternehmens bauen konnte IBM eine solche Maschine namens "Mark-1". Dabei wurden mechanische Elemente (Rechenräder) zur Darstellung von Zahlen und elektromechanische Elemente zur Steuerung verwendet.

    1.2. DER BEGINN DER MODERNEN GESCHICHTE DER ELEKTRONISCHEN RECHENGERÄTE

    Eine echte Revolution in der Computertechnik fand im Zusammenhang mit der Verwendung elektronischer Geräte statt. Die Arbeiten an ihnen begannen Ende der 30er Jahre gleichzeitig in den USA, Deutschland, Großbritannien und der UdSSR. Zu diesem Zeitpunkt waren Vakuumröhren, die zur technischen Grundlage für Geräte zur Verarbeitung und Speicherung digitaler Informationen wurden, bereits weit verbreitet in funktechnischen Geräten.

    Einen großen Beitrag zur Theorie und Praxis der Entwicklung elektronischer Rechentechnologie in der Anfangsphase ihrer Entwicklung leistete einer der größten amerikanischen Mathematiker, John von Neumann. Die „von-Neumann-Prinzipien“ gingen für immer in die Wissenschaftsgeschichte ein. Die Kombination dieser Prinzipien führte zur klassischen (von Neumann) Computerarchitektur. Eines der wichtigsten Prinzipien – das Prinzip eines gespeicherten Programms – erfordert, dass das Programm im Speicher der Maschine genauso gespeichert wird, wie es darin gespeichert ist. Hintergrundinformation. Der erste Computer mit einem gespeicherten Programm ( EDSAC ) wurde 1949 in Großbritannien gebaut.

    In unserem Land wurde die Erstellung von Computern bis in die 70er Jahre fast vollständig unabhängig und unabhängig von der Außenwelt durchgeführt (und diese "Welt" selbst war fast vollständig von den Vereinigten Staaten abhängig). Tatsache ist, dass die elektronische Computertechnologie von Anfang an als streng geheimes strategisches Produkt galt und die UdSSR sie selbst entwickeln und produzieren musste. Allmählich wurde der Geheimhaltungsmodus weicher, aber selbst Ende der 80er Jahre konnte unser Land nur veraltete Computermodelle im Ausland kaufen (und die führenden Hersteller - die USA und Japan - entwickeln und produzieren immer noch die modernsten und leistungsfähigsten Computer im Geheimhaltungsmodus ).

    Der erste Haushaltscomputer - MESM ("kleine elektronische Rechenmaschine") - wurde 1951 unter der Leitung von Sergej Alexandrowitsch Lebedew, dem größten sowjetischen Entwickler von Computertechnologie, entwickelt. Der Rekord unter ihnen und für seine Zeit einer der besten der Welt war BESM-6 („große elektronische Rechenmaschine, 6. Modell“), die Mitte der 60er Jahre geschaffen wurde und lange Zeit die ehemalige Basismaschine in der Verteidigung und im Weltraum war Forschung, wissenschaftliche und technische Forschung in der UdSSR. Neben Maschinen der BESM-Serie wurden auch Computer anderer Serien hergestellt - Minsk, Ural, M-20, Mir und andere.

    Mit dem Beginn der Serienproduktion von Computern begannen sie, diese bedingt in Generationen aufzuteilen; die entsprechende Klassifizierung ist unten angegeben.

    1.3. COMPUTERGENERATIONEN

    In der Geschichte der Computertechnik gibt es eine Art Periodisierung von Computern durch Generationen. Sie basierte ursprünglich auf dem physikalisch-technologischen Prinzip: Je nach den in ihr verwendeten physikalischen Elementen oder der Technologie ihrer Herstellung wird eine Maschine der einen oder anderen Generation zugeordnet. Die zeitlichen Generationengrenzen verschwimmen, da gleichzeitig Autos ganz unterschiedlichen Niveaus produziert wurden. Wenn sie Daten angeben, die sich auf Generationen beziehen, meinen sie höchstwahrscheinlich den Zeitraum industrielle Produktion; Das Design wurde viel früher durchgeführt, und Sie können heute noch sehr exotische Geräte in Betrieb treffen.

    Zurzeit entscheidet nicht nur das physikalisch-technologische Prinzip über die Zugehörigkeit eines bestimmten Computers zu einer Generation. Der Softwarestand, die Geschwindigkeit und andere Faktoren sollten ebenfalls berücksichtigt werden, von denen die wichtigsten in der beigefügten Tabelle zusammengefasst sind. 4.1.

    Es versteht sich, dass die Einteilung von Computern nach Generationen sehr relativ ist. Die ersten Computer, die vor Anfang der 50er Jahre produziert wurden, waren Stückprodukte, an denen die Grundprinzipien ausgearbeitet wurden; es gibt keinen besonderen Grund, sie irgendeiner Generation zuzuordnen. Es gibt keine Einigkeit bei der Bestimmung der Zeichen der fünften Generation. Mitte der 80er Jahre glaubte man, dass das Hauptmerkmal dieser (zukünftigen) Generation sei vollständige Umsetzung der Grundsätze künstliche Intelligenz . Diese Aufgabe erwies sich als viel schwieriger als damals angenommen, und eine Reihe von Spezialisten legen die Messlatte für diese Phase niedriger (und behaupten sogar, dass sie bereits stattgefunden hat). In der Wissenschaftsgeschichte gibt es Analogien zu diesem Phänomen: zum Beispiel nach dem erfolgreichen Start des ersten Atomkraftwerke Mitte der 1950er Jahre kündigten Wissenschaftler an, dass der Start von um ein Vielfaches leistungsstärkeren, billigeren und umweltfreundlicheren thermonuklearen Stationen bevorstehen würde; allerdings unterschätzten sie die gigantischen Schwierigkeiten auf dem Weg, da es bis heute keine thermonuklearen Kraftwerke gibt.

    Gleichzeitig ist der Unterschied zwischen den Maschinen der vierten Generation extrem groß und daher in Tabelle. 4.1 Die entsprechende Spalte ist zweigeteilt: A und B. Die in der obersten Zeile angegebenen Daten entsprechen den ersten Produktionsjahren des Computers. Viele der in der Tabelle wiedergegebenen Konzepte werden in späteren Abschnitten des Lehrbuchs erörtert; hier beschränken wir uns auf einen kurzen Kommentar.

    Je jünger die Generation, desto klarer die Zuordnungsmerkmale. Computer der ersten, zweiten und dritten Generation sind heute bestenfalls museale Exponate.

    Welche Computer gehören zur ersten Generation?

    Zu erste Generation In der Regel handelt es sich dabei um Maschinen, die um die Wende der 50er Jahre entstanden sind. Ihre Systeme verwendet elektronische Lampen. Diese Computer waren riesige, unbequeme und zu teure Autos, die nur von großen Unternehmen und Regierungen erworben werden konnten. Lampen verbrauchten viel Strom und erzeugten viel Wärme.

    Der Befehlssatz war klein, das Schema der Arithmetik-Logik-Einheit und der Steuereinheit ist recht einfach, die Software fehlte praktisch. Die RAM- und Leistungswerte waren niedrig. Für I/O wurden Lochstreifen, Lochkarten, Magnetbänder und Druckgeräte verwendet.

    Die Geschwindigkeit beträgt etwa 10-20.000 Operationen pro Sekunde.

    Aber das ist nur die technische Seite. Eine andere Sache ist auch sehr wichtig - die Art und Weise, wie Computer verwendet werden, der Programmierstil, die Funktionen von Software.

    Programme für diese Maschinen wurden geschrieben in der Sprache einer bestimmten Maschine. Der Mathematiker, der das Programm kompilierte, setzte sich an das Steuerpult der Maschine, gab die Programme ein, debuggte sie und legte Rechenschaft darüber ab. Der Debugging-Prozess dauerte am längsten.

    Trotz der begrenzten Fähigkeiten ermöglichten diese Maschinen die Durchführung der komplexesten Berechnungen, die für die Wettervorhersage, die Lösung von Problemen der Kernenergie usw. erforderlich sind.

    Die Erfahrung mit Maschinen der ersten Generation hat gezeigt, dass zwischen der Zeit, die für die Entwicklung von Programmen aufgewendet wird, und der Zeit für das Rechnen eine große Lücke klafft.

    Haushaltsmaschinen der ersten Generation: MESM (kleine elektronische Rechenmaschine), BESM, Strela, Ural, M-20.

    Welche Computer gehören zur zweiten Generation?

    Zweite Generation Computertechnologie- Maschinen, die um 1955-65 entworfen wurden. Sie zeichnen sich durch ihre Verwendung als aus elektronische Röhren, so und diskrete Transistorlogikelemente. Ihr RAM wurde auf Magnetkernen aufgebaut. Zu dieser Zeit begann die Palette der verwendeten Input-Output-Geräte zu erweitern, High-Performance Geräte zum Arbeiten mit Magnetbändern, Magnettrommeln und die ersten Magnetplatten.

    Leistung- bis zu hunderttausend Operationen pro Sekunde, Speicherkapazität- bis zu mehreren zehntausend Wörtern.

    Die sogenannte Sprachen hohes Level , mit deren Hilfe die gesamte notwendige Abfolge von Rechenhandlungen beschrieben werden kann auf visuelle, leicht verständliche Weise.

    Ein in einer algorithmischen Sprache geschriebenes Programm ist für einen Computer unverständlich, der nur die Sprache seiner eigenen Anweisungen versteht. Daher werden spezielle Programme aufgerufen Übersetzer, das Programm von einer Hochsprache in Maschinensprache übersetzen.

    Zur Lösung verschiedener mathematischer Probleme ist eine breite Palette von Bibliotheksprogrammen erschienen. Erschienen Systeme überwachen, die den Sendemodus und die Programmausführung steuern. Aus Monitorsystemen entwickelten sich später moderne Betriebssysteme.

    Auf diese Weise, operationssystem ist eine Softwareerweiterung des Computersteuergeräts.

    Für einige Maschinen der zweiten Generation wurden bereits Betriebssysteme mit eingeschränkten Fähigkeiten erstellt.

    Maschinen der zweiten Generation wurden charakterisiert Software-Inkompatibilität, was es schwierig machte, große zu organisieren Informationssysteme. Daher erfolgte Mitte der 60er Jahre der Übergang zur Schaffung von Computern, die softwarekompatibel sind und auf einer mikroelektronischen technologischen Basis aufbauen.

    Was sind die Funktionen von Computern der dritten Generation?

    Maschinen der dritten Generation entstanden etwa nach den 60er Jahren. Da der Prozess der Entwicklung von Computertechnologie kontinuierlich war und viele Menschen aus verschiedenen Ländern beteiligt waren, die sich mit der Lösung verschiedener Probleme befassten, ist es schwierig und sinnlos festzustellen, wann die „Generation“ begann und endete. Das vielleicht wichtigste Kriterium zur Unterscheidung von Maschinen der zweiten und dritten Generation basiert auf dem Konzept der Architektur.

    Maschinen der dritten Generation sind Maschinenfamilien mit einer gemeinsamen Architektur, d. h. softwarekompatibel. Als Elementbasis verwenden sie integrierte Schaltkreise, die auch als Mikroschaltkreise bezeichnet werden.

    Maschinen der dritten Generation verfügen über fortschrittliche Betriebssysteme. Sie haben Multi-Programmierfähigkeiten, d.h. gleichzeitige Ausführung mehrerer Programme. Viele der Aufgaben der Verwaltung von Speicher, Geräten und Ressourcen wurden vom Betriebssystem oder direkt von der Maschine selbst übernommen.

    Beispiele für Maschinen der dritten Generation sind die IBM-360-, IBM-370-Familien, ES-Computer (Unified Computer System), SM-Computer (Family of Small Computers) usw.

    Die Geschwindigkeit der Maschinen innerhalb der Familie variiert von mehreren Zehntausend bis zu Millionen von Operationen pro Sekunde. Die Kapazität des RAM erreicht mehrere hunderttausend Wörter.

    Was ist typisch für Autos der vierten Generation?

    vierte Generation ist die aktuelle Generation der Computertechnologie, die nach 1970 entwickelt wurde.

    Konzeptionell ist das wichtigste Kriterium, durch das sich diese Computer von Maschinen der dritten Generation unterscheiden lassen, dass die Maschinen der vierten Generation dafür konzipiert wurden effektiver Einsatz moderne Hochsprachen und Vereinfachung des Programmierprozesses für den Endanwender.

    Hardwareseitig zeichnen sie sich durch eine weite Verbreitung aus integrierte Schaltkreise als Elementbasis sowie die Verfügbarkeit von Hochgeschwindigkeits-Direktzugriffsspeichergeräten mit einer Kapazität von mehreren zehn Megabyte.

    Vom Aufbau her sind die Maschinen dieser Generation Multiprozessor- und Multimaschinenkomplexe, Arbeiten an gemeinsam genutztem Speicher und gemeinsamem Feld externer Geräte. Die Geschwindigkeit beträgt bis zu mehreren zehn Millionen Operationen pro Sekunde, die RAM-Kapazität beträgt etwa 1 - 64 MB.

    Sie zeichnen sich aus durch:

    • die Verwendung von Personalcomputern;
    • Telekommunikationsdatenverarbeitung;
    • Computernetzwerke;
    • weit verbreitete Nutzung von Datenbankverwaltungssystemen;
    • Elemente des intelligenten Verhaltens von Datenverarbeitungssystemen und -geräten.

    Was sollten die Computer der fünften Generation sein?

    Die Entwicklung nachfolgender Computergenerationen basiert auf große integrierte Schaltungen mit erhöhtem Integrationsgrad, mit optoelektronischen Prinzipien ( Laser,Holographie).

    Auch die Entwicklung ist in vollem Gange „Intellektualisierung“ Computer, wodurch die Barriere zwischen Mensch und Computer beseitigt wird. Computer werden in der Lage sein, Informationen aus handgeschriebenem oder gedrucktem Text, aus Formularen, aus einer menschlichen Stimme zu erkennen, den Benutzer an der Stimme zu erkennen und von einer Sprache in eine andere zu übersetzen.

    Bei Computern der fünften Generation wird es einen qualitativen Übergang von der Verarbeitung geben Daten zur Verarbeitung Wissen.

    Die Architektur von Computern der zukünftigen Generation wird zwei Hauptblöcke enthalten. Einer von ihnen ist traditionell Computer. Aber jetzt hat es keinen Kontakt mehr zum Benutzer. Diese Verbindung wird durch einen Block ausgeführt, der als Begriff bezeichnet wird "intelligente Schnittstelle". Seine Aufgabe besteht darin, den in natürlicher Sprache geschriebenen Text, der die Problembedingung enthält, zu verstehen und ihn in ein funktionierendes Programm für einen Computer zu übersetzen.

    Das Problem der Dezentralisierung der Datenverarbeitung wird auch mit Hilfe von Computernetzwerken gelöst, sowohl großen, weit voneinander entfernten als auch Miniaturcomputern, die sich auf einem einzigen Halbleiterchip befinden.

    Generationen von Computern

    Index

    Generationen von Computern

    Zuerst

    1951-1954

    Zweite

    1958-1960

    Dritte

    1965-1966

    Vierte

    Fünfte

    1976-1979

    1985-?

    Basis des Prozessorelements

    Elektronisch

    Lampen

    Transistoren

    Integrierte Schaltkreise

    (IST)

    Große ICs (LSI)

    SverbigIS

    (VLSI)

    Optoelektronik

    Kryoelektronik

    RAM-Element-Basis

    Kathodenstrahlröhren

    Ferritkerne

    Ferrit

    Kerne

    BIS

    VLSI

    VLSI

    Maximale RAM-Kapazität, Bytes

    10 2

    10 1

    10 4

    10 5

    10 7

    10 8 (?)

    Maximale Performance Prozessor (op/s)

    10 4

    10 6

    10 7

    10 8

    10 9

    Multiprocessing

    10 12 ,

    Multiprocessing

    Programmiersprachen

    Maschinensprache

    Monteur

    Höhere prozedurale Sprachen (HLL)

    Neu

    prozedurales HLL

    Nicht prozedurales HLL

    Neue nicht prozedurale NEDs

    Kommunikationsmittel zwischen dem Benutzer und dem Computer

    Bedienfeld und Lochkarten

    Lochkarten und Lochstreifen

    Alphanumerisches Terminal

    Monochromes Grafikdisplay, Tastatur

    Farb- + Grafikdisplay, Tastatur, Maus usw.

    DIE KLINGEL

    Es gibt diejenigen, die diese Nachricht vor Ihnen gelesen haben.
    Abonnieren Sie, um die neuesten Artikel zu erhalten.
    Email
    Name
    Familien-oder Nachname
    Wie möchten Sie The Bell lesen?
    Kein Spam