Matériel

Génération d’ordinateurs: origine, histoire et évolution des ordinateurs

Le monde de l’informatique a commencé il y a près d’un siècle . Tout a commencé spécifiquement en 1939, même si, comme il est évident et comme toujours, les idées liées à l’informatique viennent de bien avant, du désir de numériser les fonctions des appareils et de pouvoir, avec lui, effectuer des opérations de manière plus simple. C’est ainsi que commence ce que l’on appelle la «génération d’ordinateurs» .

C’est un concept qui englobe, comme on dit, pratiquement un siècle d’étude, d’invention et de développement de toutes sortes de concepts informatiques (et, avec eux, de machines), d’abord analogiques, puis hybrides et enfin numériques.

Cela comprend, pour ainsi dire, un total de six volumes dans lesquels l’histoire de l’informatique est divisée à ce jour et qui sont parfaitement différenciés par un ou plusieurs éléments qui ont défini ces générations. Nous les passerons tous en revue pour savoir quelle a été l’histoire de la génération d’ordinateurs.

Origine et histoire de la génération informatique

Nous commencerons par indiquer qu’en parlant de générations d’ordinateurs, nous ne le faisons pas uniquement pour nous référer à ce que nous entendons aujourd’hui par notre ordinateur de bureau ou portable. Mais nous irons beaucoup plus loin, avant son apparition .

Première génération (1940-1958)

Il se produit de l’année 1940 à 1958 , en considérant toujours les moments de lancements ou de grands événements et non les moments d’étude précédents. Qui ont souvent été délibérément cachés pour que le concours ne sache pas sur quoi on travaillait.

Évidemment, le jalon qui nous fait parler d’une première génération d’ordinateurs est le passage de la réalisation manuelle ou semi-manuelle des calculs à la réalisation de manière numérisée et automatique .

De plus, nous avons d’autres aspects caractéristiques tels que:

  • L’ immense taille de ces machines informatiques, de plusieurs mètres carrés (voire cubiques, car elles étaient également considérablement grandes).
  • Sa construction avec des systèmes de soupapes à vide pour effectuer le remplacement des pièces mécaniques en mouvement .
  • L’utilisation du soi-disant » langage machine «.
  • Ces machines avaient un objectif précis , étant exigées essentiellement par les académies et les centres militaires.

Neumann, Mauchly et Aiken , entre autres, nous laissent des joyaux comme le Z1, le premier combiné, le Colossus, créé pour communiquer pendant la Seconde Guerre mondiale, l’ENIAC, qui comprenait le CPU tel que nous le connaissons. Ou le MARK I, les principales machines informatiques de ces années.

Deuxième génération (1958-1964)

Celui-ci, très petit, s’étend de 1958 à 1964 . Ce qui le définit, c’est l’ utilisation de transistors dans les ordinateurs pour finir par remplacer les tubes à vide, qui occupaient environ 200 fois plus.

  • Comme vous pouvez l’imaginer, cela signifierait une grande réduction de la taille des machines . Ils consomment également moins et produisent moins de chaleur.
  • Tout cela signifie que l’on peut déjà parler de la naissance du miniordinateur .
  • Ces équipes commencent à être utilisées dans plus de secteurs , en particulier dans la banque et la comptabilité et la logistique d’entrepôt en général.
  • On voit que la microprogrammation se développe en 1959 .
  • Ils commencent également à utiliser des langages plus complexes, appelés «haut niveau» .
  • Le marketing COBOL était très connu.

Des personnalités inoubliables de cette étape comme l’ Amdal , plusieurs fois récompensé , qui était en charge de la conception de la série IBM 360, un ensemble de machines avec le même logiciel, mais des spécifications différentes qui permettaient à l’utilisateur de trouver la plus adaptée à ses besoins. Bardeen, Brattain et Shockley , qui ont travaillé à l’invention du transistor, et M. Wilkes , qui a développé la microprogrammation.

Quant aux ordinateurs qui se démarquent ces dernières années, nous avons l’ IBM 1401 , qui est considérée comme la machine la plus performante de toute l’histoire (vendant 12000 unités), le PDP-1 , conçu pour être utilisé par des ouvriers et non par des mathématiciens. et les ingénieurs, l’IBM Strench , qui a été le premier supercalculateur à inclure un système de transistors complet, ou la série IBM 360 déjà mentionnée .

Troisième génération (1965-1971)

Dans ce cas, ce qui marque la troisième génération, couvrant les années 1965 à 1971 , d’ordinateurs est l’ utilisation de circuits à puce en silicium pour effectuer le traitement de l’information, englobant les transistors précédents et d’autres éléments.

  • Ainsi, un traitement plus performant a été obtenu dans moins d’espace et avec moins d’éléments indépendants, ce qui favorise la réduction des incidents.
  • Il est très remarquable que les ordinateurs soient utilisés «régulièrement» à des fins commerciales . On peut dire qu’au cours de ces années, les appareils deviennent plus «accessibles» , étant connus dans le monde entier et ayant des caractéristiques qui le rendent utile pour un public plus large.
  • Ils améliorent la fiabilité et sont plus flexibles.
  • Le télétraitement et la multiprogrammation deviennent monnaie courante .
  • De plus, les gens commencent à parler de l’ordinateur à un niveau personnel.

La série IBM 360, déjà importante à l’étape précédente, serait la première à inclure des circuits intégrés. Le PDP-8 se démarque également, un mini-ordinateur à usage social dont un demi-million d’exemplaires ont été vendus et qui fonctionnait avec trois langages de programmation. Le PDP-11, rentable pendant une décennie entière, a été le premier à disposer d’un seul bus asynchrone sur lequel connecter toutes ses parties.

Des personnalités telles que Kilby , inventeur et développeur du circuit intégré, et Noyce , qui a résolu ses problèmes initiaux, Ted Hoff , qui a inventé le microprocesseur, d’une importance particulière des années plus tard, et Kurtz et Kenemy , qui ont contribué à rendre tout cela possible. ils ont développé le langage BASIC universel.

Quatrième génération (1971-1980)

Nous avançons vers 1980 dans un contexte où la grande étape est le remplacement des processeurs conventionnels par des microprocesseurs .

  • Cela suppose une nouvelle miniaturisation de nombreuses parties de l’ordinateur.
  • Il y a aussi une multiplication en puissance, capacité et flexibilité .
  • Au point d’apparaître et de vendre des ordinateurs personnels , ce qui s’est passé en 1977.

D’autres aspects à souligner de la décennie sont l’apparition de l’interface graphique, le coin du terme «micro-ordinateur», l’ interconnexion en réseaux pour exploiter la part des ressources et le développement des capacités des supercalculateurs.

Pour y parvenir, des experts tels que Ted Hoff ont travaillé dur, qui, comme nous l’avons déjà avancé, était le cerveau qui a développé le concept de microprocesseur. Kemeny et Kurtz , qui ont continué à être des leaders en raison de l’utilisation croissante et plus réussie de leur langage de programmation. La firme Intel, qui a lancé le premier microprocesseur de l’histoire, Bill Gates , visage d’Altair Basic, le célèbre et révolutionnaire interprète de BASIC et Wozniak , un enfant prodige capable d’inventer toutes sortes d’appareils et de les améliorer jusqu’à ce qu’ils deviennent pratiquement d’autres.

Des équipes inoubliables apparaissent dans les années 70. Le premier est Cray-1 , le premier supercalculateur à utiliser un microprocesseur. Le PDP-11 , déjà révolutionnaire dans le passé, a continué à faire parler les gens en étant si bons qu’au lieu de concevoir une autre équipe pour offrir l’actualité du secteur, ils ont travaillé dessus pour les inclure, le maintenir sur le marché, et avec beaucoup de succès.

L’Altair 8800 est l’ordinateur le plus vendu avec un microprocesseur (peut-être, en partie, parce qu’il est vendu avec une souris et un clavier), dans ce cas, un Intel 8080 16 bits. La famille Apple II révolutionne le marché en se lançant comme un appareil utile pour l’utilisateur à domicile, y compris les avantages qui viennent avec la feuille de calcul; Fait intéressant, la marque a commencé à être très abordable.

Cinquième génération (1981-2000)

Il s’agit sans aucun doute d’une étrange génération d’ordinateurs. C’est parce qu’il est décrit de deux manières très différentes. D’une part, on parle du moment où le Japon entreprend un projet, un échec total, sur des améliorations en informatique liées à l’intelligence artificielle .

Cela a été réalisé à partir de l’année 1982 et a duré plus d’une décennie, jusqu’à ce qu’il soit jugé impossible de continuer compte tenu du coût millionnaire en ressources et des résultats qui, au moins, étaient négatifs.

Cependant, ce projet doit recevoir un grand applaudissement car, en fait et comme vous le pensez peut-être en ce moment, les Japonais ont mis l’œil exactement sur le point où il semble que la technologie sera basée au des siècles.

D’un autre côté, on peut dire qu’en dehors de ce projet, ce qui définit cette longue période ou plutôt ce qui nous fait considérer comme différente, c’est le développement du portable .

Bien sûr, depuis tant d’années et à une époque aussi avancée, beaucoup plus a été accompli en termes d’informatique et de technologie de l’information en général.

Voici les étapes franchies au cours de ces merveilleuses années:

  • La vitesse et la quantité de mémoire disponible sur les ordinateurs augmentent de façon exponentielle .
  • Les langues sont traduites immédiatement .
  • Un certain nombre de ports commencent à être introduits dans les ordinateurs et, avec cela, les possibilités sont multipliées et une plus grande personnalisation de ceux ci est autorisée . Les plus populaires et les plus importants sont sans aucun doute les périphériques de stockage.
  • Les ordinateurs peuvent à nouveau être conçus encore plus petits.
  • Les logiciels se multiplient , apparaissent déjà de tous types et de tous niveaux de complexité.
  • Tout cela fait revenir la mode du clonage d’équipes célèbres.
  • Le contenu multimédia se démarque des autres.

Les inventions du moment sont le micro-ordinateur portable Osborne 1, le premier à être présenté lors d’un salon, l’Epson HX.20.

Un autre ordinateur portable beaucoup plus fonctionnel, avec double processeur et stockage de microcassettes , le disque flexible, mince et amovible, prêt à stocker des informations et à pouvoir les transporter confortablement avec nous et Windows 95, le premier système d’exploitation Windows et, sans aucun doute, le plus connu dans toute la planète.

Sixième génération (2000 – à ce jour)

«MISE À JOUR ✅ Voulez-vous savoir quelle est l’origine, l’histoire et l’évolution des ordinateurs et de leurs générations? ⭐ ENTREZ ICI ⭐ et découvrez les types ✅ FACILE et RAPIDE ✅»

On est dans ce qu’on appelle la sixième génération d’ordinateurs, une étape dans laquelle il n’y a pas de caractéristique générale mais on trouve beaucoup de tout en termes de quantité et de qualité.

Ce que nous trouvons comme un point tournant pour commencer la scène est la connectivité sans fil qui nous permet d’être connectés à des réseaux et à d’autres appareils sans utiliser de câbles.

Nous soulignerons des points tels que:

  • Le développement d’autres appareils intelligents , d’abord les téléphones et plus tard de nombreux autres tels que les téléviseurs, les montres et même les appareils ménagers.
  • Une offre brutale d’appareils pour tous les goûts et tous les besoins.
  • Internet comme élément commun et, en fait, nécessaire dans la vie quotidienne de chacun.
  • Rendre les services cloud accessibles à tous les utilisateurs.
  • La vulgarisation du contenu en streaming .
  • Le commerce en ligne se développe également considérablement pour devenir, en fait, un standard.
  • Un saut vertigineux en matière d’ intelligence artificielle .
  • Utilisation d’architectures vectorielles et parallèles pour les ordinateurs.
  • Le volume de stockage des mémoires internes et externes se démarque et devient important.

Les inventions et événements de ce millénaire sont le WiFi, la fibre optique, la capacité des unités de stockage, les disques durs SSD, les smartphones, les systèmes d’exploitation mobiles, les ordinateurs portables beaucoup plus petits et ceux déjà connus sous le nom de «notebooks de bureau» pour leurs incroyables fonctionnalités, identiques à celles des PC.

Que nous réserve l’avenir de l’informatique?

L’ère de la transformation numérique a commencé et les premiers pavés sont posés pour dessiner un chemin assez long, mais qui nous mène pleinement vers un futur où l’informatique prendra la première place et ce marché sera le plus puissant du monde .

Vous vous demandez sûrement comment ces changements affecteront chacun d’eux. Eh bien, nous allons analyser chaque proposition et l’implication qu’elle aura dans nos vies.

Analyse augmentée (Big Data)

Les supercalculateurs travaillent avec beaucoup de données et ne font pas toujours ce possible d’ explorer toutes les possibilités . Par conséquent, les analystes de données ne travaillent pas toujours sur toutes les hypothèses.

On considère que de nombreuses options sont perdues et que beaucoup d’informations d’un grand intérêt pour nous sont évitées. Pour cette raison, une analyse augmentée apparaît, qui cherche à rechercher un nouveau point de compréhension des données . De plus, étant une machine qui s’en charge, elle élimine les choix personnels pour revoir les modèles les plus cachés.

Il a été conclu que d’ici 2020, plus de 40% des tâches d’analyse des données auront été automatisées, de sorte que la gestion humaine des données passera à un autre niveau.

Intelligence artificielle

Les nouvelles solutions créées pour les entreprises et l’industrie auront une base d’intelligence artificielle. L’analyse des données, les tests, la génération de code dans la programmation et le processus de développement de programmes seront automatisés . De cette façon, il ne sera pas si nécessaire d’être un spécialiste de la programmation pour travailler dans cette branche.

Les solutions générées à partir de l’intelligence artificielle seront de plus en plus rapides, sans erreurs ni besoin de tests . En fait, le temps sera une marchandise beaucoup plus précieuse qu’aujourd’hui, ainsi que plus facile à obtenir, quelque chose de paradoxal.

Autonomie des choses

L’intelligence artificielle jouera un rôle très important à l’avenir, non seulement au niveau de l’entreprise mais aussi individuellement. En effet, les robots seront programmés de manière à pouvoir effectuer des tâches simples , imitant les actions effectuées par les humains. Cette technologie sera de plus en plus sophistiquée, elle nécessitera donc des applications, des objets IoT et des services qui peuvent aider à automatiser les processus humains.

Changements dans le réseau Facebook

Le réseau cessera d’avoir autant de publicités pour se financer et commencera à promouvoir la crypto-monnaie. Pour continuer à attirer l’attention de leurs abonnés, ils continueront à développer leur propre contenu, à acheter des droits de diffusion de contenu et à déployer des projets basés sur la blockchain ; La puissance de la plate-forme sociale et sa capacité à virer là où elle vous convient est un peu effrayante.

Blockchain

La technologie Blockchain permet aux entreprises de tracer une transaction, afin qu’elles puissent également travailler avec des parties non approuvées sans nécessiter l’intervention d’une banque.

La blockchain réduit les coûts et les délais de gestion des transactions , améliorant ainsi la transmission des espèces. On estime que la blockchain déplacera environ 3,1 billions de dollars en une décennie.

Apparition des jumeaux numériques

Un jumeau numérique consiste en une représentation numérique d’un objet qui existe ou existera dans la vie réelle. Par conséquent, ils peuvent être utilisés pour représenter certains modèles à une autre échelle. Cette idée remonte à la représentation des dessins, assistée d’un ordinateur.

Les jumeaux numériques sont beaucoup plus robustes et sont principalement utilisés pour répondre à des questions telles que «et si …? » Ce n’est qu’ainsi qu’il sera possible d’aider à résoudre les erreurs coûteuses qui se produisent aujourd’hui dans la vie quotidienne. Les jumeaux seront les testeurs officiels.

Emergence des technologies immersives

Ils vont changer les multiples façons dont un utilisateur peut interagir avec le monde . La réalité augmentée (AR), la réalité virtuelle (VR) et la réalité mixte (MR) ne seront plus utilisées; 70% des entreprises proposeront ce type de technologie aux consommateurs.

Grâce à eux, les plateformes de conversation changeront, notamment les chatbots, les assistants personnels et les canaux sensoriels capables de détecter les émotions en fonction des expressions faciales et du ton de la voix.

Plus grand nombre d’espaces intelligents

Un espace intelligent est une zone physique ou numérique qui est délimitée et qui permet aux humains et à la technologie d’interagir de manière positive et de manière connectée et coordonnée .

Le concept de villes intelligentes émergera, créant des cadres intelligents d’écosystèmes urbains. Le concept de villes intelligentes est supposé et un moyen est recherché pour améliorer ces espaces dans la collaboration sociale et communautaire.

L’informatique quantique

Il sera utilisé pour améliorer les résultats liés aux calculs numériques ainsi qu’à l’intelligence artificielle . Des services plus spécifiques comme ceux-ci nécessitent, bien entendu, une conception beaucoup plus exclusive, nécessitant un calcul avec des quanta.

Si vous avez des questions, laissez-les dans les commentaires, nous vous répondrons dans les plus brefs délais, et cela sera également d’une grande aide pour plus de membres de la communauté. Je vous remercie!

Articles Similaires

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba