词序
更多
查询
词典释义:
computer
时间: 2023-09-17 05:37:32
computer

computer vt(计算机)计算 m. . 计算机

近义、反义、派生词
近义词:
ordinateur
联想词
software 软设备, 软件; network ; system 系统; phone 电话; hardware 硬件; basic 基本的; business 商业, 意; ordinateur 计算机; informatique 信息科学;
当代法汉科技词典

computer vt(计算机)计算 m. . 计算机

短语搭配

tomographe computé (computer Tomograph, CT)电子计算机X线断层扫描器, CT机

tomographie computée电子计算机断层扫描, CT法

computer to plate直接制版机

PC (personal computer)电脑, 微电脑

Small Computer System Interface小型计算机系统接口

N. C. (network computer)上网电脑

Personal Computer Budget-Aid (outil micro-informatique d'aide à la gestion)个人计算机预算协助

原声例句

Le P.-D.G. de Neuronic Computer France s'assit, soupira, but et essuya son front ridé d'un air las.

法国神经元电脑公司的总经理坐下来,叹了一口气,喝了一口果汁,擦了一下满是皱纹的额头,神情疲惫。

[法语综合教程4]

Neuronic Computer France, la société qui fabrique les OMNIA 3.

我们公司生产OMNIA 3。

[法语综合教程4]

Par exemple, je ne sais pas, je ne peux pas dire : " computer" , non ! Je dois dire : " computer" , d'accord ? Je ne peux pas dire : " holiday" , je dois dire : " holiday" . Alors ensuite, l'intonation.

[Français avec Pierre - 语音篇]

Il y a des entreprises qui savent faire ça et qui sont allées voir les collectivités locales, les mairies pour vendre ces logiciels de computer vision.

[La Question du jour]

Ce « computer labs on wheels » ou « laboratoire sur roues » en français sillonne le nord du Libéria depuis novembre et a déjà formé un millier de jeunes.

[TV5每周精选(音频版)]

例句库

2000 certification du système de qualité, le Ministère de l'Industrie de l'information, National Computer Information System Integration tertiaire certificat de qualification.

2000质量体系认证证书;国家信息产业部计算机信息系统集成三级资质证书。

Ningbo Computer Power Equipment Co., Ltd a été fondée en 1998, Ningbo est le plus important du matériel informatique et produits numériques, 8 ans accumulation de la production et de services.

宁波力达电脑设备有限公司成立于1998年,是宁波地区最大的电脑设备及数码产品供应商,集8年的生产和服务积淀.

En 2003, la société d'exploitation a été un fonctionnaire de sept agents, Lenovo, Great Wall Computer, et ainsi de suite.

公司于2003年正式运营曾代理七喜、联想、长城等电脑

Qiyang Hunan Computer Technology Co., Ltd a été créé en 2001, le soleil, en Juin 2005 a officiellement enregistré en tant que société à responsabilité limitée.

湖南祁阳阳光电脑科技有限公司成立于2001年,于2005年6月正式注册为有限责任公司。

Xiao Jie, Shanghai Computer Technology Co., Ltd est un professionnel engagé dans le serveur de stockage et de ventes entreprises high-tech.

上海晓捷计算机科技有限公司是一家专业从事服务器与存储设备销售的高科技企业。

Shenzhen City Bureau de la rentabilité Computer Co., Ltd est un agent, la reprise de la production, la vente et des services d'entretien, matériel de bureau et des entreprises intégrées.

深圳市科创利电脑有限公司是一家专业代理、回收生产、销售及维修服务办公设备的综合性公司。

High Tech Computer Shenzhen Co., Ltd est un produit numérique de développement, de production, les ventes dans l'une des entreprises high-tech.

深圳市宏达电脑有限公司是一家集数码产品开发,生产,销售于一体的高科技企业。

Computer systems) et ISO9001 2001 du système de qualité.

电脑系统)和ISO9001 2001质量体系。

Grampian Computer Technology Co., Ltd est une société exploitant une réaction en chaîne.

嘉林电脑科技有限公司是一家连锁经营公司。

Elitegroup Computer Systems a été fondée en 2002, initialement géré par le service d'accès Internet.

精英电脑公司成立于2002年,原来是以经营互联网上网服务为主。

Computer Supplies Company de bonne foi à la crédibilité des principaux toujours en premier lieu.

电脑耗材本公司本着以诚信为主永远把信誉放在第一位。

L'harmonie, l'amitié est l'esprit d'équipe de l'Université du Zhejiang Xeon Computer Services Ltd survivre à la fondamentale.

和谐、友好相处的团队精神是浙大至强电脑服务有限公司生存的根本。

Wei Yi, Shenzhen Computer Technology Co., Ltd a été fondée en 2003, un total de 100 employés.

深圳市易威计算机技术有限公司成立于2003年,共有员工100人。

Fiber Computer Technology Co., Ltd a été fondée en 1984, fonctionne depuis plus de 20 ans d'histoire.

光纤电脑科技股份有限公司成立于1984年,至今已有超过20年经营历史。

High Tech Computer Corporation, fondée en 2000, couvre une superficie de plus de 20.000 mètres carrés.

宏达公司成立于2000年,占地面积二万多平方米。

Shenzhen, la cellule spéciale Lang Computer Technology Co., Ltd est une entreprise de haute technologie par actions entreprises.

深圳市格郎特计算机技术有限公司是一家高科技股份制企业。

Hengshui World Wide Computer a été fondée en Février 2001.

衡水万维电脑成立于2001年2月。

Voyelle Computer Technology Co., Ltd, en 2004, la mise en place de l'hiver, printemps officiellement en 2005 sur la bonne voie.

元音电脑科技有限公司,2004年冬季成立,2005年的春天正式步入正轨。

Soochow Computer Information Technology Co., Ltd est le prédécesseur de l'Université de Suzhou en informatique Limited.

东吴计算机信息技术有限公司前身是苏州大学计算机信息有限公司。

Janus Computer Shenzhen Co., Ltd broderie, est un moyennes entreprises à Hong Kong.

深圳骏利电脑刺绣有限公司,是一间港资的中型企业。

法语百科

Un ordinateur est une machine électronique qui fonctionne par la lecture séquentielle d'un ensemble d'instructions, organisées en programmes, qui lui font exécuter des opérations logiques et arithmétiques sur des chiffres binaires. Dès sa mise sous tension, un ordinateur exécute, l'une après l'autre, des instructions qui lui font lire, manipuler, puis réécrire un ensemble de données. Des tests et des sauts conditionnels permettent de changer d'instruction suivante, et donc d'agir différemment en fonction des données ou des nécessités du moment.

Les données à manipuler sont obtenues, soit par la lecture de mémoires, soit par la lecture de composants d'interface (périphériques) qui représentent des données physiques extérieures en valeurs binaires (déplacement d'une souris, touche appuyée sur un clavier, température, vitesse, compression…). Une fois utilisées, ou manipulées, les données sont réécrites, soit dans des mémoires, soit dans des composants qui peuvent transformer une valeur binaire en une action physique (écriture sur une imprimante ou sur un moniteur, accélération ou freinage d'un véhicule, changement de température d'un four…). L'ordinateur peut aussi répondre à des interruptions qui lui permettent d’exécuter des programmes de réponses spécifiques à chacune, puis de reprendre l’exécution séquentielle du programme interrompu.

De 1834 à 1837, Charles Babbage conçut une machine à calculer programmable en associant les inventions de Blaise Pascal et de Jacquard, commandant, avec des instructions écrites sur des cartes perforées, un des descendants de la première machine qui assista l'intelligence humaine : la Pascaline. C'est durant cette période qu'il imagina la plupart des caractéristiques de l'ordinateur moderne. Babbage passera le reste de sa vie à essayer de construire sa machine analytique, mais sans succès. Beaucoup de personnes s’y intéressèrent et essayèrent de développer cette machine, mais c'est cent ans plus tard, en 1937, qu'IBM inaugurera l'ère de l'informatique en commençant le développement de l'ASCC/Mark I, une machine basée sur l’architecture de Babbage qui, une fois réalisée, sera considérée comme l'achèvement de son rêve.

La technique actuelle des ordinateurs date du milieu du xx siècle. Ils peuvent être classés selon plusieurs critères tel que le domaine d'application, la taille ou l'architecture.

Éclaté d'un ordinateur personnel : 1 : Écran ; 2 : Carte mère ; 3 : Processeur ; 4 : Parallèle ATA ; 5 : Mémoire vive (RAM) ; 6 : Cartes d'extension ; 7 : Alimentation électrique ; 8 : Lecteur de disque optique ; 9 : Disque dur, disque électronique ; 10 : Clavier ; 11 : Souris.

Étymologie

Le mot « ordinateur » fut introduit par IBM France en 1955 après que François Girard, alors responsable du service publicité de l'entreprise, eut l'idée de consulter son ancien professeur de lettres à Paris, Jacques Perret, lui demandant de proposer un « nom français pour sa nouvelle machine électronique destinée au traitement de l'information (IBM 650), en évitant d'utiliser la traduction littérale du mot anglais computer (« calculateur » ou « calculatrice »), qui était à cette époque plutôt réservé aux machines scientifiques ».

En 1911, une description de la machine analytique de Babbage utilisait le mot ordonnateur pour en décrire son organe moteur: « Pour aller prendre et reporter les nombres… et pour les soumettre à l’opération demandée, il faut qu'il y ait dans la machine un organe spécial et variable : c'est l'ordonnateur. Cet ordonnateur est constitué simplement par des feuilles de carton ajourées, analogues à celle des métiers Jacquard… »

Le professeur proposa un mot composé centré autour d'ordonnateur : celui qui met en ordre et qui avait aussi la notion d'ordre ecclésiastique dans l'église catholique (ordinant). Il suggéra plus précisément « ordinatrice électronique », le féminin ayant pu permettre, selon lui, de mieux distinguer l'usage religieux de l'usage comptable du mot.

« IBM France retint le mot ordinateur et chercha au début à protéger ce nom comme une marque. Mais le mot fut facilement et rapidement adopté par les utilisateurs et IBM France décida au bout de quelques mois de le laisser dans le domaine public. »

Histoire

L'image la plus célèbre du début de l'histoire de l'informatique Ce portrait de Jacquard, tissé en soie sur un métier Jacquard, demandait la lecture de 24 000 cartes de plus de 1 000 trous chacune (1839). Il n'était produit que sur demande. Charles Babbage l'utilisa souvent pour expliquer ses idées sur ce que fut la première esquisse d'un ordinateur, sa machine analytique, qui utilisait des cartes Jacquard pour ses commandes et ses données.

Première invention

Selon Bernard Cohen, auteur de l'ouvrage intitulé Howard Aiken: Portrait of a computer pioneer - Qui a inventé l'ordinateur, est-ce-que le Mark I était un ordinateur, « les historiens des technologies et les informaticiens intéressés en histoire, ont adopté un certain nombre de caractéristiques qui définissent un ordinateur. C'est ainsi que la question de savoir si le Mark I était ou n'était pas un ordinateur ne dépend pas d'une opinion majoritaire mais plutôt de la définition utilisée. Souvent, quelques-unes des caractéristiques fondamentales nécessaires pour être considérées comme un ordinateur sont :

qu'il soit électronique ;

numérique (au lieu d'analogique) ;

qu'il soit programmable ;

qu'il puisse exécuter les quatre opérations élémentaires (addition, soustraction, multiplication, division) et -souvent- qu'il puisse extraire une racine carrée ou adresser une table qui en contient ;

qu'il puisse exécuter des programmes enregistrés en mémoire.

Une machine n'est généralement pas classifiée comme un ordinateur à moins qu'elle n'ait des caractéristiques supplémentaires comme, par exemple, la possibilité d’exécuter des opérations spécifiques automatiquement et ceci d'une façon contrôlée et dans une séquence prédéterminée. Pour d'autres historiens et informaticiens, il faut aussi que la machine ait été vraiment construite et qu'elle ait été complètement opérationnelle. »

Concept initial et réalisation

Sans une définition stricte il est impossible d'identifier la machine qui devint le premier ordinateur. Mais il faut remarquer certaines des étapes fondamentales qui vont du développement du concept de la machine à calculer programmable par Charles Babbage en 1837 au premier développement de l'ère de l'informatique cent ans plus tard : Charles Babbage commença à développer une machine à calculer programmable, sa machine analytique, en 1834 ; au début il pensait la programmer grâce à un cylindre à picots comme dans les automates de Vaucanson, mais, deux ans plus tard, il remplaça ce cylindre par la lecture de cartes Jacquard, et ainsi créa une machine à calculer infiniment programmable. Quelques années plus tard, en 1843, Ada Lovelace écrivit le premier programme informatique, un programme pour calculer les nombres de Bernoulli, pour la machine analytique, bien qu'elle ne sera jamais construite.

Henry Babbage construisit une version extrêmement simplifiée de l'unité centrale de la machine analytique de son père et l'utilisa, en 1906, pour calculer et imprimer automatiquement les quarante premiers multiples du nombre Pi avec une précision de vingt-neuf décimales, démontrant sans ambiguïté que le principe de la machine analytique était viable et réalisable. Mais sa plus grande contribution fut de donner un ensemble mécanique de démonstration d'une des machines de son père à l'université Harvard en 1886. Car c'est cinquante ans plus tard, après avoir entendu la présentation de Howard Aiken sur son super calculateur, qu'un technicien de Harvard, Carmello Lanza, lui fit savoir qu'une machine similaire avait déjà été développée et qu'il lui montra l'ensemble mécanique de démonstration donné par Henry Babbage qui se trouvait dans un des greniers de l'université; c'est ainsi qu'il découvrit les travaux de Babbage et qu'il les incorpora dans la machine qu'il présenta à IBM en 1937. C'était la troisième fois qu'il essayait de trouver un sponsor pour le développement de sa machine car son projet avait déjà été rejeté deux fois avant l'intégration des travaux de Babbage dans l'architecture de sa machine (une fois par la Monroe Calculating Company et une fois par l'université Harvard).

Leonardo Torres Quevedo remplaça toutes les fonctions mécaniques de Babbage par des fonctions électromécaniques (addition, soustraction, multiplication et division mais aussi la lecture de cartes et les mémoires). En 1914 et en 1920, Il construisit deux machines analytiques, non programmable, extrêmement simplifiées mais qui montraient que des relais électromécaniques pouvaient être utilisés dans une machine à calculer qu'elle soit programmable ou non. Sa machine de 1914 avait une petite mémoire électromécanique et son arithmomètre de 1920, qu'il développa pour célébrer le centième anniversaire de l'invention de l'arithmomètre, était commandé par une machine à écrire qui était aussi utilisée pour imprimer ses résultats.

Percy Ludgate améliora et simplifia les fonctions mécaniques de Babbage mais ne construisit pas de machine. Et enfin, Louis Couffignal essaya au début des années 1930, de construire une machine analytique « purement mécanique, comme celle de Babbage, mais sensiblement plus simple », mais sans succès. C'est cent ans après la conceptualisation de l'ordinateur par Charles Babbage que le premier projet basé sur l'architecture de sa machine analytique aboutira. En effet, c'est en 1937 qu'Howard Aiken présenta à IBM un projet de machine à calculer programmable qui sera le premier projet qui finira par une machine qui puisse être, et qui sera utilisée, et dont les caractéristiques en font presque un ordinateur moderne. Et donc, bien que le premier ordinateur ne sera jamais déterminé à l’unanimité, le début de l'ère de l'informatique moderne peut être considéré comme la présentation d'Aiken à IBM, en 1937, qui aboutira par l'ASCC.

Machines à calculer

Les machines à calculer jouèrent un rôle primordial dans le développement des ordinateurs pour deux raisons tout à fait indépendantes. D'une part, pour leurs origines : c'est pendant le développement d'une machine à calculer automatique à imprimante qu'en 1834 Charles Babbage commença à imaginer sa machine analytique, l’ancêtre des ordinateurs. C’était une machine à calculer programmée par la lecture de cartes perforées (inspirées du Métier Jacquard), avec un lecteur de cartes pour les données et un pour les programmes, avec des mémoires, un calculateur central et des imprimantes et qui inspirera le développement des premiers ordinateurs à partir de 1937 ; ce qui nous amènera aux mainframes des années 1960.

D'autre part, leur propagation se fit grâce à la commercialisation en 1971 du premier microprocesseur, l'Intel 4004, qui fut inventé pendant le développement d'une machine à calculer électronique pour la compagnie japonaise Busicom, qui est à l'origine de l'explosion de la micro-informatique à partir de 1975 et qui réside au cœur de tous les ordinateurs actuels quelles que soient leurs tailles ou fonctions (bien que seulement 2 % des microprocesseurs produits chaque année soient utilisés comme unités centrales d'ordinateur, les 98 % restant sont utilisés dans la construction de voitures, de robots ménagers, de montres, de caméras de surveillance…).

Électromécanique et mécanographie

Outre les avancées observées dans l'industrie du textile et celles de l'électronique, les avancées de la mécanographie à la fin du XIX siècle, pour achever les recensements aux États-Unis, la mécanisation de la cryptographie au début du XX siècle, pour chiffrer puis déchiffrer automatiquement des messages, le développement des réseaux téléphoniques (à base de relais électromécaniques), sont aussi à prendre en compte pour comprendre l'avènement de ce nouveau genre de machine qui ne calculent pas (comme font/faisaient les calculatrices), mais lisent et interprètent des programmes qui -eux- calculent. Pour le monde des idées, avant l'invention de ces nouvelles machines, l'élément fondateur de la science informatique est en 1936, la publication de l'article On Computable Numbers with an Application to the Entscheidungsproblem par Alan Turing qui allait déplacer le centre de préoccupation de certains scientifiques (mathématiciens et logiciens) de l'époque, du sujet de la calculabilité (ou décidabilité) ouvert par Hilbert, malmené par Godël, éclairci par Church, vers le sujet de la mécanisation du calcul (ou calculabilité effective). Dans ce texte de 36 pages, Turing expose une machine théorique capable d'effectuer tout calcul ; il démontre que cette machine est aussi puissante, au niveau du calcul, que tout être humain. Autrement dit, un problème mathématique possède une solution, si et seulement si, il existe une machine de Turing capable de résoudre ce problème. Par la suite, il expose une machine de Turing universelle apte à reproduire toute machine de Turing, il s'agit des concepts d'ordinateur, de programmation et de programme. Il termine en démontrant qu'il existe au moins un problème mathématique formellement insoluble, le problème de l'arrêt.

Peu avant la Seconde Guerre mondiale, apparurent les premières calculatrices électromécaniques, construites selon les idées d'Alan Turing. Les machines furent vite supplantées par les premiers calculateurs électroniques, nettement plus performants.

Années 1930

La fin des années 1930 virent, pour la première fois dans l'histoire de l'informatique, le début de la construction de deux machines à calculer programmables. Elles utilisaient des relais et étaient programmées par la lecture de rouleaux perforés et donc, pour certains, étaient déjà des ordinateurs. Elles ne furent mises en service qu'au début des années 1940, faisant ainsi de 1940 la première décennie dans laquelle on trouve des ordinateurs et des machines à calculer programmables totalement fonctionnels. C'est d'abord en 1937 que Howard Aiken, qui avait réalisé que la machine analytique de Babbage était le type de machine à calculer qu'il voulait développer, proposa à IBM de la créer et de la construire ; après une étude de faisabilité, Thomas Watson accepta de la construire en 1939 ; elle fut testée en 1943 dans les locaux d'IBM et fut donnée et déménagée à l'université Harvard en 1944, changeant son nom de ASCC à Harvard Mark I ou Mark I.

Mais c'est aussi Konrad Zuse qui commença le développement de son Zuse 3, en secret, en 1939, et qui le finira en 1941. Parce que le Zuse 3 resta inconnu du grand public jusqu’après la fin de la seconde guerre mondiale (sauf des services secret américains qui le détruisirent dans un bombardement en 1943), ses solutions très inventives ne furent pas utilisées dans les efforts communs mondiaux de développement de l’ordinateur.

Évolution

Premier ordinateur (1937-1946)

Six machines furent construites durant ces 9 ans. Elles furent toutes décrites, au moins une fois, dans la multitude de livres de l'histoire de l'informatique, comme étant le premier ordinateur ; aucune autre machine, construite ultérieurement, ne fut décrit comme telle. Ces six précurseurs peuvent être divisées en trois groupes bien spécifiques :

D'une part, deux machines à calculer. Ces deux machines n'étaient pas programmables, l'une était électromécanique, l'autre électronique. le Complex Number Calculator de George Stibitz, conçu pour faire des opérations sur des nombres complexes l'ABC qui pouvait résoudre des équations linéaires.

le Complex Number Calculator de George Stibitz, conçu pour faire des opérations sur des nombres complexes

l'ABC qui pouvait résoudre des équations linéaires.

D'autre part, deux machines électromécaniques programmables, programmées par la lecture de rouleaux perforés, mais qui ne possédaient pas d'instruction de branchement conditionnel, et donc ne pouvaient aller d'une partie d'un programme à une autre. l'ASCC/Mark I d'IBM le Zuse 3,

l'ASCC/Mark I d'IBM

le Zuse 3,

« Sans un branchement conditionnel, et donc l’implémentation mécanique du mot SI, le plus grand des calculateurs ne serait qu'une super machine à calculer. Il pourrait être comparé à une ligne d'assemblage, tout étant organisé du début à la fin, avec aucune possibilité de changement une fois que la machine est mise en marche. »

 Andrew Hodges, Alan Turing: the enigma, 1983.

Et enfin, deux machines électroniques spécialisées. Initialement ces machines ne pouvaient faire que cela, et étaient programmées par le changement de fils et d'interrupteurs. le Colossus, conçu pour déchiffrer des messages secrets allemands l'ENIAC, conçu pour calculer des trajectoires balistiques.

le Colossus, conçu pour déchiffrer des messages secrets allemands

l'ENIAC, conçu pour calculer des trajectoires balistiques.

« L'ENIAC et le Colosse étaient comme deux kits à assembler, desquelles beaucoup de machines similaires, mais différentes, pouvaient être construites. Aucun n’essaya d’implémenter l'universalité de la machine de Babbage dans laquelle la machine n'est jamais modifiée, et où seulement les instructions sont réécrites sur des cartes perforées. »

 Andrew Hodges, Alan Turing: the enigma, 1983.

De ces six machines, seulement quatre furent connues de leurs contemporains, les deux autres, le Colosse et le Z3, utilisées dans l'effort de guerre, ne furent découvertes qu'après la fin de la Seconde Guerre mondiale, et donc ne participèrent pas au développement communautaire mondial des ordinateurs. Seulement deux de ces machines furent utilisées dans les années 1950, l'ASCC/Mark I et l'ENIAC, et chacune fut éventuellement modifiée pour en faire une machine Turing-complet. En juin 1945 est publié un article fondateur de John von Neumann donnant les bases de l'architecture utilisée dans la quasi-totalité des ordinateurs depuis lors. Dans cet article, von Neumann veut concevoir un programme enregistré et programmé dans la machine. La première machine correspondant à cette architecture, dite depuis architecture de von Neumann est une machine expérimentale la Small-Scale Experimental Machine (SSEM ou baby) construite à Manchester en juillet 1948. En août 1949 la première machine fonctionnelle, fondée sur les bases de von Neumann fut l'EDVAC.

Tubes à vide et commutateurs (1946-1955)

Cette chronologie demande qu'un ordinateur soit électronique et donc elle commence, en 1946, avec l'ENIAC qui, au départ, était programmé avec des interrupteurs et par le positionnement de fils sur un commutateur, comme sur un ancien standard téléphonique. Les ordinateurs de cette période sont énormes avec des dizaines de milliers de tubes à vide. L'ENIAC faisait 30 m de long, 2,40 m de haut et pesait 30 tonnes. Ces machines n’étaient pas du tout fiables, par exemple, en 1952, dix-neuf mille tubes furent remplacés sur l'ENIAC, soit plus de tubes qu'il n'en contient.

« L'ENIAC prouva, sans ambiguïté, que les principes de base de l'électronique était bien fondés. Il était vraiment inévitable que d'autres machines à calculer de ce type seraient perfectionnées grâce aux connaissances et à l’expérience acquises sur cette première. »

De nouveau, le titre de premier ordinateur commercialisé dépend de la définition utilisée ; trois ordinateurs sont souvent cités. En premier, le BINAC, conçut par la Eckert–Mauchly Computer Corporation et livré à la Northrop Corporation en 1949 qui, après sa livraison, ne fut jamais fonctionnel. En deuxième, le Ferranti Mark I, dont le prototype avait été développé par l'université de Manchester, fut amélioré et construit en un exemplaire par la société Ferranti et revendu à l'université de Manchester en février 1951. Et en dernier, 'UNIVAC I, conçut par la Eckert–Mauchly Computer Corporation, dont le premier fut vendu à l'United States Census Bureau le 30 mars 1951. Une vingtaine de machines furent produites et vendues entre 1951 et 1954.

Générations suivantes (1955-2000)

« L'utilisation de transistors au milieu des années 1950 changea le jeu complètement. Les ordinateurs devinrent assez fiables pour être vendus à des clients payants sachant qu'ils fonctionneraient assez longtemps pour faire du bon travail » Les circuits intégrés réduisirent la taille et le prix des ordinateurs considérablement. Les moyennes entreprises pouvaient maintenant acheter ce genre de machines.

Un mini-ordinateur PDP-8.

Les circuits intégrés permettent de concevoir une informatique plus décentralisée les constructeurs souhaitant concurrencer le géant IBM. Le microprocesseur fut inventé en 1969 par Ted Hoff d'Intel pendant le développement d'une calculatrice pour la firme japonaise Busicom. Intel commercialisera le 4004 fin 1971. Ted Hoff avait copié l'architecture du PDP-8, le premier mini-ordinateur, et c'est grâce à la technologie de circuits intégrés LSI (large scale integration), qui permettait de mettre quelques milliers de transistors sur une puce qu'il put miniaturiser les fonctions d'un ordinateur en un seul circuit intégré. La fonction première du microprocesseur était de contrôler son environnement. Il lisait des interrupteurs, les touches d'un clavier et il agissait en exécutant les opérations requises (addition, multiplication, etc.) et en affichant les résultats. Le premier ordinateur personnel fut décrit dans le livre d'Edmund Berkeley, Giant brain, or machines that think, en 1949, et sa construction fut décrite dans une série d'articles du magazine Radio-Electronics à partir du numéro d'octobre 1950. En 1972, une société française développe le Micral, premier micro-ordinateur à être basé sur le microprocesseur 8008. Mais l’ordinateur qui créa l'industrie de l'ordinateur personnel est l'Altair 8800 qui fut décrit pour la première fois dans le magazine Radio-Electronics de janvier 1975. Bill Gates, Paul Allen, Steve Wozniak et Steve Jobs (ordre chronologique) firent tous leurs débuts dans la micro-informatique sur ce produit moins de six mois après son introduction.

Généralités

Les ordinateurs furent d'abord utilisés pour le calcul (en nombres entiers d'abord, puis flottants). On ne peut cependant les assimiler à de simples calculateurs : en effet, le résultat du traitement d'un ordinateur peut être non seulement une série de nombres, mais aussi un nouveau programme (utilisable par cet ordinateur ou par un autre).

Dans l'architecture de von Neumann, les données sont banalisées et peuvent être interprétées indifféremment comme des nombres, des instructions, des valeurs logiques ou tout symbole défini arbitrairement (lettre de l’alphabet, par exemple).

Le calcul représente une des applications possibles. Dans ce cas, les données sont traitées comme des nombres.

L’ordinateur est utilisé aussi pour ses possibilités d'organisation de l’information, entre autres sur des périphériques de stockage magnétique. On a calculé à la fin des années 1980 que sans les ordinateurs il faudrait toute la population française juste pour faire dans ce pays le seul travail des banques. Cette capacité d’organiser les informations a généralisé l’usage du traitement de texte dans le grand public ; la gestion des bases de données relationnelles permet également de retrouver et de consolider des informations réparties vues par l'utilisateur comme plusieurs tables indépendantes.

Cette capacité d’organiser les informations a généralisé l’usage du traitement de texte dans le grand public ;

la gestion des bases de données relationnelles permet également de retrouver et de consolider des informations réparties vues par l'utilisateur comme plusieurs tables indépendantes.

Le superordinateur Cray-1 lancé en 1976

Cette création d'un néologisme fut à l'origine de traductions multiples des expressions supercomputer, superordinateur ou supercalculateur, et Quantum computer, calculateur quantique ou ordinateur quantique. Dans ce dernier cas, l'utilisation du mot « ordinateur » est justement surfaite car les possibilités envisageables pour le calcul quantique sont loin de la polyvalence d'un « ordinateur ».

L'expérience a appris à distinguer dans un ordinateur deux aspects, dont le second avait été au départ sous-estimé :

l'architecture physique, matérielle (alias hardware ou hard) ;

l'architecture logicielle (alias software ou soft) ; un ordinateur très avancé techniquement pour son époque comme le Gamma 60 de la compagnie Bull n'eut pas le succès attendu, pour la simple raison qu'il existait peu de moyens de mettre en œuvre commodément ses possibilités techniques. Le logiciel - et son complément les services (formation, maintenance…) - forme depuis le milieu des années 1980 l’essentiel des coûts d'équipement informatique, le matériel n’y ayant qu'une part minoritaire.

Les ordinateurs peuvent être sensibles aux bombes IEM.

Fonctionnement

Vue d'ensemble des différents organes d'un ordinateur personnel
Vue d'ensemble des différents organes d'un ordinateur personnel

Parmi toutes les machines inventées par l'Homme, l'ordinateur est celle qui se rapproche le plus du concept anthropologique suivant : Organe d'entrée, organe de traitement de l'information et organe de sortie. Chez l'humain, les organes d'entrée sont les cinq sens, l'organe de traitement est le cerveau dont les logiciels sont l'apprentissage avec des mises à jour constantes en cours de vie, puis les organes de sortie sont les muscles. Pour les ordinateurs modernes, les organes d'entrée sont le clavier et la souris et les organes de sortie, l'écran, l'imprimante, le graveur de DVD, etc. Les techniques utilisées pour fabriquer ces machines ont énormément changé depuis les années 1940 et sont devenues une technologie (c’est-à-dire un ensemble industriel organisé autour de techniques) à part entière depuis les années 1970. Beaucoup utilisent encore les concepts définis par John von Neumann, bien que cette architecture soit en régression : les programmes ne se modifient plus guère eux-mêmes (ce qui serait considéré comme une mauvaise pratique de programmation), et le matériel prend en compte cette nouvelle donne en séparant aujourd'hui nettement le stockage des instructions et des données, y compris dans les caches.

L’architecture de von Neumann décomposait l’ordinateur en quatre parties distinctes :

l’unité arithmétique et logique (UAL) ou unité de traitement : son rôle est d’effectuer les opérations de base, un peu comme le ferait une calculatrice ;

l’unité de contrôle. C’est l’équivalent des doigts qui actionneraient la calculatrice ;

la mémoire qui contient à la fois les données et le programme qui dira à l’unité de contrôle quels calculs faire sur ces données. La mémoire se divise entre mémoire vive (programmes et données en cours de fonctionnement) et mémoire permanente (programmes et données de base de la machine) ;

les entrées-sorties : dispositifs qui permettent de communiquer avec le monde extérieur.

UAL et UC

L’unité arithmétique et logique ou UAL est l’élément qui réalise les opérations élémentaires (additions, soustractions…), les opérateurs logiques (ET, OU, NI, etc.) et les opérations de comparaison (par exemple la comparaison d’égalité entre deux zones de mémoire). C’est l’UAL qui effectue les calculs de l’ordinateur. L’unité de contrôle prend ses instructions dans la mémoire. Celles-ci lui indiquent ce qu’elle doit ordonner à l’UAL et, comment elle devra éventuellement agir selon les résultats que celle-ci lui fournira. Une fois l’opération terminée, l’unité de contrôle passe soit à l’instruction suivante, soit à une autre instruction à laquelle le programme lui ordonne de se brancher.

L'unité de contrôle facilite la communication entre l'unité arithmétique et logique, la mémoire ainsi que les périphériques. Elle gère la plupart des exécutions des instructions dans l'ordinateur.

Mémoire

Au sein du système, la mémoire peut être décrite comme une suite de cellules numérotées contenant chacune une petite quantité d’informations. Cette information peut servir à indiquer à l’ordinateur ce qu’il doit faire (instructions) ou contenir des données à traiter. Dans la plupart des architectures, c'est la même mémoire qui est utilisée pour les deux fonctions. Dans les calculateurs massivement parallèles, on admet même que des instructions de programmes soient substituées à d’autres en cours d’opération lorsque cela se traduit par une plus grande efficacité. Cette pratique était jadis courante, mais les impératifs de lisibilité du génie logiciel l'ont fait régresser, hormis dans ce cas particulier, depuis plusieurs décennies. Cette mémoire peut être réécrite autant de fois que nécessaire. La taille de chacun des blocs de mémoire ainsi que la technologie utilisée ont varié selon les coûts et les besoins : 8 bits pour les télécommunications, 12 bits pour l’instrumentation (DEC) et 60 bits pour de gros calculateurs scientifiques (Control Data). Un consensus a fini par être trouvé autour de l’octet comme unité adressable et d’instructions sur format de 4 ou 8 octets.

Dans tous les cas de figure, l'octet reste adressable, ce qui simplifie l'écriture des programmes. Les techniques utilisées pour la réalisation des mémoires ont compris des relais électromécaniques, des tubes au mercure au sein desquels étaient générées des ondes acoustiques, des transistors individuels, des tores de ferrite et enfin des circuits intégrés incluant des millions de transistors.

Entrées-Sorties

Les dispositifs d’entrée/sortie permettent à l’ordinateur de communiquer avec l’extérieur. Ces dispositifs sont très importants, du clavier à l’écran. La carte réseau permet par exemple de relier les ordinateurs en réseau informatique, dont le plus grand est Internet. Le point commun entre tous les périphériques d’entrée est qu’ils convertissent l’information qu’ils récupèrent de l’extérieur en données compréhensibles par l’ordinateur. À l’inverse, les périphériques de sortie décodent l’information fournie par l’ordinateur afin de la rendre compréhensible par l’utilisateur.

Bus

Ces différentes parties sont reliées par trois bus, le bus d'adresse, le bus de données et le bus de commande. Un bus est un groupement d'un certain nombre de fils électriques réalisant une liaison pour transporter des informations binaires codées sur plusieurs bits. Le bus d'adresse transporte les adresses générées par l'UCT (Unité Centrale de Traitement) pour sélectionner une case mémoire ou un registre interne de l'un des blocs. Le nombre de bits véhiculés par ce bus dépend de la quantité de mémoire qui doit être adressée. Le bus de données transporte les données échangées entre les différents éléments du système. Le bus de contrôle transporte les différents signaux de synchronisation nécessaires au fonctionnement du système : signal de lecture (RD), signal d'écriture (WR), signal de sélection (CS : Chip Select).

Architecture

La miniaturisation permet d’intégrer l’UAL et l’unité de contrôle au sein d’un même circuit intégré connu sous le nom de microprocesseur. Typiquement, la mémoire est située sur des circuits intégrés proches du processeur, une partie de cette mémoire, la mémoire cache, pouvant être située sur le même circuit intégré que l’UAL.

L’ensemble est, sur la plupart des architectures, complété d’une horloge qui cadence le processeur. Bien sûr, on souhaite qu'elle soit le plus rapide possible, mais on ne peut pas augmenter sans limites sa vitesse pour deux raisons :

plus l’horloge est rapide et plus le processeur dégage de la chaleur (selon le carré de la fréquence). Une trop grande température peut détériorer le processeur ;

il existe une cadence où le processeur devient instable ; il génère des erreurs qui mènent le plus souvent à un plantage.

Evolution du nombre de transistors sur un circuit intégré selon la loi de Moore.

La tendance a été à partir de 2004 de regrouper plusieurs UAL dans le même processeur, voire plusieurs processeurs dans la même puce. En effet, la miniaturisation progressive (voir Loi de Moore) le permet sans grand changement de coût. Une autre tendance, depuis 2006 chez ARM, est aux microprocesseurs sans horloge : la moitié de la dissipation thermique est en effet due aux signaux d'horloge quand le microprocesseur fonctionne ; de plus, un microprocesseur sans horloge a une consommation presque nulle quand il ne fonctionne pas : le seul signal d'horloge nécessaire est alors celui destiné au rafraîchissement des mémoires. Cet atout est important pour les modèles portables.

Le principal écart fonctionnel aujourd’hui par rapport au modèle de von Neumann est la présence sur certaines architectures de deux antémémoires différentes : une pour les instructions et une pour les données (alors que le modèle de von Neumann spécifiait une mémoire commune pour les deux). La raison de cet écart est que la modification par un programme de ses propres instructions est aujourd’hui considérée (sauf sur les machines hautement parallèles) comme une pratique à proscrire. Dès lors, si le contenu du cache de données doit être récrit en mémoire principale quand il est modifié, on sait que celui du cache d’instructions n’aura jamais à l’être, d’où simplification des circuits et gain de performance.

Instructions

Les instructions que l’ordinateur peut comprendre ne sont pas celles du langage humain. Le matériel sait juste exécuter un nombre limité d’instructions bien définies. Des instructions typiques comprises par un ordinateur sont par exemple :

« copier le contenu de la cellule 123 et le placer dans la cellule 456 »,

« ajouter le contenu de la cellule 321 à celui de la cellule 654

placer le résultat dans la cellule 777 »

« si le contenu de la cellule 999 vaut 0, exécuter l’instruction à la cellule 345 ».

La plupart des instructions se composent de deux zones : l’une indiquant quoi faire, nommée code opération, et l’autre indiquant où le faire, nommée opérande.

Au sein de l’ordinateur, les instructions correspondent à des codes - le code pour une copie étant par exemple 001. L’ensemble d’instructions qu’un ordinateur supporte se nomme son langage machine, langage qui est une succession de chiffres binaires, car les instructions et données qui sont comprises par le processeur (CPU) sont constituées uniquement de 0 (zéro) et de 1 (un) :

0 = Le courant électrique ne passe pas.

1 = Le courant électrique passe.

En général, les programmeurs n’utilisent plus ce type de langage, mais passent par ce que l’on appelle un langage de haut niveau qui est ensuite transformé en langage binaire par un programme spécial (interpréteur ou compilateur selon les besoins). Les programmes ainsi obtenus sont des programmes compilés compréhensibles par l'ordinateur dans son langage natif. Certains langages de programmation, comme l’assembleur sont dits langages de bas niveau car les instructions qu’ils utilisent sont très proches de celles de l’ordinateur. Les programmes écrits dans ces langages sont ainsi très dépendants de la plate-forme pour laquelle ils ont été développés. Le langage C, beaucoup plus facile à relire que l’assembleur, permet donc aux programmeurs d’être plus productifs. Pour cette raison, on l’a vu de plus en plus utilisé à mesure que les coûts du matériel diminuaient et que les salaires horaires des programmeurs augmentaient.

Logiciels

Les logiciels informatiques sont des listes (généralement longues) d’instructions exécutables par un ordinateur. De nombreux programmes contiennent des millions d’instructions, effectuées pour certaines de manière répétitive. De nos jours, un ordinateur personnel exécute plusieurs milliards d’instructions par seconde. Depuis le milieu des années 1960, des ordinateurs exécutent plusieurs programmes simultanément. Cette possibilité est appelée multitâche. C’est le cas de tous les ordinateurs aujourd’hui. En réalité, chaque cœur de processeur n’exécute qu’un programme à la fois, passant d’un programme à l’autre chaque fois que nécessaire. Si la rapidité du processeur est suffisamment grande par rapport au nombre de tâches à exécuter, l’utilisateur aura l’impression d’une exécution simultanée des programmes. Les priorités associées aux différents programmes sont, en général, gérées par le système d'exploitation.

Le système d’exploitation est le programme central qui contient les programmes de base nécessaires au bon fonctionnement des applications de l’ordinateur. Le système d’exploitation alloue les ressources physiques de l’ordinateur (temps processeur, mémoire…) aux différents programmes en cours d’exécution. Il fournit aussi des outils aux logiciels (comme les pilotes) afin de leur faciliter l’utilisation des différents périphériques sans avoir à en connaître les détails physiques.

Types

Bull-Micral P2 français en 1981

IBM PC 5150 en 1983

Acer Aspire 8920

Serveur VAX

Superordinateur Columbia de la NASA en 2004

Machine de Turing

Ordinateurs du futur Ordinateur quantique Ordinateur à ADN Ordinateur optique Ordinateur neuronal

Ordinateur quantique

Ordinateur à ADN

Ordinateur optique

Ordinateur neuronal

Par domaine d'application

Les ordinateurs de taille moyenne (midrange) (exemples : IBM AS/400-ISeries, RS/6000…)

Ordinateur personnel

Serveur

Système embarqué

Ordinateur de bord

Par taille

Ordinateur de poche : Assistant numérique personnel, Smartphone

Ordinateur portable : Ultraportable, Tablette tactile, Ordinateur portable

Ordinateur de bureau : Mini PC, Ordinateur de bureau, Station de travail

Ordinateur intermédiaire : Mini-ordinateur

Ordinateur géant : Mainframe, Superordinateur

Par architecture

Amiga

Atari ST

Compatible PC

Macintosh

stations SPARC

中文百科
1970年代早期的GEC4080小型机
1970年代早期的GEC4080小型机
超级电脑-走鹃(2009)
超级电脑-走鹃(2009)

wristwatch中的手表型Linux系统电脑。电脑也可以很小,不限于一般所指的“PC”——个人电脑。

电子计算机(英语:computer),亦称电脑或计算机,是一种利用电子学原理,根据一系列指令来对数据进行处理的工具。

在现代,机械计算机的应用已经完全被电子计算机所取代,其所相关的技术研究叫计算机科学,而「计算机技术」指的是将计算机科学的成果应用于工程实践所派生的诸多技术性和经验性成果的总合。「计算机技术」与「计算机科学」是两个相关而又不同的概念,它们的不同在于前者偏重于实践而后者偏重于理论。此外,电子计算机亦被形象地称作电脑。至于由数据为核心的研究则称为信息技术,通常人们接触最多的是个人电脑。

计算机种类繁多,但实际来看,计算机总体上是处理信息的工具。根据图灵机理论,一部具有最基本功能的计算机,应当能够完成任何其它计算机能做的事情。因此,只要不考虑时间和存储因素,从个人数码助理到超级计算机都应该可以完成同样的作业。就是说,即使是设计完全相同的计算机,只要经过相应改装,就应该可以被用于从公司薪金管理到无人驾驶飞船操控在内的各种任务。由于科技的飞速进步,下一代计算机总是在性能上能够显着地超过其前一代,这一现象有时被称作“摩尔定律”。发明于20世纪的电脑以飞跃般的姿态发展,在21世纪的现在,已被应用于手机、电视、数位相机、游戏机等生活用品之中。甚至自动验票机、ATM终端机的控制、顾客管理、财务管理等,各种企业的业务也都仰赖电脑辅助。这些电脑都是由程序进行运作。

计算机在组成上形式不一,早期计算机的体积足有一间房屋的大小,而今天某些嵌入式计算机可能比一副扑克牌还小。当然,即使在今天依然有大量体积庞大的巨型计算机为特别的科学计算或面向大型组织的事务处理需求服务。比较小的,为个人应用而设计的称为微型计算机(Personal Computer,PC),在中国地区简称为「微机」。我们今天在日常使用“计算机”一词时通常也是指此,不过现在计算机最为普遍的应用形式却是嵌入式,嵌入式计算机通常相对简单、体积小,并被用来控制其它设备—无论是飞机、工业机器人还是数码相机。

上述对于电子计算机的定义包括了许多能计算或是只有有限功能的特定用途的设备,然而当说到现代的电子计算机,其最重要的特征是:只要给予正确的指示,任何一部电子计算机都可以模拟其他任何计算机的行为(只受限于其本身的保存容量和执行速度)。据此,现代电子计算机相对于早期的电子计算机也被称为通用型电子计算机。

历史

本来,计算机的英文原词“computer”是指从事数据计算的人。而他们往往都需要借助某些机械计算设备或模拟计算机。 这些早期计算设备的祖先包括有算盘,以及可以追溯到公元前87年的被古希腊人用于计算行星移动的安提基特拉机械。随着中世纪末期欧洲数学与工程学的再次繁荣,1623年德国博学家Wilhelm Schickard率先研制出了欧洲第一部计算设备,这是一个能进行六位以内数加减法,并能通过铃声输出答案的“计算钟”。使用转动齿轮来进行操作。 1**2年法国数学家布莱士·帕斯卡在英国数学家William Oughtred所制作的“计算尺”的基础上,将其加以改进,使能进行八位计算。还卖出了许多制品,成为当时一种时髦的商品。 1801年,法国人约瑟夫·玛丽·雅卡尔对织布机的设计进行改进,使用一系列打孔的纸卡片来作为编织复杂图案的程序。尽管这种被称作“雅卡尔织布机”的机器并不被认为是一部真正的计算机,但是其可程序化性质使之被视为现代计算机发展过程中重要的一步。 查尔斯·巴贝奇于1820年构想和设计了第一部完全可程序化计算机。但由于技术条件、经费限制,以及无法忍耐对设计不停的修补,这部计算机在他有生之年始终未能问世。约到19世纪晚期,许多后来被证明对计算机科学有着重大意义的技术相继出现,包括打孔卡片以及真空管。德裔美籍统计学家赫尔曼·何乐礼设计了一部制表用的机器,其中便应用打孔卡片来进行大规模自动数据处理。 在20世纪前半叶,为了迎合科学计算的需要,许多专门用途的、复杂度不断增长的模拟计算机被研制出来。这些计算机都是用它们所针对的特定问题的机械或电子模型作为计算基础。1930-1940年代,计算机的性能逐渐强大并且通用性得到提升,现代计算机的关键特色被不断地加入进来。 1937年,年仅21岁的麻省理工学院研究生克劳德·香农发表了他的伟大论文《对继电器和开关电路中的符号分析》,文中首次提及数字电子技术的应用。他向人们展示了如何使用开关来实现逻辑和数**算。此后,他通过研究万尼瓦尔·布什的微分模拟器进一步巩固了他的想法。这是一个标志着二进制电子电路设计和逻辑门应用开始的重要时刻,而这些关键思想诞生的先驱,应当包括:阿尔蒙·斯特罗格,他为一个含有逻辑门电路的设备申请了专利;尼古拉·特斯拉,他早在1898年就曾申请含有逻辑门的电路设备;李·德富雷斯特,于1907年他用真空管代替了继电器。 HP Jornada 690开启了手机和电脑结合的早期概念,成为智能手机早期概念典范。 沿着这样一条上下求索的漫漫长途去定义所谓的“第一部电子计算机”可谓相当困难。1941年5月12日,德国工程师康拉德·楚泽完成了他的图灵完全机电一体计算机“Z3”,这是第一部具有自动二进制数学计算特色以及可行的程序化功能的计算机,但还不是“电子”计算机。此外,其他值得注意的成就主要有: 1941年夏天诞生的阿塔纳索夫-贝瑞计算机是世界上第一部电子计算机,它使用了真空管计算器,二进制数值,可复用内存;在英国于1943年被展示的神秘的巨像计算机(Colossus computer),尽管程序化能力极为有限,但是它使人们确信使用真空管既值得信赖,又能实现电气化的再编程;哈佛大学的马克一号;以及基于二进制的ENIAC,全名为电子数值积分计算器,这是第一部通用意图的计算机,但由于其结构设计不够弹性化,导致对它的每一次再编程都要重新连接电子线路。 1940年代的第二次世界大战中,为训练轰炸机飞行员,美国海军曾向麻省理工学院探询,是否能够开发出一款可以控制飞行仿真器的计算机。军方当初的设想只是希望经由该计算机将飞行员仿真操作产生的数据即时反映到仪表盘上。和以前的训练系统林克训练机不同,军方计划系统能尽可能真实地根据空气动力学模型进行模拟,以使其能适用于各种不同类型的飞机。于是麻省理工创造了旋风工程,其制造出了世界上第一台能够即时处理数据的旋风电脑,并发明了磁芯保存设备。这为个人电脑的发展做出了历史性的贡献。 开发埃尼阿克的小组针对其缺陷又进一步改善了设计,并最终呈现出今天我们所熟知的冯·诺伊曼结构(进程存储体系结构)。这个体系是当今所有计算机的基础。 20世纪40年代中晚期,大批基于此一体系的计算机开始研制,其中以英国最早。尽管第一部研制完成并投入运转的是小规模实验机(Small-Scale Experimental Machine,SSEM),但真正被开发出来的实用机很可能是延迟存储电子自动计算器(EDSAC)。 在整个1950年代,真空管计算机居于统治地位。1958年9月12日在后来英特尔的创始人罗伯特·诺伊斯的领导下,发明了集成电路。 不久又推出了微处理器。1959年到19**年间设计的计算机一般称为第二代计算机。 到了1960年代,晶体管计算机将其取而代之。晶体管体积更小,速度更快,价格更加低廉,性能更加可靠,这使得它们可以商品化生产。 19**年到1972年的计算机一般被称为第三代计算机。大量使用积体电路,典型的机型是IBM360系列。 到了1970年代,积体电路技术的引入大大地降低了计算机生产成本,计算机也从此开始走向千家万户。1972年以后的计算机习惯上被称为第四代计算机。基于大规模积体电路,及后来的超大规模积体电路。1972年4月1日,INTEL推出8008微处理器。1976年,史蒂夫·贾伯斯和斯蒂夫·沃兹尼亚克创办苹果计算机公司。并推出其Apple I计算机。1977年5月Apple II型计算机发布。1979年6月1日INTEL,发布了8比特的8088微处理器。 1982年,微电脑开始普及,大量进入学校和家庭。1982年1月Commodore **计算机发布,价格595美元。 1982年2月Intel 80286发布。时脉提高到20MHz,并增加了保护模式,可访问**0KB内存。支持1MB以上的虚拟内存。每秒运行270万条指令,集成了134000个晶体管。 1990年11月,微软发布第一代MPC(Multimedia PC,多媒体个人电脑标准):处理器至少为80286/12 MHz(后来增加到80386SX/16 MHz),有光驱,传输率不少于150 KB/sec。 1994年10月10日Intel发布75MHzPentium处理器。1995年11月1日,Pentium Pro发布。主频可达200MHz,每秒钟完成4.4亿条指令,集成了550万个晶体管。1997年1月8日Intel发布Pentium MMX,对游戏和多媒体功能进行了增强。 此后计算机的变化日新月异,1965年发表的摩尔定律不断被应证,预测在未来10—15年仍依然适用。

原理

个人电脑的主要结构: 1. 显示器 2. 主板 3. 中央处理器(微处理器) 4. 内存 5. 适配器(如声卡、 网卡) 6. 电源供应器 7. 软驱 / 光驱 8. 硬盘 9. 键盘 10. 鼠标 尽管计算机技术自20世纪40年代第一部电子通用计算机诞生以来以来有了令人目眩的飞速发展,但是今天计算机仍然基本上采用的是存储进程结构,即冯·诺伊曼结构。这个结构实现了实用化的通用计算机。 存储进程结构将一部计算机描述成四个主要部分:算术逻辑单元、控制电路、存储器及输入输出设备。这些部件通过一组一组的排线连接(特别地,当一组线被用于多种不同意图的数据传输时又被称为总线),并且由一个时钟来驱动(当然某些其他事件也可能驱动控制电路)。 概念上讲,一部计算机的存储器可以被视为一组“细胞”单元。每一个“细胞”都有一个编号,称为地址;又都可以存储一个较小的定长信息。这个信息既可以是指令(告诉计算机去做什幺),也可以是数据(指令的处理对象)。原则上,每一个“细胞”都是可以存储二者之任一的。 算术逻辑单元(ALU)可以被称作计算机的大脑。它可以做两类运算: 第一类是算术运算,比如对两个数字进行加减法。算术运算部件的功能在ALU中是十分有限的,事实上, 一些ALU根本不支持电路级的乘法和除法运算(由是用户只能通过编程进行乘除法运算)。第二类是比较运算,即给定两个数, ALU对其进行比较以确定哪个更大一些。 输入输出系统是计算机从外部世界接收信息和向外部世界反馈运算结果的手段。对于一部标准的个人电脑,输入设备主要有键盘和鼠标,输出设备则是显示器、打印机以及其他许多后文将要讨论的可连接到计算机上的I/O设备。 控制系统将以上计算机各部分联系起来。它的功能是从存储器和输入输出设备中读取指令和数据,对指令进行解码, 并向ALU交付符合指令要求的正确输入,告知ALU对这些数据做哪些运算并将结果数据返回到何处。控制系统中一个重要组件就是一个用来保持跟踪当前指令所在地址的计数器。 通常这个计数器随着指令的执行而累加,但有时如果指令指示进行跳转则不依此规则。 20世纪80年代以来ALU和控制单元(二者合称中央处理器)逐渐被集成到一块集成电路上,称作微处理器。 这类计算机的工作模式十分直观:在一个时钟周期内,计算机先从存储器中获取指令和数据,然后执行指令,存储数据,再获取下一条指令。这个过程被反复执行,直至得到一个终止指令。 由控制器解释,运算器执行的指令集是一个精心定义的数目十分有限的简单指令集合。一般可以分为四类:1)、数据移动 (如:将一个数值从存储单元A拷贝到存储单元B)2)、数逻运算(如:计算存储单元A与存储单元B之和,结果返回存储单元C)3)、 条件验证(如:如果存储单元A内数值为100,则下一条指令地址为存储单元F)4)、指令串行改易(如:下一条指令地址为存储单元F) 指令如同数据一样在计算机内部是以二进制来表示的。比如说,10110000就是一条Intel x86系列微处理器的拷贝指令代码。 某一个计算机所支持的指令集就是该计算机的机器语言。因此,使用流行的机器语言将会使既成软件在一部新计算机上运行得更加容易。所以对于那些机型商业化软件开发的人来说,它们通常只会关注一种或几种不同的机器语言。 更加强大的小型计算机,大型计算机和服务器可能会与上述计算机有所不同。它们通常将任务分担给不同的CPU来执行。今天, 微处理器和多核个人电脑也在朝这个方向发展。 超级计算机通常有着与基本的存储进程计算机显着区别的体系结构。它们通常有着数以千计的CPU, 不过这些设计似乎只对特定任务有用。在各种计算机中,还有一些单片机采用令进程和数据分离的哈佛架构(Harvard architecture)。

计算机的数字电路实现

集成电路是现今电子计算机基础 以上所说的这些概念性设计的物理实现是多种多样的。如同我们前述所及,一部存储进程式计算机既可以是巴比奇的机械式的, 也可以是基于数字电子的。但是,数字电路可以通过诸如继电器之类的电子控制开关来实现使用2进制数的算术和逻辑运算。 香农的论文正是向我们展示了如何排列继电器来组成能够实现简单布尔运算的逻辑门。其他一些学者很快指出使用真空管可以代替继电器电路。 真空管最初被用作无线电电路中的放大器,之后便开始被越来越多地用作数字电子电路中的快速开关。当电子管的一个针脚被通电后,电流就可以在另外两端间自由通过。 通过逻辑门的排列组合我们可以设计完成很多复杂的任务。举例而言,加法器就是其中之一。 该器件在电子领域实现了两个数相加并将结果保存下来—在计算机科学中这样一个通过一组运算来实现某个特定意图的方法被称做一个算法。 最终,人们通过数量可观的逻辑门电路组装成功了完整的ALU和控制器。说它数量可观,只需看一下CSIRAC这部可能是最小的实用化电子管计算机。 该机含有2000个电子管,其中还有不少是双用器件,也即是说总计合有2000到4000个逻辑器件。 真空管对于制造规模庞大的门电路明显力不从心。昂贵,不稳(尤其是数量多时),臃肿,能耗高,并且速度也不够快—尽管远超机械开关电路。 这一切导致20世纪60年代它们被晶体管取代。后者体积更小,易于操作,可靠性高,更省能耗,同时成本也更低。 20世纪60年代后,晶体管开始逐渐为将大量晶体管、其他各种电器组件和连接导线安置在一片硅板上的集成电路所取代。 70年代,ALU和控制器作为组成CPU的两大部分,开始被集成到一块芯片上,并称为“微处理器”。沿着集成电路的发展史,可以看到一片芯片上所集成器件的数量有了飞速增长。第一块集成电路只不过包含几十个部件,而到了2015年,一块Intel Core i7处理器上的晶体管数目高达十九亿之巨。 无论是电子管,晶体管还是集成电路,它们都可以通过使用一种触发器设计机制来用作存储进程体系结构中的“存储”部件。 而事实上触发器的确被用作小规模的超高速存储。但是,几乎没有任何计算机设计使用触发器来进行大规模数据存储。 最早的计算机是使用Williams电子管向一个电视屏或若干条水银延迟线(声波通过这种线时的走行速度极为缓慢足够被认为是“存储”在了上面) 发射电子束然后再来读取的方式来存储数据的。当然,这些尽管有效却不怎幺优雅的方法最终还是被磁性存储取而代之。比如说磁芯存储器, 代表信息的电流可在其中的铁质材料内制造恒久的弱磁场,当这个磁场再被读出时就实现了数据恢复。动态随机存储器亦被发明出来。它是一个包含大量电容的集成电路,而这些电容器件正是负责存储数据电荷—电荷的强度则被定义为数据的值。

输入输出设备

6支接脚的小型PS/2输入接口 Canon S520打印机 输入输出设备(I/O)是对将外部世界信息发送给计算机的设备和将处理结果返回给外部世界的设备的总称。 这些返回结果可能是作为用户能够视觉上体验的,或是作为该计算机所控制的其他设备的输入:对于一部机器人,控制计算机的输出基本上就是这部机器人本身,如做出各种行为。 第一代计算机的输入输出设备种类非常有限。通常的输入用设备是打孔卡片的读卡机,用来将指令和数据导入内存;而用于存储结果的输出设备则一般是磁带。随着科技的进步,输入输出设备的丰富性得到提高。以个人计算机为例:键盘和鼠标是用户向计算机直接输入信息的主要工具,而显示器、打印机、扩音器、耳机则返回处理结果。此外还有许多输入设备可以接受其他不同种类的信息,如数码相机可以输入图像。在输入输出设备中,有两类很值得注意:第一类是二级存储设备,如硬盘,光盘或其他速度缓慢但拥有很高容量的设备。第二个是计算机网络访问设备,通过他们而实现的计算机间直接数据传送极大地提升了计算机的价值。今天,国际互联网成就了数以千万计的计算机彼此间传送各种类型的数据。

进程

简单说,计算机进程就是计算机执行指令的一个串行。它既可以只是几条执行某个简单任务的指令,也可能是可能要操作巨大数据量的复杂指令队列。许多计算机进程包含有百万计的指令,而其中很多指令可能被反复执行。在2005年,一部典型的个人电脑可以每秒执行大约30亿条指令。计算机通常并不会执行一些很复杂的指令来获得额外的机能,更多地它们是在按照进程员的排列来运行那些较简单但为数众多的短指令。 一般情况下,进程员们是不会直接用机器语言来为计算机写入指令的。那幺做的结果只能是费时费力、效率低下而且漏洞百出。 所以,进程员一般通过“高级”一些的语言来写进程,然后再由某些特别的计算机进程,如解释器或编译器将之翻译成机器语言。 一些编程语言看起来很接近机器语言,如汇编进程,被认为是低级语言。而另一些语言,如即如抽象原则的Prolog,则完全无视计算机实际运行的操作细节,可谓是高级语言。对于一项特定任务,应该根据其事务特点,进程员技能,可用工具和客户需求来选择相应的语言,其中又以客户需求最为重要(美国和中**队的工程项目通常被要求使用Ada语言)。 计算机软件是与计算机进程并不相等的另一个词汇。计算机软件一个较为包容性较强的技术术语,它包含了用于完成任务的各种进程以及所有相关材料。举例说,一个视频游戏不但只包含进程本身,也包括图片、声音以及其他创造虚拟游戏环境的数据内容。在零售市场,在一部计算机上的某个应用进程只是一个面向大量用户的软件的一个副本。这里老生常谈的例子当然还是微软的office软件组,它包括一系列互相关联的、面向一般办公需求的进程。 利用那些极其简单的机器语言指令来实现无数功能强大的应用软件意味着其编程规模注定不小。Windows XP这个操作系统进程包含的C++高级语言源代码达到了4000万行。当然这还不是最大的。如此庞大的软件规模也显示了管理在开发过程中的重要性。实际编程时,进程会被细分到每一个进程员都可以在一个可接受的时长内完成的规模。 即便如此,软件开发的过程仍然进程缓慢,不可预见且遗漏多多。应运而生的软件工程学就重点面向如何加快作业进度和提高效率与质量。 函数库与操作系统 在计算机诞生后不久,人们发现某些特定作业在许多不同的进程中都要被实施,比如说计算某些标准数学函数。出于效率考量,这些进程的标准版本就被收集到一个“库”中以供各进程调用。许多任务经常要去额外处理种类繁多的输入输出接口,这时,用于连接的库就能派上用场。 20世纪60年代,随着计算机工业化普及,计算机越来越多地被用作一个组织内不同作业的处理。很快,能够自动安排作业时续和执行的特殊软件出现了。这些既控制硬件又负责作业时序安排的软件被称为“操作系统”。一个早期操作系统的例子是IBM的OS/360。 在不断地完善中,操作系统又引入了时间共享机制——并发。这使得多个不同用户可以“同时”地使用机器执行他们自己的进程,看起来就像是每个人都有一部自己的计算机。为此,操作系统需要向每个用户提供一部“虚拟机”来分离各个不同的进程。由于需要操作系统控制的设备也在不断增加,其中之一便是硬盘。因之,操作系统又引入了文档管理和目录管理(文档夹),大大简化了这类永久储存性设备的应用。此外,操作系统也负责安全控制,确保用户只能访问那些已获得允许的文档。 当然,到目前为止操作系统发展历程中最后一个重要步骤就是为进程提供标准图形用户界面。 尽管没有什幺技术原因表明操作系统必须得提供这些界面,但操作系统供应商们总是希望并鼓励那些运行在其系统上的软件能够在外观和行为特征上与操作系统保持一致或相似。 除了以上这些核心功能,操作系统还封装了一系列其他常用工具。其中一些虽然对计算机管理并无重大意义,但是于用户而言很是有用。比如,苹果公司的Mac OS X就包含视频剪辑应用进程。 一些用于更小规模的计算机的操作系统可能没用如此众多的功能。早期的微型计算机由于记忆体和处理能力有限而不会提供额外功能,而嵌入式计算机则使用特定化了的操作系统或者干脆没有,它们往往通过应用进程直接代理操作系统的某些功能。

应用

IBM z9 银行用金融服务器,现代金融业早已大量依赖电脑和网络来运作 美国战术数字信息链路TADIL终端机 起初,体积庞大而价格昂贵的数字计算机主要是用做执行科学计算,特别是军用课题。如ENIAC最早就是被用作火炮弹计算和设计氢弹时计算断面中子密度的(如今许多超级计算机仍然在模拟核试验方面发挥着巨大作用)。澳大利亚设计的首部存储进程计算机CSIR Mk I型负责对水电工程中的集水地带的降雨情形进行评估。还有一些被用于解密,比如英国的“巨像”可编程计算机。除去这些早年的科学或军工应用,计算机在其他领域的推广亦十分迅速。 从一开始,存储进程计算机就与商业问题的解决息息相关。早在IBM的第一部商用计算机诞生之前, 英国J. Lyons等就设计制造了LEO以进行资产管理或迎合其他商业用途。由于持续的体积与成本控制,计算机开始向更小型的组织内普及。加之20世纪70年代微处理器的发明,廉价计算机成为了现实。80年代,个人计算机全面流行,电子文档写作与印刷,计算预算和其他重复性的报表作业越来越多地开始依赖计算机。 随着计算机便宜起来,创作性的艺术工作也开始使用它们。人们利用合成器,计算机图形和动画来创作和修改声音,图像,视频。视频游戏的产业化也说明了计算机在娱乐方面也开创了新的历史。 计算机小型化以来,机械设备的控制也开始仰仗计算机的支持。其实,正是当年为了建造足够小的嵌入式计算机来控制阿波罗1号才刺激了集成电路技术的跃进。今天想要找一部不被计算机控制的有源机械设备要比找一部哪怕是部分计算机控制的设备要难得多。可能最著名的计算机控制设备要非机器人莫属,这些机器有着或多或少人类的外表和并具备人类行为的某一子集。在批量生产中,工业机器人已是寻常之物。不过,完全的拟人机器人还只是停留在科幻小说或实验室之中。 机器人技术实质上是人工智能领域中的物理表达环节。所谓人工智能是一个定义模糊的概念但是可以肯定的是这门学科试图令计算机拥有目前它们还没有但作为人类却固有的能力。数年以来,不断有许多新方法被开发出来以允许计算机做那些之前被认为只有人才能做的事情。比如读书、下棋。然而,到目前为止,在研制具有人类的一般“整体性”智能的计算机方面,进展仍十分缓慢。 网络、国际互联网 20世纪50年代以来计算机开始用作协调来自不同地方之信息的工具,美**方的贤者系统(SAGE)就是这方面第一个大规模系统。之后“军刀”等一系列特殊用途的商业系统也不断涌现出来。 70年代后,美国各大院校的计算机工程师开始使用电信技术把他们的计算机连接起来。由于这方面的工作得到了ARPA的赞助,其计算机网络也就被称为ARPANET。此后,用于ARPA网的技术快速扩散和进化,这个网络也冲破大学和军队的范围最终形成了今天的国际互联网。网络的出现导致了对计算机属性和边界的再定义。太阳微系统公司的John Gage和Bill Joy就指出:“网络即是计算机”。计算机操作系统和应用进程纷纷向能访问诸如网内其它计算机等网络资源的方向发展。最初这些网络设备仅限于为高端科学工作者所使用,但90年代后随着电子邮件和万维网技术的扩散,以及以太网和ADSL等网络连接技术的廉价化,互联网络已变得无所不在。今日入网的计算机总数,何止以千万计;无线互联技术的普及,使得互联网在移动计算环境中亦如影随形。比如在笔记本计算机上广泛使用的Wi-Fi技术就是无线上网的代表性应用。

下一代计算机

自问世以来数字计算机在速度和能力上有了可观的提升,迄今仍有不少课题显得超出了当前计算机的能力所及。 对于其中一部分课题,传统计算机是无论如何也不可能实现的,因为找到一个解决方法的时间还赶不上问题规模的扩展速度。因此,科学家开始将目光转向生物计算技术和量子理论来解决这一类问题。比如,人们计划用生物性的处理来解决特定问题(DNA计算)。由于细胞分裂的指数级增长方式,DNA计算系统很有可能具备解决同等规模问题的能力。当然,这样一个系统直接受限于可控制的DNA总量。 量子计算机,顾名思义,利用了量子物理世界的超常特性。一旦能够造出量子计算机,那幺它在速度上的提升将令一般计算机难以望其项背。当然,这种涉及密码学和量子物理模拟的下一代计算机还只是停留在构想阶段。

计算机学科

信息工程:是电子工程的一个分支,主要研究计算机软硬件和二者间的彼此联系。

计算机科学:是对计算机进行学术研究的传统称谓。主要研究计算技术和执行特定任务的高效算法。该门学科为我们解决确定一个问题在计算机领域内是否可解,如可解其效率如何,以及如何作成更加高效率的进程。时至今日,在计算机科学内已经衍生了许多分支,每一个分支都针对不同类别的问题进行深入研究。

软件工程学:着重于研究开发高质量软件系统的方法学和实践方式,并试图压缩并预测开发成本及开发周期。

信息系统:研究计算机在一个广泛的有组织环境(商业为主)中的计算机应用。

相关推荐

glaise a. (f), n. f (terre)~黏土, 胶泥

jaillir v. i. 1. 喷射, 喷, 涌:2. 射, 冒, :3. (突然)显现, 显示:4. 冲; 突然现 常见用法

régiment 团,军队,兵役,大量

décorner v. t. 1. 去(兽)角:2. 抚平折角:

ozone n.m.【化学】臭氧常见用法

insulté insulté, ea. , n. m 受侮辱的(人), 被凌辱的(人), 被辱骂的(人)

entrepreneur n. m. 承办人, 承包人, 承揽人; 承包商; 包工头 entrepreneur de transports 运输承包人 entrepreneur (de bâtiments)/(de construction) 筑工程承包人 2. 企业主, 业主; 企业家

marier v. t. 1. 为…主持婚礼2. 使结婚; 替…娶; 嫁出:3. [转]使结; 使和谐; 使:se marier v. pr. 1. 结婚2. 与… 结婚:3. [转]结; 和谐; :常见用法

majoritairement adv. 1获得数人支持2占数

aloi n.m.1. 〈旧语,旧义〉合金;成色 2. 〈转义〉质, 价值