Principal Innover La fin de la loi de Moore va changer notre façon de penser l'innovation

La fin de la loi de Moore va changer notre façon de penser l'innovation

Votre Horoscope Pour Demain

En 1965, cofondateur d'Intel Gordon Moore a publié un papier remarquablement prémonitoire qui prévoyait que la puissance de calcul doublerait environ tous les deux ans. Pendant un demi-siècle, ce processus de doublement s'est avéré si remarquablement cohérent qu'il est aujourd'hui communément appelé la loi de Moore et a conduit la révolution numérique.

En fait, nous sommes tellement habitués à l'idée que notre technologie devient plus puissante et moins chère que nous nous arrêtons à peine et pensons à quel point c'est sans précédent. Certes, nous ne nous attendions pas à ce que les chevaux ou les charrues - ou même les moteurs à vapeur, les automobiles ou les avions - doublent leur efficacité à un rythme continu.

date de naissance de jocelyne hudon

Néanmoins, les organisations modernes en sont venues à s'appuyer sur l'amélioration continue à un point tel que les gens pensent rarement à ce que cela signifie et, avec La loi de Moore sur le point de se terminer , ça va être un problème. Dans les décennies à venir, nous allons devoir apprendre à vivre sans la certitude de la loi de Moore et à fonctionner dans un nouvelle ère d'innovation ce sera profondément différent.

Le goulot d'étranglement de Von Neumann

En raison de la puissance et de la cohérence de la loi de Moore, nous en sommes venus à associer les progrès technologiques aux vitesses des processeurs. Pourtant, ce n'est qu'une dimension de la performance et il y a beaucoup de choses que nous pouvons faire pour que nos machines en fassent plus à moindre coût que de simplement les accélérer.

Un exemple principal de ceci est appelé le du goulot d'étranglement de Neumann , du nom du génie mathématique qui est responsable de la façon dont nos ordinateurs stockent les programmes et les données à un endroit et effectuent des calculs à un autre. Dans les années 40, lorsque cette idée a émergé, c'était une percée majeure, mais aujourd'hui, cela devient un peu un problème.

Le problème est qu'à cause de la loi de Moore, nos puces fonctionnent si vite que pendant le temps nécessaire à l'information pour aller et venir entre les puces - à la vitesse de la lumière pas moins - nous perdons beaucoup de temps de calcul précieux. Ironiquement, à mesure que la vitesse des puces continue de s'améliorer, le problème ne fera qu'empirer.

La solution est simple dans son concept mais insaisissable dans la pratique. Tout comme nous avons intégré des transistors sur une seule plaquette de silicium pour créer des puces modernes, nous pouvons intégrer différentes puces avec une méthode appelée Empilage 3D . Si nous pouvons faire en sorte que cela fonctionne, nous pouvons augmenter les performances pour quelques générations supplémentaires.

Informatique optimisée

Aujourd'hui, nous utilisons nos ordinateurs pour diverses tâches. Nous écrivons des documents, regardons des vidéos, préparons des analyses, jouons à des jeux et faisons beaucoup d'autres choses sur le même appareil en utilisant la même architecture de puce. Nous pouvons le faire parce que les puces utilisées par nos ordinateurs sont conçues comme une technologie à usage général.

Cela rend les ordinateurs pratiques et utiles, mais est terriblement inefficace pour les tâches de calcul intensif. Il existe depuis longtemps des technologies telles que ASIC et FPGA, conçus pour des tâches plus spécifiques et, plus récemment, GPU sont devenus populaires pour les fonctions graphiques et d'intelligence artificielle.

Au fur et à mesure que l'intelligence artificielle s'est imposée, certaines entreprises, comme Google et Microsoft ont commencé à concevoir des puces spécialement conçues pour exécuter leurs propres outils d'apprentissage en profondeur. Cela améliore considérablement les performances, mais vous devez fabriquer beaucoup de puces pour que l'économie fonctionne, c'est donc hors de portée pour la plupart des entreprises.

La vérité est que toutes ces stratégies ne sont que des pis-aller. Ils nous aideront à continuer à progresser au cours de la prochaine décennie, mais avec la fin de la loi de Moore, le véritable défi consiste à proposer des idées fondamentalement nouvelles pour l'informatique.

quelle est la taille de mia hamm

Des architectures profondément nouvelles

Au cours du dernier demi-siècle, la loi de Moore est devenue synonyme d'informatique, mais nous avons fabriqué des machines à calculer bien avant l'invention de la première puce électronique. Au début du 20e siècle, IBM a d'abord été le pionnier des tabulateurs électromécaniques, puis sont venus les tubes à vide et les transistors avant que les circuits intégrés ne soient inventés à la fin des années 1950.

Aujourd'hui, deux nouvelles architectures émergent qui seront commercialisées dans les cinq prochaines années. Le premier est ordinateurs quantiques , qui ont le potentiel d'être des milliers, voire des millions de fois plus puissants que la technologie actuelle. IBM et Google ont tous deux construit des prototypes fonctionnels et Intel, Microsoft et d'autres ont des programmes de développement actifs.

La deuxième approche majeure est calcul neuromorphique , ou des puces basées sur la conception du cerveau humain. Ceux-ci excellent dans les tâches de reconnaissance de formes avec lesquelles les puces conventionnelles ont des problèmes. Ils sont également des milliers de fois plus efficaces que la technologie actuelle et sont évolutifs jusqu'à un seul cœur minuscule avec seulement quelques centaines de « neurones » et jusqu'à d'énormes baies avec des millions.

Pourtant, ces deux architectures ont leurs inconvénients. Les ordinateurs quantiques doivent être refroidis à un niveau proche du zéro absolu, ce qui limite leur utilisation. Les deux nécessitent une logique profondément différente de celle des ordinateurs conventionnels et nécessitent de nouveaux langages de programmation. La transition ne sera pas transparente.

Une nouvelle ère d'innovation

Au cours des 20 ou 30 dernières années, l'innovation, en particulier dans l'espace numérique, a été assez simple. Nous pouvions compter sur la technologie pour nous améliorer à un rythme prévisible et cela nous permettait de prédire, avec un degré élevé de certitude, ce qui serait possible dans les années à venir.

Cela a conduit la plupart des efforts d'innovation à se concentrer sur les applications, en mettant fortement l'accent sur l'utilisateur final. Les startups capables de concevoir une expérience, de la tester, de s'adapter et d'itérer rapidement pourraient surpasser les grandes entreprises qui disposaient de beaucoup plus de ressources et de sophistication technologique. Cela a fait de l'agilité un attribut concurrentiel déterminant.

chuck norris valeur nette 2015

Dans les années à venir, le pendule va probablement revenir des applications aux technologies fondamentales qui les rendent possibles. Plutôt que de pouvoir nous fier à d'anciens paradigmes fiables, nous opérerons en grande partie dans le domaine de l'inconnu. À bien des égards, nous recommencerons et l'innovation ressemblera davantage à ce qu'elle était dans les années 50 et 60

L'informatique n'est qu'un domaine atteignant ses limites théoriques. Nous avons aussi besoin de batteries de nouvelle génération pour alimenter nos appareils, nos voitures électriques et le réseau. Parallèlement, les nouvelles technologies, telles que génomique, nanotechnologie et robotique deviennent ascendants et même les la méthode scientifique est remise en question .

Nous entrons donc maintenant dans une nouvelle ère d'innovation et les organisations qui seront les plus compétitives ne seront pas celles qui ont la capacité de perturber, mais celles qui sont prêtes à relever de grands défis et sonder de nouveaux horizons.