Haupt Innovation Das Ende des Mooreschen Gesetzes wird unsere Denkweise über Innovation verändern

Das Ende des Mooreschen Gesetzes wird unsere Denkweise über Innovation verändern

Ihr Horoskop Für Morgen

1965, Intel-Mitbegründer Gordon Moore veröffentlicht als bemerkenswert vorausschauendes Papier die voraussagte, dass sich die Rechenleistung etwa alle zwei Jahre verdoppeln würde. Ein halbes Jahrhundert lang hat sich dieser Prozess der Verdoppelung als so bemerkenswert konsequent erwiesen, dass er heute allgemein als . bekannt ist Moores Gesetz und hat die digitale Revolution vorangetrieben.

Tatsächlich haben wir uns so sehr an die Vorstellung gewöhnt, dass unsere Technologie leistungsfähiger und billiger wird, dass wir kaum innehalten und darüber nachdenken, wie beispiellos sie ist. Wir haben sicherlich nicht erwartet, dass Pferde oder Pflüge – oder auch Dampfmaschinen, Autos oder Flugzeuge – ihre Effizienz kontinuierlich verdoppeln.

wie alt ist dj drama

Dennoch verlassen sich moderne Organisationen in einem solchen Maße auf kontinuierliche Verbesserung, dass die Menschen selten darüber nachdenken, was es bedeutet, und mit Moores Gesetz steht vor dem Ende , das wird ein Problem. In den kommenden Jahrzehnten werden wir lernen müssen, ohne die Gewissheit des Mooreschen Gesetzes zu leben und in einem neue Ära der Innovation das wird ganz anders sein.

The Von Neumann Bottleneck

Aufgrund der Leistungsfähigkeit und Konsistenz des Mooreschen Gesetzes assoziieren wir technologischen Fortschritt mit Prozessorgeschwindigkeiten. Dies ist jedoch nur eine Dimension der Leistung, und es gibt viele Dinge, die wir tun können, damit unsere Maschinen zu geringeren Kosten mehr leisten, als sie nur zu beschleunigen.

Ein primäres Beispiel dafür ist die von Neumann bottleneck , benannt nach dem mathematischen Genie, das dafür verantwortlich ist, wie unsere Computer Programme und Daten an einem Ort speichern und an einem anderen Berechnungen durchführen. Als diese Idee in den 1940er Jahren aufkam, war sie ein großer Durchbruch, aber heute wird sie zu einem Problem.

Das Problem ist, dass unsere Chips aufgrund des Mooreschen Gesetzes so schnell laufen, dass wir in der Zeit, die die Informationen benötigen, um zwischen den Chips hin und her zu reisen – und das mit Lichtgeschwindigkeit – viel wertvolle Rechenzeit verlieren. Ironischerweise wird das Problem nur noch schlimmer, wenn sich die Chipgeschwindigkeiten weiter verbessern.

Die Lösung ist einfach im Konzept, aber in der Praxis schwer fassbar. So wie wir Transistoren auf einem einzigen Siliziumwafer integriert haben, um moderne Chips herzustellen, können wir verschiedene Chips mit einer Methode namens . integrieren 3D-Stapeln . Wenn wir das schaffen, können wir die Leistung für ein paar weitere Generationen steigern.

Optimiertes Rechnen

Heute nutzen wir unsere Computer für eine Vielzahl von Aufgaben. Wir schreiben Dokumente, schauen uns Videos an, erstellen Analysen, spielen Spiele und vieles mehr – alles auf demselben Gerät mit derselben Chiparchitektur. Dies ist uns möglich, weil die von unseren Computern verwendeten Chips als Allzwecktechnologie konzipiert sind.

Das macht Computer bequem und nützlich, ist aber für rechenintensive Aufgaben schrecklich ineffizient. Es gibt längst Technologien, wie z ASIC und FPGA, die für spezifischere Aufgaben konzipiert sind und in jüngerer Zeit GPUs sind für Grafik- und Künstliche-Intelligenz-Funktionen populär geworden.

Da künstliche Intelligenz in den Vordergrund gerückt ist, haben einige Unternehmen, wie Google und Microsoft haben mit der Entwicklung von Chips begonnen, die speziell für den Betrieb ihrer eigenen Deep-Learning-Tools entwickelt wurden. Dies verbessert die Leistung erheblich, aber Sie müssen viele Chips herstellen, damit die Wirtschaftlichkeit funktioniert, sodass dies für die meisten Unternehmen unerreichbar ist.

Die Wahrheit ist, dass all diese Strategien nur Notbehelfe sind. Sie werden uns helfen, in den nächsten zehn Jahren oder so weiter voranzukommen, aber mit dem Ende des Mooreschen Gesetzes besteht die eigentliche Herausforderung darin, einige grundlegend neue Ideen für die Computertechnik zu entwickeln.

wie groß ist katie nolan

Tiefgreifend neue Architekturen

Im letzten halben Jahrhundert wurde das Mooresche Gesetz zum Synonym für Computer, aber wir haben Rechenmaschinen hergestellt, lange bevor der erste Mikrochip erfunden wurde. Anfang des 20. Jahrhunderts leistete IBM Pionierarbeit bei elektromechanischen Tabulatoren, dann kamen Vakuumröhren und Transistoren, bevor Ende der 1950er Jahre integrierte Schaltkreise erfunden wurden.

Heute entstehen zwei neue Architekturen, die innerhalb der nächsten fünf Jahre kommerzialisiert werden. Das erste ist Quantencomputer , die das Potenzial haben, tausende, wenn nicht sogar millionenfach leistungsfähiger zu sein als die aktuelle Technologie. Sowohl IBM als auch Google haben funktionierende Prototypen gebaut und Intel, Microsoft und andere verfügen über aktive Entwicklungsprogramme.

Der zweite große Ansatz ist neuromorphes Computing , oder Chips nach dem Design des menschlichen Gehirns. Diese zeichnen sich durch Mustererkennungsaufgaben aus, mit denen herkömmliche Chips Schwierigkeiten haben. Sie sind auch tausendmal effizienter als die aktuelle Technologie und skalierbar bis hin zu einem einzigen winzigen Kern mit nur wenigen hundert „Neuronen“ bis hin zu riesigen Arrays mit Millionen.

Beide Architekturen haben jedoch ihre Nachteile. Quantencomputer müssen bis nahe an den absoluten Nullpunkt heruntergekühlt werden, was ihre Verwendung einschränkt. Beide erfordern eine grundlegend andere Logik als herkömmliche Computer und benötigen neue Programmiersprachen. Der Übergang wird nicht nahtlos sein.

Eine neue Ära der Innovation

In den letzten 20 oder 30 Jahren war Innovation, insbesondere im digitalen Bereich, ziemlich einfach. Wir konnten uns darauf verlassen, dass sich die Technologie in einem vorhersehbaren Tempo verbessert, und das ermöglichte uns, mit hoher Sicherheit vorherzusagen, was in den kommenden Jahren möglich sein würde.

Dies führte dazu, dass sich die meisten Innovationsbemühungen auf Anwendungen konzentrierten, wobei der Endbenutzer im Mittelpunkt stand. Startups, die in der Lage waren, eine Erfahrung zu entwerfen, zu testen, anzupassen und schnell zu iterieren, konnten große Unternehmen mit weitaus mehr Ressourcen und technologischer Raffinesse übertreffen. Das machte Agilität zu einem entscheidenden Wettbewerbsmerkmal.

wie alt ist ryan clark

In den kommenden Jahren wird das Pendel wahrscheinlich von den Anwendungen zurück zu den grundlegenden Technologien schwingen, die sie ermöglichen. Anstatt uns auf vertrauenswürdige alte Paradigmen verlassen zu können, werden wir größtenteils im Bereich des Unbekannten agieren. In vielerlei Hinsicht fangen wir wieder von vorne an und Innovation wird mehr wie in den 1950er und 1960er Jahren aussehen look

Computing ist nur ein Bereich, der an seine theoretischen Grenzen stößt. Wir brauchen auch Batterien der nächsten Generation um unsere Geräte, Elektroautos und das Stromnetz mit Strom zu versorgen. Gleichzeitig werden neue Technologien, wie z Genomik, Nanotechnologie und Robotik sind auf dem Vormarsch und sogar die wissenschaftliche Methode wird in Frage gestellt .

Wir treten jetzt also in eine neue Ära der Innovation ein, und die Unternehmen, die am effektivsten konkurrieren werden, werden nicht diejenigen sein, die die Fähigkeit zur Disruption haben, sondern diejenigen, die bereit sind, dies zu tun große Herausforderungen meistern und neue Horizonte erkunden.