La Ley de Moore es una estimación de cómo el rendimiento de los procesadores se desarrollará con un tamaño y precio constante o decreciente. La ley se remonta a Gordon Moore, quien ya en 1965 predijo que el número de componentes electrónicos que pueden disponerse en un chip de computadora se duplicaría cada 12 a 24 meses. De esto surgió la forma corta en que la potencia se duplica cada 12 a 24 meses. Con el tiempo, la Ley de Moore se convirtió en una profecía autocumplida, ya que muchos fabricantes de microelectrónica utilizaron la ley como objetivo para sus propios desarrollos.
Además de los procesadores informáticos, la ley también se aplica al desarrollo de memorias y sensores. En el caso de las memorias, los costos de una unidad de memoria específica se reducen a la mitad en un período de tiempo. Para los sensores, la medida es cuántos píxeles por unidad de área pueden ser distinguidos. Hoy en día, varios miles de millones de transistores están ubicados en un procesador técnicamente avanzado en un área de unos pocos milímetros cuadrados.
La Ley de Moore no es una ley de la naturaleza, sino la estimación del desarrollo económico y técnico. El desarrollo de nuevas tecnologías está determinado principalmente por la cantidad de dinero que se gasta en investigación y desarrollo. Sin embargo, puede suponerse que la predicción de la Ley de Moore con respecto a la potencia de cálculo de los microprocesadores no puede cumplirse en el futuro aumentando el número de componentes de un chip de computadora. La tecnología de producción es tan madura que los diodosy transistores utilizados en el microchip a veces sólo consisten en unas pocas capas atómicas, alcanzando así los límites físicos.
Moore’s law