La Ley de Moore fue inventada por primera vez por el cofundador de Intel, Gordon E. Moore. Describió por primera vez esta tendencia en un artículo escrito en 1965. El documento afirmaba que el número de componentes en los circuitos integrados se había duplicado cada año desde la invención del circuito integrado en 1958 hasta 1965. Luego predijo que la tendencia continuaría «durante al menos un año». al menos diez años «. La mayoría de los observadores y expertos en tecnología explican que duplicar solo toma alrededor de 18 meses.

Desde entonces, se ha escrito mucho sobre su tendencia. Se ha escrito mucho más sobre cómo se aplicó no solo a la cantidad de componentes dentro de los circuitos integrados, sino también a los sistemas de memoria, las velocidades de procesamiento, la complejidad de las ejecuciones de software, etc. Son pocos los estudiantes, científicos, ingenieros y trabajadores de las industrias de la tecnología que no se han dado cuenta de su influencia en los ciclos de diseño de productos, el análisis competitivo, el costo futuro de la tecnología y una multitud de otros aspectos comerciales.

La pregunta que se hace a menudo, ¿cuándo terminará esto? ¿O más bien terminará? Y si es así, ¿cuándo? Se han hecho predicciones de que no puede durar para siempre y que «el próximo año» o en la «próxima década» seguramente llegará allí. O algunos dirán que es posible que no termine, sino que disminuya gradualmente hasta que la tasa de duplicación se demore cada vez más. ¡La verdad es que duplicar actualmente lleva menos tiempo!

Bueno, ya basta de eso. Cualquiera interesado en este gran asalto a la naturaleza solo necesita buscar en Internet (Google o Bing o cualquier motor de búsqueda que elija) para encontrar muchos comentarios sobre el tema.

Mi propósito al señalar esto a su atención es resaltar cómo ha afectado al ingeniero de diseño en la producción de sistemas y equipos de hardware para los mercados. Comparamos los días de los circuitos de tubos de vacío con los sistemas actuales que contienen gigabytes de datos con software integrado que impulsa el dispositivo a niveles de productividad nunca antes vistos hace diez años.

Mi experiencia con la electrónica de consumo como el Compact Disc es interesante. Los primeros reproductores de CD presentados al mundo antes de 1982 tenían aproximadamente el tamaño de un escritorio y contenían múltiples placas de circuito impreso alimentadas por múltiples fuentes de alimentación. Las primeras demostraciones se realizaron con una tonelada de circuitos electrónicos discretos escondidos debajo de la mesa detrás de una cortina negra para no revelar la complejidad de los sistemas de lectura. Cuando llegaron al nivel de tecnología disponible en 1982, los primeros jugadores tenían el tamaño de una caja de zapatos o sombrerera muy grande. Contenían más de 100 circuitos integrados de un tipo u otro. Con el tiempo, los circuitos integrados se vuelven cada vez más capaces de contener las funciones en cada vez menos circuitos integrados. De hecho, en 1990 había circuitos integrados capaces de hacer todo el procesamiento digital en un solo chip. ¡Hoy en día, puede comprar un reproductor de CD simple por menos de $ 10!

Cuando se estandarizó el CD, parecía imposible colocar casi 1 GB de datos en el pequeño disco de 12 cm. En aquel entonces, el medio principal utilizado en la PC era un disquete de 8 «o los nuevos disquetes de 3,5» con una capacidad de 1,2 MB. Hoy podemos comprar una unidad de salto de memoria. Flash USB para conectar a la PC por menos de ¡$ 10, que contendrá 4 GB!

La primera estación de trabajo de premasterización de CD usó una PC de alta potencia del día y un bastidor de 8 pies que contenía memoria de disco duro con una gran batería de plomo-ácido de respaldo en la parte inferior en caso de un corte de energía. Eran tan caros que se necesitó una gran inversión para prepararse para lanzar CD en volumen. Un estudio de pre-masterización costaría entre $ 1 y $ 2 millones. Este trabajo ahora se puede realizar en una computadora de escritorio o portátil que cuesta menos de $ 2,000. Todo por la Ley de Moore; o debería decir gratitud y consecuencia de la Ley de Moore.

Los primeros reproductores de CD eran tan complejos que no teníamos forma de probar y observar gran parte de lo que sucedía dentro de los circuitos lógicos. El entrelazado de datos, la aplicación de la codificación Reed Solomon, la corrección de la detección de errores y la protección contra caídas fueron grotescamente complejos. Los diseñadores de material de CD tuvieron que ir más allá de lo que estaban haciendo los analistas informáticos convencionales en ese momento y encontrar formas más poderosas de mantener la fecha lo suficientemente buena para la reproducción de música cuando la superficie del disco estaba dañada.

La misma tecnología que llevó el audio digital a la perfección llegó a instrumentos que ahora podían muestrear y almacenar datos y comparar eventos de procesamiento que ocurrían en equipos de grabación, masterización y replicación de CD. Si bien los primeros CD estaban llenos de abandonos debido a errores en las grabaciones, ahora es muy raro encontrar tales fallas.

Estas grandes mejoras llegaron en forma de osciloscopios digitales que permitieron a los diseñadores de circuitos monitorear y observar canales digitales, temporización y procesamiento a través de circuitos complejos. Los convertidores de analógico a digital, los convertidores de digital a analógico, la fluctuación, la linealidad de bajo nivel y el control de ruido se han mejorado enormemente con una mejor comprensión de los muchos procesos que formaban parte de los estándares de los discos compactos.

Ahora tenemos sistemas de prueba altamente automatizados a nivel de fábrica, en talleres de reparación y entre usuarios de alto nivel que mantienen la tecnología libre de errores y sólida. La próxima vez que escuche un CD con su música favorita, piense en los millones de transistores enterrados dentro del IC del reproductor o dos que manejan todas sus partes individuales leyendo datos a alta velocidad desde la superficie del disco. canal digital. flip-flops que reorganizan los bits de información, eliminan la verificación y el formato del encabezado y, finalmente, colocan los bits digitales en el orden correcto para alimentar un convertidor de digital a analógico que envía el audio final al amplificador y al altavoz. sistema. Es realmente un milagro que no es de extrañar.

No podríamos haber logrado esta hazaña digital sin una revolución similar en los sistemas de prueba, medición y monitoreo utilizados en el diseño y producción de discos, sistemas de grabación y reproductores. Todo esto en unos años. ¿Cuántos años se necesitaron para “perfeccionar” los sistemas de reproducción de discos de audio de vinilo? De 1877 a 1977, ¡eso fue lo que se necesitó! Y el Compact Disc no entró al mercado hasta 1982. Así, la grabación de música analógica que había existido durante más de 100 años fue reemplazada por un sistema de audio digital que ahora tiene poco más de 20 años y está amenazado con la completa obsolescencia. el futuro cercano con sistemas digitales más nuevos para descarga directa sin el uso de medios empaquetados en absoluto.

¿Y después?