Sonido digital: ya es musical… ¿cómo hemos llegado hasta aquí?
Estamos en pleno siglo XXI y han pasado cuarenta años desde el lanzamiento del CD como primer formato de audio digital. Aquel momento en que Sony y Philips decidieron que con muestreos de 16 bit y 44’1 kHz sería suficiente para el HiFi (en una época en la que los ordenadores eran mucho menos potentes que un móvil sencillo actual) lo cambió todo para el futuro. Tuvo que pasar bastante tiempo hasta poder aclamar realmente que con resoluciones superiores la música digital puede ser mejor, pero ese cambio de lo analógico a la música en digital es histórico. Y, todavía a estas alturas cuarenta años después, de vez en cuando uno se maravilla por cómo suena un CD bien grabado y bien reproducido…
Y es que ésa es la clave: como reproducir «bien» un disco o un archivo digital para convertirlo en música. Ese «bien» a lo largo del tiempo ha pasado por diferentes etapas, que los aficionados y quienes nos dedicamos además a andar probando aparatos hemos ido viviendo. Han pasado algunas modas, en algún momento ha habido fabricantes que lideraban alguna tecnología en particular, y el paso del tiempo ha ido poniendo a cada uno en su sitio. Vamos a hacer un repaso con una visión general pero también personal de cómo fue todo esto.
Los primeros CD
Una vez presentado el formato, el Disco Compacto con sus 16 bit y 44,1 kHz de muestreo, no tardaron en aparecer los primeros reproductores. Sony y Philips, los inventores, fueron lógicamente pioneros, pero ese «sonido perfecto» no tardó en mostrar alguna cara menos amable: le faltaba mucha musicalidad comparado con la por entonces fuente reina, el plato, e incluso un buen sintonizador FM o una pletina de cassette podía sonar mejor, sin entrar en las relativamente minoritarias cintas magnetofónicas.
La primera respuesta fue la rápida evolución de esas primeras generaciones de reproductores, con su convertidor DAC interno. Por un lado la lectura del disco óptico mejoró, también la resolución de los DAC, y algunos ya percibieron que por muy perfecta que fuera la música digital, también hacía falta un buen soporte mecánico, y unas alimentaciones y circuitos analógicos de salida, a la altura. Marcas como Meridian y otros tomaron componentes originales de Philips o Sony (que también hacían evolucionar sus productos) y sacaron sus propios reproductores «mejorados». Y, sí, sonaban mejor. Empezamos a ver reproductores que, a pesar de los 16 bit del formato nativo, anunciaban usar más bits: primero 18, luego 20… y más tarde llegarían 24 y hasta 32 en tiempos recientes. Supuestamente eso les permite ser más precisos al tratar esos 16 bits originales y tener una conversión mejor, aunque cuarenta años después algunos defienden los chips originales de 16 bits como la mejor forma de conversión, pero ahí empezaría una «guerra» que en parte nos ha llevado a su faceta actual con los archivos de alta resolución, donde más bits y más kHz parece que es «mejor».
Transporte y DAC separado
Pero volvamos a nuestro repaso histórico. El siguiente paso llegó poco después, todavía en los años 1980: en los estudios ya se estaban empezando a usar convertidores ADC (analógico a digital, para grabar) y DAC (digital a analógico, para reproducir), y pareció lógico pasar esa tecnología al audio doméstico. Así aparecieron algunos amplificadores y sobre todo preamplificadores de gama alta que como «plus» ofrecían un convertidor DAC interno. El argumento comercial era bueno, desde luego: se acabó eso de conectar cables de sonido de la fuente al amplificador; se podía hacer con un solo y fino cable de fibra óptica, y el audio «perfecto» pasaba hacia el equipo… Los viejos tocadiscos, con sus críticos cables de brazo llevando la delicada señal de la cápsula al previo, parecían prehistóricos en comparación a eso ¿verdad?
El siguiente paso estaba claro: las necesidades y exigencias de un convertidor DAC y las de un previo analógico eran bastante diferentes, así que mejor separarlos. Estábamos en un tiempo en el que el equipo de sonido «bueno» era lo más «desintegrado» posible: mejor previo y etapa que integrado, mejor etapas monofónicas que etapa estéreo… algo de eso ha llegado hasta hoy, también. Por otra parte, si del reproductor CD íbamos a aprovechar solamente su señal digital, cobraba sentido eliminar toda la circuitería de conversión interna, y de paso así se podía mejorar su capacidad de leer y pasar la información del disco óptico: así nacieron los «transportes» digitales y los convertidores DAC dedicados.
Llega el «jitter»
Ya entramos en plenos años 1990: algunas marcas seguían ofreciendo reproductores CD integrados (en una pieza) pero «lo más» eran los separados, es decir, transporte o lector del disco por un lado y convertidor DAC por otro. La lógica decía que al poder especializar cada aparato en una función, el resultado sería mejor. Pero la experiencia, a poco que uno estuviera alerta, no siempre parecía ser ésa… de hecho algunas marcas se resistieron a esa tendencia.
¿Cómo podía ser que un reproductor digital formado por dos componentes especializados sonara peor que uno integrado? La respuesta estaba en su conexión: el interfaz usado. El ya famoso SPDIF (Sony-Philips Digital Interface Format), ya fuera en su forma de cable coaxial u óptico, tiene la facilidad de permitir conexiones fáciles y fiables… pero hasta cierto punto. Los «ceros y unos» de la música digital no se transmiten de forma tan perfecta como parecía y el mayor problema era uno de sincronización o mejor dicho precisión temporal. Los aficionados descubríamos la palabra «jitter» (algo muy técnico y desconocido hasta ese momento) y eso desembocó en una nueva carrera tecnológica.
Aparecieron así cables que prometían mejorar esa transmisión, transportes con relojes de mayor precisión, DACs con lo mismo, incluso unidades que podían conectarse entre sí para sincronizar relojes (y otro cable). Pero enseguida apareció la necesidad de contar con (otro) aparato más entre reproductor y convertidor: los «anti jitter», un aparato que recibía la señal digital, la «depuraba» y la reenviaba mejorada hacia el convertidor. Durante bastante tiempo, una fuente digital «de referencia» consistía en esos tres componentes. Aunque no siempre: algunos fabricantes seguían creyendo que la mejor forma de evitar el jitter y conseguir una mejor fuente era mantenerlo todo bajo el «mismo techo» con un solo aparato (reproductor integrado).
Siguiente paso: el sobremuestreo
Los primeros «antijitter» mejoraban la señal SPDIF en sí (digamos que eran «pasivos»), pero enseguida hubo los que la decodificaban y permitían retocarla: aumentar profundidad de bits (desde 16 a 20 o 24), añadir «Dither», modificar su nivel digital… Y pronto llegaría aquí el siguiente paso en esa carrera por conseguir que las fuentes digitales sonaran mejor: el sobremuestreo. Esto llegó a finales de los años 1990 poco después de la aparición del que parecía llamado a ser el nuevo formato digital rey, el DVD, dedicado en principio (y al final) al vídeo. La mayor capacidad de un disco óptico DVD permitía almacenar audio en formato PCM (el original) en resoluciones superiores al CD, hasta entonces solamente usadas en estudios para almacenar másters: 24 bit y 96 (o incluso 192) kHz de muestreo.
Aparecieron así unidades de procesado digital-digital (una nueva generación de «anti-jitter») que a partir de los 16 bit y 44,1 kHz originales, la señal se pasaba a una resolución superior teórica. No se añadía información (seguía siendo la misma música) pero el argumento (explicado de forma simple) es que así se podía usar un convertidor DAC de mayor resolución y que la salida llevaba fuera del rango audible las distorsiones que se producían al convertir señales de 44kHz (que se quedan con un límite muy cercano al del oído humano, 22 kHz). Una nueva guerra comercial se puso en marcha, que todavía dura hasta hoy, de DAC capaces de alcanzar cifras más altas cada vez (ahora andamos por 32 bit y 768 kHz)… aunque la mayor parte del tiempo estén trabajando con música de 16 bit y 44,1 kHz en origen (la que se inventó hace 40 años).
Los CD grabables y el DSD (SACD)
Nos hemos saltado dos sucesos relevantes en esta historia, pero no quería interrumpir el hilo. El primer hito fue, a principios de los años 1990 (aunque popularizado más bien a partir de media década), la aparición de las grabadoras de CD. Hasta ese momento, la música digital venía en discos ópticos «cerrados», pero el progreso en los ordenadores personales y la llegada de grabadoras de CD cambió eso totalmente. Ya podías «ripear» (copiar) la música de un CD comprado en tu ordenador, guardarlo en un disco duro, incluso hacer una copia (digitalmente perfecta) en otro CD. Eso fue el detonante de cosas que llegarían después: la compresión de esa música para que ocupara menos espacio, incluso «mucho» menos espacio (MP3) para poderla llevar en un dispositivo compacto y poderla compartir más fácilmente. Cuando Internet se generalizó, eso dio lugar a la música que tenemos ahora: archivos compartidos, «radios» que «emiten» música por internet (envían archivos), y servicios de música como Spotify, Tidal, Qobuz, etcétera. El embrión de todo eso se creó aquel día en que pudimos leer informáticamente la música de un CD.
El otro hito fue el SACD: Sony y Philips, inventores del CD, y conscientes de que la llegada del DVD capaz de almacenar más información podía llevarse por delante su invento, crearon un nuevo estándar para grabar y reproducir música digital. El nuevo formato DSD ofrecía superior resolución y dinámica que el CD, y además una codificación en principio «cerrada»: ordenadores personales excluidos, justo lo que la industria quería en un momento de aparente «anarquía» gracias al MP3, los CD grabables y demás. Como formato físico el SACD solo encontró hueco en el mercado audiófilo (minoritario) pero al final el DSD sí se hizo su hueco y es otro argumento de venta porque representa una resolución superior y, ya es cuestión de opiniones, una calidad musical mejor que el tradicional PCM que empezó con aquellos 16 bit.
Llegando al final: del ordenador al «streamer» dedicado
Ya tenemos establecidas las bases históricas del panorama actual en lo que a fuentes digitales se refiere. Cuando los ordenadores empezaron a poder leer CD era solo cuestión de tiempo que se convirtieran en «fuente»: esos archivos (ya sean ripeados de un CD o descargados por internet) se pueden reproducir y enviar a un equipo de sonido. Los ruidos internos de un PC empujaron enseguida a usar un DAC externo, y enseguida llegó la posibilidad de usar una conexión USB mejorada (el Audio 2.0 asíncrono con control de reloj en destino, libre a priori de los problemas del SPDIF).
El siguiente paso fue especializar ese ordenador: si solo se dedicaba a reproducir audio, se podían eliminar muchos ruidos e interferencias usando un sistema operativo más sencillo y dedicado. Así aparecieron los primeros «streamer», un ordenador optimizado para el sonido… y en eso estamos ahora mismo. Personalmente, hemos podido vivir y disfrutar de muchas de estas evoluciones y sus etapas intermedias: desde los primeros CD integrados, a las primeras pruebas con DAC externos y «antijitter», al uso de ordenadores con DAC y finalmente reproductores dedicados. Las últimas pruebas que hemos hecho, de los optimizados reproductores Antipodes, nos han demostrado que las fuentes digitales sí pueden ser muy musicales, tanto como el viejo plato y con muchas ventajas sobre éste, y empezamos a ver un «final del camino». La evolución no parará de forma que lleguen reproductores de precios más asequibles que sigan esa senda.