Durch Dinge Hören


Warning: Invalid argument supplied for foreach() in /kunden/194289_10243/webseiten/soundstudieslab/wp-content/themes/soundlab/header-single-post.php on line 76

(in einer redigierten Version erschienen in: Neue Zeitschrift für Musik 177 (2016), H. 2, S. 42)

Musikhören ist apparatische Aktivität eines geschulten Körpers. Die Apparate bestehen aus Instrumenten und Aufführungsorten, Konzertsälen und Konstellationen von Lautsprechern, aus Lehrangeboten im Konservatorium, aus Speichermedien, Ensembleproben, konventionalisierten Notationen und musikindustriellen Sparten, aus Kompressions-Algorithmen und ästhetischen Idealen. Die Spannung zwischen dem bereitstellenden Apparat und den zugeneigten Körpern dauert an. Sie wandelt sich historisch in idiosynkratischen Sprüngen: abhängig von den neuesten Apparaturen, ihren gemischten Hörsituationen, dem Erlernen neuer Hörpraktiken und dem Verwerfen, dem Verlernen älterer. Die Persona der Hörenden, ihre sonic persona, bildet sich in diesen individuell erfahrenen Auseinandersetzungen mit diesen »machines to hear for us« (Jonathan Sterne), in ihrer widerständigen Aneignung: Die Hörapparate oder Hörgeräte (Jens Gerrit Papenburg) eignen sich die weichen, empfindlich hörenden Sinneskörper an – Sie und mich –, sie richten uns zu wie auch wir diese wilden, oft zunächst technisch befremdlichen Biester zähmen, ummodeln, sie domestizieren (Roger Silverstone). Diese Spannung zwischen einem technischen Dispositiv des Hörens (Jean-Louis Baudry, Rolf Großmann), historisch tief verankert, und dem sensory corpus, dem empfindsamen, idiosynkratischen Sinneskörper eines einzelnen Hörenden wird im Folgenden anhand von drei Darreichungsformen der Musik erkundet.

I. Freemium Streaming

Von einer Rechnerfarm, die in London und in Stockholm steht und die Rechner angeschlossener Nutzer und deren Speicher als Zwischenablage nutzt, werden Daten per Telekommunikation durch Kabel oder Satellit an den Ort übertragen, an dem mein Rechner steht mit hinreichend breitbandigen Netzanschluss. Die vollständige Verfügbarkeit der gesamten Musik, die das Programm mir nahelegt – durch Abbildungen, Beschriftungen, Verknüpfungen zu anderen Musikstücken und anderen Hörerinnen und Hörern – diese Vollständigkeit ist selbstverständlich eine anrührende Täuschung. Umstandsloser und gesellschaftlich weniger reglementiert kann ich und können andere Hörerinnen und Hörer an musikalische Aufzeichnungen gelangen. Dies hätte ehemals einen peinigenden Vorgang der Auswahl, des Nachweises und der Prüfung gebraucht: Es wäre mein Habitus, mein Vorwissen, meine Kennerschaft, meine erwartete Nutzungsweise, Reflexionsform und Verhaltensweise (Tanzen, Meditieren, Rechnen, Formulieren kritischer Anmerkungen, Vorbereiten von Seminardiskussionen, Prüfung musikästhetischer Prinzipien) ausdrücklich oder unter der Hand geprüft worden. Die Software interessiert das (noch) nicht. Ich klicke auf Musik und höre. Nicht einmal die bildnerische Gestaltung (der Verpackung des Speichermediums, des Aufführungsortes, der Musikerinnen und Musiker, des erklärenden Materials im Programmheft, der Partitur, dem Booklet) prägt mein Hören noch. Ich kann mich der Wunschvorstellung hingeben, ganz und allein der Musik mich zu widmen. Allein der Musik. Das technische Dispositiv des Radiohörens kehrt zudem im Streaming wieder — vor allem im kostenlosen Streaming, das durch eingespielte Werbung sich finanziert: sogenannte Freemium-Angebote, die erst bei Entrichtung monatlicher Gebühr teils werbefrei werden. Gleich einem Radiohörer älterer Jahrzehnte sehe ich nicht auf das Bild einer Plattenhülle, ja nicht einmal die Namen der Musikstücke sind mir gegenwärtig. Ich höre einen Strom einzelner Musikdateien an mir vorüberziehen – manche überhöre ich, andere lassen mich aufmerken. Ich bewerte nicht Bild noch Kostüm, nicht Instrumentalbrimborium noch Technikkarneval. Allein die Musik höre ich. Vielleicht werde ich nach Ende der angewählten Playlist weitergeleitet in eine andere Playlist, die ich gar nicht gewählt habe: eine Playlist, die der Algorithmus aufgrund meiner bislang gehörten Musikdateien sowie den mit mir vernetzten Hörerinnen und Hörern meint, mir als genehm unterjubeln zu können. Oft genug bin ich erfreut und horche auf. Der Algorithmus dient als Cicerone (die überwachungsgesellschaftlichen Abgründe solch ubiquitärer und individualisierter Verhaltensforschung und -archivierung lasse ich diesmal beiseite).

II. Die Schallplatte

Die Platte liegt auf dem Teller. Sie dreht sich und mit dem Aufsetzen des Tonarms – wahrhaft eine kennerschaftlich-geschmäcklerische Geste, die ich ausführe – höre ich die Drehbewegung der Platte anhand ihrer statischen Entladungen, dem Knistern und Knacken. Ich höre eine Musik, deren stilistische, klangliche und räumliche Kennzeichen, deren Arrangement und Akzentuierung ich verstärkt und durch Lautsprecher übertragen zu einem Stereoklangbild zusammensetze. Die steuernden, die begrenzenden und die anhebenden, die gestalterischen Aktivitäten im Frequenzraum höre ich sehr deutlich, die beim Aufbereiten dieser Tonaufnahme für genau dieses Speichermedium vorgenommen wurden: das sogenannte Mastering. Als Plattenhörer gebe ich mich dem Phantasma einer vollständigen Verfügbarkeit dieser Klänge hin. Ich sitze im sweet spot der Stereoeinrichtung, auf den hin die gesamte Produktion, das Mastering sowie meine Lautsprecher ausgerechnet sind. Diese Einrichtung ist gleichgültig gegenüber Genres und Publikum. Sie ist eine technische Voraussetzung, die das Pathos der Schallplatte als Kulturträger prägt: Ich greife direkt auf jeden einzelnen Punkt eines Stückes zu, ich kann präzise ansteuern, was ich hören möchte – und sitze unmittelbar im Zentrum dieser Aufführung. Ob Neue Musik oder Soundscape, ob Dokumentation oder Neues Hörspiel, ob breitwandige Artrockproduktion oder viszerale elektronische Tanzmusik: Ich, der Hörer dieser Aufzeichnung, bin das Zentrum der Wiedergabe. Tatsächlich ist die wiedergegebene Hörsituation eine Fiktion: Eine beeindruckend hergestellte und ausgefeilte Situation des Hörens eines orchestralen, eines kammermusikalischen, eines Band- oder eines Rechner-Klangkörpers – die faktisch nicht existiert. Ich kann weder mitten in den Schaltkreisen eines Rechners sitzen und hören noch inmitten eines Kammermusikensembles, noch auf Dirigenten- oder Überflugsposition über einem Orchester der Spätromantik. Niemand könnte diese Hörpositionen sich anmaßen: Sie sind irreal. Die durch Mikrophonierung, Abmischung und Mastering entstandene Hörsituation ist eine durch und durch synthetische, eine lustvoll-künstliche. Schallplattenhörerinnen und -hörer genießen ein vollständiges Artefakt – angetrieben durch musikalische Darbietungen. Diese Fiktion ist eine sonic fiction (Kodwo Eshun): Ich höre eine Produktion von Alan Parsons oder Günther Breest, von Manfred Eicher, Moses Schneider oder Tony Visconti – und diese Produktion erhebt mich zum unmöglichen Hörer. Ich höre, was nie ein Mensch jemals zu hören vermochte.

III. Verlustfreie Datenformate

Die Kodierung von per Mikrophon aufgezeichneten Klängen in ein Datenformat ist nicht trivial. Sie verlangt zunächst die übliche Umwandlung von Schalldruckwellen in der Luft in elektrische Spannungsänderungen, die verschiedene Intensitäten von Druckwellen repräsentieren. Diese Signale können rechnerisch in digitale – also nicht kontinuierliche, sondern abgestufte – Werte übersetzt werden. Dieses sogenannte Digitalisat kann weiterverarbeitet werden: Es kann gestalterisch, künstlerisch verändert, ergänzt, umgearbeitet, akzentuiert werden. Sogar die gespeicherte Datenmenge kann verkleinert werden: Bestimmte Signalfolgen wiederholen sich, sodass sie sich algorithmisch erkennen und verkürzt speichern lassen. In den üblicherweise komprimierten Datenformaten werden also Muster und Algorithmen gespeichert – nicht Klangdaten. Der Umfang einer Musikdatei sowie ihre Transportzeit und Transportkosten im Netz werden vermindert. Musikspeicherung kann ökonomisch immer noch günstiger vollzogen werden. Ihre Grenze findet sie allein im Hörempfinden und im Klangerkennen von Hörerinnen und Hörern: Wenn Klänge zu verkürzt gespeichert wurden, sind sie kaum mehr als solche hörbar – es wurde dann zuviel herausgerechnet. Maßgebliche Forschungen hierzu sind ein Jahrhundert alt. Das Forschungslabor von AT&T, die sogenannten Bell Labs, erhielten in den 1920ern von ihrem neuen Besitzer, dem Finanzunternehmer J.-P. Morgan einen Auftrag: War es möglich, noch mehr Telefongespräche durch die gleiche Menge an Kabeln zu senden – um mit identischen Investitionen noch viel mehr Gewinn zu machen? Es war möglich: Die Qualität des Sprachsignals kann soweit vermindert werden, dass ein durchschnittlicher, männlicher, junger, studierter Telefonteilnehmer aus wohlhabendem US-Ostküstenmillieu – das waren die Versuchspersonen – die gesprochene Aussage noch grob verstehen kann. Anders gesagt: Wieviel Klänge müssen bestimmte Versuchspersonen hören, bevor sie gar nichts mehr verstehen? Das Ergebnis: Wenn die Qualität auf etwa 25% abgesenkt wird, eine Äußerung also nur noch ein Viertel so deutlich erkennbar ist, können vier Mal so viele Gespräche übermittelt werden. Der Gewinn wird vervierfacht. Hundert Jahre später allerdings wurden keine Telefongespräche derart reduziert, sondern Musikproduktionen – im Format MP3. Das breite Spekturm musikalischer Dynamik und Artikulation wurde behandelt als wäre es Sprache: Ein grotesker Kategorienfehler. Neuerdings müssen musikalische Daten aber immer seltener komprimiert werden. Die Bandbreiten und Übertragungsraten steigen und so wird es immer leichter, eine möglichst große Anzahl der aufzuzeichnenden Charakteristika einer musikalischen Performance oder Produktion tatsächlich zu speichern: in verlustfreien Datenformaten, die mitunter sogar mehr Charakteristika archivieren als jemals zuvor. In wenigen Jahren kann der zerfaltet-abgestufte Klang einer MP3 ähnlich nostalgisch und verträumt gehört werden wie heute eine Vinylschallplatte oder eine Musikkassette. Das arme Medium der Vergangenheit gerät allein durch neuere Apparaturen in den Verdacht rührender Warmherzigkeit.

*

Das Gehör ist Teil der Apparate. Komprimierungen und Inszenierungen sind um die Überempfindlichkeiten und Abgestumpftheiten der Ohren herum arrangiert – soweit sie physiologisch und neurologisch bekannt waren oder sind. Das Standardohr hört exakt stereo und weitgehend verlustfrei auf angezeigten Frequenzbändern, mit der üblicherweise altersbedingten Abschwächung in den höheren Tönen. Doch niemand hört standardisiert. Der intendierte Hörer der Audioproduktion existiert nicht. Zu allem Übel kneten und massieren die Membranen der ubiquitären Lautsprecher die Ohren, die Nerven und die Resonanzbereitschaft weiter und immer weiter. Ich höre den Kontrabass mit meinem Fußsohlen, die den Holzboden berühren. Meine Oberschenkel und mein Becken tanzen mit hüpfenden elektronischen Bässen. Ihre Schädeldecke, Ihre Fingerspitzen und Kieferknochen antworten auf die höchsten Töne, Alarme, Signaltöne, elektrische Ströme, elektronische Schaltungen. Die Dinge tragen Aufzeichnungen hinein in unsere Ohren. Indes unsere Körper noch viel weiter hören, über Signale der Apparate hinaus.