Apple iPhone 5s (2013)

Foto: Klaus Polkowski

»Music’s always been at the heart of Apple« – Das Smartphone als Musikobjekt

»Das Smartphone ist nicht mehr wegzudenken« – so formuliert es der Besitzer des hier betrachteten iPhone 5s von Apple. Und in der Tat: Wohl kaum eine Gerätegattung hat sich seit den späten 2000er-Jahren derart rasant verbreitet wie das Smartphone. Die Modelle von Apple trugen dazu einen großen Teil bei, kombinierten sie doch von Beginn an das für den US-amerikanischen Konzern typische funktionale Design mit einer intuitiven Bedienbarkeit. Gerade die Kombination dieser beiden Aspekte sorgte dafür, dass die iPhone-Modelle zu den populärsten Smartphones überhaupt wurden. Dass Smartphones im Allgemeinen den Alltag ihrer Nutzer*innen so stark prägen, ist vor allem auf ihre Multifunktionalität zurückzuführen. Mit den Geräten wird nicht nur die alltägliche Kommunikation geregelt, sondern mittlerweile dank eines reichhaltigen Angebots an musikbezogenen Apps vor allem auch Musik gehört und mitunter sogar gemacht. Smartphones sind deshalb seit ihrem endgültigen Durchbruch in den 2010er-Jahren als Apparaturen zu verstehen, die das zeitgenössische Musikleben elementar prägen, auch wenn sie unter Musiker*innen bisweilen noch immer nicht als Musikinstrumente anerkannt werden.

Das iPhone ist nicht Teil der Archivbestände der am Verbundprojekt »Musikobjekte der populären Kultur« beteiligten Institutionen. Es wurde den Verfassern leihweise zur Verfügung gestellt und anschließend wieder an den Besitzer zurückgegeben. Das iPhone war zum Zeitpunkt der Leihgabe nicht mehr in Gebrauch und wurde im Sinne des Datenschutzes auf Werkseinstellungen zurückgesetzt. Dieses Vorgehen war notwendig, da sich im Laufe des Forschungsprozesses keine Personen ermitteln ließen, die sich bereit erklärt hätten, den Projektbeteiligten ihr persönliches Smartphone inklusive aller Applikationen und im aktiven Nutzungszustand auszuhändigen. Hier zeigt sich die sehr persönliche Bedeutung, die das Smartphone für viele Nutzer*innen hat.

Der Text gliedert sich im Folgenden in zwei übergreifende Teile. Zunächst wird das iPhone hinsichtlich seiner Materialität, Funktionalität und technischen (Fort-)Entwicklung beschrieben, der zweite Teil beleuchtet Smartphones als Medien der Musikrezeption und -produktion. Sie können es mithilfe der Buttons entweder chronologisch oder thematisch lesen. Zwei Infoboxen zu Affordanz und Smartphones als Instrumenten bieten zusätzliche Hintergrundinformationen.

Objektbeschreibung

Bei dem hier besprochenen Artefakt handelt es sich um das Modell iPhone 5s von Apple. Das iPhone 5 wurde im September 2012 der Öffentlichkeit vorgestellt, die Produktvariante iPhone 5s folgte etwa ein Jahr später (vgl. Schwer 2014: 222). Das Objekt weist einen rechteckigen, flachen Körper auf, die Ecken sind leicht abgerundet. Dunkle Farbtöne von schwarz bis dunkelgrau dominieren die Oberflächen, die nahezu fugenfrei zusammengefügt sind. Die Frontseite resp. das Display besteht aus Glas, der umlaufende Rahmen aus Metall und die Rückseite aus Metall mit Glas-Inlays, die als Abdeckung der Kameralinse und des LED-Blitzes dienen. Die Metalloberflächen sind mattiert (Rückseite) und hochglanzpoliert (Rahmen), während sich das Display durch eine spiegelnde bzw. glänzende Oberfläche auszeichnet. Auf der Vorderseite findet sich lediglich ein Bedienelement, der sog. Home-Button. Alle weiteren Nutzerschnittstellen sind im umlaufenden Rahmen angebracht. An der Oberseite befindet sich eine Drucktaste zur Inbetriebnahme des Geräts, links kann die Lautstärke geregelt und rechts die SIM-Karte eingelegt werden. An der Unterseite finden sich eine 3,5 mm-Kopfhörerbuchse, eine doppelte Lochreihe für die Lautsprecher und eine Buchse für den Docking-Connector. Kamera, LED-Blitz und Mikrofonöffnung sind in einer Reihe nebeneinander am oberen Rand der Rückseite platziert (vgl. ebd.: 224–228). Das Gerät lässt keine Nutzermodifikationen und, abgesehen von einigen kleinen Kratzern, keine Abnutzungsspuren erkennen.

Abb. 1: Das iPhone.
Foto: Klaus Polkowski

Innenleben, Audiotechnik und Sensoren

Das Herzstück des Smartphones ist das sog. Ein-Chip-System, der A7, mit dem Apple einen Haupt- und Grafikprozessor sowie weitere Komponenten in einem Bauteil bereitstellt. Trotz langjähriger Patentstreitigkeiten wurde der Prozessor in den Fabriken des Konkurrenten Samsung hergestellt, da dort die notwendige Infrastruktur vorhanden war (vgl. Anonym 2013: 85). Das System läuft auf Basis der 64-Bit-Technologie und ist mit ca. 1 GB Arbeitsspeicher ausgestattet, der Zweifachkern rechnet mit 1,3 GHz (also 1,3 Milliarden Rechenoperationen pro Sekunde). Im Vergleich zum Vorgängermodell findet nahezu eine Verdoppelung der Geschwindigkeit statt. Entlastet wird das Hauptsystem von einem Ko-Prozessor, einem Adreno 320 des Chipherstellers NXP Semiconductors, der von Apple als »M7 Motion Coprozessor« (Apple 2013c) bezeichnet wird. Vor allem die Rechenprozesse im Zusammenhang mit der Erhebung und Verarbeitung der Daten der Sensoren sind in diesen Ko-Prozessor ausgelagert. Mit der Einführung des iPhone 5s war das Update des Apple-Betriebssystems auf die Version iOS 7 verbunden.

Das iPhone 5s bietet mehrere Möglichkeiten zur Klangaufnahme und Klangwiedergabe. Während der eingebaute Lautsprecher an der Unterseite des Geräts einkanalige Wiedergabe ermöglicht, wird beim Anschluss eines Kopfhörers oder eines Aux-Kabels ein hochauflösendes Stereosignal ausgegeben. Klangaufnahmen werden durch ein Mikrofon an der Vorderseite, sichtbar direkt unter der Frontkamera, eines an der Rückseite, kaum erkennbar zwischen iSight-Kamera und LED-Blitz, sowie durch ein weiteres an der Unterseite ermöglicht. Dabei handelt es sich um ein MEMS (micro-electro-mechanical system) des Zulieferers Knowls, also eine Art Klangüberträger, der auf kleinstem Raum Membran, Verstärker und andere Elemente eines Mikrofons vereint (vgl. Kardous/Shaw 2016: 328).

Ein- und ausgehende Signale werden im iPhone 5s über einen Audio Codec IC (338S1201 U21) verarbeitet. Der Chipsatz kombiniert einen Analog- zu Digital- und einen Digital- zu Analogwandler und bestimmt die Auflösung des Audiosignals, das für das vorliegende Modell mit 16 Bit und 44.1 kHz angegeben wird. Dies entspricht dem CD-Standard, wie er im Red Book festgehalten ist.  Die von einigen Nutzer*innen bescheinigte hohe Qualität wird dabei auf die Erfahrung mit vorherigen Apple-Produkten wie dem iPod zurückgeführt (vgl. Summerson 2018). In Bezug auf die Bereitstellung hochauflösender Audiodateien ist der/die Nutzer*in auf das eigens von Apple entwickelte Lossless-Format (das die verlustfreie Kompression von Audiosignalen bewirkt) angewiesen, andere Formate wie FLAC werden von diesem Modell noch nicht nativ unterstützt.

Zentral für alle iPhone-Modelle ist der Home-Button. Im Falle des Modells 5s ist in diesem Bedienelement ein Fingerabdruck-Scanner eingebaut, der auf Basis vieler kleiner Kondensatoren über Druck ein genaues Bild der Papillarleisten erstellen kann (vgl. Anonym 2013: 85). Neben dem Home-Button, den Lautstärketasten an der Seite und dem ›Klingeln/Aus‹ vollzieht sich der Großteil der Interaktion über den Multi-Touch-Screen. Mit diesem werden über verschiedene Gesten und Interaktionen wie Tippen, Wischen, Auseinanderziehen (Ein-/Auszoomen), Ziehen (z. B. an einem Lautstärkeregler oder zum Scrollen einer Seite) alle Programme bedient (vgl. Apple 2013a: 10). Apple verwendet dafür seit dem ersten Modell die projektiv-kapazitive Methode (vgl. Walker 2015: 1). Dabei wird mit einem elektrischen Feld gearbeitet, das zwischen zwei Ebenen hinter dem Display entsteht, wobei eine sehr hohe Anzahl an kleinen Kondensatoren zum Einsatz kommt. Apple entwickelte die In-Cell-Konstruktionsweise, bei der die beiden Ebenen im LC-Display zusammengelegt werden (vgl. ebd.: 50). Das elektrische Feld erstreckt sich bis zum Glasdisplay. Die Berührung durch den (geerdeten) Finger auf dieser Bedienoberfläche führt dazu, dass sich bestimmte Ladungszustände in dem erzeugten Feld ändern. Sie können von den einzelnen Kondensatoren ausgelesen, von Programmroutinen interpoliert und so als zweidimensionale Berührungspunkte verstanden bzw. projiziert werden. Diese Methode ist hinsichtlich der Handhabung des Geräts mit einigen Vorteilen verbunden: Dadurch, dass das Interface nicht auf Druck, sondern auf Veränderungen des elektrischen Feldes reagiert, können auch sachte Gesten mit dem Finger ›interpretiert‹ werden. Auch die Multi-Touch-Funktion, also die simultane Interpretation von mehreren Berührungspunkten, wird vereinfacht. Obgleich andere Touch-Technologien ›echten‹ Druck ausmessen, lässt sich dies durch die Bestimmung größerer bzw. kleinerer Auflagepunkte simulieren.

Zugleich sind im iPhone 5s, wie auch in vielen Vorgänger- und Konkurrenzmodellen, verschiedene Sensoren eingebaut, die neben der Standortbestimmung und Gestenerkennung auch dazu dienen, bestimmte Bewegungsmuster wie Laufen, Stehen oder Autofahren zu erkennen. Dies wird als »Kontextbewusstsein« (Apple 2013c: o. S.) bezeichnet und ermöglicht bspw. das Aufzeichnen verschiedener sportlicher Aktivitäten. Durch seinen ausgelagerten Chip bot gerade das iPhone 5s neue Möglichkeiten und eine höhere Genauigkeit dieser Interpretation. Der Beschleunigungssensor misst die Geschwindigkeit, mit der sich das Gerät aus einer Ruheposition in eine bestimmte Richtung bewegt, indem eine ausgehängte Feder bei Bewegung gegen eine feste Bezugseinheit auslenkt. Hier wird, wie beim Multi-Touch-Screen, mit der Auswertung geänderter Kapazität gerechnet. Dadurch wird es möglich, z. B. beim Navigieren die Richtung festzustellen, in die sich die/der Nutzer*in bewegt. Der Annäherungssensor dient dazu, beim ›klassischen‹ Telefonieren den Bildschirm auszuschalten und der Umgebungslichtsensor ermöglicht die Interpretation von Lichtverhältnissen, um z. B. die Helligkeit der Hintergrundbeleuchtung zu regulieren.

Der Begriff Smartphone ist weder eine Erfindung des Konzerns Apple noch der späten 2000er-Jahre. Nachweislich zirkulierte der Terminus schon Mitte der 1990er-Jahre in der Herstellerbranche, wo die Multifunktionsgeräte, mit denen eben nicht nur telefoniert werden sollte, bisweilen als »smart phone[s]« (Savage 1995: 40) bezeichnet wurden. Diese Geräte sollten den Nutzer*innen die alltägliche und vor allem die berufliche Kommunikation erleichtern, weswegen mit ihrer Hilfe auch E-Mails geschrieben, Termine koordiniert und Kurznachrichten verschickt werden sollten. Als erstes Smartphone gilt landläufig das IBM Simon, dessen Markteinführung 1994 erfolgte. Bei Maßen von 200 x 64 x 38 mm wies das Gerät ein Gewicht von 510 g und eine Speicherkapazität von 1 MB auf. Es verfügte über ein Mikrofon und über einen Touchscreen, einen sog. »sensitive screen« (Jin 2020: 88), der mithilfe eines Stiftes bedient wurde. Mit dem Gerät ließ sich nicht nur telefonieren, sondern auch E-Mails und Faxe konnten verschickt werden, wobei die Batterieleistung bei intensiver Nutzung zumeist nach nur 60 Minuten zur Neige ging (vgl. ebd.; Lima et al. 2019: 4 f.). In den frühen 2000er-Jahren verbreitete sich das BlackBerry, das bereits über die wesentlichen Funktionen späterer Smartphones verfügte. Im Laufe der Jahre und infolge der Etablierung resp. Weiterentwicklung der Apple-Modelle, aber auch verschiedener Android-Geräte, wurde es allerdings obsolet. So zeigt sich, dass die Markteinführung des ersten iPhone im Jahr 2007 den globalen Durchbruch der Gerätegattung einleitete, die grundlegenden Entwicklungen sich aber schon gut ein Jahrzehnt früher vollzogen hatten und Apple dahingehend keine technologische Vorreiterrolle einnahm.

Bereits einige Jahre vor dem Siegeszug des Smartphones entwickelte sich das Handy zum global verbreiteten Kommunikations- und Unterhaltungsmedium. Noch in den letzten Jahren des 20. Jahrhunderts war diese Entwicklung kaum abzusehen, zeigten sich doch sowohl Marktexpert*innen als auch Gerätehersteller und Käufer*innen in den späten 1990er-Jahren überrascht von der rasanten Ausbreitung des Mobiltelefons (vgl. Weber 2008: 251). Mitte der 1990er-Jahre kamen einschlägige Marktforschungen zu dem Ergebnis, dass zu Beginn des neuen Jahrtausends in Deutschland mit fünf bis sechs Millionen Handynutzer*innen gerechnet werden könne – in den Jahren 2000 und 2001 wurden sodann bereits mehr als 50 Millionen Nutzer*innen der GSM-Netze (Global System for Mobile Communications, ein Mobilfunkstandard) registriert (vgl. ebd.: 264). Waren Handys bis zur Mitte der 1990er-Jahre in erster Linie als funktionale Gebrauchsgegenstände konzipiert worden, forcierte vor allem der finnische Konzern Nokia alsbald eine neue Vermarktungsstrategie. Das Nokia-Modell 2110 wurde nunmehr als personalisierter technischer Alltagsbegleiter inszeniert und die Nutzerfreundlichkeit wurde zunehmend verbessert. Die neuesten Modelle verfügten über sog. Softkeys, mit denen eine Menüfunktion, die auf dem Display angezeigt wurde, angewählt werden konnte. Ältere Modelle erforderten noch die Eingabe komplizierter Ziffernkombinationen, wenn etwa eine Rufnummer eingespeichert werden sollte. Wenngleich Handys für die mobile Nutzung entworfen worden waren, vollzog sich im Laufe der Zeit eine Umfunktionierung, da die Geräte dank Speicherfunktionen für Spiele, Bilder und Musik auch zunehmend zuhause sowie zur individuellen Kommunikation und Freizeitgestaltung genutzt wurden (vgl. ebd.: 275 f.; Fortunati 2006: 178). Ab den frühen 2000er-Jahren änderten sich auch die Werbestrategien der meisten Hersteller, Handys wurden fortan nicht mehr nur als Kommunikationsmedien vielreisender Berufstätiger, sondern auch als hippe Accessoires für Jugendliche inszeniert (vgl. Weber 2008: 278). Auf diesem Wege erfolgte eine »Miniaturisierung, Emotionalisierung und Ästhetisierung des Handy-Designs« (vgl. ebd.: 281) – hier zeigen sich deutliche Parallelen zu den späteren Erfolgsrezepten des Smartphones.

Mit der Markteinführung des iPhone präsentierte Apple also keine gänzlich neue Gerätegattung und auch keine prinzipiell bahnbrechenden Funktionalitäten. Als Garant für den Erfolg des Modells, mit dem die mobile Internetnutzung endgültig massentauglich wurde, gilt vielmehr die Benutzerfreundlichkeit (vgl. Schwer 2014: 219 f.). Die leichte Bedienbarkeit resultiert vor allem aus der Möglichkeit, das Gerät via Touchscreen mit den Fingern zu bedienen. In diesem Zusammenhang haben sich, so der Medienkulturwissenschaftler Oliver Ruf, sogar »neue Kulturtechniken wie diejenige des Wischens und Gegensteuerns per Hand« (Ruf 2018: 18; vgl. ausführlich Ruf 2014) entwickelt. Zudem gelten moderne Smartphones seit dem iPhone als ›Allrounder‹, als der »Inbegriff des All-in-One« (Grätz 2011: 18), da diese Geräte vielfältige Funktionalitäten in den Bereich Kommunikation, Organisation und Unterhaltung in sich vereinen und mit einer intuitiven Bedienbarkeit kombinieren.

Anlässlich der Markteinführung des iPhone 5s im Jahr 2013 annoncierte Apple das neue Produkt in einer Pressemeldung als »das weltweit fortschrittlichste Smartphone« (Apple 2013b: o. S.). Es definiere »das beste Smartphone-Erlebnis der Welt neu mit aufregenden neuen Funktionen in einem bemerkenswert dünnen und leichten Design« (ebd.) und verfüge »über eine beeindruckende neue Benutzeroberfläche« (ebd.). In gewohnt selbstsicherer Weise hob der Konzern dabei neben den Designlösungen vor allem die technologische Weiterentwicklung des iPhone hervor. Bereits wenig später regten sich in der Presse jedoch kritische Stimmen, die die Frage aufwarfen, was genau am neuen Apple-Smartphone tatsächlich neu war.

Als Novum wurde die 64-Bit-Technologie bewertet, die Apple als erster Hersteller in einem Smartphone eingesetzt und die »einen deutlichen Leistungszuwachs« (Kremp 2013: o. S.) bedingt habe. Überdies sei die integrierte Kamera verbessert worden, denn das iPhone 5s verfüge im Vergleich zu den Vorgängermodellen über einen größeren Fotochip (vgl. Gruber 2013: o. S.). Besonderes Aufsehen erregte der Fingerabdrucksensor, der unterhalb des Home-Button installiert wurde. Mithilfe dieses Sensors konnten sich die iPhone-Nutzer*innen nicht nur ohne PIN-Nummer an ihrem Gerät anmelden, sondern bspw. auch Songs, Apps und Videos aus dem iTunes Store kaufen. Ein einzelnes Gerät ließ sich auf diese Weise von bis zu fünf Personen nutzen (vgl. Hauck 2013b: o. S.). Allerdings wurden schon kurz nach der Markteinführung des iPhone 5s bisweilen ausdrückliche Bedenken hinsichtlich des Datenschutzes geäußert. So monierte Kai Biermann (2013: o. S.) auf Zeit Online, es könne nur eine Frage der Zeit sein, bis die in diesem Zuge gesammelten Fingerabdruckdaten missbraucht würden. Aufgrund der großen Popularität und Akzeptanz der Apple-Smartphones sei zu befürchten, so Biermann weiter, dass der laxe Umgang mit derart sensiblen Daten bald zur Normalität werden könne (vgl. ebd.).

Mitunter wurde auch bemängelt, dass die Änderungen nur kleine Details beträfen, das iPhone 5s von seinem unmittelbaren Vorgängermodell kaum zu unterscheiden sei und Apple-Smartphones wohl nicht mehr in großen Schritten weiterentwickelt werden können. Hierzu Angela Gruber (2013: o. S.): »Es war nur eine Frage der Zeit, bis ein Punkt erreicht war, an dem punktuelle Verbesserungen des Bestehenden reichen müssen, weil es nicht immer exponentiell nach oben gehen kann. Irgendwann ist eine Sättigung erreicht«. In einem ausführlichen Bericht auf den Internetseiten der Frankfurter Allgemeinen Zeitung wurde zudem argumentiert, dass das Apple-Produkt sich nicht nennenswert von der Konkurrenz hätte absetzen können und mitunter sogar hinter den Leistungen anderer Smartphones zurückbleibe:

Das iPhone 5s ist […] keine Revolution, und die Fans anderer Betriebssysteme werden mit Recht darauf verweisen, dass zum Beispiel ein Nokia Lumia die bessere Kamera und die bessere Fahrzeugnavigation hat. Im Android-Bereich gibt es mehr Auswahl bei der Hardware, größere Anzeigen, Stiftbedienung und nahezu unendliche Optionen der Individualisierung. Das iPhone ist und bleibt teuer, die Preise ohne Kartenvertrag liegen zwischen 700 und 900 Euro je nach Speicher. (Spehr 2013: o. S.)

Die im Vergleich mit den Modellen anderer Hersteller hohen Preise der Apple-Smartphones bieten seit der Markteinführung des ersten iPhone fortlaufend Anlass zur Kritik. Immer wieder wurde in diesem Zusammenhang auch versucht, die tatsächlichen Produktionskosten zu ermitteln, um den potenziellen Gewinn des Konzerns einschätzen zu können. Im Falle der teuersten Variante des iPhone 5s sollen die Herstellungskosten seinerzeit bei 162 Euro gelegen haben (vgl. Hauck 2013a: o. S.).

Wenngleich Apple in den vergangenen Jahren zweifelsohne entscheidenden Einfluss auf die Weiterentwicklung apparativer Medien und die mit diesen verknüpften Nutzungschoreografien nehmen konnte, steht das Unternehmen auch immer wieder in der Kritik. Apple rangierte laut Greenpeace-Recherchen in puncto Nachhaltigkeit lange Zeit auf dem letzten Platz unter den großen Technologiekonzernen, was u. a. mit der Verschwendung von Rohstoffen, der Umweltverschmutzung durch Elektroschrott und den miserablen Bedingungen für die Arbeiter*innen in den Zuliefererbetrieben begründet wurde (vgl. Borries 2011: 61). Diese Missstände markieren die Kehrseite des auf design-, marketing- und technologiespezifischen Innovationen basierenden globalen Erfolgs des Unternehmens Apple, das immer wieder mittels öffentlichkeitswirksamer Kampagnen versucht, auf die Nachhaltigkeits- und sozialen Initiativen des Konzerns hinzuweisen und den Imageschaden zu minimieren.

Das Produktdesign gilt als elementarer Stützpfeiler des Unternehmens Apple, als das primäre Distinktionsmerkmal und letztlich auch als wesentliches Instrument der Kundenbindung. Für die erfolgreichsten Produkte, so auch für das iPhone, griff Apple immer wieder bestehende Technologien auf und vereinte sie in neuen Geräten. Diese konnten in der Folge gerade nicht aufgrund des technologischen Innovationsgrades, sondern vor allem auf Basis designspezifischer Lösungen derart populär werden. Hierzu die Kunsthistorikerin Ina Grätz:

Noch nie hat das Unternehmen Apple ein gänzlich neues elektronisches Produkt entwickelt: Weder der Computer noch der MP3-Player oder gar das Handy wurden von Apple erfunden. Dass die Geräte des Unternehmens heute dennoch als die innovativsten unserer Zeit gelten, erklärt sich vor allem aufgrund ihres Produktdesigns. (Grätz 2011: 11)

Es scheint unstrittig, dass Apple-Smartphones vielen Konkurrenzprodukten in technologischer Hinsicht nicht überlegen, dafür aber angenehmer in der Nutzung sind. Das erste iPhone unterschied sich ganz entscheidend von den BlackBerry- und Nokia-Modellen der 2000er-Jahre, denn es bot eine »grundlegend neue Benutzeroberfläche« (Zec 2011: 94; vgl. auch Mazzucato 2014: 121 f.). Eine der besonderen Leistungen des Konzerns besteht darin, »das Potenzial vorhandener technischer Möglichkeiten zu erkennen, sie im richtigen Moment in einer für den Nutzer optimierten Weise zusammenzuführen und dem Ganzen eine Gestalt zu geben, die ihm entspricht« (Wagner 2011: 38).

Häufig wird in journalistischen und akademischen Texten nach den Vorbildern der minimalistischen Apple-Formsprache gesucht, und in der Regel werden dabei Parallelen zum Unternehmen Braun resp. zu Dieter Rams, dem langjährigen Chefdesigner des Kronberger Konzerns, gezogen. Tatsächlich lassen sich mit Blick auf die Firmengeschichten und den Stellenwert, den das Design in beiden Unternehmen einnahm resp. einnimmt, einige Gemeinsamkeiten feststellen – auch hinsichtlich maßgeblicher personeller Entscheidungen. 1997 wurde der Designer Jonathan Ive Senior Vice President of Industrial Design bei Apple. Durch die Besetzung dieser hochrangigen Position mit einem Designspezialisten wurde das Produktdesign gewissermaßen zur ›Chefsache‹ erhoben (vgl. Klinke 2011: 45). Ähnlich verhielt es sich bei Braun in den 1950er-Jahren, als die Konzernleitung den Kunsthistoriker Fritz Eichler engagierte, ihn nach kurzer Zeit zum Designdirektor ernannte und somit das Ineinandergreifen von industrieller Produktion und ästhetischer Vision forcierte (vgl. Braun 2011: 6). Neben Braun orientierten sich auch Hersteller wie Wega, Brionvega, Bang & Olufsen und Leica an ähnlichen Gestaltungsprinzipien gemäß den zentralen Kriterien »Einfachheit, Reduktion und Funktionalität« (Grätz 2011: 15 f.). Insgesamt ist die Einflussnahme der Formsprachen dieser Konzerne auf das Apple-Produktdesign kaum von der Hand zu weisen. Ferner reproduziert der US-amerikanische Konzern die »Formkonstanz« (ebd.: 16), die sich bereits bei Braun feststellen ließ. Einzelne Apple-Produkte unterscheiden sich in ihrem visuellen Erscheinungsbild nur graduell, woraus ein hoher Wiedererkennungswert resultiert. Angesichts der sehr schlicht gestalteten Oberflächen von Geräten wie dem iPhone scheint ferner die bekannte Rams’sche These »Gutes Design ist so wenig Design wie möglich« (zit. n. ebd.) bzw. das Gestaltungsprinzip »Weniger, aber besser« (zit. n. Klinke 2011: 44) Einfluss auf das Apple-Produktdesign genommen zu haben.

Die iPhone-Oberfläche besteht zu großen Teilen aus dem Display und entspricht somit dem Ideal des möglichst minimalistischen Produktdesigns. Apple-Geräte sind ferner bekannt dafür, sich nicht ohne Weiteres öffnen zu lassen, sodass nur wenige Nutzer*innen wissen, was sich unter den glänzenden und mattierten Oberflächen befindet, geschweige denn, nach welchen technologischen Prinzipien das Innenleben der Geräte funktioniert. Dieses mit dem Sprachbild der ›Blackbox‹ umschriebene Phänomen ist paradigmatisch für moderne apparative Medien. Die Blackbox, so Heike Weber (2017: 116), spielt »zum einen auf die materiale Gestaltung an – das technische Innenleben wird in Hüllen und Gehäusen verkleidet – und zum anderen auf den Fakt der Komplexitätsreduzierung des Wissenschaftlich-Technischen – die Bedienung erfordert kein Verstehen aller Abläufe«. Gerade wenn technische Artefakte nicht für Spezialist*innen, sondern für den Massenmarkt konzipiert werden, sind die Produkte in der Regel so designt, dass ihre Bedienung möglichst wenig technisches Know-how erfordert (vgl. ebd.: 115). Deshalb etablieren sich häufig nicht unbedingt die ›besten‹, sondern eben die nutzerfreundlichsten Technologien (vgl. ebd.: 119). Design und Technologie müssen dabei fein aufeinander abgestimmt sein, damit Verbindungen zu den Nutzer*innen hergestellt werden können:

Design kommt unweigerlich überall dort ins Spiel, wo der schwarze Kasten dem Benutzer eine Kontaktseite zuwenden muss, um sich ihm trotz seiner inneren Hermetik nützlich zu machen. Design schafft den dunklen Rätselkästen ein aufgeschlossenes Äußeres. […] Je unbegreiflicher und transzendenter das Innenleben des Kastens ist, desto auffordernder muss das Kastengesicht dem Kunden ins Naturgesicht lächeln und ihm signalisieren: Du und ich, wir können es miteinander. (Sloterdijk 2007: 149)

Geräte wie Apples iPhone suggerieren den Nutzer*innen folglich »maximale Benutzungsmacht bei minimalem technischen Know-how« (Mareis 2017: 94), denn sie sind intuitiv bedienbar, weisen nur wenige Nutzerschnittstellen auf und stiften wenig Verwirrung – ein iPhone ist »selbsterklärend. Es bedarf keiner Gebrauchsanweisung, um es erfolgreich in Betrieb zu nehmen« (Zec 2011: 95).

Mit Produkten wie dem iPhone, so scheint es, orientiert sich Apple in hohem Maße an Grundsätzen ›gelungenen‹ Produktdesigns. In seinem viel beachteten Buch The Design of Everyday Things (2016) definiert der Kognitionswissenschaftler Don Norman »Erkennbarkeit (discoverability) und Verständlichkeit (understanding)« (ebd.: 3; Herv. i. O.) als »[z]wei der wichtigsten Charakteristiken von gutem Design« (ebd.). Essenziell sei es, so Norman weiter, als Nutzer*in möglichst schnell herausfinden zu können, wozu ein Objekt genutzt und wie es bedient werden kann (vgl. ebd.). Da gelungene Produkte den Konsument*innen nicht nur formell nützlich sein, sondern mit ihrer Hilfe potenziell auch ästhetische Erfahrungen generiert werden sollten, unterscheidet Norman zwischen den Ebenen des Produkt-, Interaktions- und Erlebnisdesigns. Stünden im Produktdesign Form und Material im Mittelpunkt, fokussiere das Interaktionsdesign die Aspekte Erkennbarkeit und Verständlichkeit, das Erlebnisdesign hingegen ziele ab auf den emotionalen Effekt (vgl. ebd.: 4 f.). Um diesen Anforderungen in der Designpraxis entsprechen zu können, müssten die Prinzipien des Human Centered Design (HCD) beherzigt werden:

Abb. 2: Das iPhone.
Foto: Klaus Polkowski

HCD ist eine Herangehensweise, in der menschliche Bedürfnisse, Fähigkeiten und Handlungsweisen in den Vordergrund gestellt und Designs diesen angepasst werden. […] Gutes Design erfordert gute Kommunikation, besonders zwischen Mensch und Maschine. Die Maschine muss darauf hinweisen, welche Aktionen durchführbar sind, was gerade passiert und was folglich darauf passieren wird. […] Human Centered Design ist eine Designphilosophie. Es bedeutet, dass mit einem guten Verständnis für den Menschen und den Anforderungen, denen das Design entsprechen sollte, an die Sache herangegangen wird. Dieses Verständnis wird hauptsächlich durch Beobachtung erlangt, da es häufig vorkommt, dass sich der Mensch weder darüber im Klaren ist, welche Bedürfnisse er hat[,] noch, wo die Ursache der Schwierigkeiten liegt, die ihm begegnen. (Ebd.: 8)

Anschließend an diese Überlegungen ist zu konstatieren, dass technische Artefakte den Nutzer*innen spezifische Handlungsangebote machen. Im Idealfall ist ihre Handhabung – im Rahmen der kulturellen Kontexte, in welchen das Gerät in Umlauf gebracht wird – selbsterklärend, sodass sich der Handlungserfolg unmittelbar einstellen kann. Ein Smartphone muss dabei zunächst gut in der Hand liegen, allerdings sind auch im Bereich der Software ausreichend intuitive Elemente vonnöten, damit sich eine angenehme Nutzungserfahrung einstellen kann. Gerade die Produktverantwortlichen von Apple sind nachweislich darauf bedacht, in sensorischer Hinsicht ausreichend Unterstützungsangebote zur Verfügung zu stellen (vgl. Kaerlein 2018: 164 f.). Auf der Unternehmenswebsite sind passenderweise die »iOS Human Interface Guidelines« (Apple 2020: o. S.) einsehbar, die sich an potenzielle App-Entwickler*innen richten und über die Designgrundsätze des Konzerns informieren. Es wird darauf hingewiesen, dass das Design der Applikationen stets zurückhaltend zu sein und die Funktionalität im Vordergrund zu stehen habe. Die Bedienung müsse intuitiv sein, den Nutzungskontexten entsprechen und unmittelbar Handlungserfolge signalisieren (vgl. ebd.).

Ein Beispiel für Technologien, die vor allem durch Apple-Produkte bekannt wurden und zu deren intuitiven Bedienbarkeit beitragen, aber nicht auf den Entwicklungsleistungen des Konzerns basieren, ist der Touchscreen. Steve Jobs, Mitgründer von Apple und nach einer mehrjährigen Pause ab Mitte der 1990er-Jahre erneut Konzernleiter, hat Tablet-Computern lange Zeit kritisch gegenübergestanden. Erst als Touchscreens nicht mehr per Stift bedient werden mussten und Anwendungen wie Scrollen und Fingertracking allmählich zur Marktreife gelangten, stellte sich bei ihm ein Gesinnungswandel ein. Wenngleich das iPhone dem Touchscreen zum endgültigen Durchbruch verhalf, war die grundlegende Technologie zum Zeitpunkt der Markteinführung des Apple-Smartphones bereits rund 40 Jahre alt. Als der Erfinder gilt Edward A. Johnson, der als Beschäftigter des Royal Radar Establishment bereits 1965 seine ersten einschlägigen Forschungsergebnisse publizierte. 1973 wurde sodann von Bent Stumpe und Frank Beck, die als Ingenieure bei der European Organization for Nuclear Research arbeiteten, der erste funktionsfähige Touchscreen entwickelt. Ebenfalls in den frühen 1970er-Jahren stellte der seinerzeit an der University of Kentucky beschäftigte Physiker Samuel Hurst den resistiven Touchscreen, der auf Druck reagierte, vor (vgl. Mazzucato 2014: 130 f.).

infobox affordanz

Apples iPhone konnte gerade wegen seiner intuitiven Bedienbarkeit derart erfolgreich werden. Überlegungen zur Handhabung und zu den Nutzungspotenzialen technischer Geräte stehen prinzipiell in konzeptueller Nähe zum Begriff der Affordanz. Der Terminus stammt ursprünglich aus der Wahrnehmungspsychologie (vgl. Gibson 1986) und bezeichnet die Angebotscharakteristika von Artefakten, also die Nutzungsmöglichkeiten, die durch physische Eigenschaften partiell präfiguriert sind (vgl. Fox/Panagiotopoulos/Tsouparopoulou 2015: 66). Frühe Forschungen, die sich auf den Begriff beriefen, fielen indes der Kritik anheim, da sie potenziell variable und auf individuellen Lernprozessen basierende Interpretationen von Artefakten weitgehend außer Acht ließen. Mittlerweile wird mehrheitlich davon ausgegangen, dass Angebotscharakteristika »vor dem Hintergrund unterschiedlicher kultureller und gesellschaftlicher Ordnungen wahrgenommen« (Zillien 2008: 173) werden und nicht verstehbar sind, sofern Artefakte aus den Anwendungszusammenhängen herausgelöst werden (vgl. Nohl 2011: 175). Affordanzen resultieren also sowohl aus den materiellen Eigenschaften als auch aus den sozialen und kulturellen Kontexten, in die Artefakte eingebettet sind. Deswegen meint Affordanz keine absolute, sondern eine relative Eigenschaft. Material, Oberfläche und Form konstituieren spezifische Potenzialitäten, die im historischen Verlauf und in soziokulturellen Konstellationen zu Konventionen werden. Wie mit Artefakten umgegangen wird, kann also – bis zu einem gewissen Grad – Folge ihrer materiellen Eigenschaften sein, die Verstetigung einer solchen Umgangsweise ist wiederum das Resultat habitualisierender Prozesse (vgl. Lepa/Klotz/Hoklas 2014: 225). Produktdesigner*innen können versuchen, Affordanzen zu schaffen, die den Nutzenden einen möglichst intuitiven Zugang zu Artefakten ermöglichen, sodass sich infolge einer möglichst selbsterklärenden Handhabung schnell Handlungserfolge einstellen können.

Der Blick auf Musikabspielgeräte zeigt, dass deren Angebotscharakteristika von Generation zu Generation unterschiedlich interpretiert werden können. Anne-Kathrin Hoklas und Steffen Lepa (2015) beleuchten auf Basis von Interviewstudien die Unterschiede in der Handhabung am Beispiel von Schallplattenspieler und iPod. Im Falle des analogen Geräts kann nicht beliebig und in hohem Tempo zwischen den abgespielten Songs gewechselt werden, wohingegen der digitale Musikplayer gerade diese Möglichkeiten bietet. Das bedeutet, dass spezifische Nutzungspraktiken präfiguriert sind. Im Gegensatz zu Nutzer*innen, die mit digitalen Abspielgeräten aufgewachsen sind, empfinden ältere Befragte den Plattenspieler dennoch als weniger widerständig als den iPod und bescheinigen Vinylschallplatten zugleich eine hohe Portabilität. Wenngleich der digitale Musikplayer aufgrund der kleineren Abmessungen und der hohen Speicherkapazität für portablen Musikkonsum weitaus besser geeignet zu sein scheint, werden diese Nutzungspotenziale je nach generationellem Kontext nicht unbedingt angenommen (vgl. ebd.: 139 f.). Hier zeigt sich, dass die Angebotscharakteristika apparativer Musikmedien, die sich aus der Kombination materieller Eigenschaften und technologischer Funktionen ergeben, in der konkreten Nutzungspraxis durchaus unterschiedlich interpretiert werden können. Zugleich wird deutlich, dass musikbezogene Rezeptionspraktiken entscheidend von den beteiligten Medientechnologien und deren Angebotscharakteristika beeinflusst werden. Etwa die »Erlebnisverdichtung« (ebd.: 139; Herv. i. O.), die digitale Abspielgeräte durch das schnelle Umschalten zwischen einzelnen Audiodateien ermöglichen, ist im Falle analoger Medien nicht in vergleichbarer Weise herzustellen.

In den 2010er-Jahren entwickelte sich das Smartphone, sicher nicht zuletzt infolge des durchschlagenden Erfolges des iPhone, zu einem enorm populären Musikgerät, allen voran zum Wiedergabemedium. Von der immensen Relevanz des Smartphones gerade für junge Nutzer*innen zeugen empirische Befunde der Jugendforschung. So zählen im Jahr 2020 Musik, Smartphone und Internet zu den Alltagskonstituenzien, auf die der Großteil der Jugendlichen in keinem Fall mehr verzichten kann (vgl. Calmbach et al. 2020: 32). Ebenfalls in den 2010er-Jahren setzte der Aufstieg des Audio-Streaming ein, das im Jahr 2018 erstmals der umsatzstärkste Distributionskanal der deutschen Musikwirtschaft war (vgl. Bundesverband Musikindustrie 2020a: 5). Wurden im Jahr 2013 hierzulande noch 5,9 Milliarden Streams registriert, waren es im Jahr 2019 bereits 107,4 Milliarden (vgl. ebd.: 14). International ausgerichtete Nutzungsstudien belegen, dass 89 % der Befragten Musik streamen (vgl. International Federation of the Phonographic Industry 2019: 7), 44 % des Musikkonsums der 16- bis 24-Jährigen erfolgt über das Smartphone und 68 % der Befragten dieser Altersgruppe würden das Smartphone wählen, müssten sie sich für ein Gerät für den Musikkonsum entscheiden (vgl. ebd.: 11). In einer Langzeitstudie zur Entwicklung der Musiknutzung in Deutschland, die seit 2018 in mehreren zeitlich getrennten Befragungswellen durchgeführt wird, zeigt sich, dass ­– verteilt über die bisherigen Etappen der Datenerhebung – zwischen 92 und 94 % der Befragten ein Smartphone besitzen und zwischen 50 und 61 % es zum Musikhören benutzen. Damit rangiert das Smartphone noch immer knapp hinter dem Radio, das zwischen 56 und 62 % der Befragten bevorzugt nutzen – auf dem dritten Platz folgt der Laptop (36 bis 53 %) (vgl. Bundesverband Musikindustrie 2020b: 13).

Hier wird deutlich, dass sich das Smartphone mehr und mehr zum beliebtesten Abspielgerät entwickelt. Im Rahmen eines Interviews bestätigte auch der Besitzer des hier betrachteten Apparates, diesen – wie auch andere Smartphones, die er in den vergangenen Jahren nutzte – häufig als Musikwiedergabegerät eingesetzt zu haben, sei es im Auto oder während verschiedener Tätigkeiten in Haus und Garten (vgl. Oesterschmidt 2020: o. S.). Schätzungsweise mache der Musikkonsum 30 % der Nutzungszeit aus, er höre dabei wahlweise über Kopfhörer, die in seinem Auto eingebaute Anlage oder die geräteeigenen Lautsprecher (vgl. ebd.). Häufig nutze er sein Smartphone für das Erstellen eigener Playlists, die er bevorzugt im Shuffle-Modus höre, bisweilen greife er auch auf von Streaming-Anbietern generierte Playlists zurück. Generell sei das Smartphone sein meistgenutztes Wiedergabegerät, gefolgt vom Laptop. Klangqualität spiele für ihn eine außerordentlich wichtige Rolle, weswegen er das Smartphone zumeist an hochwertige Geräte wie Bluetooth-Kopfhörer, eine Minilautsprecherbox und die im Auto eingebauten Lautsprecherboxen kopple. Die Nutzung des Smartphones führe dementsprechend nicht zur qualitativen Verschlechterung des Musikerlebens; es sei für ihn ein Datenträger, der in der Regel mit anderen Geräten verbunden werden müsse. Er höre bisweilen noch immer Musik auf CD und Vinyl und nehme sich dabei bewusst die Zeit, ein »Album bzw. die Musik zu verstehen« (ebd.). Das Smartphone hingegen biete sich für das schnelle ›Switchen‹ an.

Die Ausführungen des Gerätebesitzers legen nahe, dass sich musikbezogene Konsumpraktiken durch die Angebotscharakteristika des Smartphones und durch Streaming-Technologien nachhaltig verändern – zu nennen sind diesbezüglich das schnelle Wechseln zwischen einzelnen Musikstücken, die Nutzung von Playlists oder die mobile Allverfügbarkeit von Musik. Die Aussagen des Befragten geben allerdings zu erkennen, dass diese Nutzungsoptionen nicht mit einer nachlassenden Wertschätzung der Musik korrelieren, sondern lediglich als logische Konsequenzen medientechnologisch induzierter Wandlungsprozesse des Musikkonsums aufzufassen sind.

Abb. 3: Das iPhone.
Foto: Klaus Polkowski

Schon vor dem Siegeszug des Smartphones wurde mit mobilen Endgeräten musiziert, wenn auch eher im experimentellen Bereich bzw. in der Neuen Musik – die begriffliche Klammer hierfür bildete die »Mobile Music«. Man erkannte dort vor allem das partizipative Potenzial und die damals bereits vorhandene Niedrigschwelligkeit von Mobiltelefonen, bedingt durch die weite Verbreitung der Geräte, als Vorteil (vgl. Tsui et al. 2014: 1). Mithilfe des Apparates lässt sich, so die Auffassung verschiedener Musiker*innen, das hierarchische Verhältnis zwischen Publikum und Künstler*in bzw. die Zugangshürden zu einem Klangkörper einfacher überwinden als mit ›traditionellen‹ Instrumenten (vgl. Essl/Rohs 2009: 197 ff.). Ein Pionier in diesem Bereich ist Golan Levin, dessen Dialtones (A Telesymphony) bereits 2001 aus den choreografierten Anruftönen des Publikums bestand. Mit PDAs (personal digital assistants) wurden die Funktionen noch ausgeweitet (vgl. Bowen 2013: 109). Bis heute gilt das von Ge Wang initiierte und geleitete MoPho, das Stanford Mobile Phone Orchestra, als bekanntester Klangkörper, der ausschließlich auf der Nutzung von Smartphones und anderen mobilen Endgeräten basiert.

Bestimmte im Smartphone wirksame Technologien wiederum wurden bereits vor der weiten Verbreitung der Gerätegattung in (populärer) Musik eingesetzt. Besondere Aufmerksamkeit erfuhr z. B. der noch vor dem iPhone einen Multi-Touch-Screen anbietende Controller Lemur Input Device der französischen Firma JazzMutant, mit dem zu Beginn der 2000er-Jahre in professionellen Tonstudios gearbeitet wurde. Auch der 2005 vorgestellte Synthesizer Reactable arbeitete bereits früh mit einer durch Berührung gesteuerten Oberfläche, später tauchte das Instrument als App wieder auf (vgl. Essl/Sang 2017: 365). Etwa zeitgleich wurden in der sog. Controller-Szene die Sensoren von Joysticks und Gamepads zu Interfaces für Synthesizer und DJ-Assemblagen umfunktioniert. Ferner wurden mobile Endgeräte wie der Gameboy bereits 1998 als Sequenzer eingesetzt (vgl. ebd.: 364).

Eine regelrechte Explosion musikbezogener Apps und der Mobile Music setzte jedoch erst mit der Veröffentlichung des iPhone und der Bereitstellung des App-Store ein. Voraussetzung dafür war nicht nur die schnelle Verbreitung des Geräts, sondern auch die Entwicklerplattform für iOS-Programme für Drittanbieter und das Multi-Touch-Display sowie die Sensoren, für deren Auslesung und Interpretation Apple früh Entwicklerschnittstellen bereitstellte (vgl. Essl/Rohs 2009: 197). Zusammen boten sie eine Umgebung, in der verschiedenste Eingabe- und Manipulationsmethoden kombiniert werden konnten (vgl. Krebs 2012: 15). Gleichzeitig ermöglicht die sehr hohe Rechenkapazität vielseitige Nutzungsweisen in den Bereichen digitaler Klangsynthese, des Sampling und der Emulation. Während zu Beginn nur einfache Algorithmen möglich waren (vgl. Essl/Rhos 2009: 201), bietet bereits das hier untersuchte iPhone 5s kaum weniger Rechenleistung als herkömmliche Desktop-PCs. Auch Sprachsynthese, Physical- und Amp-Modelling oder aufwendige Kollaborationen mehrerer Nutzer*innen können in Echtzeit umgesetzt werden. So bietet z. B. die App Smule eine virtuelle Umgebung für Karaoke an und ermöglicht so auch eine gemeinsame Instrumentalpraxis über Live-Streaming (vgl. Michon et al. 2017: 2). Mittlerweile stehen die für Mobile Music zentralen Funktionen in vielen eingebetteten Softwarebibliotheken zur Verfügung, auch wurden eigene Programmiersprachen wie z. B. Faust entwickelt, sodass es für Entwickler*innen einfacher ist, neue Musikapplikationen zu entwerfen (vgl. Essl/Sang 2017: 366).

Die kaum noch überschaubare Anzahl an Apps lässt sich in verschiedene Kategorien einteilen. Viele Programme dienen lediglich als Hilfsmittel für das Muszieren, etwa als Stimmgerät, Analyseinstrument, Notensatz-Tool und Unterstützung für interaktive Lerneinheiten. Die App Maestro bietet z. B. die Möglichkeit, das Smartphone als Taktstock zu gebrauchen, um sich durch das Dirigat eines virtuellen Orchesters auf den Einsatz im Konzertsaal vorzubereiten (vgl. Lim/Yeo 2014: 576). Auch kann das iPhone als Effektgerät oder Verstärker genutzt werden. Dies wird möglich durch diverse mobile Audiointerfaces, die als Verbindungsstück zwischen Mikrofon- oder Line-In-Eingängen und Endgeräten dienen und auch die Einbindung in herkömmliche Studio-, DJ- und Proberaumperipherie erlauben. Verbreitet sind bspw. das iRig und das JAM (vgl. Slater/Martin 2012: 64 f.).

Die ›App-Instrumente‹ im engeren Sinne lassen sich in zwei Hauptgruppen unterteilen. In der ersten stehen Emulationen physischer Instrumente wie Schlagzeug, Klavier, Gitarre oder Synthesizer (wie dem MS-10 von KORG) im Vordergrund. Diese besitzen meist einen eher spielerischen Charakter, da sie oft nicht an die haptische Bedienqualität ihrer Vorbilder heranreichen (vgl. Krebs 2012: 18). Selten bieten sie weitergehende Funktionen, eine Ausnahme ist die mobile Emulation des MiniMoog, der Animoog, der per Touchpad eine gleichzeitige Steuerung mehrerer Parameter erlaubt (vgl. Könemann 2014). Allerdings versuchen Anbieter immer wieder, über zusätzliche Interfaces oder neue Bedienmodi des Touch-Screens diese Probleme zu überwinden. Die Firma moForte, spezialisiert auf Physical Modeling, bietet z. B. virtuelle Violinen und Blasinstrumente an, die über ein eigenes Eingabesystem gesteuert werden, das auch den neuen MIDI-Standard MPE unterstützt (vgl. Michon et al. 2017: 2). Die zweite Gruppe besteht aus eigens für das Smartphone entworfenen Applikationen, die auf die spezifischen Möglichkeiten des Geräts zugeschnitten sind (vgl. Krebs 2012: 19). Diese Apps sind es auch, in denen nicht nur von etablierten Interfaces, sondern auch von traditionellen tonalen Ordnungen wie der Zwölf-Ton-Skala abgewichen werden kann (vgl. Swift 2012: 1819). Sie nutzen dazu die ganze Bandbreite an verfügbaren Sensoren – inklusive der Videokamera und der eingebauten Mikrofone. Als gelungenes Beispiel für eine frühe Umsetzung zwischen diesen Kategorien lässt sich die Ocarina App anführen, welche bereits 2008 das virtuelle Spielen des gleichnamigen Instrumentes ermöglichte. Zur Eingabe werden das Mikrofon (zum Anblasen des Tons), das Touchpad (für die Grifflöcher) und die Bewegungssensoren (Accelerometer) für die Hinzufügung von Effekten genutzt (vgl. Wang 2014: 10 ff.). Koszolko (2019: 194) hebt die Vorteile des GUI für die Steuerung von klangerzeugenden Apps dieser Kategorie hervor. Mittels der virtuellen Tasten, Regler und Felder lassen sich durch bestimmte Bewegungen der Finger (wie etwa Wackeln und Wischen) Parameter wie Anschlagsgeschwindigkeit und Effekte wie Vibrato oder stufenlose Tonhöhenvariationen erzeugen. In diesem Sinne werden einige dieser speziellen Apps als eine Art »visual synthesizer« (ebd.) beworben. Matthias Krebs nennt auch »App-Soundtoys« als eine eigene Gruppe: Dabei handelt es sich um eher spielorientierte Programme, die häufig visuelle, auditive und vor allem kollaborative Aspekte verbinden, aber in ihrer »musikalischen Tiefe« (Krebs 2012: 17) eingeschränkt bleiben. Denn oft wird – um die Spielbarkeit zu gewährleisten – die verfügbare Tonauswahl in Bezug auf Tonart und Ambitus eingeschränkt oder rhythmisch quantisiert. Von diesen abzuheben sind Applikationen, die eher für Kunstperformances und Neue Musik genutzt werden und oft nur für eine einzelne Performances programmiert werden (vgl. Oh et al. 2010: 5).

Neben Musikinstrumenten im engeren Sinn haben sich auch ganze Arbeitsumgebungen durchgesetzt, von einfachen Sequenzern, Soundboards und Loopern bis hin zu Mischpulten und sog. MAWs, also Mobile Audio Workstations (vgl. Bell 2015: 56). Von vielen Anwender*innen wird hier die Bedienung per Touchscreen als Vorteil gegenüber Maus und Keyboard hervorgehoben, da diese – als Standardsteuerung vieler Desktop-DAWs (Digital Audio Workstations) – sich hinsichtlich der Bedienung von Reglern, Fadern und anderen Parametern als hinderlich erwiesen haben (vgl. Koszolko 2019: 191). Hier haben sich auch führende Hersteller von Desktop-Applikationen wie Image-Line (FL Studio Mobile) oder das deutsche Unternehmen Steinberg (Cubase) mit eigenen Apps hervorgetan. In diesem Zusammenhang sind hybride von vollintegrierten Ansätzen zu unterscheiden. Während sich manche PA-Systeme und Mischpulte über Tablets oder Smartphones steuern lassen und Live-Performances nur anteilig Elemente aus der Mobile Music einbinden (vgl. ebd.), existieren auch vollintegrierte Konzepte, bei denen die gesamte Produktion von Musik mit Apps vorgenommen wird (vgl. ebd.: 194). Beides kann z. B. mit AUB realisiert werden, einem Mixer für iOS, der auch die Verbindung zu MIDI und zur Peripherie außerhalb des iPhone erlaubt. Ferner haben sich verschiedene Kommunikationsprotokolle etabliert, welche die Applikationen untereinander kommunizieren lassen bzw. die Einbindung und Hintereinanderschaltung von Instrumenten, Effekten und Analysetools erlauben, ähnlich dem VST- oder MIDI-Standard. Weit verbreitet ist z. B. Audiobus des Entwicklerduos Michael Tyson und Sebastian Dittmann (vgl. Schroeder 2013), hier wird vor allem eine Plattform für das vollintegrierte Musizieren bereitgestellt. Ihr Forum ist zugleich ein wichtiger Austauschplatz für Musiker*innen der Mobile Music (vgl. Koszolko 2019: 198). Auch etablierte Hersteller wie Ableton haben ihre Kommunikationsstandards auf mobile Endgeräte ausgeweitet, bspw. mit Link. Dieses Protokoll zur Synchronisation arbeitet im Gegensatz zu vielen anderen nicht nach dem Prinzip von ›Master‹ und ›Slave‹, sondern über eine netzwerkartige Struktur (vgl. Goltz 2018: 42). Mit diesem Produkt richtet sich Ableton zwar nicht explizit gegen die bestehenden Standards, mit denen weitgehend Kompatibilität besteht, es wird aber als »pivotal change« (Koszolko 2019: 193) in der Mobile Music angesehen.

infobox smartphones als instrumente

Die Möglichkeiten des iPhone in Bezug auf das Musikerzeugen stehen in gewisser Weise der Klassifizierung im Rahmen der traditionellen Hornborstel-Sachs-Systematik (vgl. Hornborstel/Sachs 1914) gegenüber, die 2011 durch das MIMO-Konsortium (Musical Instruments Museums Online) revidiert wurde. Das Smartphone lässt sich auf den ersten Blick auf zwei Arten einsortieren: einmal als »Digital control sources and interfaces« unter der Kennnummer 542 und einmal unter 56 als »Software« (MIMO 2011: 23 f.). Dies verweist auf die Schwierigkeiten, mit denen die traditionelle Einteilung entlang von Klangerzeugung und Spielweise seit dem Aufkommen elektronischer Musikinstrumente konfrontiert ist (vgl. Bense 2014: 160). Denn in elektronischen und digitalen Musikinstrumenten entsteht Klang nur mittelbar. Vielmehr entstehen im Rahmen der Verarbeitung mit Strom über Widerstände, Kondensatoren und Operationsverstärker bzw. das DSP (Digital Signal Processing) elektrische Signale im nicht hörbaren Bereich. Der von Hornborstel und Sachs nachträglich eingeführte Begriff des Elektrophons ist daher mindestens unvollständig. Alles, was in Schaltkreisen oder in Programmroutinen passiert, muss durch verschiedene Wandler wieder in Schall übertragen und von Lautsprechern oder Kopfhörern wiedergegeben werden. Auch das Smartphone macht hier mit seinem Audiocodec-Modul, welches die Daten mithilfe eines D/A-Wandlers in Schall übersetzt, keine Ausnahme.

Durch den Aufbau dieser neuen Gerätschaften drängt sich ein modulares Verständnis auf, welches vor allem in der Beziehung zwischen den verschiedenen funktionalen Elementen den Ausgangspunkt für eine Taxonomie der Instrumente erkennt. So wird bspw. ein dreiteiliges System vorgeschlagen, in dem ein »control interface« vom »sound generator« unterschieden wird und das »mapping« als zentrale Vermittlungsinstanz zwischen beiden steht (Malloch et al. 2006: 49). Bernd Enders (1987) fügt noch die Ebenen der Modulation und der Klangspeicherung hinzu. Diese Einteilungen erlauben es, das Smartphone und die verschiedenen Musik-Apps nicht in der Kategorie Software aufgehen zu lassen, sondern sie gemäß ihren individuellen Mapping-Logiken und Interfacequalitäten als unterschiedliche instrumentale Arrangements in ihrer Besonderheit zu erfassen.

Seit Langem werden auch Objekte als Musikinstrumente genutzt, die nicht explizit zu diesem Zweck hergestellt wurden. Dennoch werden Apparate wie das Smartphone oder der Computer nur zum Teil als Musikinstrumente anerkannt. Bowen (2013: 107) führt dies vor allem auf die Multifunktionalität zurück. Letztlich handelt es sich bei Smartphones nicht um Mobile Devices, die spezifisch zur Musikproduktion hergestellt wurden, sondern um Geräte, die auch als Telefon, Notizbuch, Scanner oder Fotoapparat genutzt werden. Die (Um-)Nutzung von Alltagsgegenständen und technischen Apparaten und die damit einhergehende Neuausrichtung der musikalischen Praxis kommt bei der von Sarah Hardjowirogo (2017: 11) vorgeschlagenen »utilitaristisch[en]« Definition eines Musikinstruments als Argument ins Spiel.  Diese stellt die Nutzung eines Objektes zur Erzeugung von Musik in den Mittelpunkt: Instrumentalität ist dementsprechend keine einem Ding innewohnende Qualität, sondern entsteht erst durch die Verwendung des selbigen als Instrument. Das Smartphone befindet sich hier gewissermaßen zwischen den Stühlen. Musikproduktion steht herstellerseitig nicht im Vordergrund, doch die prinzipielle Offenheit der der Programmierschnittstelle der iOS-Anwendungen und der dort zur Verfügung stehende Zugriff auf die Sensoren bieten diesen Gebrauch an. Von einer Umnutzung, wie im Fall des Phonographen oder der Tonbandmaschine, kann also nur eingeschränkt gesprochen werden.

Der utilitaristische Aspekt schließt als weitere Dimension die Virtuosität des Spiels bzw. die Anstrengung und so auch den performativen Anteil des Musizierens mit ein. John Croft (2007: 61) weist darauf hin, dass dies gerade in der Rezeption eine notwendige Bedingung für die Anerkennung eines Objektes als Musikinstrument darstellt. Wird z. B. auf lose umherliegenden Alltagsgegenständen getrommelt und durch präzises Timing ein Klanggebilde erzeugt, das einem hypnotischen Techno-Beat gleicht, so mag dies nachvollziehbarer die notwendigen Bedingungen der Instrumentalität erfüllen als etwa das gestisch unaufgeregte Tippen an der Computertastatur oder das Wischen am Smartphone, auch wenn die dabei bediente Smartphone-App für das Musizieren entwickelt wurde (vgl. ebd.: 65). (Spiel-)Technisch schlägt sich dies zusätzlich in der »Transparenz« (Auslander 2017: 310) nieder, also in der Art und Weise, wie Musiker*innen und auch Zuschauer*innen einen klaren Zusammenhang zwischen Gesten bzw. dem Spiel und dem Klang herzustellen vermögen. Schon früh wurde dieses Problem des Smartphones bzw. digitaler Musikinstrumente allgemein (im Englischen kurz: DMI [Digital Musical Instruments]) erkannt (vgl. Michon et al 2017: 1 f.). Es stellt eine beständige Herausforderung der Entwicklung vollintegrierter und hybrider App-Instrumente dar (vgl. Sang 2013).

Viele der in Zusammenhang mit der utilitaristischen Definition hervortretenden Merkmale sind eng verbunden mit einem weiteren zentralen Aspekt, der allgemeine Definitionen von Instrumentalität prägt: der kulturellen Einbettung. Das Verständnis davon, was als Instrument gilt und was nicht, ist sehr eng mit den jeweils in einer historischen Epoche oder einer Gesellschaft vorherrschenden Normen, ästhetischen Leitkonzepten und Diskursen verbunden (vgl. Hardjowirogo 2017: 21; Dawes 2012: 195 ff.). Die Wertschätzung der instrumentalen Virtuosität und der Zurschaustellung des vermeintlichen Verschmelzens von Körper und Instrument kann etwa auf das im 19. Jahrhundert aufkommende Ideal des musikalischen Genies zurückgeführt werden (vgl. Hardjowirogo 2017: 20). Eng damit verbunden ist auch die Idee, dass das Instrument lediglich als Medium von Emotionen diene und die Expressivität vor allem dem Ausführenden, weniger der genutzten Technologie in Rechnung zu stellen sei (vgl. Borrows 1989). Obgleich der Umgang mit »halb-fertiger Musik« (Großmann 2008: 3) in Form von DJing und der Arbeit mit Sequenzern schon seit langer Zeit Teil musikalischer Praktiken – vor allem in der populären Musik – ist und gar bis zu den ersten Musikautomaten zurückverfolgt werden kann, sehen sich Musiker*innen, die die entsprechenden Instrumentarien benutzen, immer noch dem Vorwurf ausgesetzt, die künstlerische Leistung delegiert zu haben. Als Reaktion kann die Entwicklung performativer Gesten und Spieltechniken verstanden werden, die sich – wie im Turntablism – dem Ideal der instrumentalen Virtuosität annähern (vgl. Großmann 2020) und – im Fall des Smartphones – eventuell auch in einigen Spielarten der Mobile Music etablieren könnten.

Während sich die Mobile Music in der Medienkunst und der Neuen Musik aufgrund der beschriebenen partizipativen und gestischen Potenziale mittlerweile etabliert hat, hat sie sich in der populären Musik noch nicht auf breiter Basis durchgesetzt. Obgleich die folgenden kurzen Beispiele einige Anwendungen auch bekannter Musiker*innen und Produzent*innen zeigen, kann folgendes Statement mit wenigen Einschränkungen bis heute Gültigkeit beanspruchen: »[D]as Musikmachen mit mobilen Endgeräten [ist] bislang nicht als homogene künstlerische Bewegung und erst recht nicht als eigene musikalische Gattung wahrzunehmen. Vielmehr stellt es ein facettenreiches Feld von heterogenen musikalisch-künstlerischen Praktiken dar« (Krebs 2012: 20). Koszolko (2019: 194) spricht allerdings von einer größer werdenden Szene, vor allem von Produzent*innen, welche sich zunehmend vom Paradigma des auf Desktop-DAWs basierenden Projektstudios verabschieden und sich mobilen Lösungen zuwenden. Dies gilt sowohl für den Einsatz von Apps zum Musizieren als auch für die bereits erwähnten MAWs. Deutlich werde dies bspw. durch die rege Nutzung internationaler Foren wie der iPad Musician Group auf Facebook, in der zum Zeitpunkt der Veröffentlichung des Artikels im Jahre 2019 ca. 9.000 Teilnehmer*innen aktiv waren. Einzuschränken ist hier allerdings, dass das iPad, das hier häufig im Mittelpunkt steht, mit seinem größeren Bildschirm noch einmal anders bewertet werden muss und mehr Möglichkeiten bietet als das iPhone.

Die Verwendung von App-Instrumenten und von MAWs erlangte durch das Album The Fall (2010) der Band Gorillaz, ein Projekt des britischen Musikers Damon Albarn, breitere Aufmerksamkeit. Das als Tourtagebuch bezeichnete Album entstand während einer Konzertreise durch die USA, wurde ausschließlich mit dem iPad aufgenommen und gemischt (vgl. Slater/Martin 2012: 63). Dabei wurden nicht nur seltene Hardware-Synthesizer eingebunden, sondern es kamen auch Musik-Apps in der oben genannten Bandbreite zum Einsatz: vom visuellen Synthesizer SoundyThingie über die Verstärkersimulation. Amplitude bis hin zu einigen Emulationen physischer Instrumente wie iOrgan oder M3000 (Letzteres ist eine App, welche die Klänge des Mellotrons wiedergibt). Albarn selbst stellt das iPad in eine Reihe mit früheren Praktiken mobiler Musikaufnahme: »I’ve always tried to keep true to my roots, which was just a four-track and a guitar, but I got given an iPad and I suddenly found myself in a position where I could make quite a sonically sophisticated record in my hotel room« (zit. n. ebd.: 63). Dies verweist darauf, dass in der Mobile Music keine völlig neue Welt eröffnet wird, sondern sich hier vielmehr bereits angestoßene Entwicklungen wie die Miniaturisierung und Mobilisierung von Musiktechnologie – wenn auch mit größerem Funktionsumfang – fortsetzen (vgl. Krebs 2012: 236; Slater/Martin 2012: 60).

Im Bereich der Soundtoys bzw. der künstlerisch-experimentellen Praxis setzte die isländische Sängerin Björk neue Akzente, indem sie die Veröffentlichung ihres achten Studioalbums Biophilia (2011) mit einer ganzen App-Suite flankierte. Für jeden der zehn Songs des Konzeptalbums veröffentlichte sie zusammen mit den Singles einzelne kleine Spiele und Anwendungen, die es den Nutzer*innen erlaubten, die bestehenden Arrangements zu ändern oder neu anzuordnen (vgl. Anonym 2013). Die Programme arbeiten dabei sowohl mit den Sensoren als auch mit Multi-Touch. Durch Entscheidungen in ›Mini-Spielen‹ und kleinen Sequenzer-Programmen kann die Nutzer*in temporär Einfluss auf die erklingende Musik nehmen. Obgleich das als erstes App-Album beworbene Biophilia, das zunächst auch ausschließlich für iOS erschien, durchaus als solches gelten mag, so kann auch hier auf frühere Arbeiten verwiesen werden, in denen Musik multimedial eingebunden wurde, wie etwa in den CD-ROM-Alben von Prince, Mike Oldfield oder Herbert Grönemeyer (vgl. ebd.), die zusätzliche Inhalte wie Texte, Videos und interaktive Elemente für die Fans bereitstellten (vgl. ebd.).

Der US-amerikanische Gitarrist und Produzent Steve Lacy gilt als bekanntester Vertreter eines MAW-Ansatzes. Als Mitglied der Indie-Band The Internet arbeitet der junge Produzent ausschließlich mit seinem iPhone, um Stimme, E-Gitarre und E-Bass aufzunehmen. Laut eigener Aussage nutzt er im Wesentlichen Apples GarageBand, vor allem, um die zugrundeliegenden Beats zu erstellen (vgl. Pierce 2017). Die App wird als Bestandteil des Software-Paketes iLife seit 2013 kostenlos auf allen iOS-Geräten zur Verfügung gestellt und gilt auch in professionellen Kreisen als beliebte Alternative zu kostenpflichtigen Programmen (vgl. Wang 2014). Während das bereits vorgestellte iRig als Interface dient, nimmt er den Gesang selbst und nur unterstützt von einem Popp-Filter über das im iPhone eingebaute SMES-Mikrofon auf. Die so entstehende Klangqualität und der ›Signature Sound‹ des automatischen Mastering von GarageBand fügt sich laut eigener Aussage in die von ihm präferierte Lo-Fi-Ästhetik. Hinzu kommt der Aspekt der Kreativität: Konfrontiert mit den nahezu unbegrenzten Möglichkeiten von Desktop-DAWs habe es ihm schlicht an Ideen gefehlt und er sei wieder zu dem vollintegrierten Ansatz zurückgekehrt: »But it’s more than that, even: When Lacy tried to work on his laptop, he says he found himself creatively bare, just completely out of ideas. So he grabbed his phone and starting goofing around. Suddenly the juice started flowing again« (Pierce 2017: o. S.). Zusätzlich betont er den – aus verkehrsorganisatorischer Sicht durchaus fragwürdigen – Vorteil, während des Autofahrens mit wenigen Tastenbewegungen musikalische Ideen festhalten oder über einen Beat singen zu können (vgl. ebd.). Lacy produzierte den Song »Pride« (2017) für den US-amerikanischen Rapper Kendrick Lamar gänzlich mit einer MAW (vgl. Koszolko 2019: 189), auf ähnliche Weise entstand eines seiner ersten Alben, Steve Lacy’s Demo (2017). Neben der auch von Albarn betonten Mobilität scheinen hier ebenso die Möglichkeiten zur Selbstbegrenzung eine Rolle zu spielen, die sich durch die eingeschränkten Funktionen und die einfache Bedienoberfläche vieler Musik-Apps, inklusive GarageBand, bieten. Angesichts der scheinbar unendlichen Möglichkeiten von Desktop-DAWs ist das Musizieren und Aufnehmen mit dem iPhone in diesem Sinne als Strategie des kreativen Verzichts zu verstehen.

Simon Order, der nicht nur als Musikwissenschaftler, sondern auch als Musikproduzent tätig ist, macht in einer autoethnographischen Studie auf einen weiteren mit der Mobilität verbundenen Aspekt der Arbeit mit Smartphones und iPads als Produktionsmedien aufmerksam. Er charakterisiert das in Smartphone oder Tablet eingewanderte Studio als einen »liminal workspace« (Order 2016: 429), dessen besonderer Charakter sich vor allem beim häufigen Ortswechsel bzw. auf Reisen bemerkbar mache. Im Rahmen eines kreativitätstheoretischen Ansatzes beschreibt er, wie die wechselnden Umgebungen – ein Flughafen, ein stürmischer Strand – einen größeren Einfluss auf die Produktionstätigkeit nehmen könne. Dies geschehe sowohl in Bezug auf Stimmung und Produktivität als auch in Form der sonischen Integration der jeweiligen Umgebungen, die er teilweise vor Ort aufnimmt (vgl. ebd.: 437). In Kombination mit der hohen Konnektivität – z. B. durch Clouddienste, die den Zugriff auf den Heimcomputer und eine Sample-Datenbank bieten (vgl. ebd.: 436) – vermittle das mobile Endgerät zwischen dem realem und dem virtuellen Raum.

So zeigt sich insgesamt, dass das Smartphone inzwischen in verschiedenen musikbezogenen Kontexten eine zentrale Rolle spielt. Während seine Relevanz als Medium der Musikrezeption in Zeiten des Audio-Streaming nicht mehr von der Hand zu weisen ist, kommt es mittlerweile auch in der Musikproduktion und in der Musikdidaktik zum Einsatz. Zugleich ist es nach wie vor ein essenzielles Kommunikationsmittel, ein Instrument der individuellen Lebensgestaltung und ein Lifestyle-Accessoire. Insofern schreibt das Smartphone einerseits die Geschichte mobiler Abspielmedien fort und steht gewissermaßen in der Tradition von Kofferradio, Walkman und mp3-Player. Durch die vielfältigen Einsatzmöglichkeiten hebt es sich aber entscheidend von seinen Vorläufern ab und nimmt Einfluss auf musikbezogene Produktionspraktiken und Bildungsprozesse. Letztlich ist das Smartphone deshalb nicht nur ein elementares Kommunikationsmedium, sondern eben auch ein zentrales Musikobjekt der populären Kultur im frühen 21. Jahrhundert.

DAS DOSSIER WURDE VERFASST VON BENJAMIN BURKHART UND ALAN VAN KEEKEN.

Quellen

Literatur:
Anonym (2013). The Teardown. Apple iPhone 5s. In: Engineering & Technology 8/10, S. 84–85.
Apple (2013a). iPhone Benutzerhandbuch für iOS 7.
Auslander, Philip (2017). Lucille Meets GuitarBot: Instrumentality, Agency, and Technology in Musical Performance. In: Till Bovermann, Alberto de Campo, Hauke Egermann, Sarah-Indriyati Hardjowirogo und Stefan Weinzierl (Hg.), Musical Instruments in the 21th Century. Identities, Configurations, Practices. Singapur: Springer, S. 297–315.
Bell, Adam Patrick (2015). Can We Afford these Affordances? Garage Band and the Double-Edged Sword of the Digital Audio Workstation. In: Action, Criticism & Theory of Music Education 14/1, S. 44–65.
Bense, Arne Till (2014). Musik und Virtualität: Digitale Virtualität im Kontext computerbasierter Musikproduktion. Osnabrück: epOs.
Borries, Friedrich von (2011). Die Apple-Design-Lüge. Warum das Design von Apple weder gut noch minimalistisch ist. Ein Pamphlet. In: Sabine Schulz und Ina Grätz (Hg.), Apple Design. Ostfildern: Hatje Cantz, S. 54–63.
Bowen, Nathan (2013). Mobile Phones, Group Improvisation, and Music: Trends in Digital Socialized Music-Making. New York: The City University of New York.
Braun, Artur (2011). Wie das Braun-Design entstand. In: Hartmut Jatzke-Wigand und Jo Klatt (Hg.), Wie das Braun-Design entstand / The Developement of the Braun Design. Hamburg: Design + Design, S. 4–47.
Bundesverband Musikindustrie (Hg.) (2020a). Musikindustrie in Zahlen 2019. <https://www.musikindustrie.de/fileadmin/bvmi/upload/06_Publikationen/MiZ_Jahrbuch/2019/Musikindustrie_in_Zahlen_2019_ePaper.pdf> [03.12.2020].
Bundesverband Musikindustrie (Hg.) (2020b). Studie zur Zukunft der Musiknutzung 2018–2020. Ergebnisse der fünften von sechs Stufen der Panelbefragung. September 2020. <https://www.musikindustrie.de/fileadmin/bvmi/upload/05_Presse/01_Pressemitteilungen/2020/200916_Basisfolien_5._Welle_final.pdf> [03.12.2020].
Calmbach, Marc/Flaig, Bodo/Edwards, James/Möller-Slawinski, Heide/Borchard, Inga/Schleer, Christoph (Hg.) (2020). Wie ticken Jugendliche 2020? Lebenswelten von Jugendlichen im Alter von 14 bis 17 Jahren in Deutschland. Bonn: Bundeszentrale für politische Bildung.
Croft, John (2007). Theses on Liveness. In: Organised Sound 12/1, S. 59–66.
Essl, Georg/Rohs, Michael (2009). Interactivity for Mobile Music-Making. In: Organised Sound 14/2, S. 197–207.
Essl, Georg/Sang, Won Lee (2017). Mobile Devices as Musical Instruments. State of the Art and Future Prospects. In: 13th International Symposium on CMMR, S. 364–375.
Fortunati, Leopoldina (2006). Das Mobiltelefon als technologisches Artefakt. In: Peter Glotz, Stefan Bertschi und Chris Locke (Hg.), Daumenkultur. Das Mobiltelefon in der Gesellschaft. Bielefeld: transcript, S. 171–184.
Fox, Richard/Panagiotopoulos, Diamantis/Tsouparopoulou, Christina (2015). Affordanz. In: Thomas Meier, Michael R. Ott und Rebecca Sauer (Hg.), Materiale Textkulturen. Konzepte – Materialien – Praktiken. Berlin/New York: De Gruyter, S. 63–70.
Goltz, Florian (2018). Ableton Link. A Technology to Synchronize Music Software. In: Henrik Coler, Frank Neumann und David Runge (Hg.), Proceedings of the Linux Audio Conference 2018. Technische Universität Berlin, S. 39–42.
Gibson, James L. (1986). The Ecological Approach to Visual Perception. Hillsdale: Erlbaum 1986.
Grätz, Ina (2011). Stylectrical. Von Elektrodesign, das Geschichte schreibt. In: Sabine Schulz und Ina Grätz (Hg.), Apple Design. Ostfildern: Hatje Cantz, S. 10–21.
Großmann, Rolf (2008). Distanzierte Verhältnisse? Zur Musikinstrumentalisierung der Reproduktionsmedien. In: PopScriptum 9, S. 1–15.
Großmann, Rolf (2020). The Instrument. In: Sanne Krogh Groth und Holger Schulze (Hg.), The Bloomsbury Handbook of Sound Anthropology. New York: Bloomsbury, S. 436–445.
Hardjowirogo, Sarah-Indriyati (2017). Instrumentality. On the Construction of Instrumental Identity. In: Till Bovermann, Alberto de Campo, Hauke Egermann, Sarah-Indriyati Hardjowirogo und Stefan Weinzierl (Hg.), Musical Instruments in the 21th Century. Identities, Configurations, Practices. Singapur: Springer.
Hoklas, Anne-Kathrin/Lepa, Steffen (2015). Mediales Musikhören im Alltag am Beispiel des Plattenspielers. Auditive Kultur aus der Perspektive der praxeologischen Wissenssoziologie. In: Navigationen. Zeitschrift für Medien- und Kulturwissenschaften 15/2, S. 127–143.
International Federation of the Phonographic Industry (Hg.) (2019). Musik hören 2019. Ein Blick auf die weltweite Musiknutzung. <https://www.musikindustrie.de/fileadmin/bvmi/upload/06_Publikationen/Music_Listening/Music_Listening_Report_2019_DE__Fassung.pdf> [03.12.2020].
Jin, Dal Yong (2020). Globalization and Media in the Digital Platform Age. New York: Routledge.
Johnson, Edward A. (1965). Touch Display – a Novel Input/Output Device for Computers. In: Electronics Letters 1/8, S. 219–220.
Kaerlein, Timo (2018). Smartphones als digitale Nahkörpertechnologien. Zur Kybernetisierung des Alltags. Bielefeld: transcript.
Kardous, Chucri A./Shaw, Peter B. (2016). Evaluation of Smartphone Sound Measurement Applications (Apps) Using External Microphones. A Follow-up Study. In: The Journal of the Acoustical Society of America 140/4, S. 327–333.
Koszolko, Martin K. (2019). The Tactile Evolution. Electronic Music Production and Affordances of iOS Apps. In: Jan-Olof Güllo (Hg.), Proceedings of the 12th Art of Record Production Conference Mono: Stereo: Multi. Stockholm: Royal College of Music (KMH) & Art of Record Production, S. 187–204.
Klinke, Harald (2011). Strategisches Design. Wie Neues alt erscheint. Grundprinzipien der Produktgestaltung bei Apple. In: Sabine Schulz und Ina Grätz (Hg.), Apple Design. Ostfildern: Hatje Cantz, S. 42–53.
Krebs, Matthias (2012). App-Musik. Musizieren mit Smartphones. In: Musikforum 1/12, S. 14–19.
Lepa, Steffen/Krotz, Friedrich/Hoklas, Anne-Kathrin (2014). Vom ›Medium‹ zum ›Mediendispositiv‹. Metatheoretische Überlegungen zur Integration von Situations- und Diskursperspektive bei der empirischen Analyse mediatisierter sozialer Welten. In: Friedrich Krotz, Cathrin Despotovic und Merle-Marie Kruse (Hg.), Die Mediatisierung sozialer Welten. Synergien empirischer Forschung. Wiesbaden: Springer VS, S. 115–141.
Lima, António/Borges, Pedro/Sousa, Bruno/Simões/Cruz, Tiago (2019). An Introduction to Mobile Device Security. In: Ghita Kouadri Mostefaoui und Faisal Tariq (Hg.), Mobile App Engineering. Design, Development, Security, and Testing. Boca Raton: CRC Press, S. 1–34.
Lim, Yang Kyu/Yeo, Seung Woon (2014). Smartphone-Based Music Conducting. In: Baptiste Caramiaux, Koray Tahiroğlu, Rebecca Fiebrink und Atau Tanaka (Hg.), Proceedings of the International Conference on New Interfaces for Musical Expression. Goldsmiths University of London, S. 573–576.
Mazzucato, Mariana (2014). Das Kapital des Staates. Eine andere Geschichte von Innovation und Wachstum. München: Antje Kunstmann.
Mareis, Claudia (2017). Unsichtbares Design und post-optimale Objekte. Interface-Design und Entmaterialisierungsdiskurse seit circa 1960. In: Christina Bartz, Timo Kaerlein, Monique Miggelbrink und Christoph Neubert (Hg.), Gehäuse: mediale Einkapselungen. Paderborn: Fink, S. 93–114.
Michon, Romain/Smith, Julius/Wright, Matthew/Chafe, Chris/Granzow, John/Wang, Ge (2017). Mobile Music, Sensors, Physical Modeling, and Digital Fabrication: Articulating the Augmented Mobile Instrument. In: Applied Sciences 7/12, S. 1–31.
MIMO Consortium (2011). Revision of the Hornbostel-Sachs classification of musical instruments by the MIMO Consortium. <http://www.mimo-international.com/documents/Hornbostel%20Sachs.pdf> [03.02.2021].
Nohl, Arnd-Michael (2011). Pädagogik der Dinge. Bad Heilbrunn: Klinkhardt.
Norman, Don (2016). The Design of Everyday Things. Psychologie und Design der alltäglichen Dinge. München: Verlag Franz Vahlen.
Oh, Jieun/Herrera, Jorge/Bryan, Nicholas J./Dahl, Luke/Wang, Ge (2010). Evolving the Mobile Phone Orchestra. In: Proceedings of the International Conference on New Interfaces for Musical Expression.
Order, Simon (2016). The Miminal Music Studio: Between the Geographical and the Virtual. In: Critical Arts 30/3, S. 428–445.
Pierce, David (04.14.2017). The Hot New Hip-Hop Producer Who Does Everything on his iPhone. In: Wired, 04.14.2017. <https://www.wired.com/2017/04/steve-lacy-iphone-producer/> [21.02.2023].
Polster, Bernd (2011). Kronberg Meets Cupertino. Was Braun und Apple wirklich gemeinsam haben. In: Sabine Schulz und Ina Grätz (Hg.), Apple Design. Ostfildern: Hatje Cantz, S. 64–75.
Ruf, Oliver (2014). Wischen & Schreiben. Von Mediengesten zum digitalen Text. Berlin: Kadmos.
Ruf, Oliver (2018). Smartphone-Theorie. Eine medienästhetische Perspektive. In: Oliver Ruf (Hg.), Smartphone-Ästhetik. Zur Philosophie und Gestaltung mobiler Medien. Bielefeld: transcript, S. 15–31.
Sachs, Curt/Hornborstel, Erich Moritz von (1914). Systematik der Musikinstrumente. Ein Versuch. In: Zeitschrift für Ethnologie, 46/1–2, S. 553–590.
Savage, Pamela (1995). Designing a GUI for Business Telephone Users. In: Interactions 2/1, S. 32–41.
Schwer, Thilo (2014). Produktsprachen. Design zwischen Unikat und Industrieprodukt. Bielefeld: transcript.
Slater, Mark/Martin, Adam (2012). A Conceptual Foundation for Understanding Musico-Technological Creativity. In: Journal of Music, Technology & Education 5/1, S. 59–76.
Sloterdijk, Peter (2007). Der ästhetische Imperativ. Schriften zur Kunst. Hamburg: Philo & Philo Fine Arts.
Swift, Benjamin (2012). Becoming-Sound: Affect and Assemblage in Improvisational Digital Music Making. In: Joseph A. Konstan (Hg.), CHI EA '12: CHI '12 Extended Abstracts on Human Factors in Computing Systems, S. 1815–1824.
Tsui, Chun Kit/Law, Chi Hei/Fu, Hongbo (2014). One-man orchestra. In: Unknown (Hg.), SIGGRAPH Asia 2014 Emerging Technologies on - SA '14. New York, New York, USA: ACM Press, S. 1–2.
Wagner, Thomas (2011). Think Different! Der Nutzer und seine Lieblinge: von Äpfeln, Maschinen, Oberflächen, Magie und der Macht des Designs. In: Sabine Schulz und Ina Grätz (Hg.), Apple Design. Ostfildern: Hatje Cantz, S. 28–41.
Walker, Geoff (2015). Touch Displays. In: Michael Kriss (Hg.), Handbook of Digital Imaging. Chichester: John Wiley & Sons, S. 1–65.
Wang, Ge (2014). Ocarina. Designing the iPhone’s Magic Flute. In: Computer Music Journal 38/2, S. 8–21.
Weber, Heike (2008). Das Versprechen mobiler Freiheit. Zur Kultur- und Technikgeschichte von Kofferradio, Walkman und Handy. Bielefeld: transcript.
Weber, Heike (2017). Blackboxing? – Zur Vermittlung von Konsumtechniken über Gehäuse- und Schnittstellendesign. In: Christina Bartz, Timo Kaerlein, Monique Miggelbrink und Christoph Neubert (Hg.), Gehäuse: mediale Einkapselungen. Paderborn: Fink, S. 115–136.
Zec, Peter (2011). »All New Design«. Das Geheimnis eines magischen Unternehmenserfolgs. In: Sabine Schulz und Ina Grätz (Hg.), Apple Design. Ostfildern: Hatje Cantz, S. 88–103.
Zillien, Nicole (2008). Die (Wieder-)Entdeckung der Medien. Das Affordanzkonzept in der Mediensoziologie. In: Sociologia Internationalis 46/2, S. 161–181.

Internet:
Apple (2013b). iPhone 5s & iPhone 5c ab Freitag, 20. September erhältlich. In: apple.com, <https://www.apple.com/de/newsroom/2013/09/16iPhone-5s-iPhone-5c-Arrive-on-Friday-September-20/> [17.12.2020].
Apple (2013c). Apple Special Event. In: youtube.com, <https://www.youtube.com/watch?v=yBX-KpMoxYk> [15.01.2021].
Apple (2020). Human Interface Guidelines. In: apple.com, <https://developer.apple.com/design/human-interface-guidelines/ios/overview/themes/> [17.12.2020].
Biermann, Kai (2013). Fingerabdrücke, srsly? In: zeit.de, <https://www.zeit.de/digital/datenschutz/2013-09/apple-iphone-5s-fingerabdruck> [17.12.2020].
Gruber, Angela (2013). Der Sensor für Fingerabdrücke funktioniert. Apple iPhones 5S und 5C im Test. In: zeit.de, <https://www.zeit.de/digital/mobil/2013-09/iphone-5c-5s-testberichte> [17.12.2020].
Hauck, Mirjam (2013a). Der wahre Wert von Apples neuem Smartphone. iPhone 5s und iPhone 5c. In: sueddeutsche.de, <https://www.sueddeutsche.de/digital/iphone-5s-und-iphone-5c-der-wahre-wert-von-apples-neuem-smartphone-1.1780067> [17.12.2020].
Hauck, Mirjam (2013b). Wenn das iPhone in die falschen Finger gerät. Biometrisches Feature im iPhone 5s. In: sueddeutsche.de, < https://www.sueddeutsche.de/digital/biometrisches-feature-im-iphone-5s-wenn-das-iphone-in-die-falschen-finger-geraet-1.1767864> [17.12.2020].
Kremp, Matthias (2013). Das können die neuen Apple-Handys. iPhone 5s und 5c im Test. In: spiegel.de, < https://www.spiegel.de/netzwelt/gadgets/angefasst-iphone-5s-und-5c-im-test-a-922540.html> [17.12.2020].
Könemann, Peter (2014). Moog Animoog Test. Anisotropic Synthesizer für iPad, iPhone und Blackberry Z10. In: bonedo.de, <https://www.bonedo.de/artikel/einzelansicht/moog-animoog-test.html> [21.01.2021].
Schroeder, Markus (2013). INTERVIEW: Michael Tyson & Sebastian Dittmann, Audiobus. In: amazona.de, <https://www.amazona.de/interview-michael-tyson-sebastian-dittmann-audiobus/3/> [15.01.2021].
Shimpi, Anand Lal/Klug, Brian/Gowri, Vivek (2012). The iPhone 5 Review. Speakerphone and Noise Suppression. In: anandtech.com, <https://www.anandtech.com/show/6330/the-iphone-5-review/21> [05.01.2021].
Spehr, Michael (2013). Der Finger soll in die Zukunft zeigen. Apple iPhone 5s im Test. In: faz.net, <https://www.faz.net/aktuell/technik-motor/digital/apple-iphone-5s-im-test-der-finger-soll-in-die-zukunft-zeigen-12578153/eigentlich-ein-iphone-5-mit-12576546.html> [17.12.2020].
Summerson, Cameron (2018). Why Do iPhones Generally Have Better Sound Quality Than Android? In: howtogeek.com, <https://www.howtogeek.com/359464/why-do-iphones-generally-have-better-sound-quality-than-android/> [15.01.2021].

Interviews:
Oesterschmidt, Sascha (2020). Interview mit Sascha Oesterschmidt, 12.06.2020.


Abbildungen

Abb. 1: Das iPhone. Klaus Polkowski.
Abb. 2: Das iPhone. Klaus Polkowski.
Abb. 3: Das iPhone. Klaus Polkowski.