»Das
Smartphone ist nicht mehr wegzudenken« – so formuliert es der Besitzer des hier
betrachteten iPhone 5s von Apple. Und in der Tat: Wohl kaum eine Gerätegattung
hat sich seit den späten 2000er-Jahren derart rasant verbreitet wie das
Smartphone. Die Modelle von Apple trugen dazu einen großen Teil bei,
kombinierten sie doch von Beginn an das für den US-amerikanischen Konzern
typische funktionale Design mit einer intuitiven Bedienbarkeit. Gerade die
Kombination dieser beiden Aspekte sorgte dafür, dass die iPhone-Modelle zu den
populärsten Smartphones überhaupt wurden. Dass Smartphones im Allgemeinen den
Alltag ihrer Nutzer*innen so stark prägen, ist vor allem auf ihre
Multifunktionalität zurückzuführen. Mit den Geräten wird nicht nur die
alltägliche Kommunikation geregelt, sondern mittlerweile dank eines
reichhaltigen Angebots an musikbezogenen Apps vor allem auch Musik gehört und
mitunter sogar gemacht. Smartphones sind deshalb seit ihrem endgültigen
Durchbruch in den 2010er-Jahren als Apparaturen zu verstehen, die das
zeitgenössische Musikleben elementar prägen, auch wenn sie unter Musiker*innen
bisweilen noch immer nicht als Musikinstrumente anerkannt werden.
Das iPhone ist nicht Teil der Archivbestände der am Verbundprojekt »Musikobjekte der populären Kultur« beteiligten Institutionen. Es wurde den Verfassern leihweise zur Verfügung gestellt und anschließend wieder an den Besitzer zurückgegeben. Das iPhone war zum Zeitpunkt der Leihgabe nicht mehr in Gebrauch und wurde im Sinne des Datenschutzes auf Werkseinstellungen zurückgesetzt. Dieses Vorgehen war notwendig, da sich im Laufe des Forschungsprozesses keine Personen ermitteln ließen, die sich bereit erklärt hätten, den Projektbeteiligten ihr persönliches Smartphone inklusive aller Applikationen und im aktiven Nutzungszustand auszuhändigen. Hier zeigt sich die sehr persönliche Bedeutung, die das Smartphone für viele Nutzer*innen hat.
Der Text gliedert sich im Folgenden
in zwei übergreifende Teile. Zunächst wird das iPhone hinsichtlich seiner
Materialität, Funktionalität und technischen (Fort-)Entwicklung beschrieben,
der zweite Teil beleuchtet Smartphones als Medien der Musikrezeption und
-produktion. Sie können es mithilfe der Buttons entweder chronologisch oder thematisch lesen. Zwei Infoboxen zu Affordanz und Smartphones als Instrumenten bieten zusätzliche Hintergrundinformationen.
Bei dem hier besprochenen Artefakt handelt es sich um das Modell iPhone 5s von Apple. Das iPhone 5 wurde im September 2012 der Öffentlichkeit vorgestellt, die Produktvariante iPhone 5s folgte etwa ein Jahr später (vgl. Schwer 2014: 222). Das Objekt weist einen rechteckigen, flachen Körper auf, die Ecken sind leicht abgerundet. Dunkle Farbtöne von schwarz bis dunkelgrau dominieren die Oberflächen, die nahezu fugenfrei zusammengefügt sind. Die Frontseite resp. das Display besteht aus Glas, der umlaufende Rahmen aus Metall und die Rückseite aus Metall mit Glas-Inlays, die als Abdeckung der Kameralinse und des LED-Blitzes dienen. Die Metalloberflächen sind mattiert (Rückseite) und hochglanzpoliert (Rahmen), während sich das Display durch eine spiegelnde bzw. glänzende Oberfläche auszeichnet. Auf der Vorderseite findet sich lediglich ein Bedienelement, der sog. Home-Button. Alle weiteren Nutzerschnittstellen sind im umlaufenden Rahmen angebracht. An der Oberseite befindet sich eine Drucktaste zur Inbetriebnahme des Geräts, links kann die Lautstärke geregelt und rechts die SIM-Karte eingelegt werden. An der Unterseite finden sich eine 3,5 mm-Kopfhörerbuchse, eine doppelte Lochreihe für die Lautsprecher und eine Buchse für den Docking-Connector. Kamera, LED-Blitz und Mikrofonöffnung sind in einer Reihe nebeneinander am oberen Rand der Rückseite platziert (vgl. ebd.: 224–228). Das Gerät lässt keine Nutzermodifikationen und, abgesehen von einigen kleinen Kratzern, keine Abnutzungsspuren erkennen.
Abb. 1: Das iPhone.
Foto: Klaus Polkowski
Das
Herzstück des Smartphones ist das sog. Ein-Chip-System, der A7, mit dem Apple einen
Haupt- und Grafikprozessor sowie weitere Komponenten in einem Bauteil
bereitstellt. Trotz langjähriger Patentstreitigkeiten wurde der Prozessor in
den Fabriken des Konkurrenten Samsung hergestellt, da dort die notwendige
Infrastruktur vorhanden war (vgl. Anonym 2013: 85). Das System läuft auf
Basis der 64-Bit-Technologie und ist mit ca. 1 GB Arbeitsspeicher
ausgestattet, der Zweifachkern rechnet mit 1,3 GHz (also 1,3 Milliarden
Rechenoperationen pro Sekunde). Im Vergleich zum Vorgängermodell findet nahezu
eine Verdoppelung der Geschwindigkeit statt. Entlastet wird das Hauptsystem von
einem Ko-Prozessor, einem Adreno 320 des Chipherstellers NXP Semiconductors,
der von Apple als »M7 Motion Coprozessor« (Apple 2013c) bezeichnet wird. Vor
allem die Rechenprozesse im Zusammenhang mit der Erhebung und Verarbeitung der Daten
der Sensoren sind in diesen Ko-Prozessor ausgelagert. Mit der Einführung des iPhone
5s war das Update des Apple-Betriebssystems auf die Version iOS 7 verbunden.
Das
iPhone 5s bietet mehrere Möglichkeiten zur Klangaufnahme und Klangwiedergabe. Während
der eingebaute Lautsprecher an der Unterseite des Geräts einkanalige Wiedergabe
ermöglicht, wird beim Anschluss eines Kopfhörers oder eines Aux-Kabels ein
hochauflösendes Stereosignal ausgegeben. Klangaufnahmen werden durch ein Mikrofon
an der Vorderseite, sichtbar direkt unter der Frontkamera, eines an der
Rückseite, kaum erkennbar zwischen iSight-Kamera und LED-Blitz, sowie durch ein
weiteres an der Unterseite ermöglicht. Dabei handelt es sich um ein MEMS (micro-electro-mechanical
system) des Zulieferers Knowls, also eine Art Klangüberträger, der auf
kleinstem Raum Membran, Verstärker und andere Elemente eines Mikrofons vereint (vgl.
Kardous/Shaw 2016: 328).
Ein-
und ausgehende Signale werden im iPhone 5s über einen Audio Codec IC (338S1201
U21) verarbeitet. Der Chipsatz kombiniert einen Analog- zu Digital- und einen
Digital- zu Analogwandler und bestimmt die Auflösung des Audiosignals, das für
das vorliegende Modell mit 16 Bit und 44.1 kHz angegeben wird. Dies entspricht
dem CD-Standard, wie er im Red Book festgehalten ist.
Die von einigen Nutzer*innen
bescheinigte hohe Qualität wird dabei auf die Erfahrung mit vorherigen Apple-Produkten
wie dem iPod zurückgeführt (vgl. Summerson 2018). In Bezug auf die
Bereitstellung hochauflösender Audiodateien ist der/die Nutzer*in auf das
eigens von Apple entwickelte Lossless-Format (das die verlustfreie Kompression
von Audiosignalen bewirkt) angewiesen, andere Formate wie FLAC werden von diesem
Modell noch nicht nativ unterstützt.
Zentral
für alle iPhone-Modelle ist der Home-Button. Im Falle des Modells 5s ist in
diesem Bedienelement ein Fingerabdruck-Scanner eingebaut, der auf Basis vieler
kleiner Kondensatoren über Druck ein genaues Bild der Papillarleisten erstellen kann (vgl. Anonym 2013: 85). Neben dem Home-Button, den
Lautstärketasten an der Seite und dem ›Klingeln/Aus‹ vollzieht sich der
Großteil der Interaktion über den Multi-Touch-Screen. Mit diesem werden über
verschiedene Gesten und Interaktionen wie Tippen, Wischen, Auseinanderziehen
(Ein-/Auszoomen), Ziehen (z. B. an einem Lautstärkeregler oder zum
Scrollen einer Seite) alle Programme bedient (vgl. Apple 2013a: 10). Apple
verwendet dafür seit dem ersten Modell die projektiv-kapazitive Methode (vgl. Walker
2015: 1). Dabei wird mit einem elektrischen Feld gearbeitet, das zwischen
zwei Ebenen hinter dem Display entsteht, wobei eine sehr hohe Anzahl an kleinen
Kondensatoren zum Einsatz kommt. Apple entwickelte die
In-Cell-Konstruktionsweise, bei der die beiden Ebenen im LC-Display zusammengelegt
werden (vgl. ebd.: 50). Das elektrische Feld erstreckt sich bis zum Glasdisplay.
Die Berührung durch den (geerdeten) Finger auf dieser Bedienoberfläche führt dazu,
dass sich bestimmte Ladungszustände in dem erzeugten Feld ändern. Sie können von
den einzelnen Kondensatoren ausgelesen, von Programmroutinen interpoliert und
so als zweidimensionale Berührungspunkte verstanden bzw. projiziert werden.
Diese Methode ist hinsichtlich der Handhabung des Geräts mit einigen Vorteilen
verbunden: Dadurch, dass das Interface nicht auf Druck, sondern auf Veränderungen
des elektrischen Feldes reagiert, können auch sachte Gesten mit dem Finger ›interpretiert‹
werden. Auch die Multi-Touch-Funktion, also die simultane Interpretation von
mehreren Berührungspunkten, wird vereinfacht. Obgleich andere
Touch-Technologien ›echten‹ Druck ausmessen, lässt sich dies durch die
Bestimmung größerer bzw. kleinerer Auflagepunkte simulieren.
Zugleich sind im iPhone 5s, wie auch in vielen Vorgänger- und Konkurrenzmodellen, verschiedene Sensoren eingebaut, die neben der Standortbestimmung und Gestenerkennung auch dazu dienen, bestimmte Bewegungsmuster wie Laufen, Stehen oder Autofahren zu erkennen. Dies wird als »Kontextbewusstsein« (Apple 2013c: o. S.) bezeichnet und ermöglicht bspw. das Aufzeichnen verschiedener sportlicher Aktivitäten. Durch seinen ausgelagerten Chip bot gerade das iPhone 5s neue Möglichkeiten und eine höhere Genauigkeit dieser Interpretation. Der Beschleunigungssensor misst die Geschwindigkeit, mit der sich das Gerät aus einer Ruheposition in eine bestimmte Richtung bewegt, indem eine ausgehängte Feder bei Bewegung gegen eine feste Bezugseinheit auslenkt. Hier wird, wie beim Multi-Touch-Screen, mit der Auswertung geänderter Kapazität gerechnet. Dadurch wird es möglich, z. B. beim Navigieren die Richtung festzustellen, in die sich die/der Nutzer*in bewegt. Der Annäherungssensor dient dazu, beim ›klassischen‹ Telefonieren den Bildschirm auszuschalten und der Umgebungslichtsensor ermöglicht die Interpretation von Lichtverhältnissen, um z. B. die Helligkeit der Hintergrundbeleuchtung zu regulieren.
Der
Begriff Smartphone ist weder eine Erfindung des Konzerns Apple noch der späten
2000er-Jahre. Nachweislich zirkulierte der Terminus schon Mitte der
1990er-Jahre in der Herstellerbranche, wo die Multifunktionsgeräte, mit denen
eben nicht nur telefoniert werden sollte, bisweilen als »smart phone[s]«
(Savage 1995: 40) bezeichnet wurden. Diese Geräte sollten den Nutzer*innen
die alltägliche und vor allem die berufliche Kommunikation erleichtern,
weswegen mit ihrer Hilfe auch E-Mails geschrieben, Termine koordiniert und
Kurznachrichten verschickt werden sollten. Als erstes Smartphone gilt
landläufig das IBM Simon, dessen Markteinführung 1994 erfolgte. Bei Maßen von
200 x 64 x 38 mm wies das Gerät ein Gewicht von 510 g und eine
Speicherkapazität von 1 MB auf. Es verfügte über ein Mikrofon und über
einen Touchscreen, einen sog. »sensitive screen« (Jin 2020: 88), der mithilfe
eines Stiftes bedient wurde. Mit dem Gerät ließ sich nicht nur telefonieren,
sondern auch E-Mails und Faxe konnten verschickt werden, wobei die Batterieleistung
bei intensiver Nutzung zumeist nach nur 60 Minuten zur Neige ging (vgl. ebd.;
Lima et al. 2019: 4 f.). In den frühen 2000er-Jahren verbreitete sich
das BlackBerry, das bereits über die wesentlichen Funktionen späterer Smartphones
verfügte. Im Laufe der Jahre und infolge der Etablierung resp.
Weiterentwicklung der Apple-Modelle, aber auch verschiedener Android-Geräte, wurde
es allerdings obsolet. So zeigt sich, dass die Markteinführung des ersten
iPhone im Jahr 2007 den globalen Durchbruch der Gerätegattung einleitete, die
grundlegenden Entwicklungen sich aber schon gut ein Jahrzehnt früher vollzogen hatten
und Apple dahingehend keine technologische Vorreiterrolle einnahm.
Bereits
einige Jahre vor dem Siegeszug des Smartphones entwickelte sich das Handy zum
global verbreiteten Kommunikations- und Unterhaltungsmedium. Noch in den
letzten Jahren des 20. Jahrhunderts war diese Entwicklung kaum abzusehen,
zeigten sich doch sowohl Marktexpert*innen als auch Gerätehersteller und Käufer*innen
in den späten 1990er-Jahren überrascht von der rasanten Ausbreitung des
Mobiltelefons (vgl. Weber 2008: 251). Mitte der 1990er-Jahre kamen
einschlägige Marktforschungen zu dem Ergebnis, dass zu Beginn des neuen
Jahrtausends in Deutschland mit fünf bis sechs Millionen Handynutzer*innen
gerechnet werden könne – in den Jahren 2000 und 2001 wurden sodann bereits mehr
als 50 Millionen Nutzer*innen der GSM-Netze (Global System for Mobile
Communications, ein Mobilfunkstandard) registriert (vgl. ebd.: 264). Waren
Handys bis zur Mitte der 1990er-Jahre in erster Linie als funktionale Gebrauchsgegenstände
konzipiert worden, forcierte vor allem der finnische Konzern Nokia alsbald eine
neue Vermarktungsstrategie. Das Nokia-Modell 2110 wurde nunmehr als
personalisierter technischer Alltagsbegleiter inszeniert und die
Nutzerfreundlichkeit wurde zunehmend verbessert. Die neuesten Modelle verfügten
über sog. Softkeys, mit denen eine Menüfunktion, die auf dem Display angezeigt
wurde, angewählt werden konnte. Ältere Modelle erforderten noch die Eingabe
komplizierter Ziffernkombinationen, wenn etwa eine Rufnummer eingespeichert
werden sollte. Wenngleich Handys für die mobile Nutzung entworfen worden waren,
vollzog sich im Laufe der Zeit eine Umfunktionierung, da die Geräte dank
Speicherfunktionen für Spiele, Bilder und Musik auch zunehmend zuhause sowie zur
individuellen Kommunikation und Freizeitgestaltung genutzt wurden (vgl. ebd.: 275 f.;
Fortunati
2006: 178). Ab den frühen
2000er-Jahren änderten sich auch die Werbestrategien der meisten Hersteller,
Handys wurden fortan nicht mehr nur als Kommunikationsmedien vielreisender
Berufstätiger, sondern auch als hippe Accessoires für Jugendliche inszeniert
(vgl. Weber 2008: 278). Auf diesem Wege erfolgte eine »Miniaturisierung,
Emotionalisierung und Ästhetisierung des Handy-Designs« (vgl. ebd.: 281) – hier zeigen sich deutliche
Parallelen zu den späteren Erfolgsrezepten des Smartphones.
Mit der Markteinführung des iPhone präsentierte Apple also keine gänzlich neue Gerätegattung und auch keine prinzipiell bahnbrechenden Funktionalitäten. Als Garant für den Erfolg des Modells, mit dem die mobile Internetnutzung endgültig massentauglich wurde, gilt vielmehr die Benutzerfreundlichkeit (vgl. Schwer 2014: 219 f.). Die leichte Bedienbarkeit resultiert vor allem aus der Möglichkeit, das Gerät via Touchscreen mit den Fingern zu bedienen. In diesem Zusammenhang haben sich, so der Medienkulturwissenschaftler Oliver Ruf, sogar »neue Kulturtechniken wie diejenige des Wischens und Gegensteuerns per Hand« (Ruf 2018: 18; vgl. ausführlich Ruf 2014) entwickelt. Zudem gelten moderne Smartphones seit dem iPhone als ›Allrounder‹, als der »Inbegriff des All-in-One« (Grätz 2011: 18), da diese Geräte vielfältige Funktionalitäten in den Bereich Kommunikation, Organisation und Unterhaltung in sich vereinen und mit einer intuitiven Bedienbarkeit kombinieren.
Anlässlich
der Markteinführung des iPhone 5s im Jahr 2013 annoncierte Apple das neue
Produkt in einer Pressemeldung als »das weltweit fortschrittlichste Smartphone«
(Apple 2013b: o. S.). Es definiere »das beste Smartphone-Erlebnis der
Welt neu mit aufregenden neuen Funktionen in einem bemerkenswert dünnen und
leichten Design« (ebd.) und verfüge »über eine beeindruckende neue
Benutzeroberfläche« (ebd.). In gewohnt selbstsicherer Weise hob der Konzern
dabei neben den Designlösungen vor allem die technologische Weiterentwicklung
des iPhone hervor. Bereits wenig später regten sich in der Presse jedoch
kritische Stimmen, die die Frage aufwarfen, was genau am neuen Apple-Smartphone
tatsächlich neu war.
Als
Novum wurde die 64-Bit-Technologie bewertet, die Apple als erster Hersteller in
einem Smartphone eingesetzt und die »einen deutlichen Leistungszuwachs« (Kremp
2013: o. S.) bedingt habe. Überdies sei die integrierte Kamera
verbessert worden, denn das iPhone 5s verfüge im Vergleich zu den
Vorgängermodellen über einen größeren Fotochip (vgl. Gruber 2013: o. S.).
Besonderes Aufsehen erregte der Fingerabdrucksensor, der unterhalb des
Home-Button installiert wurde. Mithilfe dieses Sensors konnten sich die
iPhone-Nutzer*innen nicht nur ohne PIN-Nummer an ihrem Gerät anmelden, sondern
bspw. auch Songs, Apps und Videos aus dem iTunes Store kaufen. Ein einzelnes
Gerät ließ sich auf diese Weise von bis zu fünf Personen nutzen (vgl. Hauck
2013b: o. S.). Allerdings wurden schon kurz nach der Markteinführung
des iPhone 5s bisweilen ausdrückliche Bedenken hinsichtlich des
Datenschutzes geäußert. So monierte Kai Biermann (2013: o. S.) auf Zeit Online, es könne nur eine Frage der
Zeit sein, bis die in diesem Zuge gesammelten Fingerabdruckdaten missbraucht
würden. Aufgrund der großen Popularität und Akzeptanz der Apple-Smartphones sei
zu befürchten, so Biermann weiter, dass der laxe Umgang mit derart sensiblen
Daten bald zur Normalität werden könne (vgl. ebd.).
Mitunter
wurde auch bemängelt, dass die Änderungen nur kleine Details beträfen, das
iPhone 5s von seinem unmittelbaren Vorgängermodell kaum zu unterscheiden
sei und Apple-Smartphones wohl nicht mehr in großen Schritten weiterentwickelt
werden können. Hierzu Angela Gruber (2013: o. S.): »Es war nur eine
Frage der Zeit, bis ein Punkt erreicht war, an dem punktuelle Verbesserungen
des Bestehenden reichen müssen, weil es nicht immer exponentiell nach oben
gehen kann. Irgendwann ist eine Sättigung erreicht«. In einem ausführlichen
Bericht auf den Internetseiten der Frankfurter
Allgemeinen Zeitung wurde zudem argumentiert, dass das Apple-Produkt sich
nicht nennenswert von der Konkurrenz hätte absetzen können und mitunter sogar
hinter den Leistungen anderer Smartphones zurückbleibe:
Das iPhone 5s ist […] keine Revolution, und die Fans anderer Betriebssysteme werden mit Recht darauf verweisen, dass zum Beispiel ein Nokia Lumia die bessere Kamera und die bessere Fahrzeugnavigation hat. Im Android-Bereich gibt es mehr Auswahl bei der Hardware, größere Anzeigen, Stiftbedienung und nahezu unendliche Optionen der Individualisierung. Das iPhone ist und bleibt teuer, die Preise ohne Kartenvertrag liegen zwischen 700 und 900 Euro je nach Speicher. (Spehr 2013: o. S.)
Die im Vergleich mit den Modellen anderer Hersteller hohen Preise der Apple-Smartphones bieten seit der Markteinführung des ersten iPhone fortlaufend Anlass zur Kritik. Immer wieder wurde in diesem Zusammenhang auch versucht, die tatsächlichen Produktionskosten zu ermitteln, um den potenziellen Gewinn des Konzerns einschätzen zu können. Im Falle der teuersten Variante des iPhone 5s sollen die Herstellungskosten seinerzeit bei 162 Euro gelegen haben (vgl. Hauck 2013a: o. S.).
Wenngleich Apple in den vergangenen Jahren zweifelsohne entscheidenden Einfluss auf die Weiterentwicklung apparativer Medien und die mit diesen verknüpften Nutzungschoreografien nehmen konnte, steht das Unternehmen auch immer wieder in der Kritik. Apple rangierte laut Greenpeace-Recherchen in puncto Nachhaltigkeit lange Zeit auf dem letzten Platz unter den großen Technologiekonzernen, was u. a. mit der Verschwendung von Rohstoffen, der Umweltverschmutzung durch Elektroschrott und den miserablen Bedingungen für die Arbeiter*innen in den Zuliefererbetrieben begründet wurde (vgl. Borries 2011: 61). Diese Missstände markieren die Kehrseite des auf design-, marketing- und technologiespezifischen Innovationen basierenden globalen Erfolgs des Unternehmens Apple, das immer wieder mittels öffentlichkeitswirksamer Kampagnen versucht, auf die Nachhaltigkeits- und sozialen Initiativen des Konzerns hinzuweisen und den Imageschaden zu minimieren.
Das
Produktdesign gilt als elementarer Stützpfeiler des Unternehmens Apple, als das
primäre Distinktionsmerkmal und letztlich auch als wesentliches Instrument der
Kundenbindung. Für die erfolgreichsten Produkte, so auch für das iPhone, griff
Apple immer wieder bestehende Technologien auf und vereinte sie in neuen Geräten.
Diese konnten in der Folge gerade nicht aufgrund des technologischen
Innovationsgrades, sondern vor allem auf Basis designspezifischer Lösungen
derart populär werden. Hierzu die Kunsthistorikerin Ina Grätz:
Noch nie hat das Unternehmen Apple ein gänzlich neues elektronisches Produkt entwickelt: Weder der Computer noch der MP3-Player oder gar das Handy wurden von Apple erfunden. Dass die Geräte des Unternehmens heute dennoch als die innovativsten unserer Zeit gelten, erklärt sich vor allem aufgrund ihres Produktdesigns. (Grätz 2011: 11)
Es
scheint unstrittig, dass Apple-Smartphones vielen Konkurrenzprodukten in technologischer
Hinsicht nicht überlegen, dafür aber angenehmer in der Nutzung sind. Das erste
iPhone unterschied sich ganz entscheidend von den BlackBerry- und Nokia-Modellen
der 2000er-Jahre, denn es bot eine »grundlegend neue Benutzeroberfläche« (Zec
2011: 94; vgl. auch Mazzucato 2014: 121 f.). Eine der besonderen Leistungen des Konzerns besteht
darin, »das
Potenzial vorhandener technischer Möglichkeiten zu erkennen, sie im richtigen
Moment in einer für den Nutzer optimierten Weise zusammenzuführen und dem
Ganzen eine Gestalt zu geben, die ihm entspricht« (Wagner 2011: 38).
Häufig wird in
journalistischen und akademischen Texten nach den Vorbildern der
minimalistischen Apple-Formsprache gesucht, und in der Regel werden dabei
Parallelen zum Unternehmen Braun resp. zu Dieter Rams, dem langjährigen
Chefdesigner des Kronberger Konzerns, gezogen. Tatsächlich lassen sich mit
Blick auf die Firmengeschichten und den Stellenwert, den das Design in beiden
Unternehmen einnahm resp. einnimmt, einige Gemeinsamkeiten feststellen – auch
hinsichtlich maßgeblicher personeller Entscheidungen. 1997 wurde der Designer Jonathan Ive Senior Vice
President of Industrial Design bei Apple. Durch die Besetzung dieser
hochrangigen Position mit einem Designspezialisten wurde das Produktdesign gewissermaßen
zur ›Chefsache‹ erhoben (vgl. Klinke 2011: 45). Ähnlich verhielt es sich
bei Braun in den 1950er-Jahren, als die Konzernleitung den Kunsthistoriker
Fritz Eichler engagierte, ihn nach kurzer Zeit zum Designdirektor ernannte und
somit das Ineinandergreifen von industrieller Produktion und ästhetischer
Vision forcierte (vgl. Braun 2011: 6). Neben Braun orientierten sich auch
Hersteller wie Wega, Brionvega, Bang & Olufsen und Leica an ähnlichen
Gestaltungsprinzipien gemäß den zentralen Kriterien »Einfachheit, Reduktion und
Funktionalität« (Grätz 2011: 15 f.). Insgesamt ist die Einflussnahme
der Formsprachen dieser Konzerne auf das Apple-Produktdesign kaum von der Hand
zu weisen. Ferner reproduziert der US-amerikanische Konzern die »Formkonstanz«
(ebd.: 16), die sich bereits bei Braun feststellen ließ. Einzelne Apple-Produkte
unterscheiden sich in ihrem visuellen Erscheinungsbild nur graduell, woraus ein
hoher Wiedererkennungswert resultiert. Angesichts der sehr schlicht gestalteten
Oberflächen von Geräten wie dem iPhone scheint ferner die bekannte Rams’sche
These »Gutes Design ist so wenig
Design wie möglich« (zit. n. ebd.) bzw. das Gestaltungsprinzip »Weniger,
aber besser« (zit. n. Klinke 2011: 44) Einfluss auf das
Apple-Produktdesign genommen zu haben.
Die
iPhone-Oberfläche besteht zu großen Teilen aus dem Display und entspricht somit
dem Ideal des möglichst minimalistischen Produktdesigns. Apple-Geräte sind ferner
bekannt dafür, sich nicht ohne Weiteres öffnen zu lassen, sodass nur wenige
Nutzer*innen wissen, was sich unter den glänzenden und mattierten Oberflächen
befindet, geschweige denn, nach welchen technologischen Prinzipien das
Innenleben der Geräte funktioniert. Dieses mit dem Sprachbild der ›Blackbox‹
umschriebene Phänomen ist paradigmatisch für moderne apparative Medien. Die
Blackbox, so Heike Weber (2017: 116), spielt »zum
einen auf die materiale Gestaltung an – das technische Innenleben wird in
Hüllen und Gehäusen verkleidet – und zum anderen auf den Fakt der
Komplexitätsreduzierung des Wissenschaftlich-Technischen – die Bedienung
erfordert kein Verstehen aller Abläufe«. Gerade wenn technische Artefakte nicht
für Spezialist*innen, sondern für den Massenmarkt konzipiert werden, sind die
Produkte in der Regel so designt, dass ihre Bedienung möglichst wenig
technisches Know-how erfordert (vgl. ebd.: 115). Deshalb etablieren sich
häufig nicht unbedingt die ›besten‹, sondern eben die nutzerfreundlichsten
Technologien (vgl. ebd.: 119). Design und Technologie müssen dabei fein
aufeinander abgestimmt sein, damit Verbindungen zu den Nutzer*innen hergestellt
werden können:
Design kommt unweigerlich überall dort ins Spiel, wo der schwarze Kasten dem Benutzer eine Kontaktseite zuwenden muss, um sich ihm trotz seiner inneren Hermetik nützlich zu machen. Design schafft den dunklen Rätselkästen ein aufgeschlossenes Äußeres. […] Je unbegreiflicher und transzendenter das Innenleben des Kastens ist, desto auffordernder muss das Kastengesicht dem Kunden ins Naturgesicht lächeln und ihm signalisieren: Du und ich, wir können es miteinander. (Sloterdijk 2007: 149)
Geräte
wie Apples iPhone suggerieren den Nutzer*innen folglich »maximale
Benutzungsmacht bei minimalem technischen Know-how« (Mareis 2017: 94),
denn sie sind intuitiv bedienbar, weisen nur wenige Nutzerschnittstellen auf
und stiften wenig Verwirrung – ein iPhone ist »selbsterklärend. Es bedarf
keiner Gebrauchsanweisung, um es erfolgreich in Betrieb zu nehmen« (Zec 2011: 95).
Mit Produkten wie dem
iPhone, so scheint es, orientiert sich Apple in hohem Maße an Grundsätzen
›gelungenen‹ Produktdesigns. In seinem viel beachteten Buch The Design of Everyday Things (2016)
definiert der Kognitionswissenschaftler Don Norman »Erkennbarkeit (discoverability)
und Verständlichkeit (understanding)« (ebd.: 3;
Herv. i. O.) als »[z]wei der wichtigsten Charakteristiken von gutem
Design« (ebd.). Essenziell sei es, so Norman weiter, als Nutzer*in möglichst
schnell herausfinden zu können, wozu ein Objekt genutzt und wie es bedient
werden kann (vgl. ebd.). Da gelungene Produkte den Konsument*innen nicht nur
formell nützlich sein, sondern mit ihrer Hilfe potenziell auch ästhetische
Erfahrungen generiert werden sollten, unterscheidet Norman zwischen den Ebenen
des Produkt-, Interaktions- und Erlebnisdesigns. Stünden im Produktdesign Form
und Material im Mittelpunkt, fokussiere das Interaktionsdesign die Aspekte
Erkennbarkeit und Verständlichkeit, das Erlebnisdesign hingegen ziele ab auf
den emotionalen Effekt (vgl. ebd.: 4 f.). Um diesen Anforderungen in
der Designpraxis entsprechen zu können, müssten die Prinzipien des Human
Centered Design (HCD) beherzigt werden:
Abb. 2: Das iPhone.
Foto: Klaus Polkowski
HCD ist eine Herangehensweise, in der menschliche Bedürfnisse, Fähigkeiten und Handlungsweisen in den Vordergrund gestellt und Designs diesen angepasst werden. […] Gutes Design erfordert gute Kommunikation, besonders zwischen Mensch und Maschine. Die Maschine muss darauf hinweisen, welche Aktionen durchführbar sind, was gerade passiert und was folglich darauf passieren wird. […] Human Centered Design ist eine Designphilosophie. Es bedeutet, dass mit einem guten Verständnis für den Menschen und den Anforderungen, denen das Design entsprechen sollte, an die Sache herangegangen wird. Dieses Verständnis wird hauptsächlich durch Beobachtung erlangt, da es häufig vorkommt, dass sich der Mensch weder darüber im Klaren ist, welche Bedürfnisse er hat[,] noch, wo die Ursache der Schwierigkeiten liegt, die ihm begegnen. (Ebd.: 8)
Anschließend an diese
Überlegungen ist zu konstatieren, dass technische Artefakte den Nutzer*innen
spezifische Handlungsangebote machen. Im Idealfall ist ihre Handhabung – im
Rahmen der kulturellen Kontexte, in welchen das Gerät in Umlauf gebracht wird –
selbsterklärend, sodass sich der Handlungserfolg unmittelbar einstellen kann.
Ein Smartphone muss dabei zunächst gut in der Hand liegen, allerdings sind auch
im Bereich der Software ausreichend intuitive Elemente vonnöten, damit sich
eine angenehme Nutzungserfahrung einstellen kann. Gerade die
Produktverantwortlichen von Apple sind nachweislich darauf bedacht, in sensorischer
Hinsicht ausreichend Unterstützungsangebote zur Verfügung zu stellen (vgl.
Kaerlein 2018: 164 f.). Auf der Unternehmenswebsite sind
passenderweise die »iOS Human Interface Guidelines« (Apple 2020: o. S.)
einsehbar, die sich an potenzielle App-Entwickler*innen richten und über die
Designgrundsätze des Konzerns informieren. Es wird darauf hingewiesen, dass das
Design der Applikationen stets zurückhaltend zu sein und die Funktionalität im
Vordergrund zu stehen habe. Die Bedienung müsse intuitiv sein, den
Nutzungskontexten entsprechen und unmittelbar Handlungserfolge signalisieren
(vgl. ebd.).
Ein Beispiel für Technologien, die vor allem durch Apple-Produkte bekannt wurden und zu deren intuitiven Bedienbarkeit beitragen, aber nicht auf den Entwicklungsleistungen des Konzerns basieren, ist der Touchscreen. Steve Jobs, Mitgründer von Apple und nach einer mehrjährigen Pause ab Mitte der 1990er-Jahre erneut Konzernleiter, hat Tablet-Computern lange Zeit kritisch gegenübergestanden. Erst als Touchscreens nicht mehr per Stift bedient werden mussten und Anwendungen wie Scrollen und Fingertracking allmählich zur Marktreife gelangten, stellte sich bei ihm ein Gesinnungswandel ein. Wenngleich das iPhone dem Touchscreen zum endgültigen Durchbruch verhalf, war die grundlegende Technologie zum Zeitpunkt der Markteinführung des Apple-Smartphones bereits rund 40 Jahre alt. Als der Erfinder gilt Edward A. Johnson, der als Beschäftigter des Royal Radar Establishment bereits 1965 seine ersten einschlägigen Forschungsergebnisse publizierte. 1973 wurde sodann von Bent Stumpe und Frank Beck, die als Ingenieure bei der European Organization for Nuclear Research arbeiteten, der erste funktionsfähige Touchscreen entwickelt. Ebenfalls in den frühen 1970er-Jahren stellte der seinerzeit an der University of Kentucky beschäftigte Physiker Samuel Hurst den resistiven Touchscreen, der auf Druck reagierte, vor (vgl. Mazzucato 2014: 130 f.).
In den 2010er-Jahren
entwickelte sich das Smartphone, sicher nicht zuletzt infolge des durchschlagenden
Erfolges des iPhone, zu einem enorm populären Musikgerät, allen voran zum
Wiedergabemedium. Von der immensen Relevanz des Smartphones gerade für junge
Nutzer*innen zeugen empirische Befunde der Jugendforschung. So zählen im Jahr
2020 Musik, Smartphone und Internet zu den Alltagskonstituenzien, auf die der
Großteil der Jugendlichen in keinem Fall mehr verzichten kann (vgl. Calmbach et
al. 2020: 32). Ebenfalls in den 2010er-Jahren setzte der Aufstieg des
Audio-Streaming ein, das im Jahr 2018 erstmals der umsatzstärkste Distributionskanal
der deutschen Musikwirtschaft war (vgl. Bundesverband Musikindustrie 2020a: 5).
Wurden im Jahr 2013 hierzulande noch 5,9 Milliarden Streams registriert, waren
es im Jahr 2019 bereits 107,4 Milliarden (vgl. ebd.: 14). International
ausgerichtete Nutzungsstudien belegen, dass 89 % der Befragten Musik
streamen (vgl. International Federation of the Phonographic Industry 2019: 7),
44 % des Musikkonsums der 16- bis 24-Jährigen erfolgt über das Smartphone
und 68 % der Befragten dieser Altersgruppe würden das Smartphone wählen,
müssten sie sich für ein Gerät für den Musikkonsum entscheiden (vgl. ebd.: 11).
In einer Langzeitstudie zur Entwicklung der Musiknutzung in Deutschland, die
seit 2018 in mehreren zeitlich getrennten Befragungswellen durchgeführt wird,
zeigt sich, dass – verteilt über die bisherigen Etappen der Datenerhebung –
zwischen 92 und 94 % der Befragten ein Smartphone besitzen und zwischen 50
und 61 % es zum Musikhören benutzen. Damit rangiert das Smartphone noch
immer knapp hinter dem Radio, das zwischen 56 und 62 % der Befragten
bevorzugt nutzen – auf dem dritten Platz folgt der Laptop (36 bis 53 %) (vgl.
Bundesverband Musikindustrie 2020b: 13).
Hier wird deutlich, dass
sich das Smartphone mehr und mehr zum beliebtesten Abspielgerät entwickelt. Im
Rahmen eines Interviews bestätigte auch der Besitzer des hier betrachteten
Apparates, diesen – wie auch andere Smartphones, die er in den vergangenen
Jahren nutzte – häufig als Musikwiedergabegerät eingesetzt zu haben, sei es im
Auto oder während verschiedener Tätigkeiten in Haus und Garten (vgl.
Oesterschmidt 2020: o. S.). Schätzungsweise mache der Musikkonsum 30 %
der Nutzungszeit aus, er höre dabei wahlweise über Kopfhörer, die in seinem
Auto eingebaute Anlage oder die geräteeigenen Lautsprecher (vgl. ebd.). Häufig
nutze er sein Smartphone für das Erstellen eigener Playlists, die er bevorzugt
im Shuffle-Modus höre, bisweilen greife er auch auf von Streaming-Anbietern
generierte Playlists zurück. Generell sei das Smartphone sein meistgenutztes
Wiedergabegerät, gefolgt vom Laptop. Klangqualität spiele für ihn eine
außerordentlich wichtige Rolle, weswegen er das Smartphone zumeist an
hochwertige Geräte wie Bluetooth-Kopfhörer, eine Minilautsprecherbox und die im
Auto eingebauten Lautsprecherboxen kopple. Die Nutzung des Smartphones führe
dementsprechend nicht zur qualitativen Verschlechterung des Musikerlebens; es
sei für ihn ein Datenträger, der in der Regel mit anderen Geräten verbunden
werden müsse. Er höre bisweilen noch immer Musik auf CD und Vinyl und nehme
sich dabei bewusst die Zeit, ein »Album bzw. die Musik zu verstehen« (ebd.). Das
Smartphone hingegen biete sich für das schnelle ›Switchen‹ an.
Die Ausführungen des Gerätebesitzers legen nahe, dass sich musikbezogene Konsumpraktiken durch die Angebotscharakteristika des Smartphones und durch Streaming-Technologien nachhaltig verändern – zu nennen sind diesbezüglich das schnelle Wechseln zwischen einzelnen Musikstücken, die Nutzung von Playlists oder die mobile Allverfügbarkeit von Musik. Die Aussagen des Befragten geben allerdings zu erkennen, dass diese Nutzungsoptionen nicht mit einer nachlassenden Wertschätzung der Musik korrelieren, sondern lediglich als logische Konsequenzen medientechnologisch induzierter Wandlungsprozesse des Musikkonsums aufzufassen sind.
Abb. 3: Das iPhone.
Foto: Klaus Polkowski
Schon
vor dem Siegeszug des Smartphones wurde mit mobilen Endgeräten musiziert, wenn
auch eher im experimentellen Bereich bzw. in der Neuen Musik – die begriffliche
Klammer hierfür bildete die »Mobile Music«. Man erkannte dort vor allem das
partizipative Potenzial und die damals bereits vorhandene Niedrigschwelligkeit
von Mobiltelefonen, bedingt durch die weite Verbreitung der Geräte, als Vorteil
(vgl. Tsui et al. 2014: 1). Mithilfe des Apparates lässt sich, so die Auffassung
verschiedener Musiker*innen, das hierarchische Verhältnis zwischen Publikum und
Künstler*in bzw. die Zugangshürden zu einem Klangkörper einfacher überwinden
als mit ›traditionellen‹ Instrumenten (vgl. Essl/Rohs 2009: 197 ff.).
Ein Pionier in diesem Bereich ist Golan Levin, dessen Dialtones (A
Telesymphony) bereits 2001 aus den choreografierten Anruftönen des
Publikums bestand. Mit PDAs (personal digital assistants) wurden die Funktionen
noch ausgeweitet (vgl. Bowen 2013: 109). Bis heute gilt das von Ge Wang
initiierte und geleitete MoPho, das Stanford Mobile Phone Orchestra, als
bekanntester Klangkörper, der ausschließlich auf der Nutzung von Smartphones
und anderen mobilen Endgeräten basiert.
Bestimmte
im Smartphone wirksame Technologien wiederum wurden bereits vor der weiten
Verbreitung der Gerätegattung in (populärer) Musik eingesetzt. Besondere
Aufmerksamkeit erfuhr z. B. der noch vor dem iPhone einen Multi-Touch-Screen
anbietende Controller Lemur Input Device der französischen Firma JazzMutant,
mit dem zu Beginn der 2000er-Jahre in professionellen Tonstudios gearbeitet
wurde. Auch der 2005 vorgestellte Synthesizer Reactable arbeitete bereits früh
mit einer durch Berührung gesteuerten Oberfläche, später tauchte das Instrument
als App wieder auf (vgl. Essl/Sang 2017: 365). Etwa zeitgleich wurden in
der sog. Controller-Szene die Sensoren von Joysticks und Gamepads zu Interfaces
für Synthesizer und DJ-Assemblagen umfunktioniert. Ferner wurden mobile
Endgeräte wie der Gameboy bereits 1998 als Sequenzer eingesetzt (vgl. ebd.: 364).
Eine
regelrechte Explosion musikbezogener Apps und der Mobile Music setzte jedoch
erst mit der Veröffentlichung des iPhone und der Bereitstellung des App-Store ein.
Voraussetzung dafür war nicht nur die schnelle Verbreitung des Geräts, sondern
auch die Entwicklerplattform für iOS-Programme für Drittanbieter und das
Multi-Touch-Display sowie die Sensoren, für deren Auslesung und Interpretation
Apple früh Entwicklerschnittstellen bereitstellte (vgl. Essl/Rohs 2009: 197).
Zusammen boten sie eine Umgebung, in der verschiedenste Eingabe- und
Manipulationsmethoden kombiniert werden konnten (vgl. Krebs 2012: 15). Gleichzeitig
ermöglicht die sehr hohe Rechenkapazität vielseitige Nutzungsweisen in den
Bereichen digitaler Klangsynthese, des Sampling und der Emulation. Während zu
Beginn nur einfache Algorithmen möglich waren (vgl. Essl/Rhos 2009: 201),
bietet bereits das hier untersuchte iPhone 5s kaum weniger Rechenleistung als
herkömmliche Desktop-PCs. Auch Sprachsynthese, Physical- und Amp-Modelling oder
aufwendige Kollaborationen mehrerer Nutzer*innen können in Echtzeit umgesetzt werden.
So bietet z. B. die App Smule eine virtuelle Umgebung für Karaoke an und
ermöglicht so auch eine gemeinsame Instrumentalpraxis über Live-Streaming (vgl.
Michon et al. 2017: 2). Mittlerweile stehen die für Mobile Music zentralen
Funktionen in vielen eingebetteten Softwarebibliotheken zur Verfügung, auch
wurden eigene Programmiersprachen wie z. B. Faust entwickelt, sodass es
für Entwickler*innen einfacher ist, neue Musikapplikationen zu entwerfen (vgl. Essl/Sang
2017: 366).
Die
kaum noch überschaubare Anzahl an Apps lässt sich in verschiedene Kategorien
einteilen. Viele Programme dienen lediglich als Hilfsmittel für das Muszieren, etwa
als Stimmgerät, Analyseinstrument, Notensatz-Tool und Unterstützung für interaktive
Lerneinheiten. Die App Maestro bietet z. B. die Möglichkeit, das Smartphone
als Taktstock zu gebrauchen, um sich durch das Dirigat eines virtuellen
Orchesters auf den Einsatz im Konzertsaal vorzubereiten (vgl. Lim/Yeo 2014: 576).
Auch kann das iPhone als Effektgerät oder Verstärker genutzt werden. Dies wird
möglich durch diverse mobile Audiointerfaces, die als Verbindungsstück zwischen
Mikrofon- oder Line-In-Eingängen und Endgeräten dienen und auch die Einbindung
in herkömmliche Studio-, DJ- und Proberaumperipherie erlauben. Verbreitet sind bspw.
das iRig und das JAM (vgl. Slater/Martin 2012: 64 f.).
Die
›App-Instrumente‹ im engeren Sinne lassen sich in zwei Hauptgruppen unterteilen.
In der ersten stehen Emulationen physischer Instrumente wie Schlagzeug,
Klavier, Gitarre oder Synthesizer (wie dem MS-10 von KORG) im Vordergrund.
Diese besitzen meist einen eher spielerischen Charakter, da sie oft nicht an die
haptische Bedienqualität ihrer Vorbilder heranreichen (vgl. Krebs 2012: 18).
Selten bieten sie weitergehende Funktionen, eine Ausnahme ist die mobile
Emulation des MiniMoog, der Animoog, der per Touchpad eine gleichzeitige
Steuerung mehrerer Parameter erlaubt (vgl. Könemann 2014). Allerdings versuchen
Anbieter immer wieder, über zusätzliche Interfaces oder neue Bedienmodi des
Touch-Screens diese Probleme zu überwinden. Die Firma moForte, spezialisiert
auf Physical Modeling, bietet z. B. virtuelle Violinen und Blasinstrumente
an, die über ein eigenes Eingabesystem gesteuert werden, das auch den neuen
MIDI-Standard MPE unterstützt (vgl. Michon et al. 2017: 2). Die zweite
Gruppe besteht aus eigens für das Smartphone entworfenen Applikationen, die auf
die spezifischen Möglichkeiten des Geräts zugeschnitten sind (vgl. Krebs 2012: 19).
Diese Apps sind es auch, in denen nicht nur von etablierten Interfaces, sondern
auch von traditionellen tonalen Ordnungen wie der Zwölf-Ton-Skala abgewichen
werden kann (vgl. Swift 2012: 1819). Sie nutzen dazu die ganze Bandbreite
an verfügbaren Sensoren – inklusive der Videokamera und der eingebauten Mikrofone.
Als gelungenes Beispiel für eine frühe Umsetzung zwischen diesen Kategorien
lässt sich die Ocarina App anführen, welche bereits 2008 das virtuelle Spielen
des gleichnamigen Instrumentes ermöglichte. Zur Eingabe werden das Mikrofon
(zum Anblasen des Tons), das Touchpad (für die Grifflöcher) und die
Bewegungssensoren (Accelerometer) für die Hinzufügung von Effekten genutzt (vgl.
Wang 2014: 10 ff.). Koszolko (2019: 194) hebt die Vorteile des
GUI für die Steuerung von klangerzeugenden Apps dieser Kategorie hervor. Mittels
der virtuellen Tasten, Regler und Felder lassen sich durch bestimmte Bewegungen
der Finger (wie etwa Wackeln und Wischen) Parameter wie Anschlagsgeschwindigkeit
und Effekte wie Vibrato oder stufenlose Tonhöhenvariationen erzeugen. In diesem
Sinne werden einige dieser speziellen Apps als eine Art »visual synthesizer«
(ebd.) beworben. Matthias Krebs nennt auch »App-Soundtoys« als eine eigene Gruppe: Dabei
handelt es sich um eher spielorientierte Programme, die häufig visuelle, auditive
und vor allem kollaborative Aspekte verbinden, aber in ihrer »musikalischen
Tiefe« (Krebs 2012: 17) eingeschränkt bleiben. Denn oft wird – um die Spielbarkeit
zu gewährleisten – die verfügbare Tonauswahl in Bezug auf Tonart und Ambitus
eingeschränkt oder rhythmisch quantisiert. Von diesen abzuheben sind
Applikationen, die eher für Kunstperformances und Neue Musik genutzt werden und
oft nur für eine einzelne Performances programmiert werden (vgl. Oh et al. 2010: 5).
Neben Musikinstrumenten im engeren Sinn haben sich auch ganze Arbeitsumgebungen durchgesetzt, von einfachen Sequenzern, Soundboards und Loopern bis hin zu Mischpulten und sog. MAWs, also Mobile Audio Workstations (vgl. Bell 2015: 56). Von vielen Anwender*innen wird hier die Bedienung per Touchscreen als Vorteil gegenüber Maus und Keyboard hervorgehoben, da diese – als Standardsteuerung vieler Desktop-DAWs (Digital Audio Workstations) – sich hinsichtlich der Bedienung von Reglern, Fadern und anderen Parametern als hinderlich erwiesen haben (vgl. Koszolko 2019: 191). Hier haben sich auch führende Hersteller von Desktop-Applikationen wie Image-Line (FL Studio Mobile) oder das deutsche Unternehmen Steinberg (Cubase) mit eigenen Apps hervorgetan. In diesem Zusammenhang sind hybride von vollintegrierten Ansätzen zu unterscheiden. Während sich manche PA-Systeme und Mischpulte über Tablets oder Smartphones steuern lassen und Live-Performances nur anteilig Elemente aus der Mobile Music einbinden (vgl. ebd.), existieren auch vollintegrierte Konzepte, bei denen die gesamte Produktion von Musik mit Apps vorgenommen wird (vgl. ebd.: 194). Beides kann z. B. mit AUB realisiert werden, einem Mixer für iOS, der auch die Verbindung zu MIDI und zur Peripherie außerhalb des iPhone erlaubt. Ferner haben sich verschiedene Kommunikationsprotokolle etabliert, welche die Applikationen untereinander kommunizieren lassen bzw. die Einbindung und Hintereinanderschaltung von Instrumenten, Effekten und Analysetools erlauben, ähnlich dem VST- oder MIDI-Standard. Weit verbreitet ist z. B. Audiobus des Entwicklerduos Michael Tyson und Sebastian Dittmann (vgl. Schroeder 2013), hier wird vor allem eine Plattform für das vollintegrierte Musizieren bereitgestellt. Ihr Forum ist zugleich ein wichtiger Austauschplatz für Musiker*innen der Mobile Music (vgl. Koszolko 2019: 198). Auch etablierte Hersteller wie Ableton haben ihre Kommunikationsstandards auf mobile Endgeräte ausgeweitet, bspw. mit Link. Dieses Protokoll zur Synchronisation arbeitet im Gegensatz zu vielen anderen nicht nach dem Prinzip von ›Master‹ und ›Slave‹, sondern über eine netzwerkartige Struktur (vgl. Goltz 2018: 42). Mit diesem Produkt richtet sich Ableton zwar nicht explizit gegen die bestehenden Standards, mit denen weitgehend Kompatibilität besteht, es wird aber als »pivotal change« (Koszolko 2019: 193) in der Mobile Music angesehen.
Während
sich die Mobile Music in der Medienkunst und der Neuen Musik aufgrund der
beschriebenen partizipativen und gestischen Potenziale mittlerweile etabliert
hat, hat sie sich in der populären Musik noch nicht auf breiter Basis
durchgesetzt. Obgleich die folgenden kurzen Beispiele einige Anwendungen auch
bekannter Musiker*innen und Produzent*innen zeigen, kann folgendes Statement
mit wenigen Einschränkungen bis heute Gültigkeit beanspruchen: »[D]as
Musikmachen mit mobilen Endgeräten [ist] bislang nicht als homogene
künstlerische Bewegung und erst recht nicht als eigene musikalische Gattung
wahrzunehmen. Vielmehr stellt es ein facettenreiches Feld von heterogenen
musikalisch-künstlerischen Praktiken dar« (Krebs 2012: 20). Koszolko (2019: 194)
spricht allerdings von einer größer werdenden Szene, vor allem von
Produzent*innen, welche sich zunehmend vom Paradigma des auf Desktop-DAWs basierenden
Projektstudios verabschieden und sich mobilen Lösungen zuwenden. Dies gilt
sowohl für den Einsatz von Apps zum Musizieren als auch für die bereits
erwähnten MAWs. Deutlich werde dies bspw. durch die rege Nutzung internationaler
Foren wie der iPad Musician Group auf Facebook, in der
zum Zeitpunkt der Veröffentlichung des Artikels im Jahre 2019 ca. 9.000
Teilnehmer*innen aktiv waren. Einzuschränken ist hier allerdings, dass das
iPad, das hier häufig im Mittelpunkt steht, mit seinem größeren Bildschirm noch
einmal anders bewertet werden muss und mehr Möglichkeiten bietet als das iPhone.
Die
Verwendung von App-Instrumenten und von MAWs erlangte durch das Album The
Fall (2010) der Band Gorillaz, ein Projekt des britischen Musikers Damon
Albarn, breitere Aufmerksamkeit. Das als Tourtagebuch bezeichnete Album
entstand während einer Konzertreise durch die USA, wurde ausschließlich mit dem
iPad aufgenommen und gemischt (vgl. Slater/Martin 2012: 63). Dabei wurden nicht
nur seltene Hardware-Synthesizer eingebunden, sondern es kamen auch Musik-Apps in
der oben genannten Bandbreite zum Einsatz: vom visuellen Synthesizer
SoundyThingie über die Verstärkersimulation. Amplitude bis
hin zu einigen Emulationen physischer Instrumente wie iOrgan oder M3000 (Letzteres
ist eine App, welche die Klänge des Mellotrons wiedergibt). Albarn selbst stellt
das iPad in eine Reihe mit früheren Praktiken mobiler Musikaufnahme: »I’ve
always tried to keep true to my roots, which was just a four-track and a
guitar, but I got given an iPad and I suddenly found myself in a position where
I could make quite a sonically sophisticated record in my hotel room« (zit. n. ebd.: 63).
Dies verweist darauf, dass in der
Mobile Music keine völlig neue Welt eröffnet wird, sondern sich hier vielmehr
bereits angestoßene Entwicklungen wie die Miniaturisierung und Mobilisierung
von Musiktechnologie – wenn auch mit größerem Funktionsumfang – fortsetzen (vgl.
Krebs 2012: 236; Slater/Martin 2012: 60).
Im
Bereich der Soundtoys bzw. der künstlerisch-experimentellen Praxis setzte die
isländische Sängerin Björk neue Akzente, indem sie die Veröffentlichung ihres achten
Studioalbums Biophilia (2011) mit einer ganzen App-Suite flankierte. Für
jeden der zehn Songs des Konzeptalbums veröffentlichte sie zusammen mit den
Singles einzelne kleine Spiele und Anwendungen, die es den Nutzer*innen
erlaubten, die bestehenden Arrangements zu ändern oder neu anzuordnen (vgl. Anonym
2013). Die Programme arbeiten dabei sowohl mit den Sensoren als auch mit
Multi-Touch. Durch Entscheidungen in ›Mini-Spielen‹ und kleinen
Sequenzer-Programmen kann die Nutzer*in temporär Einfluss auf die erklingende
Musik nehmen. Obgleich das als erstes App-Album beworbene Biophilia, das
zunächst auch ausschließlich für iOS erschien, durchaus als solches gelten mag,
so kann auch hier auf frühere Arbeiten verwiesen werden, in denen Musik multimedial
eingebunden wurde, wie etwa in den CD-ROM-Alben von Prince, Mike Oldfield oder
Herbert Grönemeyer (vgl. ebd.), die zusätzliche Inhalte wie Texte, Videos und
interaktive Elemente für die Fans bereitstellten (vgl. ebd.).
Der
US-amerikanische Gitarrist und Produzent Steve Lacy gilt als bekanntester
Vertreter eines MAW-Ansatzes. Als Mitglied der Indie-Band The Internet arbeitet
der junge Produzent ausschließlich mit seinem iPhone, um Stimme, E-Gitarre und
E-Bass aufzunehmen. Laut eigener Aussage nutzt er im Wesentlichen Apples GarageBand,
vor allem, um die zugrundeliegenden Beats zu erstellen (vgl. Pierce 2017). Die
App wird als Bestandteil des Software-Paketes iLife seit 2013 kostenlos auf
allen iOS-Geräten zur Verfügung gestellt und gilt auch in professionellen
Kreisen als beliebte Alternative zu kostenpflichtigen Programmen (vgl. Wang
2014). Während das bereits vorgestellte iRig als Interface dient, nimmt er den Gesang
selbst und nur unterstützt von einem Popp-Filter über das im iPhone eingebaute SMES-Mikrofon
auf. Die so entstehende Klangqualität und der ›Signature Sound‹ des
automatischen Mastering von GarageBand fügt sich laut eigener Aussage in die
von ihm präferierte Lo-Fi-Ästhetik. Hinzu kommt der Aspekt der Kreativität:
Konfrontiert mit den nahezu unbegrenzten Möglichkeiten von Desktop-DAWs habe es
ihm schlicht an Ideen gefehlt und er sei wieder zu dem vollintegrierten Ansatz
zurückgekehrt: »But it’s more than that, even: When Lacy tried to work on his
laptop, he says he found himself creatively bare, just completely out of ideas.
So
he grabbed his phone and starting goofing around. Suddenly the juice started
flowing again« (Pierce 2017: o. S.). Zusätzlich
betont er den – aus verkehrsorganisatorischer Sicht durchaus fragwürdigen – Vorteil,
während des Autofahrens mit wenigen Tastenbewegungen musikalische Ideen
festhalten oder über einen Beat singen zu können (vgl. ebd.). Lacy produzierte den
Song »Pride« (2017) für den US-amerikanischen Rapper Kendrick Lamar gänzlich
mit einer MAW (vgl. Koszolko 2019: 189), auf ähnliche Weise entstand eines
seiner ersten Alben, Steve Lacy’s Demo (2017). Neben der auch von Albarn
betonten Mobilität scheinen hier ebenso die Möglichkeiten zur Selbstbegrenzung
eine Rolle zu spielen, die sich durch die eingeschränkten Funktionen und die
einfache Bedienoberfläche vieler Musik-Apps, inklusive GarageBand, bieten. Angesichts
der scheinbar unendlichen Möglichkeiten von Desktop-DAWs ist das Musizieren und
Aufnehmen mit dem iPhone in diesem Sinne als Strategie des kreativen Verzichts zu
verstehen.
Simon
Order, der nicht nur als Musikwissenschaftler, sondern auch als Musikproduzent
tätig ist, macht in einer autoethnographischen Studie auf einen weiteren mit
der Mobilität verbundenen Aspekt der Arbeit mit Smartphones und iPads als
Produktionsmedien aufmerksam. Er charakterisiert das in Smartphone oder Tablet
eingewanderte Studio als einen »liminal workspace« (Order 2016: 429), dessen
besonderer Charakter sich vor allem beim häufigen Ortswechsel bzw. auf Reisen
bemerkbar mache. Im Rahmen eines kreativitätstheoretischen Ansatzes beschreibt
er, wie die wechselnden Umgebungen – ein Flughafen, ein stürmischer Strand – einen
größeren Einfluss auf die Produktionstätigkeit nehmen könne. Dies geschehe
sowohl in Bezug auf Stimmung und Produktivität als auch in Form der sonischen Integration
der jeweiligen Umgebungen, die er teilweise vor Ort aufnimmt (vgl. ebd.: 437).
In Kombination mit der hohen Konnektivität – z. B. durch Clouddienste, die
den Zugriff auf den Heimcomputer und eine Sample-Datenbank bieten (vgl. ebd.: 436)
– vermittle das mobile Endgerät zwischen dem realem und dem virtuellen Raum.
So zeigt sich insgesamt, dass das Smartphone inzwischen in verschiedenen musikbezogenen Kontexten eine zentrale Rolle spielt. Während seine Relevanz als Medium der Musikrezeption in Zeiten des Audio-Streaming nicht mehr von der Hand zu weisen ist, kommt es mittlerweile auch in der Musikproduktion und in der Musikdidaktik zum Einsatz. Zugleich ist es nach wie vor ein essenzielles Kommunikationsmittel, ein Instrument der individuellen Lebensgestaltung und ein Lifestyle-Accessoire. Insofern schreibt das Smartphone einerseits die Geschichte mobiler Abspielmedien fort und steht gewissermaßen in der Tradition von Kofferradio, Walkman und mp3-Player. Durch die vielfältigen Einsatzmöglichkeiten hebt es sich aber entscheidend von seinen Vorläufern ab und nimmt Einfluss auf musikbezogene Produktionspraktiken und Bildungsprozesse. Letztlich ist das Smartphone deshalb nicht nur ein elementares Kommunikationsmedium, sondern eben auch ein zentrales Musikobjekt der populären Kultur im frühen 21. Jahrhundert.
DAS DOSSIER WURDE VERFASST VON BENJAMIN BURKHART UND ALAN VAN KEEKEN.
Quellen
Literatur:
Anonym (2013). The Teardown. Apple iPhone 5s. In: Engineering & Technology 8/10, S. 84–85.
Apple (2013a). iPhone Benutzerhandbuch für iOS 7.
Auslander, Philip (2017). Lucille Meets GuitarBot: Instrumentality, Agency, and Technology in Musical Performance. In: Till Bovermann, Alberto de Campo, Hauke Egermann, Sarah-Indriyati Hardjowirogo und Stefan Weinzierl (Hg.), Musical Instruments in the 21th Century. Identities, Configurations, Practices. Singapur: Springer, S. 297–315.
Bell, Adam Patrick (2015). Can We Afford these Affordances? Garage Band and the Double-Edged Sword of the Digital Audio Workstation. In: Action, Criticism & Theory of Music Education 14/1, S. 44–65.
Bense, Arne Till (2014). Musik und Virtualität: Digitale Virtualität im Kontext computerbasierter Musikproduktion. Osnabrück: epOs.
Borries, Friedrich von (2011). Die Apple-Design-Lüge. Warum das Design von Apple weder gut noch minimalistisch ist. Ein Pamphlet. In: Sabine Schulz und Ina Grätz (Hg.), Apple Design. Ostfildern: Hatje Cantz, S. 54–63.
Bowen, Nathan (2013). Mobile Phones, Group Improvisation, and Music: Trends in Digital Socialized Music-Making. New York: The City University of New York.
Braun, Artur (2011). Wie das Braun-Design entstand. In: Hartmut Jatzke-Wigand und Jo Klatt (Hg.), Wie das Braun-Design entstand / The Developement of the Braun Design. Hamburg: Design + Design, S. 4–47.
Bundesverband Musikindustrie (Hg.) (2020a). Musikindustrie in Zahlen 2019. <https://www.musikindustrie.de/fileadmin/bvmi/upload/06_Publikationen/MiZ_Jahrbuch/2019/Musikindustrie_in_Zahlen_2019_ePaper.pdf> [03.12.2020].
Bundesverband Musikindustrie (Hg.) (2020b). Studie zur Zukunft der Musiknutzung 2018–2020. Ergebnisse der fünften von sechs Stufen der Panelbefragung. September 2020. <https://www.musikindustrie.de/fileadmin/bvmi/upload/05_Presse/01_Pressemitteilungen/2020/200916_Basisfolien_5._Welle_final.pdf> [03.12.2020].
Calmbach, Marc/Flaig, Bodo/Edwards, James/Möller-Slawinski, Heide/Borchard, Inga/Schleer, Christoph (Hg.) (2020). Wie ticken Jugendliche 2020? Lebenswelten von Jugendlichen im Alter von 14 bis 17 Jahren in Deutschland. Bonn: Bundeszentrale für politische Bildung.
Croft, John (2007). Theses on Liveness. In: Organised Sound 12/1, S. 59–66.
Essl, Georg/Rohs, Michael (2009). Interactivity for Mobile Music-Making. In: Organised Sound 14/2, S. 197–207.
Essl, Georg/Sang, Won Lee (2017). Mobile Devices as Musical Instruments. State of the Art and Future Prospects. In: 13th International Symposium on CMMR, S. 364–375.
Fortunati, Leopoldina (2006). Das Mobiltelefon als technologisches Artefakt. In: Peter Glotz, Stefan Bertschi und Chris Locke (Hg.), Daumenkultur. Das Mobiltelefon in der Gesellschaft. Bielefeld: transcript, S. 171–184.
Fox, Richard/Panagiotopoulos, Diamantis/Tsouparopoulou, Christina (2015). Affordanz. In: Thomas Meier, Michael R. Ott und Rebecca Sauer (Hg.), Materiale Textkulturen. Konzepte – Materialien – Praktiken. Berlin/New York: De Gruyter, S. 63–70.
Goltz, Florian (2018). Ableton Link. A Technology to Synchronize Music Software. In: Henrik Coler, Frank Neumann und David Runge (Hg.), Proceedings of the Linux Audio Conference 2018. Technische Universität Berlin, S. 39–42.
Gibson, James L. (1986). The Ecological Approach to Visual Perception. Hillsdale: Erlbaum 1986.
Grätz, Ina (2011). Stylectrical. Von Elektrodesign, das Geschichte schreibt. In: Sabine Schulz und Ina Grätz (Hg.), Apple Design. Ostfildern: Hatje Cantz, S. 10–21.
Großmann, Rolf (2008). Distanzierte Verhältnisse? Zur Musikinstrumentalisierung der Reproduktionsmedien. In: PopScriptum 9, S. 1–15.
Großmann, Rolf (2020). The Instrument. In: Sanne Krogh Groth und Holger Schulze (Hg.), The Bloomsbury Handbook of Sound Anthropology. New York: Bloomsbury, S. 436–445.
Hardjowirogo, Sarah-Indriyati (2017). Instrumentality. On the Construction of Instrumental Identity. In: Till Bovermann, Alberto de Campo, Hauke Egermann, Sarah-Indriyati Hardjowirogo und Stefan Weinzierl (Hg.), Musical Instruments in the 21th Century. Identities, Configurations, Practices. Singapur: Springer.
Hoklas, Anne-Kathrin/Lepa, Steffen (2015). Mediales Musikhören im Alltag am Beispiel des Plattenspielers. Auditive Kultur aus der Perspektive der praxeologischen Wissenssoziologie. In: Navigationen. Zeitschrift für Medien- und Kulturwissenschaften 15/2, S. 127–143.
International Federation of the Phonographic Industry (Hg.) (2019). Musik hören 2019. Ein Blick auf die weltweite Musiknutzung. <https://www.musikindustrie.de/fileadmin/bvmi/upload/06_Publikationen/Music_Listening/Music_Listening_Report_2019_DE__Fassung.pdf> [03.12.2020].
Jin, Dal Yong (2020). Globalization and Media in the Digital Platform Age. New York: Routledge.
Johnson, Edward A. (1965). Touch Display – a Novel Input/Output Device for Computers. In: Electronics Letters 1/8, S. 219–220.
Kaerlein, Timo (2018). Smartphones als digitale Nahkörpertechnologien. Zur Kybernetisierung des Alltags. Bielefeld: transcript.
Kardous, Chucri A./Shaw, Peter B. (2016). Evaluation of Smartphone Sound Measurement Applications (Apps) Using External Microphones. A Follow-up Study. In: The Journal of the Acoustical Society of America 140/4, S. 327–333.
Koszolko, Martin K. (2019). The Tactile Evolution. Electronic Music Production and Affordances of iOS Apps. In: Jan-Olof Güllo (Hg.), Proceedings of the 12th Art of Record Production Conference Mono: Stereo: Multi. Stockholm: Royal College of Music (KMH) & Art of Record Production, S. 187–204.
Klinke, Harald (2011). Strategisches Design. Wie Neues alt erscheint. Grundprinzipien der Produktgestaltung bei Apple. In: Sabine Schulz und Ina Grätz (Hg.), Apple Design. Ostfildern: Hatje Cantz, S. 42–53.
Krebs, Matthias (2012). App-Musik. Musizieren mit Smartphones. In: Musikforum 1/12, S. 14–19.
Lepa, Steffen/Krotz, Friedrich/Hoklas, Anne-Kathrin (2014). Vom ›Medium‹ zum ›Mediendispositiv‹. Metatheoretische Überlegungen zur Integration von Situations- und Diskursperspektive bei der empirischen Analyse mediatisierter sozialer Welten. In: Friedrich Krotz, Cathrin Despotovic und Merle-Marie Kruse (Hg.), Die Mediatisierung sozialer Welten. Synergien empirischer Forschung. Wiesbaden: Springer VS, S. 115–141.
Lima, António/Borges, Pedro/Sousa, Bruno/Simões/Cruz, Tiago (2019). An Introduction to Mobile Device Security. In: Ghita Kouadri Mostefaoui und Faisal Tariq (Hg.), Mobile App Engineering. Design, Development, Security, and Testing. Boca Raton: CRC Press, S. 1–34.
Lim, Yang Kyu/Yeo, Seung Woon (2014). Smartphone-Based Music Conducting. In: Baptiste Caramiaux, Koray Tahiroğlu, Rebecca Fiebrink und Atau Tanaka (Hg.), Proceedings of the International Conference on New Interfaces for Musical Expression. Goldsmiths University of London, S. 573–576.
Mazzucato, Mariana (2014). Das Kapital des Staates. Eine andere Geschichte von Innovation und Wachstum. München: Antje Kunstmann.
Mareis, Claudia (2017). Unsichtbares Design und post-optimale Objekte. Interface-Design und Entmaterialisierungsdiskurse seit circa 1960. In: Christina Bartz, Timo Kaerlein, Monique Miggelbrink und Christoph Neubert (Hg.), Gehäuse: mediale Einkapselungen. Paderborn: Fink, S. 93–114.
Michon, Romain/Smith, Julius/Wright, Matthew/Chafe, Chris/Granzow, John/Wang, Ge (2017). Mobile Music, Sensors, Physical Modeling, and Digital Fabrication: Articulating the Augmented Mobile Instrument. In: Applied Sciences 7/12, S. 1–31.
MIMO Consortium (2011). Revision of the Hornbostel-Sachs classification of musical instruments by the MIMO Consortium. <http://www.mimo-international.com/documents/Hornbostel%20Sachs.pdf> [03.02.2021].
Nohl, Arnd-Michael (2011). Pädagogik der Dinge. Bad Heilbrunn: Klinkhardt.
Norman, Don (2016). The Design of Everyday Things. Psychologie und Design der alltäglichen Dinge. München: Verlag Franz Vahlen.
Oh, Jieun/Herrera, Jorge/Bryan, Nicholas J./Dahl, Luke/Wang, Ge (2010). Evolving the Mobile Phone Orchestra. In: Proceedings of the International Conference on New Interfaces for Musical Expression.
Order, Simon (2016). The Miminal Music Studio: Between the Geographical and the Virtual. In: Critical Arts 30/3, S. 428–445.
Pierce, David (04.14.2017). The Hot New Hip-Hop Producer Who Does Everything on his iPhone. In: Wired, 04.14.2017. <https://www.wired.com/2017/04/steve-lacy-iphone-producer/> [21.02.2023].
Polster, Bernd (2011). Kronberg Meets Cupertino. Was Braun und Apple wirklich gemeinsam haben. In: Sabine Schulz und Ina Grätz (Hg.), Apple Design. Ostfildern: Hatje Cantz, S. 64–75.
Ruf, Oliver (2014). Wischen & Schreiben. Von Mediengesten zum digitalen Text. Berlin: Kadmos.
Ruf, Oliver (2018). Smartphone-Theorie. Eine medienästhetische Perspektive. In: Oliver Ruf (Hg.), Smartphone-Ästhetik. Zur Philosophie und Gestaltung mobiler Medien. Bielefeld: transcript, S. 15–31.
Sachs, Curt/Hornborstel, Erich Moritz von (1914). Systematik der Musikinstrumente. Ein Versuch. In: Zeitschrift für Ethnologie, 46/1–2, S. 553–590.
Savage, Pamela (1995). Designing a GUI for Business Telephone Users. In: Interactions 2/1, S. 32–41.
Schwer, Thilo (2014). Produktsprachen. Design zwischen Unikat und Industrieprodukt. Bielefeld: transcript.
Slater, Mark/Martin, Adam (2012). A Conceptual Foundation for Understanding Musico-Technological Creativity. In: Journal of Music, Technology & Education 5/1, S. 59–76.
Sloterdijk, Peter (2007). Der ästhetische Imperativ. Schriften zur Kunst. Hamburg: Philo & Philo Fine Arts.
Swift, Benjamin (2012). Becoming-Sound: Affect and Assemblage in Improvisational Digital Music Making. In: Joseph A. Konstan (Hg.), CHI EA '12: CHI '12 Extended Abstracts on Human Factors in Computing Systems, S. 1815–1824.
Tsui, Chun Kit/Law, Chi Hei/Fu, Hongbo (2014). One-man orchestra. In: Unknown (Hg.), SIGGRAPH Asia 2014 Emerging Technologies on - SA '14. New York, New York, USA: ACM Press, S. 1–2.
Wagner, Thomas (2011). Think Different! Der Nutzer und seine Lieblinge: von Äpfeln, Maschinen, Oberflächen, Magie und der Macht des Designs. In: Sabine Schulz und Ina Grätz (Hg.), Apple Design. Ostfildern: Hatje Cantz, S. 28–41.
Walker, Geoff (2015). Touch Displays. In: Michael Kriss (Hg.), Handbook of Digital Imaging. Chichester: John Wiley & Sons, S. 1–65.
Wang, Ge (2014). Ocarina. Designing the iPhone’s Magic Flute. In: Computer Music Journal 38/2, S. 8–21.
Weber, Heike (2008). Das Versprechen mobiler Freiheit. Zur Kultur- und Technikgeschichte von Kofferradio, Walkman und Handy. Bielefeld: transcript.
Weber, Heike (2017). Blackboxing? – Zur Vermittlung von Konsumtechniken über Gehäuse- und Schnittstellendesign. In: Christina Bartz, Timo Kaerlein, Monique Miggelbrink und Christoph Neubert (Hg.), Gehäuse: mediale Einkapselungen. Paderborn: Fink, S. 115–136.
Zec, Peter (2011). »All New Design«. Das Geheimnis eines magischen Unternehmenserfolgs. In: Sabine Schulz und Ina Grätz (Hg.), Apple Design. Ostfildern: Hatje Cantz, S. 88–103.
Zillien, Nicole (2008). Die (Wieder-)Entdeckung der Medien. Das Affordanzkonzept in der Mediensoziologie. In: Sociologia Internationalis 46/2, S. 161–181.
Internet:
Apple (2013b). iPhone 5s & iPhone 5c ab Freitag, 20. September erhältlich. In: apple.com, <https://www.apple.com/de/newsroom/2013/09/16iPhone-5s-iPhone-5c-Arrive-on-Friday-September-20/> [17.12.2020].
Apple (2013c). Apple Special Event. In: youtube.com, <https://www.youtube.com/watch?v=yBX-KpMoxYk> [15.01.2021].
Apple (2020). Human Interface Guidelines. In: apple.com, <https://developer.apple.com/design/human-interface-guidelines/ios/overview/themes/> [17.12.2020].
Biermann, Kai (2013). Fingerabdrücke, srsly? In: zeit.de, <https://www.zeit.de/digital/datenschutz/2013-09/apple-iphone-5s-fingerabdruck> [17.12.2020].
Gruber, Angela (2013). Der Sensor für Fingerabdrücke funktioniert. Apple iPhones 5S und 5C im Test. In: zeit.de, <https://www.zeit.de/digital/mobil/2013-09/iphone-5c-5s-testberichte> [17.12.2020].
Hauck, Mirjam (2013a). Der wahre Wert von Apples neuem Smartphone. iPhone 5s und iPhone 5c. In: sueddeutsche.de, <https://www.sueddeutsche.de/digital/iphone-5s-und-iphone-5c-der-wahre-wert-von-apples-neuem-smartphone-1.1780067> [17.12.2020].
Hauck, Mirjam (2013b). Wenn das iPhone in die falschen Finger gerät. Biometrisches Feature im iPhone 5s. In: sueddeutsche.de, < https://www.sueddeutsche.de/digital/biometrisches-feature-im-iphone-5s-wenn-das-iphone-in-die-falschen-finger-geraet-1.1767864> [17.12.2020].
Kremp, Matthias (2013). Das können die neuen Apple-Handys. iPhone 5s und 5c im Test. In: spiegel.de, < https://www.spiegel.de/netzwelt/gadgets/angefasst-iphone-5s-und-5c-im-test-a-922540.html> [17.12.2020].
Könemann, Peter (2014). Moog Animoog Test. Anisotropic Synthesizer für iPad, iPhone und Blackberry Z10. In: bonedo.de, <https://www.bonedo.de/artikel/einzelansicht/moog-animoog-test.html> [21.01.2021].
Schroeder, Markus (2013). INTERVIEW: Michael Tyson & Sebastian Dittmann, Audiobus. In: amazona.de, <https://www.amazona.de/interview-michael-tyson-sebastian-dittmann-audiobus/3/> [15.01.2021].
Shimpi, Anand Lal/Klug, Brian/Gowri, Vivek (2012). The iPhone 5 Review. Speakerphone and Noise Suppression. In: anandtech.com, <https://www.anandtech.com/show/6330/the-iphone-5-review/21> [05.01.2021].
Spehr, Michael (2013). Der Finger soll in die Zukunft zeigen. Apple iPhone 5s im Test. In: faz.net, <https://www.faz.net/aktuell/technik-motor/digital/apple-iphone-5s-im-test-der-finger-soll-in-die-zukunft-zeigen-12578153/eigentlich-ein-iphone-5-mit-12576546.html> [17.12.2020].
Summerson, Cameron (2018). Why Do iPhones Generally Have Better Sound Quality Than Android? In: howtogeek.com, <https://www.howtogeek.com/359464/why-do-iphones-generally-have-better-sound-quality-than-android/> [15.01.2021].
Interviews:
Oesterschmidt, Sascha
(2020). Interview mit Sascha Oesterschmidt, 12.06.2020.
Abbildungen
Abb. 1: Das iPhone. Klaus Polkowski.
Abb. 2: Das iPhone. Klaus Polkowski.
Abb. 3: Das iPhone. Klaus Polkowski.