Kategorie: Content-Strategie

Music for Brainwaves: Akustisches Gehirndoping für Content-Strategen

„Ambient music must be able to accomodate many levels of listening attention without enforcing one in particular; it must be ignorable as it is interesting. Ambient music is intended to induce calm and a space to think.“

Briano Eno

Wahrscheinlich hat jeder schon mal Walgesängen gelauscht oder wurde von diesen sanften, repititiven Panflötenstücken gequält während einer Yogastunde oder in einem Massagesalon. Die Wirkung dieser Entspannungsmusik von der Stange ist nicht wegzureden, aber sie ist in der Regel auch nicht unbedingt … aesthetically pleasing. Tatsächlich geht’s aber auch anders.

Ich besitze eine ziemlich umfangreiche Plattensammlung aus dem Ambient-Bereich, das ist eine Musik, die ich immer hören kann, obwohl man sie im konventionellen Sinne vielleicht als langweilig empfinden würde. Guter Ambient kann mich umheimlich anrühren und trotzdem kann ich dazu wunderbar arbeiten und entspannen. Es ist eine Musik wie ein liebgewonnenes Möbelstück – es ist einfach da, kaum bemerkt im Raum schwebend, doch wenn man einmal hinschaut, versinkt man einen Moment in unschuldiger Freude. Weniger kitschig als ich hat Ambient-Godfather Brian Eno die Sache Ende der Siebziger auf den Punkt gebracht, siehe obiges Zitat.

Was hat das jetzt mit Content-Strategie zu tun? Zwei Dinge: Erstens ist Ambientmusik Gegenstand einer spannenden aktuellen Content-Marketing-Kampagne eines internationalen Hotelunternehmens. In Zusammenarbeit mit dem Londoner Label Erased Tapes Records ist ein Album entstanden, das neurowissenschaftliche Erkenntnisse über die Einfluss von Musik auf das Gehirn verbindet mit dem ästhetischen Gespür der dort beheimateten Künstler Michael Price, Högni und Ben Lukas Boysen. Die Musik soll sich den Befindlichkeiten des modernen Business-Reisenden annehmen, aber sie funktioniert, finde ich, genau so gut bei angehenden Content-Strategen in der Masterarbeitshölle.

Bestimmte Oszillationen akustischer Stimuli, das heißt Töne, Rhythmen und Frequenzen können demnach die Aufnahmebereitschaft des Gehirns und die Konzentration steigern, sie können vielleicht zu einem bestimmten Grad Ängste lösen, sie können besänftigen.

Die Drei Stücke des Music For Brainwaves Albums tragen die Titel Focus in 12-18Hz, Ascend in 8-13.9Hz und Dream in 0.1-3.9Hz und sollen das Gehirn auf unterschiedliche Weisen beeinflussen, sie wurden komponiert, um die Leistungsfähigkeit zu steigern und die angespannte Psyche zu beruhigen. Ich habe den wissenschaftlichen Hintergrund des Projektes nicht recherchiert, aber das macht gar nichts, denn ich fühle mich trotzdem davon immens abgeholt und höre es gerade rauf und runter, während ich Dinge in mein Masterarbeitsdokument hineinschreibe. Vielleicht hilft es euch ja auch ein bisschen?

Hier gibt’s noch mehr Ambient-Empfehlungen, die ich gern zum Arbeiten höre (Spotify-Links):

User Personas: Die Kunst des Segmentierens

Website-Besucher können in den meisten Fällen ganz unterschiedliche Motivationen aufweisen, warum sie sich gerade für den Besuch meiner Seite entschieden haben. Darin liegt das klassische Distinktionsmerkmal bei der Persona-Segmentierung begründet: Die Ziele und Bedürfnisse, die ein User mitbringt, wenn er eine Website aufruft.

Die Website als Gesprächsangebot

Begreift man den Augenblick des Besuchs einer Website als Gesprächsversuch, der sich schließlich in eine messbare Conversion verwandeln lässt, muss die Website die Ziele der Besucher kennen und antizipieren. Sie muss die richtigen Antworten parat haben. Jeder User tritt mit einer unausgesprochenen Frage an die Website heran. Auf jede Frage, jedes Bedürfnis, das an sie herangetragen wird, muss sie mit passendem Content antworten können. Und dieser Content muss gleichzeitig in der Lage sein, die Unternehmensziele zu unterstützen.

Möchte sich jemand auf einer Website über Naturheilkunde über Wirkung von Kamillenblüten informieren, weil sein Arzt ihm den Wirkstoff gegen seine Halsschmerzen verschrieben hat, müssen entsprechende Informationen auffindbar sein. Idealerweise findet sich dazu noch eine Kaufmöglichkeit für getrocknete Kamillenblüten.

Eine andere Userin jedoch, die gerade einen Kräuterbeet für ihren Garten plant, benötigt vielleicht Angaben über Aussaat und Erntezeit der Pflanze. Bei der Segmentierung der erhobenen Userdaten kommt es darauf an, die konkreten Ziele und Bedürfnisse verschiedener Usertypen zu identifizieren – denn diese sind am Ende die wichtigsten Kriterien, die den Content formen.

Behaviours and Attitudes

Manchmal können aber auch verhaltens- oder einstellungsbezogene Merkmale (behaviours und attitudes) als Unterscheidungskriterien für Personas herangezogen werden. 

Grundsätzlich geben Erkenntnisse über goals, behaviours, attitudes und schließlich demographische Merkmale der User Aufschluss darüber, welcher Content benötigt wird, um ihre Bedürfnisse zu befriedigen. Dieses Wissen sollte aber ebenso sehr in die Gestaltung einer Persona-Journey fließen, von der das Unternehmen profitiert.

 „If goals reveal what features and contentthat persona needs, then behaviours and attitudes show how those features andthat content should work.“


(Mulder / Yaar)

Hier geht es darum, was man als Website-Betreiber von seiner Persona erwartet: Was genau soll sie auf meiner Website tun? Welche Inhalte soll sie lesen, welche Features nutzen oder welche Interaktion durchführen? Denn schließlich geht es am Ende darum, mit dem User eine erfolgreiche Konversation zu führen, die auf konkrete Unternehmensziele einzahlt.

Auf Basis der beschriebenen Nutzerinnenmerkmale erfolgt die Segmentierung: Es gilt, in den umfangreichen erhobenen Datensätzen Geschichten, Gemeinsamkeiten und wiederkehrende Muster zu identifizieren, die eine Gruppierung erlauben und sich schließlich zu konkreten Personas auserzählen lassen.

Bauchgefüh zählt nicht

Für glaubwürdige und valide Personas greift man idealerweise auf harte Fakten zurück. Wer bei der Erstellung der digitalen Profile zu viel spekuliert und auf seine eigenen Intuitionen oder Erfahrungen vertraut, wird wahrscheinlich weiterhin Content für sich selbst produzieren – und eben nicht ganz unmittelbar für seine Zielgruppe. Personas sind nur dann sinnvoll für ein Unternehmen, wenn sie ein hohes Maß an „Echtheit“ abbilden können und entsprechend zu echten Resultaten führen.

Glaubwürdige Personas müssen daher nachweisen können, dass sie…

  • echte User repräsentieren, die für das Unternehmen relevant sind
  • in den für das Unternehmen wesentlichen Aspekten akkurat und vollständig porträtiert sind
  • die Userschaft einer Website vollständig abbilden

Quellen:

Mulder, S., & Yaar, Z. (2006). The User is Always Right: A Practical Guide to Creating and Using Personas for the Web. New Riders.

Über die manipulative Kraft von Infografiken

Liebes Internet,

im Rahmen meines Content-Strategie-Studiums nahm ich im zweiten Semester an einem Wahlpflichtkurs teil, der sich mit dem Thema Datenvisualisierung und Infografiken beschäftigte, und zwar auf vergleichsweise akademische Weise (lieb gemeint). Insgesamt war das ganz spannend, auch wenn ich auf die Wiedervorlage des Germanistik-Bachelorstudium-Endgegners hätte verzichten können, einem gewissen Ferdinand de Saussure.

Jedenfalls, der Kurs war insofern interessant, dass er konkret Anwendbares über Mechaniken der visuellen Verarbeitung von Daten im Bereich Journalismus und Unternehmenskommunikation einerseits vermittelte, aber auch über Strategien zur (manipulativen) Bedeutungsstiftung mithilfe von Daten. In nur wenigen Webinaren haben wir brandaktuellen Forschungsinput zu diesen Themen erhalten.

Fallbeispiel: Infografik aus der Unternehmenskommunikation

Die vorliegende Telekom-Infografik soll das Unternehmen als fleißig und fortschrittlich porträtieren. Als Analyse-Framework dienen Konzepte aus der Sozialsemiotik sowie die Metafunktionen nach Kress.

Die Infografik möchte die im Jahr 2017 angestrengten Bemühungen des Unternehmens dokumentieren, die Versorgung mit Breitbandnetz in Deutschland voranzutreiben und setzt dabei primär auf Narrativität und Piktorialität. So wird darin mit einer Reihe von in außergewöhnlich hohen Kennzahlen geäußerten Resultaten verschiedener Teilanstrengungen auf dem Weg zur Vollversorgung mit schnellem Internet der zentrale Topos der Infografik gerahmt: die Baustelle.

Es lässt sich darin ganz deutlich die Anlage einer visuellen Metapher feststellen: Am goldenen Schnitt der Abbildung befindet sich, leicht in Graustufen abgeblendet, die Zeichnung einer Stadt. Es handelt sich um eine durchschnittlich große, wahrscheinlich sogar eher eine kleine Stadt: Kirchturm statt Skyline. Damit wird Bezug genommen auf die noch immer weit verbreitete Unterversorgung mit Breitbandanschlüssen in ländlichen Regionen der BRD. Drumherum ranken sich nun illustrierte Baustellenmotive; Handwerker, Sattelzüge, Kräne, die daran arbeiten, die Stadt mit dem wichtigsten zu versorgen: mit der magentaroten Lebensader des modernen Menschen, dem Glasfaserkabel.

Alle diese Motive verweisen nun auf durch die Telekom erbrachte Leistungen eines Jahres und darüber hinaus. An mehreren Stellen finden sich Ausblicke für das Jahr 2018 – die Geschichte des Breitbandausbaus ist also noch lange nicht zu Ende geschrieben. Die Stapelung der “grauen Kästen” am rechten Bildrand trägt dazu die Anmutung eines Wolkenkratzers; ein Ausblick auf die Zukunft der Stadt dank Telekom-Technologie: Skyline statt Kirchturm.

Erkenntnisse und Reflektion

Die Infografik verzichtet auf vorgebliche Neutralität durch konventionelle Darstellungsmodi zur Veranschaulichung statistischer Daten. Sie versucht nicht, Transparenz und Faktentreue zu vermitteln. Vielmehr setzt sie vollständig auf Quantität: Auf die manipulative Kraft abstrakter, für den Rezipienten schwer greifbarer Zahlen und pseudo-anschaulichen Vergleichen, um von der Schaffenskraft der Telekom zu überzeugen.

Was die Perspektive angeht, würde man beim Film von einer Supertotalen sprechen. Das vermittelt folgenden Eindruck: Die Bemühungen der Telekom sind allgegenwärtig, sie reichen von den Funkmasten über der Stadt in alle Himmelsrichtungen, bis hinab ins erdreich. Das Telekommunikationsunternehmen, es kümmert sich. Es erhebt die Internetversorgung zur zivilisatorischen Notwendigkeit und treibt den Aufbau und Fortschritt voran, so die Botschaft der Infografik.

Die Infografik lässt im Unklaren, welche Konsequenzen die Jahresleistungen des Unternehmens für die Lebensrealität der Menschen hat. Sie versucht, das eigene Wirken als fortschrittlich bzw. futuristisch darzustellen (vgl. Raketen-Illustration), während die Internetversorgung in Deutschland längst von der Gegenwart überholt wurde – im internationalen Vergleich liegt sie nämlich weit unter dem Durchschnitt.

Quellen

  • Helen Kennedy et al.: The work that visualisation conventions do (2016)
  • Kress, Gunther R. (2009). Multimodality: A Social Semiotic Approach to Contemporary Communication. London, New York: Rouledge

Wovon wir reden, wenn wir von Mobile Accessibility reden und wie man damit das Internet gewinnt

Liebes Internet,

sie sind hier, und sie sind viele. Smartphones, Smartwatches, Phablets, Tablets, Convertibles – die Anzahl unserer Gadgets und Gehirnprothesen, sie nimmt nicht ab, im Gegenteil. Mobile geht nirgendwohin, mobile ist absolut und unwiederbringlich here to stay, während die Nutzung stationärer Rechner, Desktop-PCs und Laptops, an Selbstverständlichkeit verliert. Und wenn ich so flapsig von Prothesen schreibe, dann meine ich das gar nicht bloß metaphorisch und auch nicht flapsig, sondern ganz real und verbindlich, denn mobile Devices bieten heute eine ganze Menge Features, um beeinträchtigten Menschen einen unkomplizierten Zugang zum Web und generell digitalen Inhalten zu ermöglichen. Und das ist großartig – wenn wir uns nicht aus der Verantwortung stehlen.

Warum Content-Strategen sich auch als Mobile-Accessibility-Beauftrage verstehen müssen

Wie kompliziert die Nutzerfahrung am Endgerät ist, das liegt inzwischen gar nicht so sehr mehr am Gerät, sondern an uns, die wir als Schaffende digitaler Inhalte diese Menschen mitdenken müssen, damit wir sie nicht von der Nutzung unserer Angebote ausschließen. Immerhin sprechen wir hier von rund 15% der Bevölkerung. Im aktuellen Screenreader-Survey von WebAIM erhoffen sich 85% der Befragten bessere, das heißt more accessible Websites. Es liegt also vor allem uns an uns, die Barrierefreiheit im Netz zu verbessern. Die Technik, die ist schon da.

Mobile Accessibility bedeutet grundsätzlich, dass blinde Menschen, gehörlose Menschen und andere aus irgendeinem Grunde auf Hilfsmittel angewiesene Personen in der Lage sind, mobile Geräte ohne größere Einschränkungen zu verwenden. Moderne iPhones oder Android-Geräte verfügen über native Screenreader wie VoiceOver oder TalkBack, über Hochkontrast-Modi, Braille-Bedienungshilfen, Zoom-Funktionen und so fort.

Wer im Web mit seinem Content gewinnen möchte, muss darin eine ganzheitliche, das heißt auch eine Mobile-Accessibility-Siegermentalität transportieren, das predigt Marcy Sutton, die eine Art Accessibility Evangelistin verkörpert und entsprechende Accessibility-Tools bei axe entwickelt.

Schon seit Jahren gibt es mehr mobile User als Desktop-User

Das heißt, wer digitale Services konzipiert, muss für ein wirklich barrierefreies Angebot detailgenau arbeiten. Denn, liebes Internet, wusstest du, dass Screenreader zum Beispiel auf semantische HTML-Auszeichnungen angewiesen sind, um etwa Navigationselemente zu erkennen? So wird ein Screenreader-User niemals deine Burger-Navi nutzen, wenn du sie in einem div-Container versteckst. Wahrscheinlich wusstest du das eh, immerhin bist du das Internet. Ich wusste jedenfalls nicht, darum ging die Sache umgehend als Ticket an meinen Lieblings-Dev.

However, in einem (zwei Jahre alten) Talk bespricht besagte Sutton eine Reihe von Maßnahmen, um typische Mobile-Accessibility-Barrieren auszumerzen. Diese seien nun nachfolgend in aller mir möglichen Prägnanz zusammengefasst. Aktuell sind die Maßnahmen imho immer noch, denn wer fragt sich – Hand aufs Herz – bei seinen täglichen Website-Projekten denn nun wirklich, ob man Screenreader-konform gearbeitet hat? Ich werde es jedenfalls künftig tun.

Quick Win 1: Let them zoom!

Wenn Webdesign ohne den User gedacht wird, dann treibt das zuweilen seltsame Blüten. Unarten wie Zoom-Sperren oder Scroll Highjacking zugunsten des künstlerischen Ausdrucks oder eines ausgeklügelten Website-Narrativs gehen leider oft zulasten der Bedienbarkeit. Wenn der Text auf einer Website zu klein ist, muss man ihn vergrößern, in ihn hineinzoomen können – oder man schließt, so klar muss man das sagen, eine größere Gruppe von Menschen vom Zugang zu seiner Website aus.

Auch Swipe-Interfaces sind häufig nicht Accessibility-konform. Um auch Screenreader-Usern die Interaktion mit „interaktivem“ Swipe-Content zu ermöglichen, sollte man ggf. zusätzliche Buttons integrieren, die von allen gängigen Devices gelesen werden können. Die Frage: Können meine User bzw. die User, die ich erreichen möchte, alle Features meiner Website oder App nutzen? – ist einfach Teil der Herausforderung.

Quick Win 2: Optimiere zuerst für Menschen!

Mache es deinen Usern so leicht wie möglich, sich auf deiner Website zu bewegen. Minimiere den cognitive load; überlege und analysiere genau, welche Elemente, welche Bilder, Teaser oder Content wirklich benötigt werden und dem User einen relevanten Mehrwert bieten, während er sich auf deiner Seite bewegt. Je cleaner und funktionaler dein Angebot ist, desto besser lässt es sich auch auf Hilfsmitteln wie Screenreadern verwenden. Klare Strukturen entlasten Kopf und Devices – und zahlen sich schließlich aus. So bleibt deine Website interessant und Interaktionsraten und Verweildauern steigen.

Außerdem: Check your privilege! Wenn du wichtige Funktionen hinter ikonografischen Schaltflächen platzierst, vergewissere dich, dass deine User die Icons auch verstehen. Auch wenn die Bedeutung eines Symbols für dich selbstverständlich ist, muss das nicht für jeden deiner User gelten. Eine ältere Zielgruppe ist vielleicht weniger vertraut mit einem Burger-Icon, jüngere Nutzer können möglicherweise wenig mit einem Disketten-Symbol anfangen. Der Einsatz von Labels hilft, Unklarheiten in der Nutzerführung zu verhindern.

Quick Win 3: Warum Semantik siegt

In meiner kleinen Berliner Software-Klitsche ist Mobile Accessibility unter den Frontend-Entwicklern aktuell leider noch kein Herzensthema – ich habe mir vorgenommen, dies in nächster Zeit wenigstens punktuell voranzutreiben. Denn es gibt hier, auch darauf weist Sutton hin, mithilfe von HTML5 relativ einfache Möglichkeiten, um die eigenen Inhalte lesbar zu machen für mobile Screenreader.

Eines davon ist der Hamburger-Button, der auf mobilen Websites häufig als Menü-Button zum Einsatz kommt. Ist dieser in ein div-Tag eingebettet, wird ein Screenreader-User nicht erfahren, dass es ihn gibt. Das div-Tag enthält keine semantischen Informationen, die für das Gerät lesbar sind. Er wird also keine Möglichkeit haben, die Website-Struktur und damit das Content-Angebot zu überblicken.

Dies lässt sich einerseits ganz einfach fixen durch die Verwendung von Button-Tags, die die Burger-Menü-Schaltfläche erreichbar machen für die Keyboard-Navigation. Damit der Screenreader außerdem auslesen kann, was sich hinter der Schaltfläche verbirgt, müssen wir den Button mit einem Label versehen.

HTML5 bietet eine Reihe von Accessibility-Features an, dazu zählen etwa die ARIA-Attribute (Accessible Rich Internet Applications). Das Attribut aria-label beinhaltet eine Meta-Information, die für Screenreader lesbar ist: Ein einfacher Weg, um Burger-Icons mobile accessible zu machen. Weitere Einsatzmöglichkeiten für ARIA findest du in der oben verlinkten Mozilla-Dokumentation zum Thema.

Tools für Mobile Accessibility Audits

Zum Schluss noch einige Tools, mit du händisch oder automatisiert prüfen kannst, ob deine Website oder App mobilen Accesibility-Ansprüchen genügt – oder wo ganz konkret Nachbesserungsbedarf besteht.

  • TalkBack (Android): TalkBack ist eine Screenreader-Software für Android-Geräte, die auf den meisten Geräten vorinstalliert ist.
  • VoiceOver (iOS): Gestenbasierter Screenreader für Apple-Geräte.
  • AccessibilityScanner (Android): Diese App scannt die Screens deiner App und prüft Labels, Kontrast, Content Labels usw. auf Accessibility-Probleme
  • aXe: Automatisiertes Accessibility-Testing über die Entwickler-Tools von Chrome oder Firefox

Weiterlesen:

Accessibility für Content-Strategen (FH Joanneum OER)
Übersicht zu barrierefreien Web-Applikationen und Komponenten
BBC Mobile Accessibility Guidelines
Marcy Sutton – How to Win at Mobile Accessibility – btconfBER2015 (Vimeo)

UX-lesson learned: Design is not an art? Doch, ich finde schon.

Liebes Internet,

Design ist eine Disziplin, die primär funktionellen Ansprüchen genügen und konkrete Probleme lösen möchte. Ästhetik ist dabei bloß ein Mittel zum Zweck. So weit, so banal. Auch UX-Design und vor allem Nutzerforschung arbeiten dahingehend mit ziemlich komplexen Prozessen, das habe ich in den letzten Wochen auf die harte Tour erfahren dürfen. Einige Takeaways von meinem jüngsten Ausflug in die Welt des User Research und Interaction Design findest du in den folgenden Zeilen.

#neuland: ein UX-Projekt from scratch

In diesem zweiten Semester meines COS-Studiums an der FH-Joanneum wollte ich, durfte ich, musste ich bei zwei ganz unterschiedlichen Dozenten ausnehmend viel Spannendes und Praktisches aus den Bereichen User Research und Interaction Design in mich hineinlernen und ausprobieren, u.a. auch während einer einer Exkursionswoche nach London. So habe ich in wenigen Wochen neben der üblichen Theoriespritze ein Projekt umsetzen dürfen – vom Brief bis zum Konzept-Pitch inkl. Click-Dummy. 

Folgende Abbildung von J.J. Garrett abstrahiert den Design-Prozess, der mit der Strategie-Ebene beginnt und bei der finalen, sicht- und anfassbaren Surface-Ebene abschließt. Ich denke, die Abbildung verschafft einen ganz guten Eindruck, wie vielschichtig und tatsächlich linear der Planungsprozess eines App- oder Websiteprojekts im Idealfall verläuft.

Das war nun durchaus neu für mich, das resolut Analytische daran. Dieses holistisch verlappte Design-Denken, das sich so organisch fortpflanzt vom unspezifischen Nutzerproblem über die sorgfältige Analyse von Verhalten und Bedürfnissen der Zielgruppe zum ausgefeilten Prototypen, der im besten Fall etwas wirklich neues anbietet – ein (latentes oder akutes) Bedürfnis befriedigt und damit im besten Sinne eine positive Erfahrung darstellt, eine User Experience mit wirklichem Mehrwert.

Und immer wieder: Kill your darlings!

Übrigens, für diesen Blogpost habe ich die besten Sätze herausgestrichen. Sie waren die besten aller Sätze, sie waren richtig, aber nicht zu leben. Dieser Blog wäre für den Rest meines Studiums verloren gewesen, jeder weitere Post nur ein müder Abklatsch, darum musste ich sie herausstreichen.

Nein, tatsächlich ist so ein UX-Projekt, die Entwicklung einer App oder einer Website, wie ein Spiel mit einem Fallensteller. Genaueres hierzu gibt’s bei Alexandra zu lesen. Immer wieder muss man seine eigenen Annahmen, Überzeugungen und Erfahrungen auf die Kompatibilitätsprobe mit der Realität stellen und notfalls über Bord werfen.

“The hardest assumption to challenge is the one you don’t even know you are making“

-Douglas Adams

Ist das Konzept, das man sich gerade in stundenlanger Diskussion zusammen gebastelt hat, wirklich tragfähig? Ist es machbar? Und, am wichtigsten: Ist es das, was die User wollen? Warum sollten sie das Produkt verwenden? Immer wieder gilt es, seine Arbeit zu hinterfragen und sich wenn nötig radikal von Ideen zu verabschieden, ohne einen weiteren Gedanken daran zu verschwenden.

Die eine, die nicht teilbare, die absolut singuläre Antwort auf eine Problemstellung, die gibt es natürlich auch nicht. Das muss man sich als UX-Design-Novize immer wieder klar machen. Je unspezifischer das Briefing ist (und je höher das Budget), desto mehr Lösungsmöglichkeiten ergeben sich für ein UX-Projekt.

UX-Design ist kein Reißbrett-Job. Die Kunst des UX-Designers besteht für mich darin, die Augen überall zu haben. Gleichzeitig Mauern zu errichten und niederzureißen. Er muss mit der Gründlichkeit eines Sozialforschers die manchmal unendlich komplexe Realität auf einen Ausschnitt, ein Abbild, ein So-ist-es eines Problems reduzieren können und wiederum vom Willen zur Innovation getrieben sein, um schließlich neue Wege aufzuzeigen. So ähnlich wie ein Content-Stratege. 😉

Fazit 

Design Thinking ist für mich also durchaus eine Kunst; Es ist ein ungemütlicher, interdisziplinärer, aber im Kern schöpferischer Prozess, der aus einem riesigen Pool an Research- und Kreativmethoden schöpft, um der geforderten Problemlösung auf die Spur zu kommen. Erfahrung und ein breites Wissen ist dabei von Vorteil. Aber verlass‘ dich nicht drauf. 

Auf dem Weg zu einem Produkt, das die Kundenanforderungen und Zielgruppeninteressen bestmöglich abbildet, sind bei mir vor allem folgende Handlungsmaximen im Gedächtnis geblieben:

  • Nimm dir Zeit und entwickle eine klare Strategie.
  • Sorgfalt bei der User Research und eine klare Datenbasis sind key!
  • Mache dir immer wieder bewusst, wer deine User sind und was sie brauchen (und was nicht).
  • Kill your darlings! – Und sei bitte nicht nachtragend.
  • Denke minimalistisch und reduziere dein Konzept auf die wesentliche Funktionalität deines Produkts.

Quick and dirty: Content Audits für Kassenpatienten

Liebes Internet,

seit einem Dreivierteljahr studiere ich ja bereits Content Strategie in Graz. Es ist bemerkenswert, dass es in dieser Zeit sehr oft und sehr ausgiebig zum Austausch gekommen ist darüber, was das denn eigentlich ist, ein Content-Stratege, und was man dann so macht als ein ausgebildeter solcher, also dann so zum Brötchenerwerb.

Viele Personen aus meinem nahen Umfeld aus Freunden und Familie glauben, es sei etwas mit Schreiben, also ich würde einfach Schreiben fürs Internet lernen, weil ich das ja immer schon gemacht hätte (als ob), obwohl ich meistens entgegne dass ich vielmehr so etwas lerne wie Unternehmensberatung für das Internet, obwohl das auch etwas schmierig klingt und unvollständig, aber etwas kompakteres ist mir dann auch nicht eingefallen bisher. Also, was ist das denn nun, dieses Contentstrategentum?

Content-Strategen als Hausärzte des Internets?

Die von mir sehr geschätzte Rahel Bailie, die auch in Graz unterrichtet, hat mich fürs erste gerettet und erlöst aus meinem Definitionsdilemma. Für sie sind Content-Strategen nämlich die Hausärzte der Contentwelt, wie sie kürzlich sehr treffend festhielt, in einem famosen Blogpost. Ganz ähnlich wie so ein Hausarzt ist ein Content-Stratege mehr Universalist als Spezialist.

Das heißt, er besitzt ein Grundlagenwissen in den verschiedensten Disziplinen, das ihm ermöglicht, eine Diagnose zu stellen. Stellt sich das Problem des Patienten, das heißt die Anamnese, als sehr komplex oder spezifisch heraus, erfolgt die Überweisung zum Facharzt – Expertenwissen muss her, denn nicht jeder Content-Stratege ist im Online-Marketing genau so beschlagen wie im Bereich der technischen Infrastruktur von Websites oder kennt sich mit SEO ebenso gut aus wie mit User-Research-Themen.

Diese Definition ist nun auch für meine Eltern relativ greifbar, wenn auch nicht unbedingt für meine Oma. Fair enough.

Jedenfalls, zum grundlegenden Handwerkszeug eines Content-Strategen gehört der Content Audit, das ist das erste und wichtigste diagnostische Instrument des Content-Hausarzts. Dabei handelt es sich um die Bestandsaufnahme und qualitative Bewertung des vorhandenen Contents, also v.a. Website und Social-Media-Präsenzen des Patienten.

In Deutschland gibt es bekanntlich ein Zweiklassensystem im Wartezimmer, das heißt Privatpatienten genießen in der Regel eine bevorzugte Behandlung durch den Mediziner als gesetzlich versicherte Patienten. Nicht nur bekommen sie schneller einen Termin, sie erhalten oft auch eine hingebungsvollere Untersuchung, da der Arzt jede Behandlung einzeln abrechnen kann.

In meinem Job kommt es hin und wieder vor, dass ich sehr schnell konkrete Einsichten über ein Websiteprojekt benötige und keinen Zugriff habe auf mächtige Analyse-Tools. Zum Beispiel im Vorfeld eines Relaunchs, wenn der Kunde zum Beispiel keinen Zugriff auf Analytics-Daten hat, diese zu spät liefert oder der Produktmanager im Urlaub ist und keine Auskunft geben kann.

Ohne den Herren Doktoren unterstellen wollen, sie würden ihre Kassenpatienten nur oberflächlich behandeln: Sie haben mitunter ein kleineres Zeitfenster für jene zur Verfügung, damit sich das Praktizieren für sie rechnet, und müssen trotzdem zu einer klaren Diagnose kommen, die den Patienten weiterhilft. Tiefergehende Analysemethoden sind oft zeitaufwändig oder müssen zusätzlich bezahlt werden.

So ähnlich gestaltet sich oft auch die Arbeit eines Content-Strategen. Darum kommen hier nun ein paar schnelle Tipps und Tools für Content Audits bei „Kassenpatienten“. Diese eignen sich übrigens auch hervorragend, um Wettbewerber unter die Lupe zu nehmen.

Quick and dirty: Content Audits für Kassenpatienten

1. Screaming Frog nutzen und Content-Struktur ermitteln

Der Screaming Frog ist ein tolles Tool für detaillierte Website-Crawls. Die Free-Version sammelt bis zu 500 URLs ein und liefert schnelle Einsichten über die oberflächliche Beschaffenheit und Struktur einer Website. Der Export in ein Spreadsheet liefert schnell und zuverlässig antworten auf wichtige Fragen wie: Wie ist die Sitemap beschaffen? Welchen Content gibt es? Ist er mit Metainformationen ausgezeichnet? Zusätzlich lässt er sich etwa mit Google Analytics oder der Search Console verbinden, um detaillierte Daten über Zugriffe und Nutzerverhalten zu erfassen.

2. Sichtbarkeitsindezes checken

SEO-Research-Tools wie Searchmetrics oder Sistrix bieten kostenlose Schnupperausführungen an, die etwa einen Eindruck der generellen organischen Sichtbarkeit erlauben und sichtbar machen, welche Keywords die wichtigsten Trafficquellen einer Domain sind. Dazu nutze ich gerne SimilarWeb, um eine Einschätzung über Umfang und Quellenverteilung einer Website zu erhalten. Generell sollte man die Aussagekraft solcher Sichtbarkeitsindezes aber nicht überbewerten, vor allem, wenn das eigene Projekt eher nischig unterwegs ist. Dann ist es nämlich meiner Erfahrung nach durchaus wahrscheinlich, dass der Keywordpool des Anbieters die eigenen Themen nur oberflächlich mitabbildet.

3. Keyword-Recherche durchführen

Möchte man ohne Analytics-Daten Einblick in die Performance einer Website bekommen, etwa die Sichtbarkeit zum relevanten Themenbereich in der Suchmaschine, helfen zunächst Tools wie die obengenannten. Für tiefergehende Insights muss man sich dann schon etwas genauer mit der Brand- oder Produktstory befassen, eigenständig die relevanten Themencluster bestimmen – und diese händisch und stichprobenartig über die wichtigsten Suchpattern abfragen (Inkognito-Modus im Browser nicht vergessen). Die Ergebnisse (Keywords, Suchvolumina + Ziel-URL) in einem Spreadsheet festhalten. Dabei helfen Keyword-Research-Tools wie Mangools, Keywordtool.io, der Google Keyword-Planer oder Answerthepublic.com. Am besten ausprobieren und einen eigenen Workflow entwickeln.

4. Usability testen mit Google- und Browser-Tools

Auf den Websites, die ich derzeit betreue, sind locker zwei Drittel der User auf Mobilgeräten unterwegs. Bei der Auditing-Arbeit hält man sich aus Bequemlichkeitsgründen nun doch meist am Schreibtisch auf, das heißt am Desktop-Rechner. Das verleitet dazu, bloß einen schnellen Blick auf die Desktop-Version einer Website zu werfen und die mobile Variante nur mal schnell durch den Mobile-Friendly-Test zu jagen. Viel sinnvoller ist ein klares Mobile-First-Denken, weil man sonst schlicht und einfach den Großteil der User aus seinen Überlegungen ausschließt. Hier empfehle ich den Device Mode oder Responsive Design Mode gängiger Browser wie Firefox oder Chrome, der die Darstellung von Websites auf verschiedenen Geräten und Bildschirmgrößen simuliert. Durch die Content-Inventur aus Schritt 1 hat man idealerweise bereits die wichtigsten URLs identifiziert, hat aus Gesprächen mit den Stakeholdern in Schritt 3 Erkenntnisse über Produktstory und die wichtigsten KPIs bekommen und kann über ein paar schnelle Usability-Tests die Problemdiagnose durch qualitative Insights vertiefen.

Core Algorithmus Update: Ah geh, Google.

#rant

Liebes Internet,

beim Lidl meines Vertrauens haben sich, so kommt es mir vor, bereits am 27. Dezember die Waffeleier und Schokorammler in die Regale gemogelt. Auch Google legt uns einige Wochen vor der Zeit ein dickes, rätselhaftes Ei ins Nest – und veröffentlicht ein Update seines Core-Algorithmus. Blöd, wenn die einem anvertrauten Projekte primär auf die Erzeugung organischen Traffics komponiert sind und alles sorgfältige Optimieren erst einmal für den Garten war, weil der eigene Content in den SERPs plötzlich das Nachsehen hat. Doch wen belohnt und bestraft Google hier eigentlich?

Was ist passiert?

Seit der zweiten Märzwoche wurden die Suchergebnisse mal wieder auf links gedreht. Den Websites, die ich betreue, das heißt ihren Rankings, hat das mitunter leider gar nicht so gut gefallen. Ärgerlich. Am 12.3. dann die offizielle Verlautbarung bei Twitter: Es gab also mal wieder ein größeres Update.

Google-Sprecher Danny Sullivan zwitschert Versöhnliches. Die Seiten, die jetzt plötzlich schlechter performen, mit denen sei eigentlich alles okay. Das ist lieb, Danny. Also war die ganze Textarbeit, das Bauen angesagter Content-Cluster, die Analyse relevanter Search-Intents, das Optimieren auf branchenspezfische Ranking-Faktoren und so weiter, es war also alles doch nicht umsonst.

Ein paar Monate ging die Strategie, auf großartig-ganzheitlichen Content zu setzen, dabei ganz gut auf. Ganz schön launisch, dieser Google-Algorithmus. Vielleicht ist SEO am Ende doch nur Schamanismus. Oder, Herr Sullivan?

„Instead, it’s that changes to our systems are benefiting pages that were previously under-rewarded.“

Achso, es ging also nicht darum, guten und wirklich hilfreichen Content zu belohnen, es sind einfach mal die anderen an der Reihe. Ich bin okay, du bist okay, wir alle sind okay. Na gut. Danke Google, ich fühle mich von dir umarmt. Und ein bisschen unverstanden, aber das ist okay.

via GIPHY

Und nu? Eiersuche.

Was sind die Learnings aus dem neuen Update des Googleschen Kernalgorithmus? Bis jetzt leider: Alles nichts Konkretes. Google selbst äußert sich in Allgemeinplätzen und versteckt seine Hinweise für ein strategisches SEO-Krisenmanagement besser als ein gemeiner Osterhase.

Auch die Branchenexperten rühren bislang nur weiter im Kaffeesatz vergangener Tage und jagen die alten Gespenster. Searchmetrics sieht Parallelen mit einem „Phantom-Update“ aus dem vergangenen Jahr. Die damaligen Verlierer-Domains seien jetzt tendenziell wieder betroffen. Es stehe einfach nicht jeder in Googles Gunst. Man möge doch einfach Suchergebnisse anbieten, die Nutzerbedürfnisse am besten bedienen. Achso.

Anyway, meiner Erfahrung nach regulieren sich nach solchen Updates die Rankings ein Stück weit von allein. Eine Reihe von SEO-Tasks und offener Fragen erscheint mir für meine Projekte dennoch akut beschäftigungswürdig zu sein:

  • Wo sind die Grenzen von holistischem Content?
  • Gibt es schon eine bewährte Best-Practice (mit Betonung auf Praxis) für die interne Verlinkung bei Content-Clustern?
  • Gibt es spezielle Schemas, die für meine Projekte infrage kommen und mir helfen könnten, die Content-Relevanz meiner Inhalte zu verbessern?
  • Wie saniere ich am besten meine Backlink-Profile?
  • Was kann ich in punkto Nutzersignale besser machen – wie kann ich die Nutzerfahrung auf meinen Seiten weiter verbessern?

Na dann, frohe Ostern.