AWS Rekognition, oder: der Cloud-Marktführer mal nicht Marktführer

Update: Bei der AWS re:Invent 2017 wurde die Video-Fähigkeit von AWS Rekognition vorgestellt.

AWS Rekognition hat etwas Neues. Was ist das überhaupt? Ich hole mal ein wenig aus. Die nächste Evolutionsstufe bringt AI oder Machine Learning. Ich begrüße unsere neuen Herrscher.

via GIPHY

Aber im Ernst, zumindest in der Produktentwicklung im Kleineren und im Digital Business im Größeren ist Artificial Intelligence eines der Buzzwords des Jahres, wenn nicht sogar der Trend des Jahres. Warum? Mustererkennung mit Hilfe von Computer-Unterstützung findet überall statt. Google hat auf seiner Entwicklermesse Google I/O sich selbst zu einer „AI First“-Firma gemacht, und zwar gleich mit der entsprechenden Aussage vom CEO Sundar Pichai höchstpersönlich.

Was für Muster kann man denn erkennen? Wenn man den Computer auf Hunde und Katzen trainiert, erkennt er überall Haustiere. Das kann auch schon mal dazu führen, dass man vor den computergenerierten Bilder Angst bekommt.

AWS Rekognition: neue Funktionen im November

Seit Monaten konnte man etwa mit der Technik von Google bereits Videos systematisieren lassen. Hier hat Amazon immer noch kein entsprechendes Angebot. Seine API für die automatisierte Erkennung von Gegenständen und anderen Entitäten in Bildmaterial beherrscht bisher nur Stillmaterial. Das hat sich mit der Ankündigung vom 21. November 2017 auch nicht geändert. (Was war neu? bessere Gesichtserkennung, mehr Gesichter, Gesichter wiederkennen, Text-in-Bild-Erkennung. Das Meme vom Anfang dieses Posts dürfte Rekognition also problemlos erkennen.) Was ich schon ein wenig erstaunlich finde. IBM bietet das in Watson an, Microsoft in seiner Azure-Cloud, und Google auch in seiner Cloud Engine (ex-Compute-Engine).

Der Fokus auf Alexa und Amazon Echo hat bei Amazon schon erstaunliche Ergebnisse hervorgebracht, aber hier scheint es so etwas wie einen blinden Fleck zu geben. Auf der Kundenseite integrieren derzeit bereits die ersten DAM-Systeme das automatische Vertaggen von Videomaterial als Fähigkeit. Auf der IBC 2017 in Amsterdam habe ich das in zwei Demos gesehen, und ich hatte meinen Besuch nicht besonders auf das Thema AI ausgerichtet. Es ist eindeutig die nächste Evolutionsstufe. Vielleicht kommt ja zum Thema AWS Rekognition noch etwas auf re:Invent in ein paar Tagen. Da bin ich fast sicher.

Photo by Ryan Plomp on Unsplash

Empfehlung bei umfangreichen AWS-Accounts: ein Controlling-Service

Profi-Tipp für den Kampf gegen zu hohe Ausgaben bei Amazon Web Services: Mit Botmetric habe ich ein ungenutztes Elastic Block Storage entdeckt. Und mit ParkMyCloud habe ich eine Instanz in einer Region (EU-WEST) entdeckt, die wir normalerweise nicht benutzen. Cloudability war hilfreich, um eine Einschätzung des eigenes Bedarfes zur Zahl der Reserved Instances zu bekommen. Zusammen macht das eine monatliche Ersparnis von etwa 120 Euro aus. Gemeinsam mit der Termination Protection von Amazon Web Services selbst ist das ein guter Schutz gegen zu hohe Kosten und zu wenig Sicherheit beim Löschen von Servern.

Bei einer größeren AWS-Landschaft empfiehlt sich das unbedingt. Das Schwierigste ist es, die verschiedenen Dienste miteinander zu vergleichen. Diese Services sind alle anders konzipiert. Es ist eine wahre Cottage Industry entstanden. Hier muss man ausprobieren, was für einen passt.

Die Anbieter stoßen aber alle in die User-Experience-Lücke, die Amazon am Markt lässt. Amazon Web Services zu verstehen, rein aus den umfangreichen Beschreibungen auf der Seite von AWS, ist sehr schwer. Es gibt Dienstleister für die Kurse rund um die Zertifizierungen, und die haben ein gutes Auskommen, nehme ich an.

Die Billing- oder eher Controlling-Anbieter nutzen die Unübersichtlichkeit für bessere Lösungen. Gerade in großen AWS-Accounts kann ein Mitarbeiter kaum noch wissen, wo alles Instanzen laufen. Das mag bei einem Einsteiger wie uns bei TargetVideo noch möglich sein, aber wir geben auch nur wenig bei AWS aus. Wenn die Rechnung fünf- oder sechsstellig wird, ist das einfach nicht mehr drin. Wir sprechen dann wirklich von hunderten von Instanzen und Storages und anderen Anwendungen, die dann laufen. Die erste Aufgabe ist dann erst mal, alles richtig zu taggen.

Und dann kann man sich mit einem Probe-Abo von den Services beschäftigen. Und bei so großen Accounts sind die 99 Euro oder so, die die dauerhafte Kontrolle der Kosten kostet, gut angelegt.

Der nächste Schritt sind dann Log-Analyse-Dienste, um mit den Daten in CloudWatch etwas anfangen zu können. Aber das ist dann ein anderer Post.

Quantifiziert

Was man nicht messen kann, kann man nicht beweisen. So oder ähnlich habe ich es im Physikunterricht gelernt. Das prägt. Also messe ich zwei Dinge seit ziemlich genau zwei Jahren. (Am 27. Mai 2014 habe ich die Synchronisierung meiner Daten von Jawbone zu Evernote und Google Drive mit IF/IFTTT begonnen.) Was habe ich gelernt?

Erstens. Wenn ich mehr als acht Stunden Schlaf bekomme, funktioniere ich gut. Wenn ich weniger bekomme, geht es mir nicht gut. Ich bin also ein Vielschläfer. Schlafe ich mal so wenig wie ein Karl Lagerfeld, geht der erste Tag noch ganz gut. Ich floate auf einer Wolke aus Müdigkeit durch den Tag. Der zweite ist schlimm, ich esse dann zu viel und trinke zu viel Kaffee. Nach mehreren Tagen crashe ich und schlafe abends beim Zubettbringen der Kinder vorhersehbar ein.

Zweitens. Wenn ich mich weniger als 3000 Schritte bewege an einem Tag, werde ich nicht nur dicker, sondern auch grantiger. Dann zeigen sich die scharfkantigen Ecken meiner Persönlichkeit, die ich gerne nicht zeigen würde. Daher ist das Pendeln mit dem Zug für mich auch ein Segen bei der neuen, sehr zentral in München gelegenen Arbeit: Allein die Umsteigevorgänge bringen mich über 5000 Schritte.

Mary Meeker: Bei Folie 45 wurde mir für US-Verlage angst und bange

Die hässlichsten Folien der Welt sind wieder da, in der 2016er-Auflage. Mary Meeker macht sie, und sie könnten ein Redesign gebrauchen (haben sie von Emiland De Cubber bekommen, hier ein paar Bilder auf dem HubSpot-Blog).

Und immer noch geben Advertiser zu viel Geld in Old Media aus, stellt sie fest:

2016-internet-trends-report-folie-45-1024

Keine neue Folie, aber mich hat sie heute sehr berührt. Was sagt sie aus? Die Nutzung von Print ist so gering, und sie sinkt – und die Anzeigen, die dort geschaltet werden, sind immer noch viel zu hoch. Wo hingegen auf Mobile noch zu wenige Ads gebucht werden.

NiemanLab hatte die gleiche Idee wie ich, stellt sogar eine Historie her: http://www.niemanlab.org/2016/06/the-scariest-chart-in-mary-meekers-slide-deck-for-newspapers-has-gotten-even-a-tiny-bit-scarier/

Und macht das seit Jahren. Also gleich wie ich NiemanLab bookmarken. Ist immer einen Blick wert, genau wie Digiday.

Extensions, die ich nutze (1): Browserstack

Jeder Produktmensch träumt davon, nicht mehr testen zu müssen. Zu mühsam ist die Arbeit. Der Ersatztraum ist der von einem Park an Testgeräten. Da das auch für die meisten, die nicht in einem Konzern arbeiten, nicht realistisch ist, und die Entfernung zu einem Open Device Lab zu groß ist, brauchen wir Sterblichen Angebote wie Browserstack.

Browserstack erlaubt Testen auf verschiedensten Geräten

In der einen Firma gibt es Samsung-Handys für die Mitarbeiter, da dürften auf Android-Geräten wenig Bugs am Produkt auftreten. In meiner alten Firma gab es iPhones – also wurde die mobile Version der Seite vor allem in iOS betrachtet. Browserstack hebt dich als Produktmanager aus diesem Einerlei heraus – du testet einfach auf den Geräten, die für dich wichtig sind. 

Kleine Erinnerung: Das sind in Deutschland in der Regel Android-Geräte, wenn es um das Testen geht – vor allem mit dem Markennamen Galaxy. 

Und wie macht die Extension Browserstack jetzt das Leben leichter?

Mit einem einzigen Klick kann man eine Browserstack-Session mit dem gewünschten Device starten. Nur noch URL eingeben und los mit dem Testen, Screenshots machen – und im Projektmanagement-Tool die Bugs festhalten, die unweigerlich auftreten.

Aufruf: Praktikanten und Praktikantinnen gesucht

Wenn du mit mir die Produkte eines Startups testen willst, bewirb dich! Für Sommer und Herbst suchen wir noch Praktikanten im Produktmanagement!

Neue Studie zur redaktionellen Analytics-Nutzung

Zum ersten Mal gesehen habe ich Rasmus Kleis Nielsen in Hamburg im Verlagsgebäude des SPIEGEL-Verlages. Er trat den versammelten, wissbegierigen Journalisten mit einem detailreichen Vortrag charmant in den Hintern. Der Vocer Innovation Day 2015 war die Veranstaltung im letzten Jahr, die mich letztes Jahr wohl am meisten geprägt hat. Über den Auftritt von Melissa Bell habe ich hier, glaube ich, schon erzählt. Dass Nielsen mich irgendwie an Barney Stinson erinnert, habe ich noch nicht geschrieben.

Jetzt hat er eine neue Studie vorgestellt, in deren Vorwort er sich auch bei einer meiner ehemaligen Kommilitoninnen bedankt, die jetzt an seinem Institut forscht. (Was mich unheimlich stolz macht als Absolvent der TU Dortmund in Journalistik.) Zurück zum Thema. Der Titel der Studie: Editorial Analytics – How News Media are Developing and Using Audience Data and Metrics (PDF-Download).

Das Thema treibt mich auch gerade um: Editorial Analytics. Zahlen für die Redaktionsarbeit, wie kann man mit denen arbeiten, wie machen das andere?

News organisations all over the world have in recent years increased their use of analytics – systematic analysis of quantitative data on various aspects of audience behaviour aimed at growing audiences, increasing engagement, and improving newsroom workflows.

Viele Redaktionen haben den Gebrauch von Big Data gelernt. Das Wachstum von focus.de ist meiner Meinung nach auch Ergebnis einer stark analysegetriebenen Themenfindung: Was funktioniert bei welcher Zielgruppe? Wie kann man diese Erfolge wiederholen.

Die wichtigste Antwort des Reports vorab: Es gibt keinen EINEN Weg für alle Mediengattungen. Jede Analyse-Lösung ist maßgeschneidert worden auf lokale Bedürfnisse des Mediums. Und keine Lösung ist perfekt, daran ließen die Befragten keine Zweifel.

Wir suchen gerade für unser Startup einen Audience Development Manager. Das ist auch der Titel, der in der Branche oft für diese Zahlenmenschen verwendet wird.

At the centre of this development are people in the newsroom with new job titles like ‚audience editor’, ‘growth editor’, ‘audience development editor’, or ‘audience engagement editor’. They are developing and using analytics for editorial purposes that were in the past more narrowly tied to predominantly commercial objectives, using tools and techniques previously rarely used by journalists.

Als ich vor neun Jahren nach München kam und zum ersten Mal in einer großen Onlineredaktion war, gab es dort Business Analysts. Die untersuchten die Zahlen für Redakteure. Und für die Vermarkter-Kollegen. Offenbar geht der Trend zu eingebetteten Analysten, wenn man die so nennen darf.

Eines der Tools, das die Studie in Erinnerung ruft, ist Ophan, eine In-House-Entwicklung des Guardians auf der Basis der Elasticsearch. Davon gibt es auch ein Video bei Vimeo. Die Studie enthält auch einen beeindruckenden Chart, wie eine Contentdetailansicht für ein einzelnes Contentobjekt aussieht.

Für die Studie haben die Autoren (neben Nielsen auch Federica Cherubini) in insgesamt 30 Redaktionen Interviews geführt. Dabei haben sie herausgefunden, dass es eine Kombination von drei Faktoren braucht, damit man von wirklich datengetriebenen Redaktionen sprechen kann:

  • eine an Daten interessierte Redaktionskultur
  • die richtigen Tools
  • die richtigen Mitarbeiter, die analysieren können

Dabei stießen gerade die fortschrittlichsten Redaktionen durchaus an technische Grenzen. Die Entwicklung zum verteilten Publizieren habe die Tools durchaus an einigen Stellen technisch überholt, so Nielsen und Cherubini:

Current approaches are better at dealing with an older internet of desktop web use, homepage traffic, and referrals from search and social than with more recent trends like mobile web use, app/browser proliferation, and distributed content consumed across multiple platforms and devices.

Gerade von Buzzfeed haben wir so etwas auch schon gehört. Besonders in Erinnerung geblieben ist mir dieses GIF, das das Problem moderner Publisher erläutert:

Man kann also auch Data Science in GIFs packen. War klar bei Buzzfeed.

Bei der Financial Times (mit Paywall) ist Renee Kaplan Head of Audience Engagement.

In Kaplan’s view audience engagement is about building a relationship with readers: ‘Audience engagement is about getting our journalism out in front of more audiences, and more of the right audiences.’

Sie betont die „richtige“ Zielgruppe, weil sie Nutzer in zahlende Nutzer konvertieren will. Aber ich finde das auch ein wichtiges Thema für ganz normal werbefinanzierte Seiten.

UK, USA top. Und wir so?

Besonders interessant sind natürlich die Fallstudien aus dem eigenen Land. So wird auch Sebastian Horn von Ze.tt aus dem Zeit-Verlag zitiert:

Part of the reason why Ze.tt was created was to experiment so we’re also going to experiment with different data tools. We’re going to give them a try and see if they give us useful information. However, we don’t want to overwhelm ourselves with too much. We don’t want to cover our walls with monitors that show random graphs. They will have to be meaningful numbers that people look at and help them make decisions.

Den Ansatz der Studie, keine alles lösende Antwort mit dem EINEN Dashboard zu geben, finde ich gut. Welches Problem will das Medium mit den Zahlenkolonnen oder Charts lösen? Keine Dashboard-Wüste produzieren, die auf einem Monitor an der Wand blinkt (kenne ich auch, finde ich gut für Sensibilisierung, nicht aber für Handlungsempfehlungen). Sondern herausfinden – wo funktioniert welcher Content, wie gehen die Headline-Tests aus, wann peakt mein Content – eben spezielle Dinge. Was ist mein Problem, das genau definieren – dann die Lösung finden. Und nicht von der Lösung her denken. Also den Regeln folgen, die für gutes Produktmanagement immer gelten. Dann passt es.

In eigener Sache

Wer mit mir an Tools mitarbeiten will: Wir suchen noch und immer wieder Praktikanten fürs Produktmanagement. Für den Sommer und den Herbst sind noch Plätze frei.

Anfängerfehler: Sitemaps waren weg

Seit Juli 2015 ist der Traffic auf meinem Blog zurückgegangen. Hat mich gewundert. Ich hätte mal in meine Google Webmaster Tools Search Console sehen sollen. Seit dem 7. Juli 2015 wurde keine aktuelle Version meiner Sitemap mehr von Google geladen.

Hm, wie kann das sein?

Die Antwort ist ganz einfach: Ich hatte wohl übersehen, dass ein neues SEO-Plugin auch eine neue URL für die Sitemap bedeutet. Ich bin auf Yoast SEO umgestiegen, den Quasi-Standard für SEO-Funktionen in WordPress.

Sitemaps und mehr: Fehler können passieren

Deswegen solltet ihr auch immer schauen, was nach Plugin-Installationen passiert. Und ein regelmäßiger Blick in die Search Console, einmal pro Woche, ist eh zu empfehlen. Wir sind doch Profis. Also sonst zumindest, mindestens von 9 bis 18 Uhr.

In einem Monat sollte der Traffic wieder ein Grundrauschen erreicht haben.

P.S. Sebastian Brinkmann hat mich auf noch ein Problem aufmerksam gemacht: Ich habe die Redirect-Regeln in der .htaccess-Datei kaputt gemacht. Auch jetzt behoben.

Blogstatistik 2015. Oder auch: Gehversuche mit Tableau (3)

Der Mai war gut zum Traffic auf meinem kleinen Blog. Er war mit Abstand der beste Monat in diesem Jahr:

Tableau-Grafik der stärksten Monate im Blog, vom Traffic her

Tableau-Grafik der stärksten Monate im Blog, vom Traffic her

Ich habe mir gedacht, dass lag sicher am Besuch der IA Konferenz, die ist immer im Mai und funktioniert auch in der Regel ganz gut. Aber da war ich dieses Jahr überhaupt nicht. Die Konferenz ist in diesem Jahr nämlich ausgefallen.

Der Gewinner des Jahres lag auch im Mai vorne.

Top-Artikel des Jahres

Top-Artikel des Jahres

Au weh, die Trendlinien von Tableau

Und wenn ich mir den Trend der Monate ansehe, sollte ich schnell mit dem Bloggen aufhören. Lohnt sich nicht:

Der Trend geht eindeutig nach unten bei der Zahl meiner Besucher

Der Trend geht eindeutig nach unten bei der Zahl meiner Besucher

Macht aber Spaß. Ich mache weiter. Ich habe noch eine Liste in Wunderlist mit mehr als 60 Themenideen, mehr als 50 Entwürfe in WordPress gespeichert und mir laufen auch sicher noch weitere Ideen über den Weg. Negativen Traffic soll es im Januar geben, rechnet Tableau aus. Das kann ja nicht sein.

Die mobile Explosion: Gehversuche mit Tableau (2)

Dieser Tweet hat mich inspiriert:

Das muss man besser darstellen können. Hier ist mein Versuch mit Tableau – die Daten habe ich in eine Excel-Tabelle kopiert, neu eingegeben, weil es da die Formatierung zerhauen hat und dann in Tableau eingespielt:

Bandbreite wird genutzt, es geht voran.

Bandbreite wird genutzt, es geht voran.

Unaufhaltsam ist das Wort, finde ich. (Quelle: Ist alles aus dem Meeker-Report, dem mit den hässlichsten Folien der Welt.)