Humane Tech

Februar 2020
Die Diskussion fand am 26. Februar 2020 an der ZHDK bei Fachrichtung Cast / Audiovisual Media statt. Startpunkt bei diesem Thema ist die Feststellung, dass viele Tech Services mehr Lärm als Nutzen erzeugen und die auf Social Media wie Facebook oder Twitter verbrachte Zeit sich nicht lohnt. Bei genauerem Hinschauen stellt sich heraus, dass die meisten Skandale der grossen Tech-Firmen damit zusammen hängen, dass die menschliche Psychologie untergraben wird, um Geld zu verdienen. Das Stehlen von Aufmerksamkeit ist mit ihrem Businessmodell verknüpft. Es gibt eine Initiative vom Center of Humane Technology, um dem entgegenzuwirken. Humane Technology hat einen Designguide publiziert der helfen sollte die menschliche Psychologie zu unterstützen.

Es ist nützlich zu wissen, dass Machine Learning nicht optimiert sind, User die interessantesten Inhalte zu zeigen. Die Zielfunktion von Machine Learning besteht darin, mehr Engagement zu erzielen (wie zum Beispiel Klicks auf Inhalte oder eine lange Verweildauer). Durch diese Zielfunktion entwickelt Machine Learning als Strategie, uns Angst einzuflössen oder uns ein Weltbild zu zeigen, das uns empört. So klicken wir eher auf den nächsten Link.

Für Hannes Gassert (Unternehmer, Teamhuman.ch) Gassert ist es unmöglich, ein Netflix oder sogar nur ein Chess.com Konto zu haben, denn es raubt ihm Zeit und Aufmerksamkeit, um zu funktionieren. Hier ist Hannes aber nicht alleine, auch im Publikum gibt es welche, die den Abend verbringen können, ohne einige Blicke auf das Mobiltelefon zu werfen. Weshalb verbreiten sich die radikale Message oder Fake News viel mehr als die gemässigten und gut recherchierten Nachrichten? Um unsere Aufmerksamkeit und uns an sie zu binden haben die Plattformen ihre Mechanismen darauf optimiert. So bieten diese Plattformen uns Empfehlungen oder zeigen Meldungen im Endless Scroll. Dabei empfinden Menschen Geschichten, die Angst oder Empörung verursachen am fesselndsten und verweilen dadurch am längsten an den Bildschirm. Hinter der Logik der Aufmerksamkeitsökonomie steht der *Upgrade der Maschinen” gegenüber dem “Downgrade der Menschheit”. Unser Hirnstrukturen stammen immer noch aus der Steinzeit. Die Maschinen finden die Schwächen aller Menschen und nutzen sie aus. So ist die Frage schon lange nicht mehr wann übertreffen diese Mechanismen die Menschen? Sondern wann sind die Maschinen überwältigend für unsere Schwächen?

Naveen Shamsudhin (ETH / The Origin) hat eine App vorgestellt, die den Humane Designguides entspricht. Letztes Jahr fand eine Konferenz in Portugal statt und Naveen plante, auf Booking.com seine Unterkunft zu buchen. Aber als er die Hotels vergleichen wollte, sah er nur, dass alle ausgebucht waren. So reservierte er das erstbeste Hotel und fiel dem Dark Pattern ‚Verknappungseffekt‘ zum Opfer. Wir sind jetzt in einer Situation, wo Designer und Entwickler auf diese Dark Patterns angewiesen sind, um ihre Produkte an den Mann bzw die Frau zu bringen. Die Dark Patterns bewegen User, unbewusst zu klicken, zu kaufen, oder stundenlang Status Nachrichten zu lesen. Vor vier Jahren hatte Naveen eine Erleuchtung: Gezwungenermassen verwandelte sich sein Smartphone in ein Ziegelstein, weil er sein Telefonabo nicht verlängerte. Dies brachte ihn dazu, mit seinem Co-Founder Alexander Boethius CocoonWeaver zu entwickeln, das noch weiter geht, als den Menschen in den Mittelpunkt zu stellen. Durch die konstante Unterbrechungen digitaler Geräte ist es oft schwierig, Raum für kreative Gedanken zu finden. Darum ist die CocoonWeaver App so gebaut, dass sie möglichst alle Ablenkungen verhindert. Aus ihren eigenen Bedürfnissen heraus wurde CocoonWeaver entwickelt und erst im Nachhinein fand Naveen den Designguide. Im Unterschied zum klassischen Human Centric Design, hat Humane Design noch die Komponente von Mitgefühl und Wohlwollen. CocoonWeaver wurde vor einem Monat lanciert und hat User wie Schriftsteller aber auch Menschen mit ADHD.

Für Naveen ist es nicht die Technologie, die problematisch ist, sondern die Menschen, welche sie entwickeln. Der Designguide ist eine Komponente, wie man Humane Technology entwickelt, eine andere Komponente kann Regulierung sein.

Eventbild
Eventbild
Eventbild
Eventbild
Eventbild
Eventbild
Eventbild

Die Themen wurden auch nach der Podiumsdiskussion während dem Apéro, offeriert von der Fachrichtung Cast / Audiovisual Media, lange diskutiert:

  • Für Marcos Garcia Pedraza (Imnoo AG, Vita.coop) sind Dark Patterns nicht per se schlecht, denn ein Unternehmen muss überleben und dazu braucht es Kunden. Geldverdienen ist nicht per se schlecht. Wichtiger als Human Technologies sind dabei Human Business Models. Imnoo z.B. hat ein Geschäftsmodell, das Diversity von Exzellenz in der Fertigungsindustrie fördert. Dabei wird Künstliche Intelligenz zum Matchen von Angebot und Nachfrage so genutzt, dass auch Nischen-Player zu Aufträgen kommen.
  • Laut Hannes bringen uns die Strukturen, Anreize also in einem Wort gesamte System dazu, uns als Entwickler oder Designer so zu verhalten.
  • Sibylle Peuker fragt Naveen, ob sie einem Start-up vertrauen kann. Besonders, ob sie einem Start-up ihren Daten anvertrauen kann. Laut Naveen ist Vertrauen ein seltsames Gefühl, denn Silke vertraut den Big 5 aber einem Start-up nicht. Es ist so, dass wenn man Daten von sich gibt, sind sie eh “weg”.
  • Auch Jürg Stucker (Namics) findet Dark Patterns zu verteufeln ist eine technokratische Sicht. Empfehlungen mit Hilfe von Machine Learning ist nicht per se schlecht. Denn was ist die Zielfunktion des Unternehmens? Diese Zielfunktion wird Machine Learning vorgegeben von Unternehmen, die ein Geschäftsmodell und -strategie haben und überleben müssen.
  • Marcos Garcia Pedraza zieht den Vergleich der Social Media mit der Pharma Industrie. Diese musste auch reguliert werden, denn in den Anfängen starben sehr viele Menschen an nicht sicheren Medikamenten. Auch wenn Regulierung ein Innovationszerstörer ist, brauchte die Pharma Industrie eine Grundlage.
  • Auch Hannes denkt, es braucht eine Regulierung. In ungefähr 10 Jahren werden wir über Social Media reden wie über die Tabakindustrie. Es haben eigentlich alle gewusst, dass Rauchen nicht so gesund ist, aber es brauchte eine Regulierung. So wird es wahrscheinlich auch mit Social Media und es könnte noch schneller gehen.
  • Bei der Regulierung wird es laut Jürg schwierig, er stellt die Frage, ob Regulierungsbehörden überhaupt so schnell denken können.
  • Martin aus dem Publikum fragt, ob es wirtschaftlich schlecht ist, seine Leserschaft zu fesseln und möglichst lange auf seiner Architektur Web Zeitschrift zu halten. Er hat festgestellt, dass die gut recherchierten Journalistik Anbieter, sich alle hinter einer Paywall befinden. Naveen empfiehlt, dass in einem ersten Schritt Verlage die Weitergabe von Nutzerdaten an Google einstellen können, indem sie nicht Google Analytics, sondern das selbst gehostete Matomo verwenden.
  • Vielleicht sollten alle Designer und Entwickler einen hippokratischen Eid wie die Ärzte ablegen sinniert Naveen.

Technologien wie Machine Learning sind noch sehr neu. In vielen Bereichen ist es noch unklar, wie diese richtig eingesetzt werden sollten. Eigentlich sollten sie achtsam und vorsichtig eingesetzt werden, aber die Tech Industrie ist sehr auf Geschwindigkeit und Geld bedacht und optimiert. Sehr offensichtlich wird Shareholeder Value höher geachtet, als eine bessere Gesellschaft zu ermöglichen. So ist es nicht verwunderlich, wie viel Flurschaden entsteht. Der eigentliche Konflikt besteht darin, wo das Businessmodell eines Unternehmen nicht mit dem Nutzen ihrer User korreliert. Bei Surveillance Capitalism und bei Ad-Driven Business Models müssen möglichst viele User möglichst lange den Service nutzen. Dies gibt die Zielfunktion vor, worauf dann optimiert wird.

Als Unternehmen, Entwickler oder Designer sollte man sich zwei Fragen stellen:

  • Ist das, was ich mache zum Nutzen oder Schaden meiner User?
  • Lässt mein Business Model überhaupt zu, dass ich mich für den Nutzen der User entscheiden kann?

Alle Themen