Die Bundesregierung hat eine formidabel gemachte kleine Anfrage der Gruppe Die Linke zur #ePA für alle beantwortet.
Dazu werden mir ja ab und zu ein paar Fragen gestellt. Weil sich das häuft, ein Thread.🧵
Die Bundesregierung hat eine formidabel gemachte kleine Anfrage der Gruppe Die Linke zur #ePA für alle beantwortet.
Dazu werden mir ja ab und zu ein paar Fragen gestellt. Weil sich das häuft, ein Thread.🧵
Ich übersetze mal: Vor dem bundesweiten Rollout fixen wir Probleme mit denen wir niemals nie hätten live gehen sollen.
VSDM++ Mangel lange bekannt, auch der gematik.
Dass Kartenausgabeprozesse und der kryptografische Lebenszyklus ein Problem sind, ist auch ein langanhaltendes Problem.
Dass das erst jetzt angegangen wird, nachdem es brannte, ist kein Zeichen einer guten proaktiven Sicherheitskultur, es ist ein Zeichen des Mangels von Sicherheitskultur. Bedenklich.
Die Bundesregierung mit die Lücken sehr ernst. Naja, das stimmt. Jetzt.
Das stimmte nicht bevor sich Martin und ich auf die Bühne gestellt haben und das alles sehr anschaulich demonstriert haben.
Man muss aber die Frage stellen, warum sich die Bundesregierung überhaupt erdreistet hat, mit so einem Scherbenhaufen an IT-Sicherheit zu gedenken, online zu gehen.
Die Allowlist kam erst deswegen, weil wir gezeigt haben, dass es kaputt ist. So ist der Pilot erst halbwegs sicher geworden.
"Da kann es auch sein, dass es ne Mischung aus Data Science und Quantum und ML ist"
Oh je, mein Buzzwordbingo ist voll.
Wir hatten das mit Volltextsuchen auf Webseiten, wir hatten das mit Sprachsteuerung und Assistenten wie SIri und jetzt haben wir halt KI-irgendwas-Assistent.
Kommen wir erst mal zu den einfachen Gründen gegen so Dialoginteraktionspatterns:
- Sprache: Niemand hat z.B. in der Öffentlichkeit Bock, laut mit einem KI-Assistenten zu diskutieren bzw. die Diskussionen anderer zu hören
Sprachassistenten sind daher nie irgendwie beliebt in alle Nutzungsszenarien.
Alle paar Jahre kommen irgendwelche Marketingabteilungen oder Produktmanagementleute auf die Idee, dass es jetzt an der Zeit ist, irgendeine neue Interaktionsform für ihre digitalen Produkte einzusetzen. Meist auch, weil die gerade en vogue ist.
KI und die unsäglichen Chatbots sind da nur eine weitere Iteration von dem "Wir drücken Menschen eine Interaktionsform aufs Auge, so dass sie hoffentlich nur noch diese eine nutzen werden".
Das scheitert immer furchtbar.
Humane AI, die mit dem AI PIn Dingsi ist gescheitert. Verschlimmbessert jetzt die UX in HP Produkten.
Anlass für einen Thread zum Thema UX von Sprachassistenten und Chatbots und warum das immer wieder scheitern wird für den Massenmarkt, egal wie gut oder schlecht die Technik werden wird… 🧵
Psychologisch gesehen versucht das menschliche Gehirn mit der Komplexität von irgendwas in der Welt immer so umzugehen, indem wir unbewusst immer ein vereinfachtes Modell von quasi allem bauen. Wir versuchen in unserem Kopf eine vereinfachte, für uns verständliche Kopie der Welt zu bauen.
Wir bauen von allem ein mentales Modell.
Aber das ist nur ein Teil: Es gibt einfach viele Kontexte, in denen die Nutzung von so AI Dingsis unpassend ist.
Aber jetzt kommt die Frage nach: Chatbots, Bianca, Chatbots sind doch super.
Chatbots haben ein paar dieser Probleme nicht, sie haben aber ein anderes Problem mit dem mentalen Modell der Nutzenden.
Von der Privacy her mal ganz zu schweigen, weil naja, wer möchte schon vertrauliche Anweisungen an die Öffentlichkeit richten?
Insgeheim habe ich aber eh immer den Eindruck, dass so AI Assistenten, seien es Humanes AI oder Rabbit R1 vom Produktmarketing her ihre Schöpfer abbilden: Nerds, die lieber in ihrer Wohnung exklusiv mit ihrem virtuellen Assistenten online kommunizieren und meist nicht so sehr auf ihr Umfeld gucken müssen.
Genauso ist es auch mit einem "AI Pin", weil halt die Interaktion von Sprachassistenten oder AI Dingsis mit Kameras oder Gesten, um auf irgendwas zu zeigen, halt nie exklusiv nur an ein Device gerichtet werden, sondern rein vom Kommunikationsverhalten halt an die ganze Welt um dich herum.
Das führt zu Irritation und deshalb werden so AI Assistenten User in der Öffentlichkeit eher sehr fremdartig aufgenommen. Ist inhärent Teil des Interaktionspatterns, geht auch durch Technik nicht weg.
Die Menschen, die die Einführung von so Tools dann entscheiden, sind meistens dann schon Menschen mit einem etablierten Modell von etwas. Die finden das toll – und können dann nicht verstehen, warum das in der Masse der Bevölkerung oft so gar nicht ankommt.
Tja, kein mentales Modell, keine Interaktion oder frustrierte Interaktion.
Dabei ist es auch egal, dass das "wie ich mit etwas interagiere" sehr einfach ist, es fehlt immer das worüber ich interagieren möchte.
Oftmals werden Chatbots aber von Marketingteams oder Product Leuten vorgeschlagen oder eben vom Hype getrieben, die den Interaktionsgegenstand eben schon sehr genau kennen.
Eine Diskussion dazu könnte so aussehen in jedem fiktiven Unternehmen:
"Wir brauchen eine schnellere und direkter Interaktionsmöglichkeit"
"Lasst uns eine Suche / Sprachsteuerung, Chatbot / AI Dingsi machen"
"Oh ja toll, dann finde ich schneller, wo Produkt 32344 in Abteilung 3 Subabteilung 5 liegt"
Chatbots sind dabei oftmals sehr gut darin, Expert*innen dabei zu helfen, schneller und direkter zu interagieren.
Sie sind aber extrem schlecht darin, Menschen, die noch kein mentales Modell von etwas haben oder noch in einem Entdeckungsmodus sind, dabei zu helfen, ein mentales Modell zu bilden.
Menschen stehen dann vor einem Prompt und wissen schlicht und ergreifend nicht, was die Interaktion sein könnte. Zu wenige Hinweise, um ein mentales Modell zu bilden.
Jetzt kommen Chatbots und wir schauen mal, wie hier so die Thematik mit mentalem Modell abläuft:
Wir verstehen oftmals schnell, wie der Weg ist, wie wir mit einem Chatbot interagieren können, weil "ah ja, klar", Text eintippen, Antwort enthalten.
Aber unser mentales Modell tut sich schwer damit, was die Interaktion sein kann – außer wir wissen schon genau, was die Interaktion sein kann.
Um das noch mal abzugleichen, wie das damals aussah: https://www.theverge.com/2011/12/13/2612736/ios-history-iphone-ipad
PS: Weil oftmals Leute auf die Idee kommen, einen "iPhone-Moment" wiederholen zu wollen.
Die UX des iPhone war deswegen so gut, weil es schon bekannte Patterns kombiniert hat. Interaktion mit Bildschirmen war bereits etabliert. Interaktion mit Tasten auch.
Also hat man Tasten und Bildschirm zusammengeführt, das waren aber keine neuen Interaktionspatterns.
Die ersten iPhone UI waren auch hart voll mit Skeuomorphismus.
Analoge Gegenstände im Digitalen auch in den Interaktionspatterns nachbilden.
Das Tröstliche ist, dass das technologie-unabhängig ist, da sich neue Interaktionsformen oftmals nur sehr langsam etablieren.
Das Schlechte ist, dass es doch immer weder Produktteams versuchen werden und uns deswegen immer schlechte UX reindrücken werden, aber immer wieder scheitern werden.
Ende. 🧠
Die andere sehr traurige Geschichte im iPhone ist, dass das iPhone nur deswegen so gut funktioniert hat, weil ein Accessibility-Device auf diesem Weg in den Massenmarkt gefunden hat.
Fingerworks war eigentlich ein Gerät zur Simulation von Tasten, erfunden von einem Menschen ,der wegen RSI (Repetitive-Strain-Injury-Syndrom) keine Tasten mehr nutzen konnte, aber dennoch sehr gerne Klavier spielen wollte.
Ein Hilfsmittel für Menschen mit Einschränkungen eigentlich.
Hilfe, der Feinstaub fällt vom Himmel, na halt ist doch bloß Schnee
Digital Expert at a german health department, Stuttgart / Frankfurt Germany, writing about webstuff and sometimes her own personal things in life
GNU social JP is a social network, courtesy of GNU social JP管理人. It runs on GNU social, version 2.0.2-dev, available under the GNU Affero General Public License.
All GNU social JP content and data are available under the Creative Commons Attribution 3.0 license.