10 Jahre HTML5-Buch: Zeit für ein HTML5-Fazit

Veröffentlicht am 27. Mai 2020

HTML5. Webseiten innovativ und zukunftssicher

Durch groben Leichtsinn kam ich vor etwas mehr als 10 Jahren zu der Aufgabe, das erste deutschsprachige Buch zu HTML5 zu schreiben, dessen erste Auflage vor genau 10 Jahren erschien. Ein paar Exemplare der ersten Auflage lagern sogar noch im Schrank meiner Eltern, aber dort verbietet sich aufgrund von Corona zurzeit jedweder Besuch. Doch auch die mir vorliegende zweite Auflage von 2011 kann als Leitfaden durch HTML5 und vor allem die Erwartungen an HTML5 von damals mit denen von heute zu vergleichen. Hat HTML5 wie geplant die Welt erobert? Haben sich die im Buch beschriebenen Technologien durchgesetzt? Schauen wir uns doch mal an, wie sich die im Inhaltsverzeichnis geäußerten oder zumindest angedeuteten Versprechen mit Realität decken.

Das HTML von HTML5

Vernünftiges HTML hat sich derart durchgesetzt, dass kaum jemand mehr darüber spricht. Der eigentlich größte Verdienst von HTML5 war die Formalisierung des zuvor uneinheitlichen SGML-Dialekts, der sich durch Browser-Konkurrenzkampf gebildet hatte. Heutzutage sind sich (die wenigen) verbliebenen Browser-Engines über die Verarbeitung von HTML-Syntax vollkommen einig und es gibt zumindest hier keine mir bekannten Inkompatibilitäten mehr. Das ist eine große Leistung, für die sich aber niemand interessiert – HTML ist einfach Infrastruktur. Spannend ist aber, wie sehr Web Components mit HTML5 zu kämpfen haben. Custom Elements müssen so gestrickt sein, dass sie das Verhalten vorhandener HTML-Elemente und des HTML-Parsers erklären können, doch beides sind Schlangengruben voller Inkosistenzen. Diese haben sich ergeben, weil im Zuge der HTML5-Formalisierung zwischen allen inkompatiblen Browsern der kleinste gemeinsame Nenner gesucht wurde und dabei die Bedürfnisse von nutzerdefinierten Elementen keine Rolle spielte. Ob aus Web Components angesichts dieser und anderer Herausforderungen nochmal was wird?

Semantisches HTML5

Die semantischen Elemente scheinen sich im Alltags-HTML der meisten Frontendler festgesetzt zu haben und versehen die immer noch allgegenwärtigen Div-Suppen mit einer gewissen Würze. Insbesondere vor dem Hintergrund der eingebauten ARIA-Features ist das ein größerer Pluspunkt. Der Outline-Algorithmus hingegen (Gegenstand der letzten Folge von Working Draft) scheint genau so moribund wie HTML5-Microdata und alle andere Formen von Semantic-Web-Lüftschlössern. In einer Welt der Tech-Monopole finden semantische Informationen nur noch in Form des Frondienstes für den Monopol-Lord (vulgo SEO) eine ökologische Nische, sind aber weit von dem entfernt, was die diversen Vordenker (und HTML5-Buch-Autoren, die darüber viel zu viele Seiten geschrieben haben) des Semantic Web sich einst ausgemalt haben.

HTML5-Formulare

Formulare sind und bleiben ein kompliziertes Thema. An manchen Stellen finden HTML5-Neuerungen wie Date-Picker und Formular-Validierung Anwendung, doch die handgeschriebene Re-Implementierung solcher Standards ist noch sehr verbreitet. Das mag daran liegen, dass Formulare ein inhärent so ausufernd-facettenreiches Thema ist, dass kein Standard der Welt jeden Use Case bedienen kann. Und obwohl zumindest die Validierungs-API erweiterbar ist, ist sie das wohl nicht in ausreichendem Umfang. Ich würde von einem ganz klaren Teilerfolg sprechen, aus dem man die Lehre ziehen kann, dass das Extensible Web Manifesto schon den richtigeren Weg ausleuchtet, als ein Default-Datumspicker. Letzteres ist wohl eine Zu-High-Level-API, die sich nie als der Standard durchsetzen wird, denn was die Webentwickler wirklich brauchen, ist das Inputmode-Attribut, um damit eigene Formularelemente zu bauen.

Offline-Webapps

Während uns Local Storage bis zum heutigen Tag begleitet (und dank Cookie-Bannern und GDPR prominenter ist als je zuvor), müssen wir den Application Cache von HTML5 ist als kompletten Griff ins Klo betrachten. Zum Glück ist er bereits durch Progressive Web Apps zu 100% abgelöst und stellt kein Problem mehr dar. Die API des Application Cache ist/war extrem verwirrend und bei meinen HTML5-Workshops damals war nur die Drag&Drop-API von HTML5 noch schwerer zu vermitteln. Und da wir gerade beim Thema sind …

Drag & Drop

Dateien per Drag & Drop hochzuladen ist auf dem Desktop mittlerweile auch bei Web Apps gängige Praxis, was 2010 noch lange nicht der Fall war. Dieser Teil der API ist auch nicht besonders schlimm missraten, der für Drag-Operationen zwischen Webseiten sowie Webseiten und anderen Programmen umso mehr. Allerdings scheint das auch keinen Entwickler zu stören und Nutzer scheinen dieses Feature nicht zu vermissen. Ich denke, dass wir uns an dieser Stelle bei der Smartphone-Revolution bedanken dürfen. In erster Näherung sitzt kein Mensch mehr an Desktop-Computern und hantiert mit Mäusen herum, und die wenigen solchen Power-User sind offenbar damit zufrieden, Drag & Drop für ihren E-Mail-Anhang zu verwenden. Passt schon.

Video und Audio

Großes Trara um Flash-Killer und Video-Codecs, und hinterher hostet sowieso jeder seinen Content beim Plattform-Monopolisten du jour. Was kümmern die Details der Video-Player-Implementierung, wenn die tatsächliche Einbettung (sofern man sowas überhaupt noch macht) per Youtube-Iframe erfolgt? Das Web von heute ist wahrlich etwas ganz anderes als vor 10 Jahren und niemand hostet heutzutage mehr seine eigenen Videos. Podcasts werden noch individuell gehostet und per Audio-Element in Webseiten eingebunden, aber bis sich das auch erledigt hat, wird es nur eine Frage der Zeit sein.

Web Workers

Auch wenn einige wenige mit zunehmender Lautstärke für die Vorzüge von Web Workers agitieren, so haben sie sich nicht wirklich im Webentwicklungs-Alltag festgefressen. Ich schätze das liegt daran, dass der Tradeoff zwischen Einsatz und Ertrag nicht besonders attraktiv ist. Frontend-Entwickler müssen langsame, lang laufende Funktionen mühsam vom DOM und anderen Browser-APIs entkoppeln – und das setzt voraus, dass Frontend-Entwickler überhaupt mit solchen Funktionen befasst sind und nicht etwa ein wie auch immer geartetes Backend. Häufig scheint es das nicht zu geben.

Fazit und Ausblick

Was kann man über HTML5 10 Jahre später sagen und welche Lehren lassen sich ziehen? Ich würde es mal so zusammenfassen:

  • HTML ist wie geplant eine vernünftig definierte und implementierte Auszeichnungssprache geworden. Auch ohne die Konsolidierung am Browser-Markt hätten/haben wir heute eine Situation, in der jeder Browser jedes HTML exakt gleich verarbeitet.
  • Diverse Features wie Formulare und Offline-Support sind (zumindest in Teilen) an ihrer High-Level-Fehlkonzeption gescheitert. Low-Level-APIs sind das, was Webentwickler wollen, denn nur so können sie ihren Job machen und damit auch die Web-Plattform als ganzes relevant halten.
  • Semantik und Drag & Drop sind Opfer des Zeitgeists, der sich nicht mehr für Open Web interessiert und viel mehr sein Smartphone als seinen großen Desktop-Rechner nutzt.

Als die dem Ganzen zugrundeliegenden Trends würde ich zum einen Marktkonsolidierung (bei Browsern wie Plattformen) und auf der anderen Seite des Webentwicklers berechtigte Vorliebe für Low-Level-APIs ausmachen. Wenn wir mal annehmen, das sich daran nichts weiter ändert, würde ich mich auf folgende Vorhersagen für 2030 einlassen:

  • Web Assemby wird die Web-Welt auf dem Kopf stellen. Es ist schließlich die ultimative Low-Level-API, die das Web zu einer komplett technologieunabhängigen Content-Delivery-Plattform macht. Es fehlt vermutlich noch der eine oder andere Katalysator (eine CRUD-Webapp mit Rust zu schreiben erscheint mir nicht sonderlich sinnvoll), aber der wird sich schon noch einfinden. JavaScript wird noch als allgemeine Scriptsprache eingesetzt werden (ein bisschen wie Perl) und TypeScript wird einen Status wie CoffeeScript genießen.
  • Progressive Web Apps werden es schwer haben. Sie sind weniger Zu-High-Level als der Application Cache, aber sehr auf die Mobile-Plattform der Gegenwart fokussiert. Sollte sich die Plattform von ihrem heutigen Ist-Zustand wegbewegen, wird es für Webstandards schwer, sich dem anzupassen – das cross-kompilierte Web-Assemby-Produkt könnte einen Wettbewerbsvorteil haben. Außerdem mag es daran liegen, das ich seit Beginn der Corona-Pandemie keinen ICE mehr von innen erleben musste, aber könnte es nicht vielleicht doch möglich sein, das Land in endlicher Zeit so weit mit Mobilfunkmasten zuzupflastern, dass kaum jemand mehr Offline-Webapps braucht? Wäre doch ein denkbares Post-Corona-Konjunkturprogramm, nur nicht für PWA-Entwickler.
  • Unabhängiges Podcasting und damit das letzte Refugium von RSS-Feeds und Audio-Elementen ist dem Untergang durch Monopolisierung geweiht und wird in 10 Jahren keine Rolle mehr spielen. Bisher hat es noch kein Spotify o.Ä. geschafft, das Youtube für gesprochenes Audio zu werden, aber Risikokapitalgeber haben tiefe Taschen und scheinbar nichts Besseres vor.

Das mutet alles etwas apokalyptisch an, aber andererseits sind Vorhersagen nicht meine Stärke. Immerhin habe ich mal ein ganzes Buch über revolutionäre neue Web-Zukunftstechnologien geschrieben und es für sinnvoll erachtet, Seite um Seite über Microdata und Video-Codecs zu referieren. Vielleicht liege ich ja wieder komplett falsch! Wir lesen uns (spätestens) in 10 Jahren wieder und vergleichen.

Welche HTML-Elemente sind immer unsichtbar?

Veröffentlicht am 28. April 2020

Bei Warhol testen wir die Styles von Elementen direkt im Browser und Styles auslesen ist ein Performance-Albtraum sondergleichen. Ein Aufruf von getComputedStyle() löst Style-Neuberechnungen, möglicherweise gar Reflows aus und nicht bei jedem Element kommen wir mit einem einzigen getComputedStyle() aus – Pseudo-Elementen, :hover-States und vielen anderen Besonderheiten sei Dank. Warhol ist zwar dank allerlei Tricks und Optimierungen bei seinen Tests extrem flott unterwegs, aber noch schneller möchten wir natürlich trotzdem sein. Daher trieb mich zuletzt die Frage um, welche HTML-Elemente eigentlich immer und unter allen nur denkbaren Umständen unsichtbar bleiben. Könnten wir einem Element an seinem Tag und/oder seinen Attributen ansehen, dass es nichts rendern kann (und auch nicht durch z.B. Margins andere optische Auswirkungen haben kann), bräuchten wir seine Styles nicht abzufragen und hätten eine Menge Style-auslese-Operationen eingespart, womit ein großer Performance-Gewinn realisiert wäre – und je häufiger das Element, umso größer der Gewinn!

Sehr viele normalerweise unsichtbare Elemente sind lediglich per Browser-Standard-Styles auf display:none gesetzt. Elemente wie <style>, <script> sowie alle Elemente mit hidden-Attribut können ohne weiteres mittels display:block sichtbar gemacht werden, bei einem sichtbaren <title> ist zu beachten, dass auch der umgebende <head> sichtbar sein muss. Hier ist also kein Performance-Blumentopf zu gewinnen, denn wir können nicht einfach davon ausgehen, dass diese Elemente keine optischen Auswirkungen haben. Unwissenschaftlichen Twitter-Umfragen zufolge verwendet fast niemand sichtbaren <head>- oder <script>-Inhalt, aber fast niemand ist nun mal nicht niemand.

Elemente mit Inhalt, und seien es Scripts und Styles können also sichtbar werden. Wie ist es aber mit Elementen ohne Inhalt, wie z.B. <meta> oder <col>? Leider nicht wirklich anders! Zwar gibt es in diesen Elementen keinen Inhalt, der sichtbar gemacht werden könnte, aber mit einer Border werden auch leere Elemente sichtbar. Unter diese Definition von leer fällt auch das <template>-Element, dessen „Inhalt“ keine Auswirkungen auf das Rendering hat, für das sich aber neben Borders und Margins auch Pseudo-Elemente angeben lassen. Unsichtbar sieht definitiv anders aus.

Die nächste naheliegenden Kandidaten sind <br> und <wbr>. Die beiden Zeilenumbruch-Elemente widersetzen sich mit etwas mehr Vehemenz der Sichtbarmachung, haben aber eine Schwachstelle: die CSS-Eigenschaft content. Diese kennen wir vor allem aus der Arbeit mit den Pseudo-Elementen ::before und ::after, doch content kann noch mehr. Mit Text-Inhalt auf ein <br> angewendet verhilft die content-Eigenschaft in Chrome zumindest Margins zur Wirkung, in Firefox klappt das gleiche auch bei <wbr>. Damit haben die Elemente schon mal wahrnehmbare Auswirkungen, wenn sie selbst nicht sichtbar sind. Aber auch ihre Unsichtbarkeit lässt sich abschalten.

Text-Werte sind bei der Content-Eigenschaft nur für die Pseudo-Elemente ::before und ::after vorgesehen. Neben Texten akzeptiert die Eigenschaft aber auch url()-Werte und diese haben auch bei Nicht-Pseudo-Elementen einen Effekt: sie ersetzen den vorhandenen Inhalt durch etwas anderes und machen das Element quasi nachträglich zu einem Replaced Element. Replaced Elements sind Elemente, deren Inhalt nicht den Regeln von CSS unterliegt, da statt des Inhalts etwas anderes gerendert wird. In diese Kategorie fallen z.B. <video> und <img>, deren ganzer Zweck darin besteht, Platzhalter für Content aus externen Quellen (Videos und Bilder) zu spielen. So gesehen ist ein <span>-Element mit dem Text-Inhalt Foo, der per content: url(x.png) ersetzt wird, fast das gleiche wie ein <img alt="Foo" src="x.png">. Es versteht sich hoffentlich von selbst, dass solche Hacks unter keinen Umständen etwas in echten Web-Projekten zu suchen haben, denn sie widersprechen neben den Regeln von HTML-Semantik und Barrierefreiheit auch dem gesunden Entwicklerverstand. Ein Tool wie Warhol kann solche HTML/CSS-Fouls nicht ignorieren, aber jeder vernünftige Frontendler sollte das tun.

Unvernünftige Frontendler können zumindest in Chrome den (eigentlich nicht vorhandenen) Inhalt von zumindest <br>-Elementen per content ersetzen. Selbst Textumbrüche sind also bei entsprechendem CSS-Einsatz, der sie zu Replaced Elements macht, auch sichtbare Elemente.

Gibt es dann gar nichts, das wirklich per Definition unsichtbar ist? Doch, und zwar die folgenden Elemente:

  1. <audio>-Elemente ohne controls-Attribut §
  2. <input type="hidden"> §
  3. <noscript> wenn Scripting aktiviert ist §
  4. <form>-Elemente, die direkte Kinder von <table>, <thead>, <tbody>, <tfoot> oder <tr> sind (ohnehin kein gültiges HTML, aber technisch möglich) §
  5. Inhalte von Replaced Elements, d.h. <source> und <track> in <video> bzw. <audio>, Fallback-Inhalt in unterstützen <video>-, <audio>- und <canvas>-Elementen

Die ersten drei Punkte auf dieser Liste enthalten die einzigen Elemente, deren Browser-Standard-Styles die Deklaration display: none !important; enthalten (bzw. bei denen die Spezifikations-Prosa darauf schließen lässt) und nach den Regeln der Kaskade können diese Deklarationen durch nichts getoppt werden. Der letzte Punkt ist einerseits logisch (ersetzte Replaced Elements können nicht sichtbar sein), muss aber andererseits auch mit etwas Vorsicht genossen werden. Der Inhalt der genannten Elemente ist nur dann unsichtbar, wenn sie korrekt unterstützt werden, ansonsten dient der Inhalt als Fallback-Content für fossile Browser.

Außerdem erwähnenswert: das <picture>-Element ist kein Replaced Element, sondern dient nur als Steuerungs-Wrapper für das enthaltene <img>-Element. Entsprechend sind die <source>-Elemente in einem <picture> ohne größeren Aufwand sichtbar zu machen.

Wir halten fest: es gibt nur sehr wenige Elemente, bei denen Unsichtbarkeit sicher gegeben ist. Zu Beginn der Recherche hatte ich gehofft, Warhol könnte sich die Betrachtung von z.B. <br> grundsätzlich sparen, aber davon dürfen wir uns wohl verabschieden. Von den ewig unsichtbaren sind nur das <audio>-Element ohne controls und das <input type="hidden"> nicht an komplizierte Bedingungen geknüpft und von diesen beiden ist nur das letzte wirklich halbwegs häufig. Solange wir nur moderne Browser unterstützen mag es auch noch sinnvoll sein, den Inhalt von <audio>, <video>, <canvas> und <picture> zu ignorieren. Den großen Performance-Gewinn dürfte all das nicht einbringen, aber dann müssen wir uns den Gewinn eben anderswo holen.

JavaScript-Generators durch die Array-Linse betrachtet

Veröffentlicht am 30. März 2020

JavaScript-Arrays in wenigen Worten abschließend zu beschreiben ist fast unmöglich, denn sie sind so vielseitig! Je nach Einsatzszenario fungieren sie als Stack (Methoden push() und pop()), als Tuple (mit fester Länge und gemischtem Inhalt) oder als das, was in anderen Programmiersprachen als „Array“ oder „List“ bezeichnet wird. Außerdem implementieren sie das Iterationsprotokoll, sind also kompatibel zu for-of-Schleifen und vielen anderen nativen Sprachkonstrukten. Wenn wir nicht zu genau hinschauen und keine unangenehmen Fragen stellen, können wir uns vielleicht mit der Umschreibung „iterierbare Liste von Werten“ zufriedengeben.

Genau das Gleiche lässt sich über JavaScript-Generators sagen. Sie sind vergleichsweise neu, vergleichsweise selten und, genau wie Arrays, extrem vielseitig. Wenn wir nicht zu genau hinschauen und keine unangenehmen Fragen stellen, können wir uns auch für Generators mit der Umschreibung „iterierbare Liste von Werten“ zufriedengeben. Sobald wir uns auf diese Sichtweise einlassen, werden Generators zu einem schönen Werkzeug für den Alltag!

Generators sind Objekte, die Generator Functions entspringen, fast normalen function-Functions mit einem Sternchen dahinter. In Generator Functions ist das yield-Keyword verfügbar. Dieses fungiert ein wenig wie ein return-Statement und gibt den Wert auf seiner rechten Seite heraus. Damit lässt sich eine Sequenz bzw. eine Liste formulieren, die in der Benutzung einem Array nicht unähnlich ist:

// Generator Function
function * genFn () {
  yield 0;
  yield 1;
  yield 2;
}

// Generator
const numberGenerator = genFn();

// Generator wie ein Array verwenden
for (const number of numberGenerator) {
  console.log(number); // 0, 1, 2
}

Ein Generator Function ist im Prinzip ein Template für eine Sequenz bzw. Liste. Die Schritte der Sequenz sind die Ausdrücke auf der rechten Seite der yield-Statements, und die Liste ergibt sich, wenn die Schleife die Sequenz durchgeht und der Reihe nach 0, 1 und 2 generiert werden.

Das sieht auf den ersten Blick etwas exotisch aus, aber vergleichen wir das Ganze doch mal mit dem folgenden Code:

// Fast eine Generator Function
function genFn () {
  const values = [];
  values.push(0);
  values.push(1);
  values.push(2);
  return values;
}

// Quasi ein Generator
const numbers = genFn();

// Array wie einen Generator verwenden
for (const number of numbers) {
  console.log(number); // 0, 1, 2
}

Unter der JavaScript-Haube geht hier zwar etwas ganz anderes ab, als mit Generators, aber nicht vergessen: heute schauen wir nicht allzu genau hin und stellen keine unangenehmen Fragen. Wir erreichen mit beiden Codeschnipseln das gleiche Ziel einer Liste von Zahlen, wobei der Ansatz mit Generators einige Vorteile (oder zumindest interessante Tradeoffs) bietet.

Ein erster Vorteil ist, dass ein Generator immer eine Liste von Werten abbildet, zumindest bei unserer vereinfachten Betrachtungsweise. Das bedeutet, dass eine leere Liste besonders einfach zu bauen ist: wir machen einfach gar kein yield:

// Nur Werte liefern, wenn "someCondition" true ist

function createArray () {
  const values = [];
  if (someCondition) {
    values.push(0);
    values.push(1);
    values.push(2);
  }
  return values;
}

function * createGenerator () {
  if (someCondition) {
    yield 0;
    yield 1;
    yield 2;
  }
}

Die Vereinfachung ist offensichtlich und selbsterklärend: wenn ein Generator implizit immer eine Liste liefert, brauchen wir, anders als bei der Array-Funktion, keine zu erstellen und zurückzugeben. Ein weiterer Bonus liegt darin, dass es, ausgehend von der Beschreibung des Problems im Kommentar, nur einen Weg gibt, createGenerator() zu schreiben: wenn Bedingung, dann yield Werte. Über die Formulierung von createArray() könnte man hingegen streiten. Vielleicht wäre ein Early Return besser? Oder undefined statt eines leeren Arrays? Bei Generators stellt sich diese Frage praktischerweise gar nicht.

Sollte ein Early Return gewünscht sein, geht der Vorteil des Generators dahin:

// Wenn "someCondition" true ist, Early Return durchführen

function createArray () {
  if (someCondition) {
    return [ 42 ]; // Ausgabe + Ende der Funktion
  }
  const values = [];
  values.push(0);
  values.push(1);
  values.push(2);
  return values;
}

function * createGenerator () {
  if (someCondition) {
    yield 42; // Ausgabe
    return;   // Ende der Funktion
  }
  yield 0;
  yield 1;
  yield 2;
}

Einerseits ist es bei createArray() nötig, die zurückgegebene 42 händisch in ein Array zu verpacken, was beim Generator entfällt. Dieser benötigt dafür ein yield und ein return-Statement; return 42 ist zwar im Prinzip erlaubt, liefert aber die 42 nicht in der erzeugten Liste, sondern irgendwo im Nirvana ab.

Wiederum für Generators spricht, dass es neben dem normalen yield noch eine Art Super-Yield gibt, das den Inhalt anderer Generators herausgibt:

function * createStrings () {
  yield "A";
  yield "B";
  yield "C";
}

function * createValues () {
  yield 0;
  yield 1;
  yield 2;
  yield* createStrings();
}

for (const value of createValues()) {
  console.log(value)
}
// > 0, 1, 2, "A", "B", "C"

Das yield* in der Zeile yield* createStrings() gibt anders als das normale yield nicht einfach den Wert auf seiner rechten Seite (den Generator) aus, sondern das, was der Generator erzeugt! Und das klappt auch mit anderen iterierbaren Objekten, nicht nur mit Generatoren:

function * createValues () {
  yield 0;
  yield 1;
  yield 2;
  yield* [ "A", "B", "C" ]; // klappt auch mit Arrays!
}

for (const value of createValues()) {
  console.log(value)
}
// > 0, 1, 2, "A", "B", "C"

yield* fungiert also eine Art implizites flatMap() für alles mögliche an listen-artigen Datenstrukturen, nicht nur für Generators. Das ist ein ziemlich mächtiges Feature! Die Bedingung hierfür ist allerdings, dass yield* auch verwendet werden kann, was ausschließlich direkt in Generator Functions möglich ist. Callbacks sind also ein syntaktisches Problem:

function * createValues () {
  yield 0;
  setTimeout( () => {
    yield 1; // > SyntaxError
  }, 1000);
  yield 2;
}

Mit Arrays würde der Code zwar nicht mit einem Error abbrechen, sondern „funktionieren“ …

function createValues () {
  const values = [];
  values.push(0);
  setTimeout( () => {
    values.push(1);
  }, 1000);
  values.push(2);
  return values;
}

…aber trotzdem ein großes Problem darstellen! Immerhin wird hier ein Array aus der Funktion ausgegeben, in das nach seiner Ausgabe noch zusätzliche Werte hinterlegt werden – ein sicheres Rezept für Bugs und Verwirrung. An sich ist aber das Konzept einer Liste, in der sich erst nach und nach Werte einfinden, durchaus sinnvoll und wird z.B. durch die Observables in RxJS umgesetzt. Mit Arrays lässt sich dieses Konzept, wie wir gesehen haben, nicht wirklich abbilden und ein Timeout-Callback in einem Generator ist, wie wir ebenfalls gesehen haben, syntaktisch nicht mit yield kombinierbar. Das bedeutet aber nicht, dass Generators und setTimeout() nicht wunderbar zusammenpassen würden – der Timeout darf sich nur nicht im Generator befinden, sondern muss nach außen verfrachtet werden.

Wir können Generators unter gewissen Bedingungen mit Arrays vergleichen, aber es gibt einen wichtigen Unterschied: Generators sind lazy und liefern nur dann Werte, wenn Werte angefordert werden. Dies geschieht mit der Generator-Methode next():

function * createGenerator () {
  yield 0; // landet in a
  yield 1; // landet in b
  yield 2; // wird nie angefordert
}

const generator = createGenerator();
const a = generator.next(); // { value: 0, done: false }
const b = generator.next(); // { value: 1, done: false }

Jeder Aufruf von next() liefert ein Objekt, in dem das Feld value den Wert rechts des letzten yield-Statements enthält und in dem done nur true ist, wenn der Generator abgearbeitet wurde bzw. ein return-Statement erreicht wurde. In obigen Beispiel finden nur zwei Aufrufe von next() statt, was bedeutet, dass das yield 2 in der Generator Function nie erreicht wird und nie eine 2 in die Welt gesetzt wird. Bei einer Funktion, die ein Array liefert, sähe das anders aus:

function createArray () {
  const values = [];
  values.push(0); // landet in a
  values.push(1); // landet in b
  values.push(2); // braucht niemand, ist trotzdem im Array
  return values;
}

const list = createArray();
const a = list[0]; // 0
const b = list[1]; // 1

Auch wenn der dritte Wert nie verwendet wird, so landet er doch im Array, unmittelbar beim Aufruf der Funktion. Es ist erwähnenswert, dass Arrays zwar ganz anders funktionieren als Generators, aber auch eine Generators entsprechende API anbieten:

const gen = function * () {
  yield 23;
  yield 42;
}();

gen.next(); // > { value: 23, done: false }
gen.next(); // > { value: 42, done: false }

const arr = [ 23, 42 ];

const arrIter = arr[Symbol.iterator]();
arrIter.next(); // > { value: 23, done: false }
arrIter.next(); // > { value: 42, done: false }

Im speziellen Feld Symbol.iterator verstecken Arrays eine Funktion, die einen Iterator für das betroffene Array bereitstellt. Dieser Iterator unterstützt ebenso wie ein Generator die next()-Methode, weswegen for-of-Schleifen beide Objekt-Typen gleich unterstützen. Der Unterschied bleibt aber bestehen: während der Generator Werte erst generiert, sind sie beim Array von Anfang an vorhanden und binden entsprechend Ressourcen.

Wir halten fest: sowohl Arrays als auch Generators bilden Listen von Werten ab und beide unterstützen das Iterator-Protokoll mit der next()-Methode. Dank des Iterator-Protokolls können Arrays wie Generators von for-of-Schleifen konsumiert werden, von Array.from() in (neue) Arrays überführt werden oder manuell via next() iteriert werden. Der große Unterschied ist zwischen Arrays und Generator ist, dass letztere lazy sind und daher immer nur den Code bis zum nächsten yield ausführen. Der Unterschied zwischen for-of bzw. Array.from() und der next()-Methode ist, dass letztere (da sie ja nur eine Funktion ist) in Callbacks gesteckt und damit asynchron verarbeitet werden kann. Daraus folgt: setTimeout() und Generators können sehr wohl zusammen verwendet werden, der Timeout muss nur außerhalb der Funktion stattfinden:

function * createGenerator () {
  yield 0;
  yield 1;
  yield 2;
}

const generator = createGenerator();

setTimeout( function consumeValue () {
  const next = generator.next();
  if (!next.done) {
    console.log(next.value);
    setTimeout(consumeValue, 1000);
  }
}, 1000);

Dieser Aufruf schreibt nicht nur mit einer Sekunde Abstand Abstand 0, 1 und 2 in die Konsole, sondern erzeugt die Werte auch jeweils erst nach einer Sekunde. Dadurch haben wir die eigentliche Erzeugung der Werte vom Timing für die Erzeugung der Werte entkoppelt und Interleaving etabliert. Zwischen der Erzeugung der einzelnen Werte erhält die JS-Engine dank setTimeout() eine Atempause, um andere Aufgaben abzuwickeln, Frames zu rendern und sonstige dringende Angelegenheiten zu erledigen. Da wir unsere Werte in einem Generator erzeugen, brauchen wir die Generator Function selbst hierfür nicht zu verbiegen, sondern überlassem die Timing-Frage denen, die den Generator nutzen. Jeder Konsument eines Generators kann selbst über das genehme Timing entscheiden:

function * createGenerator () {
  yield 0;
  yield 1;
  yield 2;
}

// Zeitgesteuert?
const gen1 = createGenerator();
setTimeout( function consumeValue () {
  const next = gen1.next();
  if (!next.done) {
    console.log(next.value);
    setTimeout(consumeValue, 1000);
  }
}, 1000); // 0, 1 und 2 nach je einer Sekunde


// Abhängig von der Framerate?
const gen2 = createGenerator();
requestAnimationFrame( function consumeValue () {
  const next = gen1.next();
  if (!next.done) {
    console.log(next.value);
    requestAnimationFrame(consumeValue);
  }
}); // 0, 1 und 2 nach je einem Frame

// Alles auf einmal, ohne Pausen?
for (const value of createGenerator()) {
  console.log(value);
}

// Oder noch einfacher
const allValues = Array.from(createGenerator());

Es gibt mehrere Gründe dafür, Timing-Fragen von der eigentlichen Logik zu entkoppeln. Zum einen ist es oft wünschenswert, lang laufende und komplexe JS-Funktionen durch Timeout-Atempausen für Browser besser verdaulich zu machen. Wer (aus welchen Gründen auch immer) 1000 Reflows zu triggern gedenkt, ist gut damit beraten, diese nicht auf einmal durchzuführen, sondern zeitgesteuert zu batchen. Somit hat der Browser zwischen den Rechenaufgaben Zeit die Webseite zu rendern und die Framerate bleibt im grünen Bereich. Allerdings ist es bei ohnehin schon komplizierten Funktionen aus Entwicklersicht wünschenswert, wenn diese Funktionen nicht auch noch durch Timeout-Callbacks weiter verkompliziert würden. Generator Functions sind hier die beste Lösung: einfach zunächst die (Generator-) Funktion schreiben, als gäbe es die Timeout-Überlegungen gar nicht und hinterher ein setTimeout() anflanschen – so bleibt sowohl die Erzeugung der Werte als auch das Timing der Erzeugung übersichtlich und beherrschbar, bei gleichzeitig flotter Framerate.

Aber brauchen wir wirklich immer eine flotte Framerate? Für einen Unit Test ist das eher unwichtig, denn hier kommt es nur auf die Ergebnisse an. Zum Glück ist es den Konsumenten von Generators selbst überlassen, wie sie einen Generator zu konsumieren gedenken. Für einen Test könnte das synchron erfolgen, für Production mit framerate-schonenden Timeout-Päuschen:

function * createGenerator () {
  yield 0;
  yield 1;
  yield 2;
}

// Für Production: mit Timeout-Interleaving und Callbacks
consume(createGenerator(), (values) => {
  // values = 0, 1, 2
});


// Für den Test: alles auf einmal bitte!
expect(Array.from(createGenerator())).toBe([ 0, 1, 2 ]);

Ob lang laufende und komplexe JS-Funktionen wirklich Timeout-Atempausen brauchen, kommt oft mehr auf den Kontext des Aufrufs an als auf die Funktion selbst.

Ein drittes schönes Feature von Generators ist der eingebaute Abbruch-Mechanismus. Normale JavaScript-Funktionen laufen nach ihrem Aufruf bis zum Ende durch, falls nicht Exceptions dazwischenfunken. Ein Abbrechen einer laufenden Operation von Außen gibt es eigentlich gar nicht … abgesehen von Generator Functions! Die Operationen in einem Generator finden nur statt, solange Werte angefordert werden. Wird nichts mehr angefordert, passiert nichts mehr; die Funktion ist effektiv gestoppt.

const createGenerator = function * () {
  let i = 0;
  while (true) {
    yield i++;
  }
};

let stop = false;

const gen = createGenerator();
setTimeout( function consumeValue () {
  const next = gen.next();
  if (!stop) {
    console.log(next.value);
    setTimeout(consumeValue, 1000);
  }
}, 1000); // jede Sekunde eine Zahl bis "stop" true ist

stopButton.addEventListener("click", () =>{
  stop = true;
}, { once: true });

Durch das hin- und herschalten zwischen verschiedenen Generators lassen sich auch Konzepte wie Restarts recht bequem umsetzen.

Ich schraube gerade an der Tester-Library von Warhol, die die Aufgabe hat, Designfehler auf Websites zu finden. Diese Library wird in unserer Browser-Extension verwendet, aber auch in unseren automatisierten Services, die mit ferngesteuerten Browsern automatisch ganze Domains nach Fehlern abgrasen. Dank der Vielfalt der Einsatzgebiete findet sich die Library mit zahlreichen konkurrierenden Ansprüchen konfrontiert:

  1. Die Tests müssen funktionieren und weder falsch positive noch falsch negative Ergebnisse sind akzeptabel. Also haben wir hunderte von automatisierten Tests und es werden stetig mehr. Diese müssen so schnell laufen wie möglich, denn Entwickler-Zeit ist kostbar.
  2. Innerhalb der Browser-Extension müssen die Tests vor den Augen eines ungeduldigen Menschen durchgeführt werden. „Dank“ moderner Webentwicklungs-Praktiken wir es hierbei oft mit absurd großen DOM-Bäumen zu tun, die rekursiv nach Fehlern abgegrast werden müssen. Ein Fortschrittsbaken könnte die wahrgenommene Performance stark verbessern und ein Stopp-Button, den die Nutzer nach den ersten 9000 gefundenen Fehlern drücken können, trägt auch zum Erhalt der Laune bei.
  3. Die gleichen Tests in automatisierten Services brauchen keine ungeduldigen Nutzer zu bedenken, sondern müssen einfach nur so schnell sein wie möglich. Jedes bisschen Cloud-Zeit kostet schließlich!
  4. Die Tester-Library ist ein ausgesprochen kompliziertes Stück TypeScript-Hexerei und darf nicht unübersichtlicher werden als absolut nötig.

Ursprünglich war die Tester-Library ungefähr wie folgt aufgebaut:

// Alte Vesion (extrem vereinfachte Darstellung)
const test = (element: Element): TestResult[] => {
  return [
    testElement(element),
    ...element.children.map( (child) => test(child) ),
  ];
};

Der ganze DOM-Tree wurde durchgetestet und am Ende gibt es ein Array mit Ergebnissen. Es gab kein Interleaving, keine Abbruch-Möglichkeit und in der Realität stellte sich das Handling der Ergebnis-Arrays oft weniger einfach dar wie hier gezeigt. Oft gibt es Early Returns, im Voraus bekannte Ergebnisse und viele weitere Komplikationen. Mit Warhols zunehmenden Fähigkeiten und den immer komplexeren Enterprise-Webseiten, auf denen Warhol meist zum Einsatz kommt, wurde die Performance-Frage akut. Und was haben wir getan?

// Neue Version (extrem vereinfachte Darstellung)
const test = (element: Element): Generator<TestResult, void, void> => {
  yield testElement(element);
  for (const child of element.children) {
    yield * test(child);
  }
};

Wir haben eigentlich fast gar nichts getan! Die array-produzierenden Funktionen mussten zu Generator Functions umgemodelt werden (was bei 90% der Funktionen komplett ohne Nachdenken ging) und schon sind alle Anforderungen bedient:

  1. Automatische Tests konsumieren die Generators synchron und sind damit so schnell wie eh und je.
  2. In der Browser-Extension macht Interleaving mit requestAnimationFrame() der Rendern einer Lade-Animation möglich und ein Abbruch-Button war trivial zu implementieren.
  3. In der Cloud verzichten wir auf Interleaving und blockieren einfach mit den Tests das UI komplett, denn es gibt ja keinen Menschen, der sich daran stört.
  4. Der Code für die Tester-Library ist praktisch gleich geblieben, Arrays wurde fast überall 1:1 mit Generators ersetzt.

Generators in JavaScript sind sehr seltsame, sehr vielseitige Objekte. Arrays und normale JS-Objekte sind auch sehr vielseitig, aber so konkret, dass man als Entwickler recht schnell etwas damit anzufangen weiß. Die Vielseitigkeit von Generators ist anderer Natur: sie sind so vielseitig, weil sie unglaublich allgemein sind, aber das macht auch schwer, sie überhaupt als etwas zu erkennen, das eine Lösung für ein konkretes Problem sein kann. In solchen Fällen ist es wichtig, Dinge durch bestimmte Linsen zu betrachten – in meinem Fall mit dem Warhol-Tester war es die Listen-Linse, aber durch andere Linsen sind Generators genau das richtige Mittel um Message Passing oder Async/Await zu implementieren. Für das initiale Verständnis ist es dabei immer gut, nicht zu genau hinzuschauen, keine unangenehmen Fragen zu stellen und sich nicht zu sehr im Abstrakten zu verlieren.

Fragen zu HTML5 und Co beantwortet 26 - Globale IDs, Offline-Modus bei PWA, fortgeschrittenes TypeScript, Methoden-Syntax

Veröffentlicht am 3. Dezember 2019

Alle Jahre wieder sammeln sich in meiner Inbox genug Fragen zu Webtechnologien an, um einen Blogpost zu rechtfertigen. Dass es dieses Mal fast ausschließlich Fragen zu JavaScript und TypeScript sind, muss nicht sein – wenn ihr mir zu anderen Themen (oder eben diesen Themen) Fragen mailt oder mich auf Twitter anquatscht, werde ich sie beantworten und vielleicht eines Tages auch in einem Post wie diesem veröffentlichen!

Jens fragt: Bitte was? HTML-IDs legen globale JavaScript-Variablen an?!

Wenn ich einem HTML-Element eine ID gebe, kann ich das Element ohne document.getElementById() ansprechen? Einfach so, als globale Variable? Ist das Teil des Standards?

Ja, das ist Teil des HTML/DOM-Standards! Es handelt sich um den sogenannten named access on the Window object, der im Übrigen nicht nur mit IDs funktioniert. Dezent vereinfacht können als globale Variable verwendet werden:

  1. iframe-, embed-, form-, frameset-, img- und object-Elemente mit einem name-Attribut, dessen Wert als Variablenname fungiert
  2. Alle sonstigen Elemente mit einem id-Attribut, dessen Wert als Variablenname fungiert

Gibt es mehrere Kandidaten für einen Variablennamen (z.B. ein Iframe mit name="foo" und ein Div mit id="foo"), gilt folgende Rangfolge:

  1. Ist einer der Kandidaten ein Iframe mit passendem name, belegt es den Variablennamen; bei mehreren Iframe-Kandidaten belegt das erste Element im DOM den Namen
  2. Gibt es keinen passenden Iframe, kommen die Kandidaten aus Kategorie embed/form/frameset/img/object zum Zuge, wobei auch hier gilt, dass bei mehreren Kandidaten mit passendem name-Wert der Erste Kandidat im DOM verwendet wird
  3. Zuletzt kommen Kandidaten mit id-Attribut (bzw. der erste solche Kandidat im DOM) an Reihe.

Dass in einer Welt, die Funktionen wie document.querySelector() bietet, niemand dieses ausgesprochen fragwürdige „Feature“ verwenden sollte, versteht sich von selbst. Was macht es dann im HTML-Standard? Meine historischen Ausgrabungen legen nahe, dass es sich um ein altes Feature aus dem Internet Explorer handelt. Anderer Browser mussten, um alte IE-only-Seiten zu unterstützen, das Feature unter erheblichem Zähneknirschen auch implementieren und zack – fertig ist der Webstandard.

Es ist wichtig anzumerken, dass dieses „Feature“ keine Gefahr für andere globale Variablen darstellt. Ein window.foo = 42 wird nicht durch ein Iframe mit name="foo" überschrieben und dem eingebauten window.navigator droht keine Gefahr durch <div id="navigator">. Es handelt sich eher um eine Kuriosität als ein Problem.

Boris und Reinhard fragen: Wie einen Offline-Modus für eine PWA bauen?

Unsere Anwendung soll als Progressive Web App offline funktionieren. Das Laden der App funktioniert dank eines Service Worker auch schon problemlos. Aber wie können wir herausfinden ob der Nutzer on- oder offline ist, um zu entscheiden, ob Daten lokal oder auf dem Server gespeichert werden sollten?

Ob ein Nutzer online oder offline ist, kann man gar nicht herausfinden bzw. die Begriffe „online“ und „offline“ sind hier nicht besonders hilfreich. Landläufig versteht man unter „online“ eine Verbindung zum Internet, aber als Nutzer einer App interessiert mich das Internet™ an sich nicht; was ich eigentlich möchte, ist durch das Internet eine Verbindung zu einem bestimmten Endpunkt aufbauen und mit diesem Endpunkt einen spezifischen Satz Daten austauschen. Nicht nur braucht also die PWA eine Internetverbindung, sondern auch der Ziel-Server muss funktionsfähig und verbunden sein. Und zu allem Überfluss muss die Verbindung auch dergestalt sein, dass der Datenaustausch auch stattfinden kann, darf also z.B. nicht zu langsam sein.

Im Angesicht eines Web-Requests lautet die eigentliche Frage also nicht „bin ich online?“, sondern vielmehr „klappt dieser Request zu diesem Zeitpunkt?“. Und diese Frage lässt sich nur beantworten, indem man versucht, den fraglichen Request (und nicht etwa einen Ping-Request) sofort (und nicht etwa nach einem Ping) durchzuführen.

Ich würde für meine PWA ein Offline-First-Datenspeichern bauen. Wann immer der Nutzer in der App Daten abzuspeichern versucht, würde ich diese zuerst im lokalen Speicher ablegen und danach einfach versuchen, sie zum Server zu senden. Wenn das klappt, können die lokalen Daten bei Bedarf gelöscht werden. Und wenn nicht, dann probiert man es später einfach nochmal.

Mathias fragt: Wie kann man fortgeschrittenes TypeScript verständlich halten?

Kennst du Strategien, um TypeScript möglichst lesbar und verständlich zu halten, wenn man fortgeschrittene Features wie Mapped Types und Generics verwendet?

Es stimmt, dass fortgeschrittene TypeScript-Features für Uneingeweihte ziemlich kryptisch daherkommen können und dass unsachgemäßer Eingriff viel kaputt machen kann … aber das gilt eigentlich für alle möglichen fortgeschrittenen Features in allen möglichen Programmiersprachen. Und dass fortgeschrittene Features für nichtfortgeschrittene Nutzer ein Problem darstellen, ist etwas, um das wir grundsätzlich nicht herumkommen. Entsprechend denke ich, dass sich hier „nur“ die üblichen Software-Entwicklungs-Maßnahmen für den Umgang mit Komplexität ergreifen lassen:

  1. YAGNI: ich versenke gelegentlich Zeit in die ausgefeilt-generische Typ-Formulierung von Dingen, die am Ende in der Codebase in genau einer Form zum Einsatz kommen. Das ist dumm und ich sollte das nicht tun. Und auch sonst niemand. Fortgeschrittene Features sind weniger häufig wirklich nötig, als man glaubt.
  2. Automatisierung: die Typinferenz vom TypeScript hilft sehr beim Einsatz von Generics. Intelligent ausgelegte Funktionen machen nicht nur ihren Job, sondern sind auch benutzerfreundlich und bei TypeScript ist hierbei die Typinferenz von Generics als ein zusätzliches Kriterium neben Funktionalität und Lesbarkeit zu berücksichtigen. Wenn das mal nicht klappt, weil die Typinferenz eine bestimmte Konstruktion einfach nicht versteht, hilft vielleicht Abstraktion weiter: vor einen mit Generics gespickten Funktionsaufruf könnte man 2-3 nicht-generische Fassaden stellen, die für alle tatsächlichen Use Cases ausreichen (siehe YAGNI).
  3. Abstraktion: eine gute Typ-Transformation ist wie eine gute Funktion, also generisch, gut getestet und dem UNIX-Prinzip folgend. Und wie eine gute Funktion muss eine gute Typ-Transformation, wenn einmal geschrieben, auch von jenen verwendet werden, die nicht in der Lage wären, die Funktion/Transformation zu schreiben. Sie können als Black Boxes einfach benutzt werden und stören im Arbeitsalltag nicht, vor allem nicht, wenn sie gut dokumentiert in einem eigenen Modul wohnen. Stichwort Modul …
  4. Modularisierung: es lohnt sich, eine Library von TypeScript-Transformationen aufzubauen, die auch Nichtnerds einfach benutzen können – quasi ein Lo-Dash für Typen. Mit type-zoo und typelevel-ts gibt es solche Libraries von Dritten, aber es spricht nichts dagegen, auch einen eigenen Typ-Werkzeugkoffer zusammenzustellen und ihn versioniert und dokumentiert griffbereit, aber aus dem Weg zu halten.

Meine persönliche TypeScript-Philosophie ist, dass ich fortgeschrittene Features nur dann verwende, wenn sie mir wirklich viel Arbeit ersparen oder signifikante Sicherheitszuwächse bieten. Und das ist nur gegeben, wenn die entsprechenden Codeschnipsel nicht im Weg herumstehen und dabei die Typinferenz aufmotzen. Abgefahrenes TypeScript sollte man nur schreiben, wenn man als direkte Folge weniger abgefahrenes (oder mühsames) TypeScript schreiben kann.

Daniel fragt: ist die Methoden-Syntax für Objekt-Literale gut oder böse?

Ich habe deinen Artikel gelesen, in dem es darüber ging, dass man function-Funktionen nicht nutzen sollten und finde ihn super! Aber wie sieht es bei Funktionen in Objekt-Literalen aus? Arrow Functions, Methoden-Syntax oder doch function-Keyword?

Für Unterbringung von Funktionen im Objekt-Literal gibt es drei Möglichkeiten:

const obj = {
  foo () { return 42; },
  bar: () => { return 42; },
  baz: function () { return 42; },
}

Von diesen drei Kandidaten würde ich die Arrow-Function-Variante bar zuallererst verwerfen. Funktionen auf Objekten sollten im Normalfall schon als Methoden nutzbar sein und das klappt nicht mit dem lexikalischen this der Arrow Functions. Die verbleibenden Kandidaten foo () {} und baz: function () {} führen, wie der Babel-Output zeigt, zum gleichen Ergebnis, beide sind in letztendlich normale function-Funktionen (und müssen das auch sein).

Und was nimmt man nun? Ich persönlich greife zur Methoden-Syntax foo () {} weil sie einfach kürzer als das function-Keyword und in vielen Fällen weniger falsch als die Arrow-Function-Variante ist. Die Methoden-Syntax erlaubt außerdem die vollumfängliche Verbannung des function-Keyword aus meinem Code, was im Sinne der Code-Konsistenz vielleicht noch das stärkste Argument ist.

Weitere Fragen?

Habt ihr auch dringende Fragen zu Frontend-Technologien? Nur her damit! Alle Fragen in diesem Post wurden mir per E-Mail oder Twitter gestellt und ihr könnt das genau so machen! Einfach über einen der genannten Kanäle anschreiben oder gleich das komplette Erklärbären-Paket kommen lassen.