Was jeder Unternehmer Wissen und Kontrollieren sollten!

1. Server-Standort | 2. Google PageSpeed | 3. SEObility | 4. Bounce-Rate

1. Server & Standort

So schnell und so nah wie möglich beim Kunden! PageSpeed100.expert empfiehlt einen LiteSpeed-Webserver.

Wertvolle Zeit geht verloren, wenn Echt-Zeit Daten um den halben Erdball geschickt werden. Branchenexperten empfehlen eine Ladezeit bis max. 1,5 Sekunden für eine optimale Performance. Jede Verzögerung kann die Benutzererfahrung negativ beeinflussen und potenziell zu Kaufabbrüchen und damit zu Umsatzverlusten führen. Die Bounce-Rate gibt Aufschluss.

– Regionales Angebot = Provider vor Ort
– Überregionales Angebot (zentraler Standort) = Frankfurt am Main, Düsseldorf, Hamburg, Berlin, München?
– Europa/ Weltweit = AWS | Cloudflare | Quick-Cloud

Die Bewertungen des Anbieters heranziehen!
Es nutzt die Beste Server-Architektur nichts, wenn der Support des Anbieters, “unterirdisch” ist, sprich das Trümmerlottchen Party macht – keiner Erreichbar ist.

Kleines FAQ-Perfekte Webseite

Informatives und nützliches …

Das Fundament

Die tatsächliche Performance ist immer eine Kombination aus der Plattform (wo der Server läuft) und dem Webserver (die Software, die Anfragen beantwortet). Ein High-End-Server auf schwacher Hardware wird langsam sein.

Kategorie 1: Spitzenleistung (High-Performance & Skalierbarkeit)
Diese Kategorie kombiniert die schnellste Software mit den leistungsfähigsten und skalierbarsten Infrastrukturen.
1. AWS (Amazon Web Services) / Google Cloud / Azure

Art: Führende Cloud-Infrastruktur-Plattformen. Man mietet hier keine fertigen Webserver, sondern Rechenleistung (z.B. AWS EC2 Instanzen), Datenbanken (RDS) und weitere Dienste.
Stärken: Nahezu unbegrenzte Skalierbarkeit. Die Performance ist extrem hoch, da man die Ressourcen (CPU, RAM) exakt an den Bedarf anpassen kann. Dienste wie der AWS Elastic Load Balancer (ELB) verteilen den Traffic optimal. Globale Präsenz sorgt für niedrige Latenzen. Sie können jeden der unten genannten Webserver (LiteSpeed, Nginx etc.) auf diesen Plattformen betreiben.
Leistung: So hoch, wie man bereit ist zu zahlen. Das absolute Maximum dessen, was technisch möglich ist.
Einsatzgebiet: Unternehmensanwendungen, Startups mit schnellem Wachstum, High-Traffic-Websites, die keine Ausfälle tolerieren.
Nachteil: Komplexität und Kosten. Erfordert technisches Know-how zur Einrichtung und Wartung (DevOps).

2. LiteSpeed Enterprise | Art: Webserver-Software.
Stärken: Unangefochtener Spitzenreiter in Benchmarks für dynamische Inhalte wie WordPress. Das serverseitige LSCache-Modul ist der entscheidende Vorteil. Als direkter Ersatz für Apache konzipiert, ist die Migration einfach.
Leistung: Exzellent. Oft die schnellste “Out-of-the-Box”-Lösung für WordPress, wenn sie bei einem spezialisierten Hoster läuft.
Einsatzgebiet: High-Traffic-WordPress-Seiten, WooCommerce-Shops.
Nachteil: Kommerzielle Lizenz erforderlich.

3. OpenLiteSpeed | Art: Webserver-Software.
Stärken: Die kostenlose Open-Source-Version von LiteSpeed. Bietet die gleiche Kerntechnologie und ebenfalls Zugriff auf das extrem schnelle LSCache.
Leistung: Nahezu identisch mit der Enterprise-Version für die meisten Anwendungsfälle.
Einsatzgebiet: Entwickler und Unternehmen, die Top-Performance ohne Lizenzkosten wollen.
Nachteil: Benötigt Neustart zur Anwendung von .htaccess-Änderungen.

4. Nginx (mit optimierter Konfiguration) | Art: Webserver-Software.
Stärken: Meister der Effizienz bei statischen Dateien und hohem Traffic. Geringer Speicherverbrauch. Seine Stärke liegt im FastCGI Caching für WordPress.
Leistung: Auf Augenhöhe mit LiteSpeed, wenn es optimal konfiguriert ist.
Einsatzgebiet: Große Webseiten, Medienportale und als Reverse-Proxy.
Nachteil: Komplexere Konfiguration, da .htaccess nicht unterstützt wird.
Kategorie 2: Solide Leistung (Standard & Modern)

5. Caddy | Art: Webserver-Software.
Stärken: Extrem modern und benutzerfreundlich, mit automatischer HTTPS-Einrichtung als Standard. Sehr performant.
Leistung: Oft auf Augenhöhe mit Nginx.
Einsatzgebiet: Entwickler, moderne Web-Anwendungen, die eine einfache und sichere Konfiguration schätzen.
Nachteil: Kleinere Community und weniger verbreitet als Nginx oder Apache.
Kategorie 3: Standardleistung (Grundlage, die optimiert werden muss)

6. Apache (mit Event MPM oder Worker MPM + PHP-FPM) | Art: Webserver-Software.
Stärken: Das “Schweizer Taschenmesser” unter den Webservern. Extrem flexibel und unglaublich gut dokumentiert. Die .htaccess-Unterstützung ist der Hauptgrund für seine weite Verbreitung im Shared Hosting.
Leistung: In seiner Standardkonfiguration (prefork MPM) oft der langsamste in dieser Liste. Mit modernen Konfigurationen (wie event MPM und PHP-FPM) kann er jedoch eine sehr gute Performance erreichen.
Einsatzgebiet: Shared Hosting, ältere Anwendungen, Umgebungen, in denen maximale Flexibilität benötigt wird.
Nachteil: Die Standardkonfiguration ist nicht für hohe Performance ausgelegt und verbraucht viel Speicher.
Kategorie 4: Performance-Booster (Dienste)

7. Cloudflare / andere CDNs | Art: Vorgeschalteter Dienst (Reverse Proxy & CDN).
Stärken: Dies ist kein Webserver, aber ein entscheidender Performance-Faktor. Cloudflare fängt Anfragen ab, liefert gecachte Inhalte von einem Server in der Nähe des Besuchers aus und schützt vor Angriffen.
Leistung: Verbessert die wahrgenommene Ladegeschwindigkeit für globale Besucher dramatisch, indem die Latenz (Ping-Zeit) reduziert wird.
Fazit: Ein CDN sollte immer in Betracht gezogen werden, unabhängig vom dahinterliegenden Server. Es ist einer der effektivsten und oft kostenlosen Wege, eine Webseite schneller zu machen.
Fazit als einfache Rangliste (aktualisiert):

🥇 Top Cloud-Plattformen (AWS, Google Cloud) auf denen optimierte Webserver laufen.
🥈 LiteSpeed (Enterprise & Open) als beste spezialisierte Software für WordPress.
🥉 Nginx mit FastCGI Caching als hocheffizienter Allrounder.

8. Caddy als modernster und einfachster Performer.

9. Optimierter Apache als solider, flexibler Standard
Standard-Apache als Basis-Setup mit dem größten Optimierungspotenzial.
Ein CDN (Cloudflare etc.) ist ein universeller “Booster” für jede dieser oben benannten Server.

Aber …
Die Cloud-Performance (im Sinne eines verteilten Systems mit Edge-Servern) ist daher für Geschäftsmodelle nicht zu empfehlen, bei denen diese unvermeidbare Wartezeit auf eine zentrale Entscheidung (z.B. Bonitäts-Prüfung) inakzeptabel ist oder der Daten-Weg selbst ein Problem darstellt.

Für wen die Cloud-Performance bei kritischen Aktionen ungeeignet ist
1. Hochfrequenzhandel (High-Frequency Trading) an der Börse
Warum ist es ein Problem? Jede Millisekunde zählt. Die Latenz (Verzögerung) einer Datenreise von einem Edge-Server zum zentralen Handelsserver (selbst wenn es nur innerhalb einer Stadt ist) ist viel zu lang. Entscheidungen müssen in Mikrosekunden getroffen werden.
Konsequenz: Direkter finanzieller Verlust, da Konkurrenten schneller sind.
Die Lösung: Co-Location und dedizierte Glasfaser. Die Handelsfirmen mieten Rack-Platz direkt im selben Rechenzentrum wie die Server der Börse und verbinden ihre Systeme mit dem kürzestmöglichen Glasfaserkabel. Dies eliminiert die Netzwerk-Latenz fast vollständig. Zusätzlich wird spezialisierte Hardware (FPGAs) eingesetzt, die Algorithmen schneller ausführt als herkömmliche CPUs.

2. Industrielle Steuerungssysteme in Echtzeit (z.B. Robotik in der Fertigung)
Warum ist es ein Problem? Ein Befehl wie „Stoppe den Roboterarm sofort!“ darf keine Verzögerung durch eine Netzwerkabfrage haben. Die Reaktion muss deterministisch und augenblicklich sein. Eine Anfrage an einen Mutterserver, um zu prüfen, ob der Stopp zulässig ist, wäre katastrophal.
Konsequenz: Materialschaden, Produktionsausfall, erhebliche Sicherheitsrisiken für Menschen.
Die Lösung: On-Premise-Steuerungen und Industrial Edge. Die gesamte kritische Steuerungslogik läuft auf einem spezialisierten, robusten Computer (einer SPS oder einem Industrie-PC), der direkt an der Maschine montiert ist. Dieser Computer ist autark, benötigt für seine Kernfunktion keine Internetverbindung und trifft Entscheidungen lokal in Millisekunden. Die Cloud wird hier nur für unkritische Nach-Analysen (z.B. vorausschauende Wartung) verwendet.

3. Schnelle Online-Multiplayer-Spiele (z.B. E-Sports, Ego-Shooter)
Warum ist es ein Problem? Die Position und Aktion jedes Spielers muss quasi in Echtzeit an alle anderen Spieler übermittelt werden. Wenn jede Aktion (schießen, bewegen) erst eine Abfrage auf einem Mutterserver durchlaufen müsste, wäre das Spiel durch „Lag“ (Verzögerung) unspielbar.
Konsequenz: Extrem schlechtes und unfaires Spielerlebnis, Verlust der Spielerbasis.
Die Lösung: Dedizierte Bare-Metal-Server und optimierte Protokolle. Spieleentwickler mieten ganze physische Server (“Bare Metal”), um die maximale Leistung ohne den Overhead einer Virtualisierung zu haben. Diese stehen in strategischen Internet-Knotenpunkten und nutzen schnelle Netzwerkprotokolle (wie UDP). Zusätzlich gleichen Algorithmen in der Spiel-Software (“Lag Compensation”) kleine Latenzunterschiede fair aus.

4. Kritische medizinische Überwachungssysteme (z.B. Herzfrequenz-Monitoring im Krankenhaus)
Warum ist es ein Problem? Ein Alarm bei einem Herzstillstand muss sofort und zuverlässig ausgelöst werden. Die Daten dürfen nicht erst den Weg zu einem Cloud-Server und zurück nehmen, um die Kritikalität zu bestätigen.
Konsequenz: Lebensgefahr für den Patienten durch verzögerte Reaktion.
Die Lösung: Zertifizierte, geschlossene Systeme. Das Überwachungsgerät und das Alarmsystem sind als geschlossenes, nach strengen gesetzlichen Auflagen (z.B. Medizinproduktegesetz) zertifiziertes System konzipiert. Die Kommunikation findet über ein dediziertes, internes Krankenhaus-Netzwerk statt, das vom öffentlichen Internet getrennt ist, um absolute Zuverlässigkeit und Sicherheit zu garantieren.

5. Unternehmen mit kritischen Echtzeit-Prüfungen (z.B. Bonitäts-Check)
Warum ist es ein Problem? Eine Bonitätsprüfung ist eine Echtzeit-Entscheidung: Der Kunde klickt auf “Kaufen” und erwartet eine sofortige Antwort – “erfolgreich” oder “abgelehnt”. Wenn der Server, der diese Entscheidung trifft (Mutterserver in München), aber nur über einen langen, internationalen Datenweg (z.B. über die USA) erreichbar ist, muss der Kunde auf diese gesamte Datenreise warten. Für den Kunden entsteht eine “gefühlte Ewigkeit”, in der ein Ladesymbol rotiert, was das Vertrauen untergräbt und extrem nervenaufreibend ist. Die lange Leitung wird zum direkten Feind der Conversion.
Konsequenz: Eine hohe Kaufabbruchrate, weil die Geduld des Kunden während der unnötig langen Wartezeit auf die Prüfung überstrapaziert wird. Zusätzlich zum direkten Umsatzverlust entsteht ein rechtliches Minenfeld durch den erlaubten / unerlaubten Datenabfluss bei diesem sensiblen Vorgang.
Die Lösung: Garantierte, kurze Datenwege für kritische Prüfungen.
Standort-Server: Der Server für die Bonitätsprüfung steht im selben Land wie der Kunde. Der Datenweg ist minimal, die Antwort kommt schnell. Das ist die klassische, zuverlässige Lösung.
Sovereign Cloud: Man nutzt eine Cloud-Region, die sich komplett in Kundennähe befindet (z.B. AWS-Region Frankfurt). Die Cloud-Architektur wird so konfiguriert, dass die kritische Anfrage den direktesten, regionalen Weg zum Mutterserver nimmt und internationale Umwege für diesen Zweck strikt unterbunden werden. Dies verbindet Cloud-Flexibilität mit der schnellen Antwortzeit eines lokalen Servers.

Zusammenfassend: Die Cloud mit Edge-Netzwerk ist brillant für die Skalierung und das Nutzererlebnis bei den meisten E-Commerce- und Content-Websites. Sie ist aber die falsche Wahl, wenn Echtzeit-Reaktionen unterhalb von wenigen Millisekunden überlebenswichtig sind oder daten in ECHT-Zeit (Bonitäts-Check) gegengeprüft werden müssen.

Der “Heilige Gral” der Web-Performance

Eine optimale Serverkonfiguration ist wie ein perfekt aufeinander abgestimmtes Rennsport-Team – jede Komponente spielt eine entscheidende Rolle. Hier ist die Konfiguration, die man heute als “State of the Art” für eine extrem schnelle WordPress-Seite bezeichnen würde. Ich gliedere das in die verschiedenen Ebenen des “Stacks”.
Die “Dream Team”-Serverkonfiguration

1. Die Hardware-Grundlage (Das Chassis des Rennwagens)
CPU (Prozessor): Nicht nur die Anzahl der Kerne ist wichtig, sondern vor allem die hohe Taktfrequenz (High-Frequency). PHP, der Motor von WordPress, profitiert enorm von schneller Single-Core-Performance.
Ideal: Moderne CPUs wie AMD EPYC (ab 3. Gen) oder Intel Xeon Gold/Platinum. Diese sind speziell für Server-Workloads optimiert und bieten eine exzellente Taktfrequenz.
RAM (Arbeitsspeicher): Ausreichend schneller RAM ist entscheidend, damit Datenbank, Caches und PHP-Prozesse nicht um Ressourcen kämpfen müssen.
Ideal: Minimum 4-8 GB DDR4/DDR5 RAM, für Shops oder hochfrequentierte Seiten eher 16 GB+.
Speicher (Festplatte): Der mit Abstand wichtigste Hardware-Faktor nach der CPU.
Ideal: NVMe SSDs (Non-Volatile Memory Express). Diese sind um ein Vielfaches schneller als herkömmliche SATA-SSDs und reduzieren die Latenz bei Datenbankabfragen und Dateizugriffen drastisch. Das ist ein absolutes Muss für einen Top-Server.

2. Der Webserver (Der Motor)
Hier gibt es zwei Spitzenkandidaten, die den alten Apache-Server weit hinter sich lassen.
Ideal: NGINX (ausgesprochen “Engine-X”).
Warum? Extrem performant bei der Auslieferung statischer Dateien (Bilder, CSS, JS), verbraucht sehr wenig Ressourcen und ist unschlagbar darin, viele gleichzeitige Anfragen zu verarbeiten. Arbeitet perfekt als Reverse Proxy.
Starke Alternative: LiteSpeed Enterprise.
Warum? Ein kommerzieller Webserver, der oft als direkter Ersatz für Apache verwendet wird, aber die Performance von NGINX erreicht oder übertrifft. Der größte Vorteil ist das dazugehörige, extrem mächtige LiteSpeed Cache Plugin (LSCache).

3. PHP (Der Treibstoff)
Version: Immer die neueste stabile Version (z.B. PHP 8.2 oder 8.3).
Warum? Jede neue Hauptversion bringt signifikante Performance- und Sicherheitsverbesserungen.
Handler: PHP-FPM (FastCGI Process Manager).
Warum? Der moderne, effiziente Standard, um PHP-Anfragen zu verwalten. Viel schneller und ressourcenschonender als veraltete Methoden.

4. Die Datenbank (Das Gehirn)
Software: MariaDB (aktuelle Version).
Warum? Ein “Fork” (Weiterentwicklung) von MySQL, der zu 100% kompatibel ist, aber oft eine bessere Performance und modernere Features bietet. Viele Top-Hoster sind bereits von MySQL auf MariaDB umgestiegen.
Speicher-Engine: InnoDB (ist heute Standard).

5. Die Caching-Ebenen (Der Turbo-Booster)
Das ist der wichtigste Teil Ihrer Frage und der Schlüssel zu einem extrem niedrigen TTFB. Ein sehr guter Server nutzt mehrere Caching-Ebenen gleichzeitig.

A) Opcode Cache: OPcache
Was es tut: PHP-Code muss vor der Ausführung in Maschinencode “übersetzt” werden. OPcache speichert diesen übersetzten Code im RAM. Das verhindert, dass PHP-Dateien bei jeder Anfrage neu eingelesen und interpretiert werden müssen.
Status: In modernen PHP-Versionen enthalten und sollte immer aktiviert sein.

B) Objekt-Cache (Persistent Object Cache): Redis
Was es tut: Speichert die Ergebnisse von komplexen und wiederkehrenden Datenbankabfragen im RAM. Wenn WordPress zum Beispiel das Menü oder Optionen laden will, holt es die Daten aus dem pfeilschnellen Redis-Cache statt von der langsameren Datenbank-Festplatte.
Status: Absolut entscheidend für dynamische Seiten (WooCommerce, Membership-Seiten, Foren) und um den “WordPress-Adminbereich” zu beschleunigen.

C) Seiten-Cache (Full Page Cache): NGINX FastCGI Cache (oder Varnish)
Was es tut: Das ist der mächtigste Cache. Er speichert die komplett fertig gerenderte HTML-Seite eines Besuchers. Wenn der nächste Besucher die gleiche Seite anfragt, liefert NGINX die fertige Seite aus dem RAM aus, ohne dass WordPress oder PHP überhaupt gestartet werden müssen.
Status: Der Hauptgrund für einen TTFB von unter 100ms für nicht eingeloggte Besucher.

Wenn Sie einen Hosting-Anbieter suchen, fragen Sie gezielt nach diesem Stack: NGINX, PHP 8.x, MariaDB, NVMe SSDs und Unterstützung für Redis und server-seitiges Full Page Caching, HTTP/3Brotli Komprimierung. Ein Anbieter, der das liefert, meint es ernst mit der Performance.

Komponente Empfohlene Technologie Zweck
CPU High-Frequency (z.B. AMD EPYC, Intel Xeon Gold) Schnelle PHP-Verarbeitung
Speicher NVMe SSD Extrem schnelle Datenbank- und Dateizugriffe
Webserver NGINX oder LiteSpeed Enterprise Schnelle Auslieferung, hohe Last bewältigen
PHP Neueste Version (8.x) mit PHP-FPM Effiziente Code-Ausführung
Datenbank MariaDB (neueste Version) Schnelle Datenverarbeitung
Opcode Cache OPcache PHP-Code im RAM speichern
Objekt-Cache Redis Datenbank-Abfragen im RAM speichern
Seiten-Cache NGINX FastCGI Cache Komplette HTML-Seiten im RAM speichern
Zusätzlich HTTP/3, Brotli Komprimierung, CDN (z.B. Cloudflare) Neueste Protokolle, beste Kompression, globale Auslieferung

Anzahl der Kerne hängt von der Art Ihrer Webseite und dem erwarteten Traffic ab.

 Für eine moderne, professionelle WordPress-Seite sollten Sie heute nicht unter 2 Kernen starten, aber für viele Seiten sind 4 Kerne oder mehr der “Sweet Spot”.

Die goldene Regel: Was macht ein Prozessorkern?
Stellen Sie sich jeden CPU-Kern als einen eigenen “Mitarbeiter” (PHP-Worker) vor, der eine Anfrage von Anfang bis Ende bearbeiten kann.

1 Kern: Ein sehr fleißiger Mitarbeiter. Er kann immer nur eine Aufgabe gleichzeitig erledigen. Kommen 10 Anfragen auf einmal, müssen 9 warten (hoher TTFB für die Wartenden).
4 Kerne: Vier Mitarbeiter. Sie können vier Anfragen parallel bearbeiten. Die Warteschlange ist viel kürzer.
8 Kerne: Acht Mitarbeiter. Ideal für viele gleichzeitige Anfragen.
Wichtig: Caching umgeht diesen Prozess für nicht eingeloggte Besucher. Eine gecachte Seite wird ausgeliefert, ohne dass ein “Mitarbeiter” (PHP-Worker/Kern) sie neu erstellen muss.

Empfehlungen nach Website-Typ
Hier ist eine praxisnahe Einteilung, die Ihnen hilft, Ihren Bedarf zu ermitteln:

Szenario 1: Blog, Portfolio, einfache Firmen-Website
Charakteristik: Wenig Traffic, 99% der Besucher sind nicht eingeloggt, Inhalte ändern sich selten.
Dreh- und Angelpunkt: Caching! Fast jede Anfrage kann aus dem Cache bedient werden.
Empfehlung: 2 Kerne (High-Frequency)
Begründung: 2 moderne, schnelle Kerne reichen völlig aus, um die wenigen nicht-gecachten Anfragen (von Ihnen im Admin-Bereich, von Kommentatoren, von Cron-Jobs) schnell abzuarbeiten. Hier ist die Geschwindigkeit (Taktfrequenz) der Kerne wichtiger als die reine Anzahl.

Szenario 2: WooCommerce-Shop, Membership-Seite, Forum
Charakteristik: Viele eingeloggte Nutzer, Warenkörbe, personalisierte Inhalte, häufige Datenbankabfragen.
Dreh- und Angelpunkt: Gleichzeitigkeit! Viele Anfragen können NICHT gecacht werden und müssen von PHP und der Datenbank live verarbeitet werden.
Empfehlung: 4 bis 8 Kerne
Begründung: Jeder eingeloggte Kunde, der durch den Shop klickt, oder jedes Mitglied, das einen Kurs ansieht, erzeugt eine Anfrage, die einen CPU-Kern benötigt. Mit nur 2 Kernen wäre der Server bei 10-20 gleichzeitigen aktiven Nutzern schnell überlastet. 4 Kerne sind ein sehr guter Startpunkt, 8 Kerne bieten Puffer für Wachstum und Lastspitzen (z.B. im Weihnachtsgeschäft).

Szenario 3: Hochfrequentierte News-Seite oder großer Blog
Charakteristik: Sehr hoher Traffic, aber die meisten Besucher sind nicht eingeloggt. Es gibt jedoch Lastspitzen, wenn neue Artikel veröffentlicht werden (viele Kommentare, Social Media Traffic).
Empfehlung: 4+ Kerne
Begründung: Obwohl viel gecacht werden kann, sorgt die schiere Menge an Anfragen dafür, dass der Server robust sein muss. Mehr Kerne helfen, Traffic-Spitzen abzufedern und den Admin-Bereich auch unter Last flüssig zu halten.

Website-Typ Empfohlene Kerne Begründung Ca. Besucherbelastung
Einfacher Blog / Portfolio 2 Kerne Caching fängt fast alles ab. Fokus auf Kern-Geschwindigkeit. Bis ca. 1.000 / Tag
Kleine Firmen-Website 2 – 4 Kerne 2 sind okay, 4 bieten mehr Puffer für Formulare und Wachstum. Bis ca. 2.500 / Tag
WooCommerce (klein/mittel) 4 – 6 Kerne Viele nicht-cachebare Anfragen durch Warenkörbe und Nutzerkonten. 20 – 50 gleichzeitige Nutzer
WooCommerce (groß) 8+ Kerne Notwendig, um viele gleichzeitige Käufer ohne Verlangsamung zu bedienen. Ab 50+ gleichzeitige Nutzer
Membership / LMS / Forum 6 – 8+ Kerne Fast jede Interaktion ist dynamisch und CPU-lastig. Ab 40+ gleichzeitige Nutzer
High-Traffic News-Portal 4 – 8 Kerne Um Traffic-Spitzen und Hintergrundprozesse mühelos zu bewältigen. Ab 10.000+ / Tag

Der wichtigste Faktor: Qualität vor reiner Quantität

Der wichtigste Faktor: Qualität vor reiner Quantität. Nicht alle Kerne sind gleich!

2 moderne Kerne mit 4.5 GHz sind oft besser als 4 alte Kerne mit 2.2 GHz.
Achten Sie bei der Wahl Ihres Hostings nicht nur auf die Anzahl, sondern auch auf die Art der CPU. Fragen Sie nach “High-Frequency” oder “Premium” CPUs wie AMD EPYC oder neueren Intel Xeon Modellen.

Fazit:
Für die meisten professionellen Projekte, die auf Wachstum und eine exzellente Performance ausgelegt sind, ist ein Server mit 4 schnellen CPU-Kernen eine exzellente und zukunftssichere Wahl. Es ist die perfekte Balance aus Kosten und der Fähigkeit, auch dynamische Anfragen und Traffic-Spitzen souverän zu meistern.

Optimale Webseiten-Performance für Google PageSpeed

Diese Übersicht fasst die wichtigsten Kennzahlen und Empfehlungen für eine gute DOM-Größe und eine optimale Gesamtgröße der Webseite zusammen, um hohe Bewertungen im Google PageSpeed zu erzielen.

Teil 1: Die DOM-Größe (Document Object Model)
Die DOM-Größe beschreibt die Komplexität des HTML-Codes Ihrer Seite. Eine schlanke Struktur ist entscheidend für schnelle Verarbeitungs- und Ladezeiten.

Was ist eine gute DOM-Größe?
Google PageSpeed Insights bewertet eine DOM-Struktur als gut, wenn folgende Kriterien erfüllt sind:

Kriterium

Guter Wert (Grüner Bereich)

Gesamtzahl der DOM-Elemente

Weniger als 1.500 Knoten

Maximale Tiefe der Verschachtelung

Weniger als 32 Ebenen

Maximale Anzahl an Kind-Elementen

Weniger als 60 Kinder pro Eltern-Element

Ab wann gibt PageSpeed einen Hinweis?
Der Hinweis “Vermeiden Sie eine übermäßige DOM-Größe” erscheint, sobald einer der folgenden Schwellenwerte überschritten wird:

Metrik

Warnung (Orange)

Schlecht (Rot)

Gesamtzahl der DOM-Elemente

1.500 – 3.000 Knoten

> 3.000 Knoten

Maximale DOM-Tiefe

32 – 60 Ebenen

> 60 Ebenen

Maximale Anzahl an Kind-Elementen

60 – 100 Kind-Elemente

> 100 Kind-Elemente

Teil 2: Die Gesamtgröße einer Webseite
Die Gesamtgröße (in Megabyte) und die Anzahl der Serveranfragen sind direkte Faktoren für die Ladezeit. Die Faustregel lautet: Je kleiner, desto besser.

Empfohlene Aufschlüsselung der Seitengröße
Streben Sie eine Gesamtgröße von unter 1,5 MB an. Die Verteilung der Ressourcen ist dabei entscheidend:

Ressource

Empfohlene Größe (unkomprimiert)

Warum es wichtig ist

HTML

Unter 100 KB

Grundgerüst der Seite, beeinflusst die DOM-Größe.

CSS

Unter 100-150 KB

Blockiert das Rendern, bis es geladen ist.

JavaScript (JS)

Unter 300-500 KB

Größter Flaschenhals: Blockiert Interaktivität.

Bilder

< 1 MB (Gesamt)

Oft der größte Teil der Seitengröße. Optimierung ist Pflicht.

Schriften (Fonts)

Unter 100-150 KB

Jeder Schriftschnitt ist eine zusätzliche Anfrage.

Zusammenfassende Richtwerte für eine schnelle Seite
Diese Tabelle fasst die wichtigsten Performance-Metriken zusammen, die durch eine schlanke Seite positiv beeinflusst werden.

Metrik

Hervorragend

Verbesserungswürdig

Schlecht

Gesamtgröße

< 1 MB

1,5 MB – 2,5 MB

> 2,5 MB

Anzahl der Anfragen

< 50

50 – 100

> 100

Largest Contentful Paint (LCP)

< 2,5 Sekunden

2,5 s – 4,0 s

> 4,0 s

Interaction to Next Paint (INP)

< 200 ms

200 ms – 500 ms

> 500 ms

Fazit: Ein schlanker Code (DOM < 1.500 Elemente) und eine geringe Gesamtgröße (< 1,5 MB) sind die Grundpfeiler einer schnellen Webseite. Der Fokus sollte auf der Optimierung von Bildern, der Reduzierung von JavaScript und der Vermeidung von unnötigem HTML-Code liegen, um die Core Web Vitals zu verbessern und eine exzellente Nutzererfahrung zu bieten.

Wie viele Sicherheitsebenen gibt es?

Es gibt keine feste Anzahl, aber man kann sie gut in 7 Kernbereiche unterteilen. Stell es dir wie die Schichten einer Zwiebel vor, von außen nach innen:

1. Netzwerk-Ebene (Der Wassergraben):
Was? Schutz vor großflächigen Angriffen wie DDoS (Distributed Denial of Service).
Wer? Meist Anbieter wie Cloudflare, Akamai oder der Hoster selbst.

2. Web Application Firewall – WAF (Die Burgmauer):
Was? Filtert gezielt bösartige Web-Anfragen (SQL-Injection, XSS-Versuche), bevor sie den Server erreichen.
Wer? Cloudflare, andere WAF-Anbieter, oder Software auf dem Server (mod_security).

3. Server-Ebene (Die Wachen auf der Mauer):
Was? Absicherung des Betriebssystems: Firewall, regelmäßige Updates, sichere Konfiguration (z.B. SSH-Zugang), Malware-Scans.
Wer? Server-Administrator, Hoster.

4. Anwendungs-Ebene (Die Gesetze im Inneren der Burg):
Was? Der Code der Webseite selbst (z.B. WordPress + Plugins). Hier geht es um sichere Programmierung: Schutz vor Brute-Force-Logins, Bereinigung von Benutzereingaben, sichere Dateirechte.
Wer? Der Web-Entwickler.

5. Daten-Ebene (Die Schatzkammer):
Was? Schutz der Daten selbst: Verschlüsselung der Datenbank, sichere Passwörter (Hashing), regelmäßige Backups.
Wer? Entwickler, Datenbank-Administrator.

6. Client- / Browser-Ebene (Die Anweisungen an den Besucher):
Was? Die HTTP-Security-Header geben dem Browser des Besuchers klare Sicherheitsregeln / Anweisungen mit auf den Weg.
Wer? Entwickler, Server-Administrator.

7. Menschliche Ebene (Die Bewohner der Burg):
Was? Die wichtigste, aber oft schwächste Ebene: Starke Passwörter für die Admins, Zwei-Faktor-Authentifizierung, Vorsicht vor Phishing-Mails.
Wer? Alle Benutzer mit einem Login.

Fazit: Unsere Header-Prüfung deckt die wichtige Ebene 6 ab. Eine Webseite kann auf anderen Ebenen stark sein, aber wenn Ebene 6 (HTTP-Security-Header) schwach ist, fehlt ein entscheidender Schutzwall.

Side-Channel Attack
Eine Side-Channel Attack (auf Deutsch: Seitenkanalangriff) ist eine besondere Art von Cyberangriff, bei dem nicht direkt die Verschlüsselung oder der Algorithmus selbst angegriffen wird, sondern physikalische Nebeneffekte eines Systems ausgenutzt werden – quasi das, was das System „nebenbei“ verrät. Statt also einen Code zu knacken, lauscht der Angreifer auf Dinge wie:
Stromverbrauch: Wie viel Energie verbraucht das Gerät bei bestimmten Operationen?
Rechenzeit: Wie lange dauert eine bestimmte Berechnung?
Elektromagnetische Abstrahlung: Welche Signale sendet das Gerät während der Verarbeitung aus?
Akustik: Welche Geräusche entstehen bei der Ausführung von Algorithmen?
Diese Informationen können Rückschlüsse auf geheime Daten wie Passwörter oder kryptografische Schlüssel geben.
Bekannte Beispiele:
Timing-Angriffe: Wenn ein System bei bestimmten Eingaben schneller oder langsamer reagiert, kann das Hinweise auf den verwendeten Schlüssel geben.
Power Analysis: Durch das Messen des Stromverbrauchs lassen sich Muster erkennen, die auf interne Prozesse schließen lassen.
Spectre & Meltdown: Zwei spektakuläre Angriffe, die 2018 bekannt wurden und auf Seitenkanälen basieren. Solche Angriffe sind besonders relevant bei Smartcards, Hardware-Wallets oder anderen sicherheitskritischen Geräten. Und obwohl sie technisch anspruchsvoll sind, zeigen sie, dass Sicherheit nicht nur im Code steckt – sondern auch in der Art, wie dieser ausgeführt wird.

Die Gute Nachricht
Moderne Browser wie Google ChromeFirefox und Safari haben einen Schutzmechanismen gegen Side-Channel-Angriffe eingebaut – insbesondere gegen Varianten wie Spectre und Meltdown, die 2018 für Aufsehen sorgten.

Ein paar wichtige Maßnahmen:
Site Isolation (z. B. in Chrome): Jede Webseite wird in einem eigenen Prozess ausgeführt. Dadurch wird verhindert, dass eine bösartige Seite über Seitenkanäle auf Daten anderer Seiten zugreifen kann.
Reduzierte Timer-Präzision: APIs wie performance.now() oder SharedArrayBuffer, die für präzise Zeitmessungen genutzt werden könnten, wurden eingeschränkt oder deaktiviert, um Timing-Angriffe zu erschweren.

Cross-Origin Read Blocking (CORB): Verhindert, dass Webseiten Inhalte von anderen Domains lesen können, selbst wenn ein Seitenkanalangriff versucht, diese Daten zu extrahieren.

WebGL-Einschränkungen: Bestimmte WebGL-Funktionen, die für Angriffe wie GLitch genutzt werden könnten, wurden deaktiviert oder in ihrer Genauigkeit reduziert.

Moderne PCs werden heute mit verschiedenen Schutzmechanismen gegen Side-Channel-Angriffe ausgeliefert. – vor allem seit der Entdeckung der Sicherheitslücken Meltdown und Spectre im Jahr 2018. Diese beiden Angriffe machten deutlich, dass selbst gängige Prozessoren in Desktop- und Server-Systemen anfällig für Seitenkanalangriffe sind.

Seitdem haben sowohl Hardware-Hersteller (wie Intel, AMD und Apple) als auch Betriebssystem-Entwickler (wie Microsoft, Apple und Linux-Communities) reagiert:
Prozessoren ab ca. 2019 enthalten spezielle Mikroarchitektur-Verbesserungen, um spekulative Ausführung sicherer zu gestalten.
Firmware-Updates (Microcode) wurden für ältere CPUs bereitgestellt, um bekannte Angriffsvektoren zu blockieren.
Betriebssysteme integrieren Schutzmechanismen wie Kernel Page Table Isolation (KPTI) oder Retpoline-Techniken.
Browser und Virtualisierungslösungen setzen auf Site Isolation und Timer-Drosselung, um Timing-Angriffe zu erschweren.

Wenn du heute einen neuen PC kaufst – egal ob Windows, macOS oder Linux – ist er in der Regel mit diesen Schutzmaßnahmen ausgestattet. Allerdings hängt der genaue Schutzgrad auch vom verwendeten Prozessor und der Aktualität der Software ab. Fragen kostet nix!

Warum ist HTTP/3 schneller? Die Schlüsseltechnologie: QUIC

Der entscheidende Unterschied ist, dass HTTP/3 nicht mehr auf dem alten TCP-Protokoll aufbaut, sondern auf einem neuen, von Google entwickelten Protokoll namens QUIC (Quick UDP Internet Connections), das über UDP läuft. Das bringt drei massive Geschwindigkeits- und Stabilitätsvorteile:

1. Schnellerer Verbindungsaufbau (Weniger „Handshake„)
– Stell dir den Verbindungsaufbau wie eine Begrüßung vor. HTTP/2 (über TCP + TLS):
TCP-Handshake: Client und Server müssen sich erst begrüßen und eine stabile Verbindung aushandeln („Hallo?“ – „Ja, hallo!“ – „Okay, verstanden.“). Das ist 1 Hin- und Rückweg (Round Trip).
TLS-Handshake: Danach müssen sie die Verschlüsselung aushandeln („Hier sind meine Sicherheitszertifikate.“ – „Okay, hier sind meine Schlüssel.“). Das ist noch 1 weiterer Hin- und Rückweg.
Ergebnis: Es dauert mindestens 2 komplette Hin- und Rückwege, bevor das erste Datenpaket gesendet werden kann.

HTTP/3 (über QUIC):
QUIC-Handshake: QUIC ist clever und kombiniert die Begrüßung (TCP) und die Sicherheitsprüfung (TLS) in einem einzigen Schritt.
Ergebnis: Es dauert nur noch 1 einzigen Hin- und Rückweg, um eine neue, verschlüsselte Verbindung aufzubauen. Bei einer bereits bekannten Verbindung kann es sogar auf 0 Hin- und Rückwege (0-RTT) reduziert werden.
Der Unterschied: Die reine Latenzzeit für den Verbindungsaufbau wird halbiert oder sogar komplett eliminiert.

2. Kein „Head-of-Line-Blocking“ mehr (Die wichtigste Verbesserung)
– Das ist der größte Vorteil. Stell es dir wie eine Supermarktkasse vor.
HTTP/2 (über TCP): Du hast mehrere Einkaufsspuren (Streams), die aber alle zu einer einzigen Kasse (der TCP-Verbindung) führen. Wenn ein Kunde an der Kasse ein Problem hat (z.B. seine Karte funktioniert nicht), müssen alle anderen Kunden in allen Spuren warten, obwohl sie schon längst bezahlen könnten. Im Internet entspricht ein „Problem“ einem verlorenen Datenpaket. Ein einziges verlorenes Paket blockiert die Übertragung aller anderen Daten (Bilder, CSS, JS), bis es erneut gesendet wurde.
HTTP/3 (über QUIC): QUIC funktioniert wie ein Supermarkt mit mehreren, völlig unabhängigen Kassen. Wenn ein Kunde an Kasse 1 ein Problem hat, können die Kunden an Kasse 2, 3 und 4 einfach weiter abkassiert werden. Im Internet bedeutet das: Wenn ein Datenpaket für ein Bild verloren geht, werden die Pakete für CSS und JavaScript einfach weitergeladen, ohne zu warten.
Der Unterschied: Auf Netzwerken mit auch nur minimalem Paketverlust (z.B. Mobilfunk, schlechtes WLAN) ist dieser Effekt dramatisch und sorgt für eine viel flüssigere und schnellere Ladeerfahrung.

3. Bessere Verbindungsmigration
– Wenn du mit deinem Handy vom WLAN ins 5G-Netz wechselst, ändert sich deine IP-Adresse.
HTTP/2 (über TCP): Die Verbindung bricht komplett ab und muss neu aufgebaut werden. Das führt zu Ladeverzögerungen und Abbrüchen.
HTTP/3 (über QUIC): QUIC identifiziert die Verbindung nicht über die IP-Adresse, sondern über eine eindeutige „Connection ID“. Die Verbindung bleibt nahtlos bestehen, auch wenn sich das Netzwerk darunter ändert.

Der Unterschied: Keine Unterbrechungen mehr beim Wechsel zwischen Netzwerken, was die gefühlte Geschwindigkeit massiv erhöht.

4. Welche Browser (Nutzer) werden unterstützt?
Chrome: Unterstützt HTTP/3 seit Version 87 (Ende 2020) standardmäßig.
Firefox: Unterstützt HTTP/3 seit Version 88 (Anfang 2021) standardmäßig.
Safari: Unterstützt HTTP/3 seit Safari 14 (macOS Big Sur und iOS 14).
Edge: Unterstützt http/3 ebenfalls (basiert auf Chromium).

5. Fallback:
Klappt es, wird die zukünftige Kommunikation über HTTP/3 laufen.
Klappt es nicht (z.B. weil eine Firewall den UDP-Verkehr blockiert), gibt der Browser den Versuch auf und nutzt einfach weiterhin die stabile HTTP/2-Verbindung über TCP.

Um wie viel Prozent ist es schneller? Die schwierige Antwort
Es gibt keine einzige, pauschale Prozentzahl, da der Vorteil stark von den Umständen abhängt.
Vergleichsbasis: Gegenüber HTTP/1.1 ist der Sprung gigantisch (oft 50-100% schneller). Gegenüber HTTP/2 sind die Zuwächse nuancierter.

Netzwerkqualität: Dies ist der wichtigste Faktor!
Auf perfekten Glasfaser-Netzwerken mit quasi null Latenz und null Paketverlust ist der Vorteil von HTTP/3 gegenüber HTTP/2 relativ gering, vielleicht 5-10%.
Auf durchschnittlichen Mobilfunknetzen oder im WLAN mit normaler Latenz und gelegentlichem Paketverlust kann HTTP/3 leicht 25-50% schneller sein. Auf sehr schlechten, instabilen Netzwerken kann der Unterschied über 100% betragen, weil HTTP/2 fast unbrauchbar wird, während HTTP/3 noch funktioniert.

Konkrete Zahlen aus der Praxis:
Google sah bei der Websuche eine Reduzierung der Latenz von ca. 8% auf dem Desktop und 12% auf Mobilgeräten im Vergleich zu HTTP/2.
Facebook/Meta berichtete, dass die Ladezeit für Videos (Time to first frame) um 15% und die Latenz um 20% verbessert wurde. Cloudflare hat Tests veröffentlicht, bei denen Webseiten auf schlechten Netzwerken doppelt so schnell geladen wurden.

Fazit: Die Prozentzahl hängt stark vom Netzwerk ab, aber die technischen Vorteile von HTTP/3 sind in fast jeder realen Situation signifikant und machen es zum überlegenen Protokoll

Merkmal HTTP/1.1 HTTP/2 HTTP/3 (QUIC)
Grundlage TCP TCP UDP
Verbindungsaufbau 1 Verbindung pro Datei, langsam 2-3 Round Trips 1 Round Trip (oder 0-RTT)
Head-of-Line-Blocking Ja (Extrem) Ja (Innerhalb der TCP-Verbindung) Nein (Pro Stream unabhängig)
Verbindungsmigration Nein (Verbindung bricht ab) Nein (Verbindung bricht ab) Ja (Nahtloser Übergang)
Beispiele Gute Core Web Vitals Schlechter Lighthouse-Score Verpasster Umsatz!
1. Login-Seite Login-Maske erscheint sofort, Eingabe ist verzögerungsfrei. Seite lädt 5s eine riesige Hintergrundgrafik. JavaScript blockiert die Passworteingabe. Nutzer bricht ab und nutzt den Dienst nicht. Geringere Nutzerbindung.
2. Zahlungsabwicklung Zahlungsanbieter laden sofort. Transaktion in Sekunden abgeschlossen. Nach Klick auf "Jetzt kaufen" lädt die Seite 8s lang Tracking-Skripte. Nutzer ist unsicher, ob die Zahlung funktioniert hat. Abgebrochene Käufe. Der Kunde bestellt bei der Konkurrenz.
3. Kontaktformular Formular ist sofort da, "Danke"-Meldung erscheint ohne Verzögerung. Ein riesiges JavaScript-Framework blockiert den "Senden"-Button für 4 Sekunden. Der Nutzer denkt, der Button ist kaputt. Verlorene Leads. Der potenzielle Kunde fragt nie nach einem Angebot.
4. Warenkorb-Aktualisierung Mengenänderung aktualisiert den Preis sofort per AJAX. Mengenänderung lädt die gesamte Seite für 3 Sekunden neu und blockiert jede weitere Interaktion. Schlechte User Experience. Der Kunde legt weniger in den Warenkorb, weil der Prozess mühsam ist.
5. Produktfilter im Shop Produktliste aktualisiert sich nach Filter-Klick in unter einer Sekunde. Jeder Filter-Klick lädt die Seite 6 Sekunden lang komplett neu. Der Nutzer verliert die Geduld. Geringere Produkt-Entdeckung. Der Kunde findet nicht, was er sucht, und verlässt den Shop.
6. Blog-Artikel lesen Text ist sofort lesbar, Bilder laden unauffällig nach. Ein Werbe-Banner verschiebt den gesamten Inhalt, nachdem der Nutzer zu lesen begonnen hat (hoher CLS). Hohe Absprungrate. Der Nutzer ist genervt und liest keine weiteren Artikel.
7. Bild-Galerie ansehen Großes Bild öffnet sich sofort, schnelles Wischen durch die Galerie ist möglich. Die Lightbox-Bibliothek (500 KB JavaScript) muss erst 7 Sekunden laden. Jedes Wischen hat eine spürbare Verzögerung. Geringes Engagement. Der Nutzer schaut sich nur ein oder zwei Bilder an.
8. Cookie-Banner Banner erscheint sofort und verschwindet nach Klick auf "Akzeptieren" ohne Ruckeln. Der Banner erscheint verzögert und der Klick auf "Akzeptieren" blockiert die Seite für 2 weitere Sekunden. Schlechter erster Eindruck, bevor der Nutzer überhaupt Inhalte gesehen hat.
9. Interaktive Karte Die Karte ist sofort da und reagiert flüssig auf Zoomen und Verschieben. Die riesige Google-Maps-API lädt 10 Sekunden lang. Jede Interaktion (Zoomen) ist ruckelig und langsam. Funktion wird nicht genutzt. Ein Standort wird nicht gefunden, ein Restaurant nicht besucht.
10. Mega-Menü öffnen Das Menü klappt sofort und flüssig auf. Es dauert eine Sekunde, bis das Menü erscheint, und die Animation ruckelt aufgrund von schlechter Programmierung. Navigations-Hürden. Der Nutzer findet Unterseiten nicht so schnell und übersieht wichtige Bereiche.

Meta-Tags zum Einfügen in den Quell-Code (Gilt auch für alle Unterseiten)

/**
 * Meta-Tags:
 * noai: Verbietet die Nutzung von Inhalten für das Training von KI-Systemen.
 * noimageai: Verbietet die Nutzung von Bildern für das Training von KI-Systemen.
 */
add_action( 'wp_head', function () {
	echo '<meta name="robots" content="noai, noimageai">' . "\n";
} );

Robots.txt + Empfohlenes Plugin aus dem WordPress-Archiv → Advanced Robots.txt Optimizer & Editor
Das WordPress-Plugin „Advanced Robots.txt Optimizer & Editor“ verbessert die Website-Funktionalität, SEO und das Management, indem es Benutzern ermöglicht, die Robots.txt-Datei mit verschiedenen Funktionen anzupassen, um Suchmaschinen zu blockieren, das Crawlen doppelter Inhalte zu verhindern, WooCommerce zu optimieren, Sitemap-Links hinzuzufügen und SEO-Tool-Crawler zu blockieren, um Website-Ressourcen, Sicherheit und Datenschutz zu schützen.

# ===================================================================
# UMFASSENDER KI-CRAWLER-BLOCK
# Stand: [Datum Eintragen]
# 
# Dieser Block verbietet bekannten KI-Unternehmen und Datensammlern
# das Crawlen der Website zum Zweck des KI-Trainings.
# ===================================================================

# Blockieren von OpenAI (Entwickler von ChatGPT)
User-agent: GPTBot
Disallow: /

# Blockieren des Crawlers, den ChatGPT für Live-Abfragen nutzt
User-agent: ChatGPT-User
Disallow: /

# Blockieren von Google AI (Bard, Gemini, Vertex AI etc.)
User-agent: Google-Extended
Disallow: /

# Blockieren von Anthropic (Entwickler von Claude AI)
User-agent: anthropic-ai
Disallow: /

# Blockieren von Perplexity AI
User-agent: PerplexityBot
Disallow: /

# Blockieren von ByteDance (Entwickler von TikTok, trainiert eigene Modelle)
User-agent: Bytespider
Disallow: /

# Blockieren des Common Crawl-Bots (Einer der größten Datensätze für KI-Training)
User-agent: CCBot
Disallow: /

# Blockieren von Cohere AI
User-agent: cohere-ai
Disallow: /

# Blockieren von Facebook/Meta AI
User-agent: MetaBot
Disallow: /

# Blockieren von weiteren bekannten Web-Scrapern, die für Datensätze genutzt werden
User-agent: Diffbot
Disallow: /

User-agent: omgili
Disallow: /

User-agent: omgilibot
Disallow: /

# ===================================================================
# Ende des KI-Crawler-Blocks
# ===================================================================

Einfache Überprüfung:

1. Öffnen Sie Ihre Webseite in einem Browser (am besten im Inkognito-Modus, um Caching-Probleme zu vermeiden).
2. Klicken Sie mit der rechten Maustaste auf eine freie Stelle der Seite.
3. Wählen Sie im Kontextmenü "Seitenquelltext anzeigen" (oder eine ähnliche Formulierung, je nach Browser). Alternativ 4. 4. können Sie auch die Tastenkombination Strg + U (Windows) oder Cmd + Opt + U (Mac) verwenden.
5. Es öffnet sich ein neuer Tab mit dem gesamten HTML-Code.
6. Drücken Sie Strg + F (Windows) oder Cmd + F (Mac), um die Suche zu öffnen.
7. Geben Sie "noai" oder "noimageai" in das Suchfeld ein.

- Mit Profis arbeiten! -

Server (LT)* i

Misst die clientseitige Ladezeit im Browser bis das HTML-Dokument (DOMContentLoaded) ab der ersten Anforderung bereit ist.

Schwellenwerte (empfohlen):
  • < 1.0 Sek. (Gut)
  • 1.0 - 2.5 Sek. (Verbesserungswürdig)
  • > 2.5 Sek. (Langsam)
0.000 Sek.
Site (LT)* i

Misst die PHP-Verarbeitungszeit auf dem Server. Eine langsame Serverantwortzeit trägt erheblich zur Gesamt-Ladezeit bei. 0,1 Sekunde Verzögerung = 1 Prozent weniger Umsatz.

Schwellenwerte (empfohlen):
  • < 0.2 Sek. (Sehr Schnell)
  • 0.2 - 0.5 Sek. (Akzeptabel)
  • > 0.5 Sek. (Langsam)
0.424 Sek.