
Das Wichtigste in Kürze
Ein Test. Ein Schwellenwert. 43 % fallen durch.
Interaction to Next Paint — kurz INP — misst, wie schnell deine Website auf Klicks, Tippen und Tastatureingaben reagiert. Google hat INP im März 2024 zum offiziellen Core Web Vital gemacht und First Input Delay damit ersetzt. Der Schwellenwert: 200 Millisekunden. Alles darüber gilt als „schlecht“.
Und fast die Hälfte aller Websites schafft das nicht.
Das Problem: INP ist nur einer von Dutzenden technischen Faktoren, die bestimmen, ob Google deine Website überhaupt findet, versteht und schnell genug ausliefert. Wenn die technische Basis nicht stimmt, hilft der beste Content nichts. Keine Keyword-Recherche der Welt rettet eine Seite, die der Googlebot nicht crawlen kann. Kein Backlink bringt Rankings, wenn die Ladezeit bei 6 Sekunden liegt.
Technisches SEO ist das Fundament. Und dieser Artikel ist deine Checkliste: 15 Punkte, die du 2026 im Griff haben musst — mit konkreten Schwellenwerten, Tools und Prüfmethoden. Kein Theorie-Overload, sondern direkt umsetzbar.
Wenn du den kompletten SEO-Überblick suchst, starte mit unserem SEO-Guide 2026.
Die Infrastruktur hinter deinen Rankings.
Technisches SEO umfasst alle Maßnahmen, die sicherstellen, dass Suchmaschinen — und seit 2024 auch KI-Systeme — deine Website crawlen, indexieren und korrekt bewerten können. Nicht der Content selbst, nicht die Backlinks. Sondern die technische Basis, auf der beides aufbaut.
| Säule | Fokus | Beispiele |
|---|---|---|
| On-Page SEO | Content und Keywords | Title Tags, Headings, Texte, Bilder |
| Off-Page SEO | Autorität und Vertrauen | Backlinks, Brand Mentions, E-E-A-T |
| Technisches SEO | Infrastruktur und Zugänglichkeit | Ladezeit, Crawlability, Mobile, Schema, HTTPS |
Die Analogie ist simpel: On-Page ist das Schaufenster. Off-Page ist der Ruf im Viertel. Technisches SEO ist das Gebäude. Wenn das Gebäude instabil ist — Türen klemmen, Licht flackert, das Dach leckt — bringt das schönste Schaufenster nichts. Kunden drehen um, bevor sie eintreten.
Und genau das passiert im Web: Google schickt seinen Bot, der Bot findet Fehler, die Seite wird nicht (oder schlecht) indexiert, der Nutzer wartet zu lange — und klickt zurück. Technisches SEO verhindert das.
Was Google nicht findet, existiert nicht.
Crawlability bezeichnet die Fähigkeit von Suchmaschinen-Bots, deine Seiten zu erreichen und zu lesen. Der Googlebot folgt Links, lädt HTML-Code und erfasst Inhalte. Blockierst du ihn — ob absichtlich oder aus Versehen — verschwindest du aus den Ergebnissen.
robots.txt — dein Türsteher:
Die Datei liegt im Root-Verzeichnis deiner Domain (domain.de/robots.txt) und steuert, welche Bereiche Crawler besuchen dürfen. Wichtig: robots.txt blockiert das Crawling, nicht die Indexierung. Eine Seite kann trotz Disallow-Eintrag indexiert werden, wenn externe Links auf sie zeigen. Für echte Indexierungskontrolle brauchst du ein noindex-Tag.
2026 kommt eine neue Dimension dazu: KI-Crawler wie GPTBot, ClaudeBot und PerplexityBot klopfen an. Willst du in KI-Antworten zitiert werden, musst du sie reinlassen. Willst du das nicht, blockierst du sie gezielt. Beides ist eine strategische Entscheidung — keine, die du dem Standard-Hosting überlassen solltest.
XML-Sitemap — dein Inhaltsverzeichnis:
Eine XML-Sitemap listet alle wichtigen URLs deiner Website. Sie hilft Suchmaschinen, Seiten zu finden, die über die normale Linkstruktur schwer erreichbar sind. Maximum: 50.000 URLs pro Sitemap. Bei größeren Websites: Sitemap-Index mit mehreren Sitemaps.
Pflicht-Routine: Sitemap bei Google Search Console und Bing Webmaster Tools einreichen. Keine noindex-Seiten, keine 404-Fehlerseiten und keine Redirect-URLs in die Sitemap aufnehmen. Und bei jeder neuen Seite oder Löschung: Sitemap aktualisieren.
Interne Links — dein Wegenetz:
Der Googlebot folgt Links. Seiten ohne eingehende interne Links — sogenannte Orphan Pages — findet er nicht. Jede wichtige Seite muss von mindestens einer anderen Seite verlinkt sein. Idealerweise kontextuell im Fließtext, mit spezifischem Anchor-Text. Alles zur optimalen Strategie: Interne Verlinkung.
Crawl Budget — deine Ressource:
Google crawlt nicht unbegrenzt. Große Websites mit 10.000+ URLs müssen aktiv steuern, wo der Bot seine Zeit verbringt. Facettierte Navigation, Parameter-URLs, veraltete Seiten — all das verschwendet Crawl Budget. Log-File-Analysen zeigen dir, wie der Googlebot deine Website tatsächlich durchsucht — und wo er Zeit vergeudet.
Gecrawlt heißt nicht indexiert.
Nur weil Google deine Seite besucht hat, bedeutet das nicht, dass sie im Index landet. Der Google-Index ist die Datenbank, aus der Suchergebnisse geliefert werden. Seiten, die nicht drin sind, erscheinen nirgends — egal wie gut sie optimiert sind.
Canonical Tags — dein Duplikat-Killer:
Der Canonical Tag (<link rel="canonical" href="...">) zeigt Google die bevorzugte Version einer Seite. Warum das nötig ist: URL-Parameter (?sort=price&page=2), HTTP/HTTPS-Varianten, www/non-www, mobile Subdomains — dieselbe Seite kann unter Dutzenden URLs erreichbar sein. Ohne Canonical teilt Google die Ranking-Signale auf alle Versionen auf. Mit Canonical bündelt Google alles auf eine URL.
Best Practice: Setze auf jeder Seite einen Self-Referencing Canonical. Also auch auf Seiten, die kein Duplikat haben. Das verhindert Probleme, bevor sie entstehen.
noindex — dein Ausschalter:
Seiten, die nicht im Index auftauchen sollen (Danke-Seiten, interne Suchergebnisse, Tag-Archive), bekommen ein noindex-Tag. Entweder als Meta-Tag im HTML-Head oder als X-Robots-Tag HTTP-Header. Wichtig: Blockiere diese Seiten nicht zusätzlich per robots.txt — sonst kann Google das noindex-Tag nicht lesen und indexiert die Seite möglicherweise trotzdem.
Der GSC-Check:
Google Search Console → Seiten → Indexierungsbericht. Dort siehst du genau, welche Seiten indexiert sind und welche nicht — inklusive Begründung. „Gecrawlt — derzeit nicht indexiert“ ist das häufigste Problem: Google hat die Seite gesehen, hält sie aber nicht für gut genug. Die Lösung: Content verbessern, interne Links stärken, Duplicate Content beseitigen.
Wie ein kompletter Check abläuft: SEO-Audit Checkliste.
Drei Metriken. Drei Schwellenwerte. So misst Google deine Nutzererfahrung.
Core Web Vitals sind Googles offizielles Set an Performance-Metriken, die seit 2021 als Ranking-Signal einfließen. Sie messen nicht, wie schnell dein Server antwortet — sie messen, wie der echte Nutzer deine Seite erlebt.
| Metrik | Was sie misst | Gut | Verbesserungswürdig | Schlecht |
|---|---|---|---|---|
| LCP (Largest Contentful Paint) | Ladezeit des größten sichtbaren Elements | ≤ 2,5 s | 2,5–4,0 s | > 4,0 s |
| INP (Interaction to Next Paint) | Reaktionszeit auf Klicks/Tippen/Tastatur | ≤ 200 ms | 200–500 ms | > 500 ms |
| CLS (Cumulative Layout Shift) | Visuelle Stabilität (springende Elemente) | ≤ 0,1 | 0,1–0,25 | > 0,25 |
LCP optimieren: Die häufigsten Blocker sind unkomprimierte Bilder, langsame Server-Antwortzeiten (TTFB) und Render-blockierende CSS- oder JavaScript-Dateien. Die Lösung: Bilder in WebP oder AVIF konvertieren, ein CDN einsetzen, Critical CSS inline laden und nicht benötigtes JavaScript per defer-Attribut verschieben.
INP optimieren: Hier scheitern 43 % — und der Grund ist fast immer JavaScript. Third-Party-Scripts (Analytics, Chat-Widgets, Ad-Skripte), schwere Frameworks und lange Main-Thread-Tasks blockieren die Interaktivität. Code-Splitting, Web Workers und das konsequente Entfernen ungenutzter Scripts sind die wirksamsten Hebel.
CLS optimieren: Springende Elemente frustrieren Nutzer — und kosten dich Punkte. Bilder und Videos brauchen feste width- und height-Attribute im HTML. Werbeplätze brauchen Platzhalter mit reservierter Höhe. Web Fonts brauchen font-display: swap, damit Text nicht springt, wenn die Schriftart nachlädt.
Wichtig: Core Web Vitals sind kein harter Ranking-Faktor wie Content-Relevanz oder Backlinks. Sie funktionieren als Tie-Breaker — bei ansonsten gleichwertigen Seiten gewinnt die schnellere. Aber der indirekte Effekt ist massiv: Websites, die alle drei bestehen, haben 24 % niedrigere Bounce Rates. Weniger Absprünge = mehr Engagement = bessere Nutzersignale = bessere Rankings.
Den kompletten Deep-Dive mit Optimierungsanleitungen findest du hier: Core Web Vitals 2026.
Google schaut auf dein Smartphone. Nur auf dein Smartphone.
Seit 2021 gilt Mobile-First Indexing als Standard. Das bedeutet: Google crawlt und indexiert ausschließlich die Mobile-Version deiner Website. Die Desktop-Version? Irrelevant für die Indexierung. Wenn dein Content auf dem Smartphone anders aussieht, weniger Informationen zeigt oder langsamer lädt — dann rankt diese eingeschränkte Version.
Was das konkret heißt:
<meta name="viewport" content="width=device-width, initial-scale=1"> — ohne diesen Tag rendert der Browser die Desktop-Version in Briefmarkengröße.Der einfachste Test: Öffne deine wichtigsten Seiten auf deinem Smartphone. Kannst du alles lesen, ohne zu zoomen? Kannst du jeden Button treffen, ohne daneben zu tippen? Lädt die Seite in unter 3 Sekunden? Wenn dreimal ja — gut. Wenn nicht: Das ist dein nächster Hebel.
Wir prüfen deine Website kostenlos.
In unserer SEO-Analyse checken wir die technische Basis deiner Website: Core Web Vitals, Crawl-Fehler, Indexierungsprobleme, Mobile-Performance, Schema Markup. Du bekommst eine klare Einschätzung — was funktioniert, wo die größten Hebel liegen und was als Nächstes passieren muss.
Kein Verkaufsgespräch. Keine Verpflichtung. Einfach Klarheit über den Status quo.
→ Jetzt kostenlosen Technik-Check anfordern
Drei Klicks. Mehr sollte keine Seite brauchen.
Die Seitenarchitektur bestimmt, wie Google (und deine Besucher) durch deine Website navigieren. Flache Hierarchie bedeutet: Jede wichtige Seite ist in maximal 2–3 Klicks von der Homepage erreichbar. Je tiefer eine Seite in der Struktur versteckt ist, desto weniger Crawl Budget erreicht sie — und desto weniger PageRank fließt durch.
Flache Struktur aufbauen:
Breadcrumbs — dein Positions-Anzeiger:
Breadcrumbs zeigen dem Nutzer und Google die Position in der Seitenstruktur. Startseite → Blog → Technisches SEO. Sie unterstützen die interne Verlinkung, verteilen Keywords und können als Rich Snippet in den Suchergebnissen erscheinen — wenn du BreadcrumbList-Schema implementierst.
Heading-Hierarchie:
Die Überschriftenstruktur ist Teil der Architektur. Genau eine H1 pro Seite (mit Haupt-Keyword). Dann H2 → H3 → H4 ohne Sprünge. Google nutzt Headings, um den Inhalt zu verstehen. Und KI-Systeme lieben sie: Seiten mit sauberer Heading-Hierarchie haben eine 2,8× höhere Wahrscheinlichkeit, in KI-Antworten zitiert zu werden.
Die komplette Verlinkungsstrategie: Interne Verlinkung.
Kein HTTPS, kein Vertrauen.
Google hat HTTPS bereits 2014 zum Ranking-Signal erklärt. Chrome markiert Seiten ohne SSL-Verschlüsselung als „Nicht sicher“ — mit rotem Warnhinweis in der Adressleiste. Für den Nutzer bedeutet das: Finger weg. Für dich: verlorene Besucher, verlorene Anfragen.
Die HTTPS-Checkliste:
Ein häufiger Fehler nach der Umstellung: Interne Links zeigen noch auf HTTP-URLs. Das erzeugt Redirect-Ketten (HTTP → HTTPS) und verschwendet Crawl Budget. Nach jeder HTTPS-Migration: Alle internen Links aktualisieren.
Und noch ein Punkt: Wenn du deine Website komplett neu aufbaust, lies vorher die Relaunch-SEO-Checkliste. Technische Fehler bei Relaunches sind der häufigste Grund für plötzlichen Ranking-Verlust.
Maschinen lesen keinen Fließtext. Sie lesen Code.
Schema Markup sind strukturierte Daten, die Suchmaschinen und KI-Systemen sagen, was deine Inhalte bedeuten — nicht nur, welche Wörter drinstehen. Google versteht: Das ist ein Unternehmen, das ist eine Dienstleistung, das ist eine FAQ, das ist ein Blogartikel. Und zeigt dafür Rich Snippets in den Suchergebnissen: Sternebewertungen, FAQ-Dropdowns, Breadcrumb-Pfade.
JSON-LD ist der Standard:
Google empfiehlt JSON-LD (JavaScript Object Notation for Linked Data) über Microdata oder RDFa. Du fügst ein <script type="application/ld+json">-Block im Head oder Body ein — ohne den sichtbaren HTML-Code zu verändern.
Pflicht-Schema-Typen für Unternehmenswebsites:
Der GEO-Effekt:
Schema Markup ist nicht nur für Google-Suchergebnisse relevant. KI-Systeme wie ChatGPT, Perplexity und Google AI Overviews nutzen strukturierte Daten, um Inhalte zu verstehen und zu zitieren. Seiten mit Schema Markup und sauberer Heading-Hierarchie haben eine 2,8× höhere Wahrscheinlichkeit, als Quelle in KI-Antworten zu erscheinen.
Validierung: Google Rich Results Test (Einzelseiten) und Schema.org Validator (Syntax). Teste jede Seite nach der Implementierung — ein Tippfehler reicht, damit Google das gesamte Schema ignoriert.
50–80 % des Contents einer SPA sind für Bots unsichtbar.
Single Page Applications (SPAs) mit Client-Side Rendering — also Frameworks wie React, Angular oder Vue ohne Server-Side Rendering — liefern dem Browser ein leeres HTML-Dokument. Erst JavaScript baut den Content zusammen. Das funktioniert für Nutzer. Für den Googlebot nicht immer.
Google kann JavaScript rendern. Aber mit Verzögerung. Der Bot crawlt zuerst das HTML, verarbeitet das JavaScript in einer separaten Rendering-Queue — und das kann Tage bis Wochen dauern. Während dieser Zeit sieht Google eine leere Seite.
Die Lösung: Server-Side Rendering (SSR).
SSR liefert dem Bot (und dem Nutzer) fertig gerenderten HTML-Code. Der Content ist sofort lesbar, ohne JavaScript-Ausführung. Frameworks wie Next.js (React) und Nuxt.js (Vue) machen SSR einfach. Eine Alternative: Static Site Generation (SSG) — Seiten werden beim Build-Prozess gerendert und als statische HTML-Dateien ausgeliefert.
Schnelltest: Öffne deine Website, rechtsklick → Seitenquelltext anzeigen. Wenn du dort deinen Content siehst — alles gut. Wenn du nur <div id="app"></div> und JavaScript-Verweise siehst, ist dein Content für Bots möglicherweise unsichtbar. In Google Search Console unter „URL prüfen → Live-URL testen“ siehst du, was Google tatsächlich rendert.
Ein falscher Redirect kostet dich dein Ranking.
301 vs. 302 — der entscheidende Unterschied:
Ein 301-Redirect ist permanent. Er sagt Google: „Diese Seite ist dauerhaft umgezogen. Übertrage alle Ranking-Signale auf die neue URL.“ Ein 302-Redirect ist temporär: „Die Seite ist vorübergehend woanders — aber die Ranking-Signale bleiben bei der alten URL.“ Wer nach einem Relaunch oder einer URL-Änderung einen 302 statt 301 setzt, verschenkt Link-Equity.
Faustregel: Ist die Weiterleitung dauerhaft? → 301. Ist es ein A/B-Test oder ein temporärer Maintenance-Redirect? → 302.
Redirect-Ketten vermeiden:
A → B → C → D — das ist ein Problem. Jeder Hop kostet Crawl Budget und kann Ranking-Signale verdünnen. Maximum: Ein Redirect. Alte URL → neue URL. Fertig. Bei einem Website Relaunch ist das die kritischste Aufgabe: Jede alte URL direkt auf die korrekte neue URL mappen.
Duplicate Content beseitigen:
Duplicate Content entsteht durch URL-Parameter (?sort=price&color=blue), HTTP/HTTPS-Varianten, www/non-www, Pagination, Print-Versionen und Session-IDs. Google straft Duplikate nicht direkt ab — aber es teilt die Ranking-Signale auf alle Versionen auf. Statt einer starken Seite hast du fünf schwache.
Die Lösungen in der Reihenfolge der Wirksamkeit:
Ohne hreflang zeigt Google die falsche Sprachversion.
Wenn deine Website mehrere Sprach- oder Länderversionen hat — deutsch, englisch, österreichisch — sagt das hreflang-Tag Google, welche Version für welche Nutzer bestimmt ist. Ohne hreflang entscheidet Google selbst. Und das geht oft schief: Deutsche Nutzer sehen die englische Version, Schweizer die deutsche statt der schweizerdeutschen.
Implementierung (drei Optionen):
<link>-Tag im Head (am häufigsten)Die drei häufigsten Fehler:
Hreflang ist nur für Websites mit echten Sprachvarianten relevant. Eine rein deutschsprachige Website braucht kein hreflang. Aber sobald du eine zweite Sprache oder ein zweites Land bedienst, ist es Pflicht.
15 Prüfpunkte. Dein technisches SEO in 30 Minuten checken.
Diese Checkliste fasst die wichtigsten technischen SEO-Faktoren zusammen. Geh sie Punkt für Punkt durch — jedes „Nein“ ist ein Hebel für bessere Rankings:
Tools für den Check:
Wenn dir die Zeit fehlt oder das technische Know-how: Eine SEO-Agentur übernimmt den technischen Audit für dich — inklusive Priorisierung und Umsetzung. Was das kostet, hängt vom Status quo ab.
Technisches SEO umfasst alle Maßnahmen, die sicherstellen, dass Suchmaschinen deine Website crawlen, indexieren und schnell ausliefern können. Dazu gehören Ladezeit-Optimierung (Core Web Vitals), Crawlability (robots.txt, XML-Sitemap), Mobile-Optimierung, HTTPS, strukturierte Daten (Schema Markup) und eine saubere Seitenarchitektur. Technisches SEO ist das Fundament — ohne es kann On-Page und Off-Page SEO nicht wirken.
Drei Metriken: LCP (Largest Contentful Paint) ≤ 2,5 Sekunden, INP (Interaction to Next Paint) ≤ 200 Millisekunden und CLS (Cumulative Layout Shift) ≤ 0,1. INP hat seit März 2024 First Input Delay ersetzt und ist der häufigste Schwachpunkt — 43 % aller Websites scheitern daran. Websites, die alle drei bestehen, haben 24 % niedrigere Bounce Rates. Vertiefung: Core Web Vitals 2026.
Google indexiert seit 2021 ausschließlich die Mobile-Version deiner Website. Die Desktop-Version spielt für die Indexierung keine Rolle mehr. Wenn dein Content auf Mobile fehlt, anders dargestellt wird oder langsamer lädt, rankt diese eingeschränkte Version. Responsive Design, lesbare Schriftgrößen (min. 16px) und ausreichend große Touch-Targets (min. 48×48px) sind Pflicht.
In der Google Search Console unter „Seiten“ → Indexierungsbericht. Dort siehst du, welche URLs indexiert sind, welche nicht — und warum. „Gecrawlt — derzeit nicht indexiert“ bedeutet: Google hat die Seite gefunden, hält sie aber nicht für indexwürdig. Die häufigsten Gründe: Thin Content, Duplicate Content, fehlende interne Links. Ein kompletter Ablauf: SEO-Audit Checkliste.
Ja. Eine XML-Sitemap ist kein Ranking-Faktor, aber sie hilft Google, alle wichtigen URLs deiner Website zu finden — besonders solche, die über die interne Linkstruktur schwer erreichbar sind. Maximum: 50.000 URLs pro Sitemap. Bei Google Search Console und Bing Webmaster Tools einreichen. Keine 404-Seiten, keine noindex-URLs und keine Redirects in die Sitemap aufnehmen.
robots.txt blockiert das Crawling — der Bot besucht die Seite gar nicht erst. noindex blockiert die Indexierung — der Bot darf die Seite besuchen, nimmt sie aber nicht in den Index auf. Wichtig: Wenn du eine Seite per robots.txt blockierst, kann Google das noindex-Tag nicht lesen. Für die Indexierungskontrolle brauchst du noindex. Für die Crawl-Steuerung robots.txt. Vertiefung für KI-Crawler: robots.txt für KI-Crawler.
Schema Markup ist kein direkter Ranking-Faktor, aber es hat drei messbare Effekte: (1) Rich Snippets in den Suchergebnissen (FAQ-Dropdowns, Breadcrumbs, Sternebewertungen) erhöhen die Klickrate. (2) Google versteht den Inhalt besser — weniger Missverständnisse bei der Indexierung. (3) KI-Systeme nutzen Schema-Daten bevorzugt: Seiten mit sauberem Schema haben 2,8× höhere Wahrscheinlichkeit, in KI-Antworten zitiert zu werden. Mehr: Schema Markup für GEO.
Mindestens einmal pro Quartal ein vollständiges Audit. Nach jedem Relaunch, CMS-Update oder größeren Content-Änderungen sofort. Die Google Search Console solltest du wöchentlich auf neue Crawl-Fehler und Indexierungsprobleme prüfen — das dauert 5 Minuten und verhindert, dass sich Probleme aufstauen. Den kompletten Prozess: SEO-Audit Checkliste.
Die Basics ja: HTTPS einrichten, XML-Sitemap erstellen, Bilder komprimieren, Canonical Tags setzen. Für komplexere Themen wie Core-Web-Vitals-Optimierung, Server-Side Rendering, Log-File-Analyse oder Schema-Implementierung brauchst du technisches Know-how oder eine spezialisierte Agentur. Was das kostet: SEO-Kosten 2026.
Technisches SEO ist die Voraussetzung für GEO (Generative Engine Optimization). KI-Systeme können nur Content zitieren, den sie crawlen und verstehen können. Sauberes Schema Markup, klare Heading-Hierarchie, erlaubte KI-Crawler in der robots.txt — all das macht deine Inhalte maschinenlesbar. Ohne technische Basis keine KI-Sichtbarkeit. Die vollständige Strategie: SEO und GEO kombinieren.